Справка - Поиск - Участники - Войти - Регистрация
Полная версия: Вычислительная мощность человеческого мозга
Частный клуб Алекса Экслера > Наука и техника
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43
Poodle
7 мая 2013, 17:39

Rendom написал:
Вряд ли там все так тривиально.

На уровне отдельных нейронов все именно что тривиально. Нейрон (см. ссылку Мартина) имеет N входов, на которые поступают бинарные сигналы с других нейронов. Взвешенная сумма сигналов превращается в бинарную же величину и отправляется на входы М нейронов. Все.
А вот дальше действительно возникает ряд совершенно нетривиальных вопросов - сколько надо нейронов, какие с какими соединять (топология) и как все это заставить делать что-либо осмысленное (обучение)...
Лис
8 мая 2013, 02:48

Poodle написал:
На уровне отдельных нейронов все именно что тривиально. Нейрон (см. ссылку Мартина) имеет N входов, на которые поступают бинарные сигналы с других нейронов. Взвешенная сумма сигналов превращается в бинарную же величину и отправляется на входы М нейронов. Все.
А вот дальше действительно возникает ряд совершенно нетривиальных вопросов - сколько надо нейронов, какие с какими соединять (топология) и как все это заставить делать что-либо осмысленное (обучение)...

Это классическая и очень упрощенная модель нейронов и нейронных сетей - гораздо более нетривиальное поведение демонстрирует более реалистичная, т.н. модель spiking neurons где приняты во внимание временные задержки происходящих процессов, см. например http://en.wikipedia.org/wiki/Spiking_neural_network или http://www.izhikevich.org/publications/spikes.htm (англ.)
Poodle
8 мая 2013, 03:28

Лис написал:
Это классическая и очень упрощенная модель нейронов и  нейронных сетей - гораздо более нетривиальное поведение демонстрирует  более реалистичная,  т.н. модель spiking neurons где приняты во внимание временные задержки происходящих процессов

Так с этим никто и не спорит, речь идет вроде как об упомянутом Мартином IBM'овском проекте, а там особо деталей не раскрывают, упираю гигабайты с гигагерцами. Чтобы судить о том что за модель они применяют данных маловато.
Вот с их блога:
We have not built a biologically realistic simulation of the complete human brain. Rather, we have simulated a novel modular, scalable, non-von Neumann, ultra-low power, cognitive computing architecture.
...
Computation ("neurons"), memory ("synapses"), communication ("axons", "dendrites") are mathematically abstracted away from biological detail towards engineering goals

   Спойлер!
Мы построили не биологически реалистичный симулятор всего человеческого мозга. Скорее мы смоделировали новую модульную масштабируемую когнитивную не фон Неймановскую архитектуру с ультра-низким энергопотреблением.
...
Вычисления (нейроны), память (синапсы) и связи (аксоны и дендриты) математически абстрагированы от билогических деталей в пользу инженерных целей.


Ну и кортынко красивое...
user posted image
nezachem
8 мая 2013, 09:36

Poodle написал:а там особо деталей не раскрывают

user posted image

32 килобайта памяти. 1024 gpio. 256 сумматоров. И под это шесть квадратных миллиметров? Точно, что-то скрывают.

Кстати, как клок разведен?
cruizer
13 мая 2013, 13:28

v-groove написал:  Оцениваемое число связей между нейронами (именно связей, а не нейронов) человеческого мозга имеет примерно порядок 10^(14-15). Так что количественно симуляция IBM сопоставима как по числу нейронов, так и по количеству связей между ними.

Да, ты прав. Грубо говоря, нужно по одной операции на связь.


v-groove написал: Верно. На самом деле в реальном мозге тоже наблюдается нечто подобное. Т.е. там не просто каждый нейрон случайным образом связан с другими нейронами по всему объему мозга. Там точно так же отдельные множества нейронов объединяются в более крупные блоки и связи внутри блока более многочисленны, чем вовне. В кортексе нейроны группируются в т.н. микроколонки кортекса. Каждая вертикальная микроколонка содержит порядка 80-100 нейронов, разделенных на 6 слоев . В свою очередь, микроколонки организованы в более крупные структуры – гиперколонки (кортикальные модули), которые содержат, в свою очередь, по 50-100 микроколонок. И т.д. При этом, повторюсь, как правило, на каждом таком уровне внутримодульные связи являются более плотными и многочисленными, чем связи межмодульные.

Это уже интереснее. Было бы интересно сравнить, насколько граф связей модели отличается от реальной сети, и насколько реальный нейрон сложнее компьютерной модели
Или можно попробовать создать функциональную модель таких колонок. Может так получиться, что моделировать на более высоком уровне окажется намного эффективнее, чем на уровне отдельных нейронов.


v-groove написал: По многим параметрам отличается, да. Но её и не надо воспроизводить одни в один. Это вот в «Human Brain Project» такая задача стоит. Но там и цель – изучение и моделирование именно человеческого мозга. Как ни странно, но прямой задачи построения ИИ там нет, только косвенная. А тем, кто строит ИИ, тем смотреть в сторону человеческого мозга полезно и важно, но в точности копировать его совсем не обязательно. Вполне возможно, что существуют гораздо более эффективные архитектуры и алгоритмы, решающие те же задачи, что и биологический мозг.

Существуют, конечно. Многие алгоритмы распознавания обходятся без нейронных сетей. Вопрос в том, какую задачу должна решать "полная" модель мозга. Похоже, ещё никто это чётко не сформулировал.


v-groove написал: Нет там экспоненциального роста. Даже если взять гипотетический предельный случай, когда каждый нейрон имеет связь со всеми остальными нейронами, то даже в этом случае будет лишь квадратичный рост числа соединений от числа нейронов. А по факту, рост вообще можно считать примерно линейным (т.е. число нейронов, с которым может быть соединен другой нейрон, имеет некоторый верхний предел, не зависящий от общего числа нейронов).

Насчёт экспоненциального роста я переврал smile.gif Квадратичный, конечно. Даже если линейный, всё равно слишком сложно получается. Очень плохо структура нейронной сети реализуется на фон-Неймановской архитектуре, поэтому большие модели на обычных суперкомпьютерах по реальной производительности намного отстают от их теоретической, пиковой производительности.
cruizer
13 мая 2013, 13:35

nezachem написал:
32 килобайта памяти. 1024 gpio. 256 сумматоров. И под это шесть квадратных миллиметров? Точно, что-то скрывают.

Кстати, как клок разведен?

Возможно, тут секрет в параллельном доспупе к памяти. Если мы хотим, чтобы 256 нейронов - сумматоров работали параллельно, придётся жутко сложно организовывать доступ к памяти. Или хранить состояние нейрона рядом с сумматором, но тогда придётся отказаться от отдельного блока RAM. Не знаю насколько удобно это реализуется технологически - можно ли эффективно разместить ячейки памяти среди активных элементов?
Poodle
14 мая 2013, 00:23

cruizer написал:
Возможно, тут секрет в параллельном доспупе к памяти. Если мы хотим, чтобы 256 нейронов - сумматоров работали параллельно, придётся жутко сложно организовывать доступ к памяти. Или хранить состояние нейрона рядом с сумматором, но тогда придётся отказаться от отдельного блока RAM. Не знаю насколько удобно это реализуется технологически - можно ли эффективно разместить ячейки памяти среди активных элементов?

Так они и сказали, что у них архитектура не неймановская.
Crux
15 мая 2013, 18:41
А какими знаниями будут накачивать IBMовскую нейронную сеть?
Martin
17 мая 2013, 15:12

Crux написал: А какими знаниями будут накачивать IBMовскую нейронную сеть?

Хороший вопрос. smile.gif
Martin
19 мая 2013, 15:25

Martin написал: Еще там требуется знание C++/Java, а я - не программист и не хочу быть им.

Кстати, вчера Google закрыл петербургский и харьковский офис разработки купленного им год назад QuickOffice, более 100 разработчиков и тестировщиков ищут работу — без предупреждений и без выплат разорваны все контракты. Так что рискованно соглашаться на абы какую работу в Google - можно легко оказаться безработным, ищущим работу в другой компании.
Poodle
19 мая 2013, 18:29

Martin написал:
рискованно соглашаться на абы какую работу в Google - можно легко оказаться безработным, ищущим работу в другой компании.

И более того, такое может произойти и на не "абы какой работе" и не только в одном Гугле.
Ваш КО.
Голубая Собака
19 мая 2013, 20:46
Да любой проект может схлопнуться. Гарантий никаких никто не даст (особенно у нас, да и не у нас случаются всякие события... и компании разоряются, и проекты не выстреливают). Что ж теперь? Как-нибудь да куда-нибудь прорвемся.
Poodle
19 мая 2013, 20:55

Голубая Собака написала: Да любой проект может схлопнуться. Гарантий никаких никто не даст (особенно у нас, да и не у нас случаются всякие события... и компании разоряются, и проекты не выстреливают). Что ж теперь? Как-нибудь да куда-нибудь прорвемся.

Ну конкретно в данном случае Гугель, похоже, просто прихлопнул конкурента таким окологуманным способом.
smile.gif
Голубая Собака
19 мая 2013, 22:29

Poodle написал:
Ну конкретно в данном случае Гугель, похоже, просто прихлопнул конкурента таким окологуманным способом.
smile.gif

Да там разное вон в комментариях говорят. А правду знают, наверно, только в Гугле.
Лис
19 мая 2013, 23:00


наверное деньги экономят для покупки вот этого:

http://bits.blogs.nytimes.com/2013/05/16/g...antum-computer/


Будут делать ИИ посредством квантового компьютера...
cruizer
20 мая 2013, 00:06


Похоже, что все эти люди именно на гугл никогда и не работали. А случится такое может где угодно и на любой должности, да.
Голубая Собака
20 мая 2013, 01:16

Лис написал: наверное деньги экономят для покупки вот этого:

Эх... а ведь могли бы рекламу какую разместить в поисковике да картах... или по копейке денег бы с пользователей собирали. Глядишь, и ПиСишник новый бы купили, и никого бы не выгоняли.
Poodle
20 мая 2013, 02:54

Голубая Собака написала:
Да там разное вон в комментариях говорят. А правду знают, наверно, только в Гугле.

Да естественно, просто название - QuickOffice - сразу навевает мысли о GoogleDocs...
wink.gif
Martin
20 мая 2013, 13:40

Poodle написал: И более того, такое может произойти и на не "абы какой работе" и не только в одном Гугле.
Ваш КО.


cruizer написал: А случится такое может где угодно и на любой должности, да.

Вот поэтому опрометчиво поступать на работу в Гугл программистом, с расчетом на то, что будешь заниматься научной работой. Лучше сразу заняться научной работой, сделать хорошие публикации (например, Курцвейл опубликовал книгу), а потом уже предлагать себя Гуглу.
Daemonis
20 мая 2013, 13:46

Martin написал:

Вот поэтому опрометчиво поступать на работу в Гугл программистом, с расчетом на то, что будешь заниматься научной работой. Лучше сразу заняться научной работой, сделать хорошие публикации (например, Курцвейл опубликовал книгу), а потом уже предлагать себя Гуглу.

Угу, быть богатым и здоровым всегда лучше smile.gif
cruizer
20 мая 2013, 14:02

Martin написал:

Вот поэтому опрометчиво поступать на работу в Гугл программистом, с расчетом на то, что будешь заниматься научной работой. Лучше сразу заняться научной работой, сделать хорошие публикации (например, Курцвейл опубликовал книгу), а потом уже предлагать себя Гуглу.

Что, по твоему, значит "заниматься научной работой", и где ей следует заниматься? Писать статьи и книги - это же не главное, надеюсь ты понимаешь.
Голубая Собака
20 мая 2013, 16:41

Poodle написал:
Да естественно, просто название - QuickOffice - сразу навевает мысли о GoogleDocs...
wink.gif

Мне хорошо. Я презренный гуманитарий, и мне из вышеназванного ничего ничто не навевает.
Мне скорее их Транслейт навеет мысли о том, что скоро для толмачей наступит полная Матрица... Но это соображение уже очень и очень далеко от темы.


Martin написал:
например, Курцвейл опубликовал книгу

Ну вообще-то он сначала написал программу (и не одну даже).
Если мне не изменяет склероз.

А потом уже написал книгу (а потом еще книгу...)

Много кто пишет книги. Но не всех от этого приглашают в Гугл (АйБиэМ, Майкрософт и прочий Газпром)... я уж не говорю о том, чтобы свою компанию раскрутить или свой продукт создать и кого-то им заинтересовать.
Martin
27 мая 2013, 16:59

cruizer написал: Что, по твоему, значит "заниматься научной работой", и где ей следует заниматься? Писать статьи и книги - это же не главное, надеюсь ты понимаешь.

Вообще-то опубликованные научные статьи, книги и защищенные диссертации - это то, что может характеризовать ученого. Если, конечно, его работа не засекречена в оборонном ведомстве или не является коммерческой тайной.

Голубая Собака написала: Ну вообще-то он сначала написал программу (и не одну даже).
Если мне не изменяет склероз.
А потом уже написал книгу (а потом еще книгу...)

Однако его пригласили в Гугл отнюдь не как программиста. wink.gif Его пригласил на работу Ларри Пейдж как раз на презентации его книги "How to Create a Mind".
cruizer
28 мая 2013, 00:30

Martin написал:
Вообще-то опубликованные научные статьи, книги и защищенные диссертации - это то, что может характеризовать ученого. Если, конечно, его работа не засекречена в оборонном ведомстве или не является коммерческой тайной.

Сначала работать надо, получать результаты. Тогда будет про что статьи и диссертации писать. Почему-то я уверен, что достижения в области ИИ скорее появятся в Гугле чем в универе местного значения.


Martin написал: Однако его пригласили в Гугл отнюдь не как программиста. wink.gif Его пригласил на работу Ларри Пейдж как раз на презентации его книги "How to Create a Mind".

У него много достижений, не за одну книгу его в гугл взяли. В молодости он реальные вещи делал и большие деньги зарабатывал, начиная практически с первого курса. Это сейчас он больше книги пишет да предсказаниями занимается.
Голубая Собака
28 мая 2013, 02:02

Martin написал: Однако его пригласили в Гугл отнюдь не как программиста. wink.gif Его пригласил на работу Ларри Пейдж как раз на презентации его книги "How to Create a Mind".

Слушай, если я напишу книгу (хоть с каким названием), единственное, куда меня могут взять - это в книжный магазин. Консультантом в отдел фантастики. Даже не кассиром. И то... может и туда по конкурсу не пройду.

А всё потому, что я в около-компьютерных делах никто. И звать никак. У меня практической базы никакой нет. Моя книга, пусть даже сто раз правильная, ни на чем не основана. За словами там ничего нет. Какой тут Гугль? (я рискую всю эту вашу Сингулярность проспать) 3d.gif

На самом деле похоже, что Курцвейл знает, что он пишет. И именно потому, что сам начинал не с написания книг, а с долгой-долгой разработки программных продуктов. Которые пошли затем в люди. А уже потом, много позже, были книги с приглашениями в боссы.
Crux
28 мая 2013, 15:38
Фирму Numenta переименовали в Grok. По названию их основной программы ИИ. Саму программу они описывают так: "Вам не нужно быть экспертом в области баз данных, чтобы использовать Grok или приложения к нему. До тех пор, пока вы будете понемногу рассказывать Grok'у о вашей базе данных и о вашей проблеме, Grok будет выполнять за вас всю тяжелую интеллектуальную работу".
Голубая Собака
28 мая 2013, 18:04

Crux написал: Grok будет выполнять за вас всю тяжелую интеллектуальную работу".

Эх, еще бы балкон она мне покрасила 3d.gif
Alex Lonewolf
28 мая 2013, 19:41

Crux написал: Фирму Numenta переименовали в Grok. По названию их основной программы ИИ. Саму программу они описывают так: "Вам не нужно быть экспертом в области баз данных, чтобы использовать Grok или приложения к нему. До тех пор, пока вы будете понемногу рассказывать Grok'у о вашей базе данных и о вашей проблеме, Grok будет выполнять за вас всю тяжелую интеллектуальную работу".

Проектирование БД уже давно стало столь рутинной задачей, что вряд ли какой-либо заказчик сможет придумать в этой области принципиально новую проблему.

Чем будет отличаться САПР БД, от скажем САПР автомобиля?

Понимание естественного языка и преобразование его в формализованные запросы ни разу не ИИ.
v-groove
29 мая 2013, 13:42
С Курцвейлем, думаю, все проще. Он очень хороший и опытный практик. Его идей реализовывались им в виде конечных коммерческих продуктов, для чего он за свою жизнь организовал несколько компаний. Собственно, он сам рассказывал, что для реализации идей в области AI он намеревался так же, по своему обыкновению, создать компанию. Если бы его не пригласили в Google, он все равно занимался бы тем же самым самостоятельно. Про работу в Гугле он говорит, что это вообще чуть ли не первый раз за всю его жизнь, когда он является наемным сотрудником, а не работает на свою собственную компанию. Ну и Гугл, будучи прагматичной коммерческой компанией, просто решил, что выгодней и дешевле нанять Курцвейля, чем потом покупать его фирму с их наработками, как они частенько поступают в других случаях (не стесняясь таким образом даже давить конкурентов, см. выше про QuickOffice). А Курцвейлю, в свою очередь, это тоже выгодно, потому как благодаря Гуглу ему сразу предоставляются довольно больше ресурсы на свои планы, чем если бы он занимался этим самостоятельно.
v-groove
29 мая 2013, 13:57
Ну и про IBM и про его нейрочип, так, небольшие подробности. Чип, как уже говорилось, действительно не фон-неймановской архитектуры, и в целом нацелен на воспроизведение работы биологических аналогов. Модель нейрона, которую он реализует, это одна из биологических моделей, а именно "leaky integrate-and-fire" нейрон. Количественно у чипа порядка 3.8 млн. транзисторов и очень низкое энергопотребление. На самом деле этот чип, это лишь промежуточный шаг. На первом этапе на одном чипе физически реализовано только одно т.н. "нейросинаптическое ядро" (neurosynaptic core). Это как раз тот самый блок из 256 нейронов. Следующий этап программы, это уже упаковка в одном физическом чипе порядка ~4000 нейросинаптических ядер (соответственно ~1 млн. нейронов). По плану такой чип должен быть представлен IBM в этом году, так что ждем в ближайшее время новостей.

Что касается того, для чего это делается, то, на сколько я понимаю, непосредственная цель программы, в рамках которой проходят эти работы и финансирование, это создание управляющих компонентов на основе архитектуры похожей на биологический мозг млекопитающих. Использоваться это предполагается в роботах. Робот должен быть способен в реальном времени осуществлять ориентирование в пространстве, управлять движениями своих "конечностей", планировать и выполнять некоторые простейшие последовательности действий, иметь зрение, слух, способность распознавать образы и т.д. на уровне мозга крысы или кошки. При этом все это не должно потреблять много энергии. Т.е. это те задачи, которые мозг млекопитающих, в том числе и человека, выполняет скорее на автоматическом, подсознательном уровне (каковые задачи все равно относятся к области AI), а вовсе не для того AI, который предназначен для проверок на тесте Тьюринга.

Вопрос о том, где это можно использовать еще, кроме заявленных целей, зависит уже только от фантазии разработчиков. Начиная от мобильных телефонов и каких-нибудь гугло-очков, где такие чипы можно применять для ускорения выполнения задач, которые медленно реализуются на обычных процессорах (к примеру, те же задачи распознавания изображений и звуков), и кончая исследованиями в области создания гипотетических мощных AI уровня человека и выше. Мне видится примерно так.
Martin
29 мая 2013, 14:34
Вообще в области AI уже давно говорится о том, что необходимо отказаться от фон-неймановской архитектуры и переходить на нейроно-подобные схемы.
Martin
29 мая 2013, 19:37

v-groove написал: А Курцвейлю, в свою очередь, это тоже выгодно, потому как благодаря Гуглу ему сразу предоставляются довольно больше ресурсы на свои планы, чем если бы он занимался этим самостоятельно.

Вроде бы его наработки будут использоваться в Knowledge Graph.
Martin
29 мая 2013, 22:19

v-groove написал: Что касается того, для чего это делается, то, на сколько я понимаю, непосредственная цель программы, в рамках которой проходят эти работы и финансирование, это создание управляющих компонентов на основе архитектуры похожей на биологический мозг млекопитающих. Использоваться это предполагается в роботах. Робот должен быть способен в реальном времени осуществлять ориентирование в пространстве, управлять движениями своих "конечностей", планировать и выполнять некоторые простейшие последовательности действий, иметь зрение, слух, способность распознавать образы и т.д. на уровне мозга крысы или кошки.

Интересно, как будет происходить обучение таких нейронных сетей?
Poodle
30 мая 2013, 08:59

Martin написал:
Интересно, как будет происходить обучение таких нейронных сетей?

За ошибки будут напряжение питания снижать. А за успехи - поднимать.
3d.gif
А вообще, вопрос, конечно, интересный - насколько там теория с практикой согласуется. Навевает воспоминания об "Электрибальде" лемовского Трурля...
Crux
30 мая 2013, 13:41

Alex Lonewolf написал:
Понимание естественного языка и преобразование его в формализованные запросы ни разу не ИИ.

По Хокинсу, интеллект = предсказание. А обработчик потоковых данных Grok как раз предсказаниями и занимается.
Martin
30 мая 2013, 17:20
Вот, кстати, история о том, как один чувак, не имея высшего образования, получил работу в Google: 4 шага на пути в Google, не имея высшего образования.
cruizer
30 мая 2013, 18:15

Martin написал: Вот, кстати, история о том, как один чувак, не имея высшего образования, получил работу в Google: 4 шага на пути в Google, не имея высшего образования.

Молодец чувак. Сам научился тому, что 80% выпускников не знает и сделать не может. Из гугла он уже ушёл smile.gif
Martin
3 июня 2013, 21:15
Еще одно сообщение про Compreno от ABBYY.
Голубая Собака
5 июня 2013, 16:33
Martin, ну как я и говорила. Некоторым гражданам пора паковать чемоданы и слезно проситься в машину времени, чтобы перенесли лет на 20 назад... нет, лет на 10, когда уже компьютеры были, но толмачам в спину никто не дышал со страшной силой.

Что-то мне очень сильно подсказывает, что приличный переводчик (хотя бы с письменного на письменный) я увижу уже при своей жизни.
Martin
7 июня 2013, 17:54
Да тут дело не только в переводе. Синтаксический и семантический разбор текстов может пригодиться и при осмысленном поиске текста (Google и Яндекс "поумнеют") и даже в структурировании и поиске в маркетинговых базах данных. Поле применения очень широко.
Crux
7 июня 2013, 19:02
Это отличная программа - Compreno! Она ведь, наверное, и сама в будущем сможет писать тексты? Если так, можно будет автоматизировать, к примеру, выпуски теленовостей. Зачем нужны журналисты? Задаем семантическое поле - кого ругать, кого хвалить, о чем умалчивать - и вперед, на монтаж выпусков!
Голубая Собака
8 июня 2013, 15:21

Martin написал: Да тут дело не только в переводе. Синтаксический и семантический разбор текстов может пригодиться и при осмысленном поиске текста (Google и Яндекс "поумнеют") и даже в структурировании и поиске в маркетинговых базах данных. Поле применения очень широко.

Понятное дело.
Я-то прежде всего новости обкатываю применительно к своей специализации. Где анализ текстов - там и до перевода рукой подать. Еще к этому всему прикрутить самообучалку какую-нибудь продвинутую, да базу common sense... и неровен час, не поймешь, с кем в форуме время убиваешь - с живым человеком или с собственным компом 3d.gif
Голубая Собака
8 июня 2013, 15:29

Crux написал: Это отличная программа - Compreno! Она ведь, наверное, и сама в будущем сможет писать тексты? Если так, можно будет автоматизировать, к примеру, выпуски теленовостей. Зачем нужны журналисты? Задаем семантическое поле - кого ругать, кого хвалить, о чем умалчивать - и вперед, на монтаж выпусков!

Уже.

Уже на каком-то из буржуйских новостных сайтов есть бот, позволяющий писать тексты новостей. Правда пока там биржевые сводки и какой-то спорт (не весь). Задаешь, что куда поднялось и опустилось - и вуаля, готовая статья.

Подробностей сейчас не помню, линк благополучно сгинул вместе с офисным компом. Если найду - выложу, это тоже интересно.
Я по этому линку ходила. Не знаю, что там со спортом, а биржевую сводку я лично хуже напишу. Притащила к коллеге, говорю "ну и как тебе тут английский?". Коллега инглиш заценил, а величием момента так и не проникся. Бывает...
Голубая Собака
8 июня 2013, 15:39
А, даже далеко ходить было не надо:

http://www.forbes.com/sites/narrativescience/
Голубая Собака
9 июня 2013, 20:18
Кому надо на русском - вот:
http://lenta.ru/articles/2012/05/18/robot/

Что там народ критикует? Тут если в Традосе хотя бы 80%-ное совпадение исходника из базы и того, что тебе надо - радуешься, как ребенок. А тут вполне себе нормальный текст. Если его, конечно, человеки-журналисты потом не допиливают до нужной кондиции (да если и допиливают - мы вон тоже допиливаем, и все довольны).
Crux
10 июня 2013, 12:54
Все к этому шло. Еще начиная с забвения очерков. Компьютер не сможет написать очерк, а человек - сможет. Но человек становится все более невостребованным.
Голубая Собака
10 июня 2013, 17:19

Crux написал: Еще начиная с забвения очерков.

Чтой-то у меня с когнитивными способностями сегодня...
Это кто очерки забыл? или забвел? или... в общем, не важно. Короче, что там с очерками случилось? biggrin.gif
Crux
10 июня 2013, 19:49
Нету их больше. Выпали из редакционных концепций по всей Украине где-то в конце 90-х и подозреваю, не только в ней.
cruizer
11 июня 2013, 01:44

Голубая Собака написала: Кому надо на русском - вот:
http://lenta.ru/articles/2012/05/18/robot/

Что там народ критикует? Тут если в Традосе хотя бы 80%-ное совпадение исходника из базы и того, что тебе надо - радуешься, как ребенок. А тут вполне себе нормальный текст. Если его, конечно, человеки-журналисты потом не допиливают до нужной кондиции (да если и допиливают - мы вон тоже допиливаем, и все довольны).

Это уже круто.

А существуют ли такие системы, которые сюжеты для таких статей сами умеют придумывать, делая некоторый data mining. Даешь к примеру базу данных с кучей данных по курсу акций, финансовым показателям компаний, мировыми новостями и т.д, а система сама находит интересные взаимосвязи. Например, "при Обаме прибыльность top 10 компаний выросла на 15%", или "во время конфликтов на Ближнем Востоке капитализация таких-то компаний выросла во столько-то раз", или что-нибудь в этом духе. Тут как бы понятно что и как искать, но вручную в поиске "сенсаций" большие объемы перелопатить крайне сложно. Большинство гипотез не подтверждается, но тем интереснее что-нибудь нарыть.
Martin
11 июня 2013, 20:19
Да, компьютерная лингвистика - перспективная специальность.
Дальше >>
Эта версия форума - с пониженной функциональностью. Для просмотра полной версии со всеми функциями, форматированием, картинками и т. п. нажмите сюда.
Invision Power Board © 2001-2016 Invision Power Services, Inc.
модификация - Яро & Серёга
Хостинг от «Зенон»Сервера компании «ETegro»