Справка - Поиск - Участники - Войти - Регистрация
Полная версия: Вычислительная мощность человеческого мозга
Частный клуб Алекса Экслера > Наука и техника
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43
cruizer
19 июля 2013, 02:36

Голубая Собака написала:
А это плохо, да?

Кому как. Знаю человека, который ушел из швейцарского гугла чтобы делать свой стартап. Несколько лет жил без денег временными подработками, зато сейчас преуспел и живет куда лучше и интереснее чем средний программист в гугле smile.gif
cruizer
19 июля 2013, 02:39

Martin написал:
В этом-то вся и проблема. Человеку из Урюпинска максимум что светит - это стать младшим программистом в региональном филиале Гугла. У нас один студент был капитаном сборной университета по программированию, которая заняла 10-е место на международной олимпиаде по программированию (что я считаю неимоверно крутым), теперь он - программист Гугл в Швейцарии. И его диссертация заглохла, потому что у него не хватает времени на написание диссертации - все время отнимает работа. А работа у Рея Курцвейла ему явно не светит, несмотря на то, что он является крутейшим программистом.

Не пойму, почему не светит? Если он интересуется AI и совершенствуется в этой области, то может и пробиться. Да и вопрос не в гугле - если действительно хочется, можно оттуда уйти и найти другую работу по душе.
cruizer
19 июля 2013, 02:55

seho написал:
Чем отличаются фразы:  "Чашку бросили в стену и она сломалось" и "Кувалду бросили в стену и она сломалась" с точки зрения точки зрения компьютера, то есть не учитывая личный жизненный опыт.

Почему компьютер не может учитывать жизненный опыт? В там же гугле столько информации что заменит миллион жизненных опытов.


seho написал:
А затем, что один из феноменов мозга в том, что исходя из того же набора данных мозг может придти парадоксальным с точки зрения мат. логики выводам и эти выводы окажутся правильными. Например сделав допущение не вытекающее из условий задачи.

Компьютер может делать то же самое - предполагать неточность и неоднозначность исходной информации, делать допущения, выдавать вероятностные выводы. Нет ничего такого что может человек но принципиально не может компьютер.
Голубая Собака
19 июля 2013, 05:24

cruizer написал:
Одним синтаксисом здесь не обойтись. Нужно представление о том что такое чашка и стена, и как они могут взаимодействовать. Сделать систему которая будет понимать смысл подобных фраз сложно но в принципе возможно, я не вижу никаких препятствий.

Не, понятно, что по-хорошему все равно надо учить наш ИИ понимать связи между вещами и явлениями. Тогда да, он как-то просчитает вероятности всяких событий (когда у нас стена рухнула, когда у кувалды ручка отлетела, а когда просто чашка разбилась). Но... смыслы им еще долго не разбирать (мы тут пока говорим о гипотетическом ИИ). Хотя бы для начала сделать так, чтоб он "чей туфля - моё" не говорил, потому что куда бы мы ни ходили, все равно упремся в простую человеческую речугу, без которой никуда.
Голубая Собака
19 июля 2013, 05:32

cruizer написал:
Кому как. Знаю человека, который ушел из швейцарского гугла чтобы делать свой стартап. Несколько лет жил без денег временными подработками, зато сейчас преуспел и живет куда лучше и интереснее чем средний программист в гугле smile.gif

Так для этого ж, наверное, идеи должны быть какие-нибудь для стартапа. Что угодно, кроме идеи "в Урюпинске жизни нет".
Martin
19 июля 2013, 18:26

cruizer написал: Кому как. Знаю человека, который ушел из швейцарского гугла чтобы делать свой стартап. Несколько лет жил без денег временными подработками, зато сейчас преуспел и живет куда лучше и интереснее чем средний программист в гугле


Голубая Собака написала: Так для этого ж, наверное, идеи должны быть какие-нибудь для стартапа. Что угодно, кроме идеи "в Урюпинске жизни нет".

А идея этого стартапа имеет отношение к ИИ? wink.gif
cruizer
20 июля 2013, 03:18

Martin написал:

А идея этого стартапа имеет отношение к ИИ? wink.gif

нет, совершенно не имеет
seho
21 июля 2013, 09:37

cruizer написал: Почему компьютер не может учитывать жизненный опыт? В там же гугле столько информации что заменит миллион жизненных опытов.

И у всех он разный, часто прямо противоположный. То есть возникает проблема создания универсальной таблицы жизненного опыта, которою создать крайне не просто учитывая, что обратно у всех опыт разный.

cruizer написал: Компьютер может делать то же самое - предполагать неточность и неоднозначность исходной информации, делать допущения, выдавать вероятностные выводы. Нет ничего такого что может человек но принципиально не может компьютер.

Забыть чашку с микробом на которой плесень выросла и понять что это значит, он тоже может. Или получить яблоком по голове и сделать из этого некий вывод.
Eridanus
21 июля 2013, 10:12

seho написал:
И у всех он разный, часто прямо противоположный. То есть возникает проблема создания универсальной таблицы жизненного опыта, которою создать крайне не просто учитывая, что обратно у всех опыт разный.

Во-первых, не таблицу а граф, а, во-вторых, компьютер, как раз, может (и должен) хранить различный опыт различных людей и выводы делать в соотнесении с накопленными разновидностями опыта.
По отношению к Вашему примеру это может выглядеть так: 98% понимает эту фразу в том смысле, что сломалась стена, 0.5 % - что сломалась кувалда, 1.5% - смысла фразы вообще не понимают.
seho
21 июля 2013, 17:30

Eridanus написал: о отношению к Вашему примеру это может выглядеть так: 98% понимает эту фразу в том смысле, что сломалась стена, 0.5 % - что сломалась кувалда,

А если используются слова для сочетания которых нет предварительного опыта, то надо народ опрашивать. А вот замечательный литературный штамп: "его душа пылала ненавистью" как компьютер будет разбирать и не придём ли мы к "возгоранию неизвестных науке внутренних органов". wink.gif
Rendom
21 июля 2013, 18:57

seho написал: А если используются слова для сочетания которых нет предварительного опыта, то надо народ опрашивать.

Какой народ! Книги надо читать. Там все есть.
Martin
25 июля 2013, 22:46
Курс лекций «Стартап». Питер Тиль. Стенфорд 2012. Занятие 17. Питер Тиль рассказывает про перспективы ИИ, биотеха и возможности коммерциализации ИИ. Очень интересно.
cruizer
25 июля 2013, 22:53

Martin написал: Курс лекций «Стартап». Питер Тиль. Стенфорд 2012. Занятие 17. Питер Тиль рассказывает про перспективы ИИ, биотеха и возможности коммерциализации ИИ. Очень интересно.

Где там про ИИ? Просмотрел, не заметил.
Martin
25 июля 2013, 23:26

cruizer написал:
Где там про ИИ? Просмотрел, не заметил.

Там сразу же первый заголовок:


I. Величие ИИ.
На поверхностном уровне мы склонны думать о людях как о весьма разнообразных существах. Люди имеют широкий набор различных способностей, интересов, характеристик, и обладают различным интеллектом. Какие-то люди хорошие, какие-то плохие. Они действительно разные.


Напротив, компьютеры мы склонны рассматривать как очень схожие. Все компьютеры — это в той или иной степени одинаковые черные ящики. Один из способов думать о диапазоне возможных искусственных интеллектов — это перевернуть стандартные рамки. Возможно, сделать это стоит пару раз; существует гораздо больше потенциально возможных различных ИИ, чем людей на свете.


Существует множество способов описания и организации интеллекта. Не все они включают человеческий интеллект.
Даже принимая в расчет огромное разнообразие умов людей, человеческий разум, возможно, — всего лишь небольшая точка по отношению ко всем эволюционным формам интеллекта; представьте себе всех пришельцев со всех планет вселенной, которые только могут существовать.


Но ИИ гораздо разнообразнее, чем все естественно возможные формы интеллекта. ИИ не ограничен эволюцией; он может включать элементы созданные искусственно. Эволюция породила птичек и полёт. Но она не может породить сверхзвуковую птичку с титановыми крыльями. Однонаправленный процесс естественного отбора в экосистемах подразумевает постепенное изменение. ИИ так не ограничен. Таким образом, диапазон потенциальных ИИ еще шире, чем диапазон интеллекта пришельцев, который, в свою очередь, превышает диапазон интеллекта человеческого.


Таким образом, ИИ — весьма большое пространство, настолько большое, что обычные человеческие догадки о его размере часто отличаются на порядки.
Один из больших вопросов насчет ИИ — это насколько в действительности умным он может стать. Представьте себе спектр интеллектов с тремя точками: мышка, слабоумный и Эйнштейн. Куда на этой шкале попадёт ИИ?


Мы склонны думать, что ИИ немного умнее Эйнштейна. Но априори неясно, почему шкала не может идти дальше, намного дальше. Мы склоняемся к вещам, которые являются измеримыми. Но почему это более реалистично, чем сверхчеловеческий интеллект, настолько умный, что его трудно измерить? Возможно, что мышке будет легче понять теорию относительности, чем нам понять, как работает суперкомпьютер с ИИ.

Будущее с ИИ было бы неузнаваемым, как никакое другое будущее. Биотехнологическое будущее включало бы лучше функционирующих людей, но все еще в узнаваемом человеческом облике. Ретробудущее включало бы вещи, которые уже были опробованы в прошлом и воскрешены снова. Но у ИИ есть возможность быть радикально другим и существенно непонятным.

Существует набор таинственных теологических параллелей, которые вы можете усмотреть. Бог мог быть для Средних веков тем, чем ИИ станет для нас. Станет ли ИИ богом? Будет ли он всемогущим? Будет ли он нас любить? Эти вопросы могут не иметь ответов. Но ими все равно стоит задаваться.

Ну и так далее.
cruizer
26 июля 2013, 01:51

Martin написал:
Там сразу же первый заголовок:

Ну и так далее.

Извини, перепутал с этой статьей http://habrahabr.ru/post/187742/
Очень интересно. История Prior Knowledge впечатляет:
сентябрь 2011 - компания основна
февраль 2012 - получили 1.4 млн инвестиций
ноябрь 2012 - продались SalesForce, сумма неизвестна
вот как надо ИИ делать smile.gif
Martin
28 июля 2013, 21:03
Google активно работает над созданием голосового мгновенного переводчика.

Похоже на то, что через некоторое время (возможно, пару лет) мы получим мобильный переводчик, позволяющий переводить обычную речь с одного языка на другой в режиме реального времени. На днях вице-президент Android-подразделения Google Хьюго Барра раскрыл некоторые детали работы.

В частности, он сообщил, что на данный момент есть очень большое количество прототипов, с которыми он работает каждую неделю для проверки достигнутых результатов. Теоретически такой переводчик позволит двум людям, говорящим на разных языках, понимать друг друга без всяких проблем, и без участия переводчика-человека. Подобные девайсы многократно демонстрировались в разного рода фантастических фильмах и НФ рассказах и романах.

По словам все того же Хьюго Барра, переводчик работает почти идеально в «контролируемом окружении» (надо понимать, с минимальным звуковым фоном) и некоторыми языковыми парами (например, английский-португальский). Точность же «понимания» переводчиком речи на других языкаХ (равно, как и точность самого перевода) пока еще оставляет желать лучшего.

Хотелось бы надеяться, что уже через короткий срок мы все же получим надежные переводчики, которые смогут превратить мысли фантастов в реальность. Ну, и во всем этом положительным моментом является то, что работа над проектом ведется очень активно, плюс такая работа не считается непрофильной для компании.
видео

Голубая Собака
29 июля 2013, 20:54


Ну что я могу сказать... сухарей насушила, холщовый мешок приготовила. Ждем-с. biggrin.gif
Хомса
30 июля 2013, 08:10

Голубая Собака написала:
Ну что я могу сказать... сухарей насушила, холщовый мешок приготовила. Ждем-с.  biggrin.gif

Рановато сухарей-то... Скорее холодный термояд изобретут, чем автоперевод, тем более с голоса. Тем более через "пару лет".

"Гугл", как и любая другая контора, говорит намного больше, чем делает.
Голубая Собака
30 июля 2013, 11:52

Хомса написал:
Рановато сухарей-то... Скорее холодный термояд изобретут, чем автоперевод, тем более с голоса. Тем более через "пару лет".

"Гугл", как и любая другая контора, говорит намного больше, чем делает.

Это всё понятно.

Сначала комп надо научить говорить. А потом уже можно и сухари сушить.

Только это... когда-нибудь ведь научат. biggrin.gif
Хомса
31 июля 2013, 03:43

Голубая Собака написала:
Только это... когда-нибудь ведь научат.  biggrin.gif

Крайне сомнительно, и уж точно не при нашей жизни.
Martin
31 июля 2013, 22:15
Если не врут про Compreno, то переводить компьютер научится при нашей жизни.
Голубая Собака
1 августа 2013, 00:35
Не, вы его сначала говорить научите. tongue.gif

(Переводит он уже и сейчас неплохо... по крайней мере не сравнить с тем, что он нёс в начале века. И десяти лет не прошло - насобачился переводить так, что уже не всегда хочется биться головой в монитор... По крайней мере в паре русский-английский уже есть на что посмотреть. А вот турецкий я там выше уже приводила... не очень... может, конечно, турки криво писали, но русский совсем не блистал)
Martin
6 августа 2013, 23:12
Суперкомпьютер воспроизвел 1 секунду работы мозга.

// CyberSecurity.ru // - Возможно ли по-настоящему воспроизвести работу головного мозга человека на современном двоичном компьютере? Специалисты по искусственному интеллекту спорят об этом уже не одно десятилетие, но так и не пришли к конечному выводу. Так или иначе, но группа немецких и японских инженеров при помощи суперкомпьютера воссоздала самую масштабную симуляцию деятельности мозга на компьютере.

В моделировании принимали участие 1,73 млрд виртуальных нейронов, объединенных между собой 10,4 трлн синапсов и все это было запущено на японском суперкомпьютере K Supercomputer, ставшего самым мощным компьютером в мире по итогам 2011 года. Чтобы симулировать всего 1 секунду жизнедеятельности мозга, суперкомпьютеру мощности 10 Петафлоп/сек потребовались 40 минут вычислений.

В японском научно-исследовательском институте RIKEN говорят, что их модель воспроизвела 1 секунду реальной деятельности мозга в режиме реального времени. Чтобы добиться этого, инженерам потребовались 82 944 микропроцессора.

На сегодня K Supercomputer является четвертым мощнейшим суперкомпьютером мира.

Как рассказали ученые, в их модели каждый мозговой синапс получал по 24 байта памяти. Симуляция проводилась при помощи открытого программного обеспечения NEST и потребовала около 1 петабайта основной памяти (эквивалентно мощности 250 000 обычных ПК). Синапсы были случайно объединены между собой и изначально специалисты хотели определить предел вычислительных возможностей K.

Напомним, что пиковая мощность K Supercomputer составляет 10,51 петафлоп/сек, внутри него установлены процессоры SPARC с суммарным количеством ядер 705 024.

"Если компьютеры петамасштаба, такие как K, способны воспроизвести примерно 1% деятельности мозга, то теперь мы знаем, что симуляция всей деятельности мозга будет возможна при помощи суперкомпьютреров с экзамасштабами, которые станут доступны в мире примерно после 2020 года", - говорит Маркус Дисманн из Института неврологии и медицины в Германии.

Компьютеры экзамасштаба способны производить не менее квадриллиона операция с плавающей запятой в секунду. Исследователи расходятся во мнении относительно того, когда такие системы появятся, но их большая часть считает, что это случится примерно в 2020-2022 годах. В японском институте RIKEN уже планируют создание суперкомпьютера, который по мощности превзойдет K в 100 раз.

Хомса
7 августа 2013, 07:35

Martin написал: Если не врут про Compreno, то переводить компьютер научится при нашей жизни.

Скажем так — приукрашивают. Но чего еще ожидать от официального сайта компании...
Хомса
7 августа 2013, 07:41


Не просто за сорок минут одну секунду, но — одну секунду 1% общей мозговой структуры (или как там оно называется). То есть — одна сотая мозга с замедлением в 2400 раз. Но это все не в кассу, конечно.

Вот комментарий к этой новости от ученого-мозговеда:

I think the point that's trying to be made here, which is correct, is that the way the computer does it's computation is vastly different to how a brain does it. So the numbers become somewhat meaningless...like comparing Oranges to Apples.

Я считаю что правильная мысль которую пытаются донести тут (в других комментариях — прим. переводчика) — это что компьютер считает радикально иным способом, чем люди думают. Так что все эти цифры весьма бессмысленны. Типа как сравнивать яблоки с апельсинами.

====

Ну и я тоже скажу — пока народ не знает как работает мозг, смысла во всех этих разговорах о достижении вычислительной мощности мозга мало. Никто до сих пор не подтвердил что мозг эквивалентен машине Тьюринга.
cruizer
7 августа 2013, 13:13

Хомса написал:
Не просто за сорок минут одну секунду, но — одну секунду 1% общей мозговой структуры (или как там оно называется). То есть — одна сотая мозга с замедлением в 2400 раз.  Но это все не в кассу, конечно.

Давно говорю, чтобы моделировать мозг на таком уровне компьютеры еще слишком медленны. Нужно будет промоделировать миллионы человеко-лет чтобы такую модель обучить. В общем, не годится. Мы пойдём другим путем © smile.gif


Хомса написал: Никто до сих пор не подтвердил что мозг эквивалентен машине Тьюринга.

Любое физическое явление можно с определенной точностью моделировать на машине Тьюринга, почему вдруг мозг будет исключением?
cruizer
7 августа 2013, 13:22
Вот очень интересная новость: http://www.nature.com/news/quantum-boost-f...ligence-1.13453
Суть в том что разработали квантовый алгоритм, который находит собственные вектора и значения за логарифмическое время от размерности матрицы.
То есть Log(N) против традиционных N^2.3. Это очень круто, единственная проблема что пока не умеют строить квантовые компьютеры достаточых размеров.

Тема интересная. Квантовые вычислители могут ворочать нереальные объёмы данных, тогда как у человека это на аппаратном уровне не поддерживается. Может, за счет этого компьютеру удастся догнать человека?
cruizer
7 августа 2013, 13:25

Голубая Собака написала:
Это всё понятно.

Сначала комп надо научить говорить. А потом уже можно и сухари сушить.

Только это... когда-нибудь ведь научат.  biggrin.gif

Врядли научат в обозримом будущем. Речь это маленькая надстройка над мышлением. Сначала надо учить думать и анализировать, потом говорить, иначе никак. Сейчас даже первая задача на зачаточном уровне.
Хомса
8 августа 2013, 06:34

cruizer написал:
Любое физическое явление можно с определенной точностью моделировать на машине Тьюринга

Ты уверен, что в мозге не идут химические процессы? Или ты про физику в широком смысле? Тогда я вовсе не уверен в твоей правоте.
Хомса
8 августа 2013, 06:37

cruizer написал:
Давно говорю, чтобы моделировать мозг на таком уровне компьютеры еще слишком медленны. Нужно будет промоделировать миллионы человеко-лет чтобы такую модель обучить. В общем, не годится. Мы пойдём другим путем © smile.gif

Не помню, спрашивал я тебя уже или нет... Почему ты считаешь, что существующая (она где-нить формально описана кстати?) вычислительная модель мозга корректна?
cruizer
8 августа 2013, 13:13

Хомса написал:
Ты уверен, что в мозге не идут химические процессы? Или ты про физику в широком смысле? Тогда я вовсе не уверен в твоей правоте.

Я имел в виду электрохимические процессы.


Хомса написал:
Не помню, спрашивал я тебя уже или нет... Почему ты считаешь, что существующая (она где-нить формально описана кстати?) вычислительная модель мозга корректна?

Нет конечно такой модели, но это не значит что она в принципе не может быть создана. Я думаю что мозг можно заменить машиной тьюринга так что снаружи разницы не будет видно. Что такое мозг - это множество живых клеток, каждую теоретически можно разобрать, посмотреть как работает, какие молекулы там плавают и сделать формальную модель. Разумеется это слишком сложно чтобы этим заниматься, но теоретически - можно ведь.
Martin
8 августа 2013, 19:29
Когнитивные технологии IBM: на пути к искусственному мозгу.
Текст статьи - под катом:
   Спойлер!
Cтарший вице-президент и директор по исследованиям компании IBM доктор Джон Келли написал книгу «Умные машины», которая выйдет в свет ближайшей осенью. Она посвящёна созданию целой экосистемы когнитивных вычислений — технологий будущего, способных взаимодействовать с людьми более естественным образом. Речь идёт о разработке архитектуры и алгоритмов, имитирующих отдельные способности мозга по восприятию данных различного вида, принятию решений и самообучению по результатам анализа их эффективности.

Джон Келли пишет, что современные люди сталкиваются с постоянным ростом объёмов информации. Если раньше казалось, что это благо, помогающее развитию общества, то сейчас стало вполне очевидно: чем больше данных, тем больше проблем. Мы попросту не успеваем вникнуть в интересующие нас вопросы как следует. Поэтому люди часто принимают необдуманные решения, ознакомившись только с одной точкой зрения. За недостатком времени анализ новых данных откладывается, а затем они вспоминаются уже как проверенная информация.

Директор может разгрузить себя, поручив большую часть обработки данных секретарю, ассистентам и даже целому штату аналитиков. Обычным людям всё сложнее противостоять давлению инфосреды. Когнитивные компьютерные технологии способны помочь в будущем как руководителям крупных компаний, так и обывателям. Умный поиск, семантический анализ, распознавание образов, прокладка маршрута с учётом пробок и оценка состояния водителя в фоне – это всё только начало.

Среди действующих когнитивных систем наиболее известен суперкомпьютер IBM Watson с программой искусственного интеллекта, созданной под руководством Дэвида Феруччи в рамках проекта DeepQA. Этот суперкомпьютер обыграл в 2011 году двух чемпионов в викторине Jeopardy. В ролике ниже приводятся пояснения о работе его алгоритма и необычной структуре использованной базы данных.

Специалисты компании рассчитывают в ближайшие двадцать лет создать компактную или даже носимую систему, имитирующую работу миллиардов нейронов и триллионов синапсов. Применений для неё найдётся масса, как в гражданском, так и в военном секторе.

Общественности говорят в основном о медицинских аспектах применения. К примеру, указывается, что с помощью такого электронного ассистента слабовидящие люди смогут не только лучше ориентироваться, но и жить более полноценной жизнью. У здорового человека мозг обрабатывает терабайты графических данных ежедневно, и заменить функции зрительной коры не сможет ни один носимый компьютер классической архитектуры.

Основная проблема целой отрасли в том, что архитектура компьютеров и базовые подходы к программированию сформировались в ту пору, когда на ЭВМ решали довольно узкий круг прикладных математических задач. Они были вычислительно сложными, а их постановкой занимался штат опытных программистов.

От современных компьютеров требуется гораздо больше. Всевозможные «умные устройства» должны большей частью самостоятельно получать и успевать обрабатывать массу разнородных данных. Результат требуется выдавать через дружественный интерфейс, чтобы помочь человеку в его повседневной жизни или просто развлечь его.

Для этого компьютерная техника должна постоянно развиваться в направлении «очеловечивания» и всё больше опираться на алгоритмы самообучения. Иными словами – как можно точнее копировать суть работы мозга, сохраняя запредельную скорость обработки числовых данных.

Компания IBM при поддержке Корнелльского университета и DARPA уже многие годы разрабатывает такой искусственный мозг. До сих пор в научном мире нет единого мнения о многих аспектах функционирования неокортекса. Поэтому задача не состоит в том, чтобы воссоздать на массиве транзисторов работу коры головного мозга в деталях. Скорее, есть понятное желание сотворить на базе компьютерных технологий нечто работающее похожим образом. Требуется не более быстрый автомат, а гибкая вычислительная система, хотя бы частично проявляющая свойства мышления живых организмов.

Значимых успехов в этой области удалось достичь в прошлом году – тогда с помощью второго по мощности суперкомпьютера из списка TOP 500 сымитировали работу ста триллионов синапсов. Конечно, эмуляция происходила с большой долей условности, а скорость обработки сигналов была оценена в полторы тысячи раз ниже, чем у реальной группы нейронов. Более быстрая и точная имитация работы всего нескольких нейронов по-прежнему требует десятки тысяч процессорных ядер.

В IBM Research стараются научить компьютеры не просто считать быстрее, но и проявлять отдельные элементы мыслительного процесса. По мнению исследователей, компьютеры будущего не должны слепо следовать алгоритму, как это было до сих пор. Они станут учитывать множество второстепенных факторов, свой прошлый опыт и будут даже немного колебаться в принятии решений – совсем как человек.

Агентство перспективных оборонных научно-исследовательских разработок США щедро финансирует связанную с этой инициативой программу SyNAPSE (Системы нейроморфной адаптивной масштабируемой пластичной электроники). Её главная цель – обеспечить компьютеры теми способностями, которые у человека пока ещё развиты лучше.

Особенно это касается восприятия, умения принимать решения в условиях жёсткого дефицита достоверных данных и придумывать нестандартные выходы из ситуаций, в которых не приходилось бывать прежде.

Интерес DARPA вполне понятен. Сегодня управляемые операторами БПЛА уже показали свою эффективность. Осталось убрать операторов и связанные с ними задержки в передаче управляющих команд, чтобы Пентагон получил более совершенные и самодостаточные образцы боевой авиации.

В IBM Research убеждены, что так называемые когнитивные вычислительные системы найдут самое широкое применение и вскоре полностью изменят наши представления о компьютерной технике, которая до сих пор базируется на архитектуре фон Неймана.

Впервые о проекте открыто заговорили в 2008 году. Через год коллектив IBM Research отчитался о завершении подготовительного этапа – так называемой «фазы 0», на которой был сформулирован план исследований и решены общие вопросы.

К 2011 году был завершён первый этап проекта, заключавшийся в разработке фундаментальной архитектуры вычислительных блоков, эмулирующих работу нейронов. Ключевым требованием была масштабируемость архитектуры, поскольку от отдельных групп нейронов по мере роста доступной вычислительной мощности требовалось переходить к имитации работы целых отделов коры головного мозга.

Сегодня коллектив IBM Research говорит о новых успехах. Команде удалось провести объёмное исследование под названием «крупномасштабное корковое моделирование». Оно было сфокусировано на таких особенностях работы мозга, как сверхнизкий уровень энергопотребления и высочайшая плотность хранения данных. По результатам длительного эксперимента был создан новый алгоритм, позволяющий моделировать работу мозга более точно и ценой меньших затрат.

На его основе под руководством ведущего специалиста Дхармендра Модха был разработан язык программирования, ориентированный на создание приложений для когнитивных вычислений. Дальнейший этап — создание полноценной среды разработчика, поддерживающей весь цикл программирования — от проектирования до отладки и развертывания нового поколения приложений, способных частично имитировать свойства мозга. В конце неделе IBM представит свои разработки на Международной совместной конференции по нейронным сетям в Далласе.

По ссылке выше находятся еще видеоролики на эту тему.
nezachem
9 августа 2013, 11:00

cruizer написал:
Любое физическое явление можно с определенной точностью моделировать на машине Тьюринга

Это сильное утверждение. Можно его как-нибудь обосновать?
cruizer
9 августа 2013, 16:21

nezachem написал:
Это сильное утверждение. Можно его как-нибудь обосновать?

Любое физическое явление предсказуемо, то есть его можно описать формулами или алгоритмами. Проблема возникает в двух случаях - сходимость известных формул на дискретной машине тьюринга, и недетерминированность квантовых процессов.
С квантами все просто - пусть мы не можем точно предсказать состояние системы через некоторое время, но мы можем вычислить вероятности разных состояний. Такая модель будет адекватно отображать то что мы наблюдаем в реальности.
Со сходимостью есть проблемы. Если природа явления дискретна, то моделировать его на МТ можно. Например, электрический заряд - величина дискрентая и ее можено точно вычислить, а энергия уже величина непрерывная. Для практических целей можно поступать так же как с квантами - перейти на другой уровень и использовать мат статистику, оценивая распределение обобщенных характеристик. К примеру, движение каждой молекулы воздуха в закрытой банке мы точно предсказать не сможем, но вычислить давление можем точно.

Еще есть такой тезис Чёрча — Тьюринга, только что нагуглил:

Тезис Чёрча — Тьюринга невозможно строго доказать или опровергнуть, поскольку он устанавливает эквивалентность между строго формализованным понятием частично рекурсивной функции и неформальным понятием вычислимости.

Позднее были сформулированы другие практические варианты утверждения:

    физический тезис Чёрча — Тьюринга: любая функция, которая может быть вычислена физическим устройством, может быть вычислена машиной Тьюринга;
    Сильный тезис Чёрча — Тьюринга (тезис Чёрча — Тьюринга — Дойча): любой конечный физический процесс, не использующий аппарат, связанный с непрерывностью и бесконечностью, может быть вычислен физическим устройством.

f_evgeny
9 августа 2013, 20:49

cruizer написал:
Любое физическое явление предсказуемо, то есть его можно описать формулами или алгоритмами.

ИМХО, это утверждение в принципе неверно.
cruizer
9 августа 2013, 23:00

f_evgeny написал:
ИМХО, это утверждение в принципе неверно.

Почему?
f_evgeny
10 августа 2013, 01:31

cruizer написал:
Почему?

Потому, что мы не знаем всего. То есть мы не можем сказать, что например формула закона всемирного тяготения верна. Мы можем только сказать, что для таких-то условий, она верна с такой-то точностью.
Вспомни про классическую физику и теорию относительности.
А следовательно мы не знаем формул по которым протекают любые физические явления. Более того, мы с полной уверенностью можем сказать, что при каких-то условиях наши формулы перестанут работать.
cruizer
10 августа 2013, 02:27

f_evgeny написал:
Потому, что мы не знаем всего. То есть мы не можем сказать, что например формула закона всемирного тяготения верна. Мы можем только сказать, что для таких-то условий, она верна с такой-то точностью.
Вспомни про классическую физику и теорию относительности.
А следовательно мы не знаем формул по которым протекают любые физические явления. Более того, мы с полной уверенностью можем сказать, что при каких-то условиях наши формулы перестанут работать.

Так я не говорю, что мы всё знаем и прямо сейчас готовы моделировать что угодно. Не знаем, но тут вопрос в принципиальной возможности. Если любое физическое явление можно описать и вывести закон, то мы сможем это моделировать, а значит, любая система и в том числе человеческий мозг может быть смоделирован на машине тьюринга.
Утверждать же, что есть такие явления, которые в принципе не могут быть описаны формулами или как-нибудь еще, я бы не взялся.
Есть идеи, что интеллект не может быть эквивалентен компьютеру, так считает Пенроуз например. Он ссылается на теоремы Геделя и считает что в мозге работают квантовые эффекты, которые нельзя повторить на машине тьюринга. Но его аргументы как-то не убедительны. Во-первых, на машине тьюринга можно моделировать квантовые системы, даже теоремы какие-то об этом есть. Во-вторых, никто не мешает построить квантовые компьютеры. И главное, квантовые компьютеры могут оказаться куда умнее человека, поскольку пока нет свидетельств того что наша мыслительная деятельность построена на квантовых эффектах.
sintez
10 августа 2013, 07:46

cruizer написал: Любое физическое явление предсказуемо, то есть его можно описать формулами или алгоритмами. Проблема возникает в двух случаях - сходимость известных формул на дискретной машине тьюринга, и недетерминированность квантовых процессов.

Не все так просто. В частности, описать формулами недостаточно. См.: Существование и гладкость решений уравнений Навье — Стокса.
Как это, например, выглядит. Рассмотрим простое явление - кавитационное обтекание - каверна образуется и где-то за телом схлопывается. На практике используются разные довольно искусственные способы замыкания (см. кавитационная схема). Как в реальности выглядит (должно выглядеть) это схлопывание - не известно.
Даже когда сходимость формул известна, опять не все так просто. Сходимость известна в бесконечном случае, а наши вычисления конечны и машина Тьюринга ограничена (детерминирована). Разница тут не просто велика, она принципиальна.
Допустим, подбор паролей. С точки зрения математики, задача имеет простое решение - полный перебор. Однако, цивилизация успешно пользуется тем фактом, что эта задача разрешима только теоретически.

f_evgeny
10 августа 2013, 13:44

cruizer написал:
Так я не говорю, что мы всё знаем и прямо сейчас готовы моделировать что угодно. Не знаем, но тут вопрос в принципиальной возможности. Если любое физическое явление можно описать и вывести закон,

Ты не понял? Для того, чтобы ЛЮБОЕ физическое явление описать и вывести закон, именно, что нужно знать ВСЕ. Что на сегодня выгядит принципиально недостижимым.
Crux
30 августа 2013, 17:47
Абсолютно корректная модель системы должна быть идентична самой системе по размерам и свойствам.
Голубая Собака
30 августа 2013, 22:52

Crux написал: Абсолютно корректная модель системы должна быть идентична самой системе по размерам и свойствам.

Т.е. если делать модель птицы, то она должна быть сделана такого же размера, из перьев и гадить на голову? wink.gif

Эх, прощай авиация...
Martin
30 августа 2013, 23:03
Он имел в виду, что хорошая система, обладающая интеллектуальной мощностью, эквивалентной человеческому мозгу, и должна иметь размеры человеческой головы, не более того.
Poodle
30 августа 2013, 23:17

Martin написал: должна иметь размеры человеческой головы, не более того.

И шоб в нее можно было есть.
biggrin.gif
Crux
3 сентября 2013, 15:56

Голубая Собака написала:
Эх, прощай авиация...

Нет, прощай, махолеты.
Голубая Собака
3 сентября 2013, 22:34

Crux написал:
Нет, прощай, махолеты.

Да пусть хоть как летают.
Хоть махом, хоть на одном крыле.
Лишь бы летали.

(А компы пусть думают себе... что они там себе думают. Пусть это сперва хоть с дом будет - лишь бы работало. Потом до размера айфона напильником допилим).
Crux
5 сентября 2013, 13:09

Голубая Собака написала:
(А компы пусть думают себе... что они там себе думают.

Да, но захотят ли они с нами общаться?
Martin
10 сентября 2013, 15:52

cruizer написал:
Врядли научат в обозримом будущем. Речь это маленькая надстройка над мышлением. Сначала надо учить думать и анализировать, потом говорить, иначе никак. Сейчас даже первая задача на зачаточном уровне.

Статья на Хабре: Искусственный интеллект и почему мой компьютер меня не понимает?
   Спойлер!
Гектор Левекwiki утверждает, что его компьютер тупой. И ваш тоже. Siri и голосовой поиск Google умеют понимать заготовленные предложения. Например «Какие фильмы будут показывать неподалёку в 7 часов?» Но что насчёт вопроса «Может ли аллигатор пробежать стометровку с барьерами?» Такой вопрос никто раньше не задавал. Но любой взрослый может найти ответ на него (Нет. Аллигаторы не могут участвовать в беге с барьерами). Но если вы попытаетесь ввести этот вопрос в Google, то получите тонны информации о спортивной команде по лёгкой атлетике Florida Gators. Другие поисковые системы, такие как Wolfram Alpha, тоже не способны найти ответ на поставленный вопрос. Watson, компьютерная система выигравшая викторину «Jeopardy!», вряд ли покажет себя лучше.

В устрашающей статье, недавно представленной на международной объединённой конференции по искусственному интеллектуwiki, Левек, учённый из Торонтского Университета, занимающийся этими вопросами, отчитал всех, кто причастен к разработкам ИИ. Он утверждал, что коллеги забыли про слово «интеллект» в термине «искусственный интеллект».
Левек начал с критики знаменитого «Теста Тьюринга», в котором человек посредством серии вопросов и ответов пытается отличить машину от живого собеседника. Считается, что если компьютер сможет пройти тест Тьюринга, то мы можем уверенно заключить, что машина обладает интеллектом. Но Левек утверждает, что тест Тьюринга практически бесполезен, так как он представляет из себя простую игру. Каждый год несколько ботов проходят это испытание вживую в состязаниях за премию Лёбнера. Но победителей нельзя назвать по настоящему интеллектуальными; они прибегают к разного рода трюкам и по сути занимаются обманом. Если человек спросит бота «Какой у тебя рост?» то система будет вынуждена фантазировать, чтобы пройти тест Тьюринга. На практике оказалось, что боты победители слишком часто хвастаются и пытаются ввести в заблуждение, чтобы их можно было назвать интеллектуальными. Одна программа прикидывалась параноиком; другие хорошо себя показали в использовании троллинга собеседника однострочными фразами. Очень символично, что программы прибегают к разного рода уловкам и жульничеству в попытках пройти тест Тьюринга. Истинное предназначение ИИ — построить интеллект, а не создать программу, заточенную на прохождения одного единственного теста.

Пытаясь направить поток в правильное русло, Левек предлагает исследователям в области ИИ другой тест, гораздо сложнее. Тест основанный на работе, которую он провёл с Леорой Моргенштерн (Leora Morgenstern) и Эрнестом Дэвисом (Ernest Davis). Вместе они разработали набор вопросов под названием Схемы Винограда, названные в честь Терри Виноградаwiki, первопроходца в области искусственного интеллекта в Стэнфордском Университете. В начале семидесятых Виноград задался вопрос построения машины, которая будет в состоянии ответить на следующий вопрос:

Городские управляющие отказались дать разрешение злобным демонстрантам, потому что они боялись насилия. Кто боится насилия?
а) Городские управляющие
б) Злобные демонстранты

Левек, Девис и Моргенштерн разработали набор подобных задач, которые кажутся простыми для разумного человека, но очень сложны для машин, которые умеют только гуглить. Некоторые из них трудно решить с помощью Google, потому что в вопросе фигурируют вымышленные люди, на которых по определению мало ссылок в поисковике:
Джоанна непременно отблагодарила Сюзанну за ту помощь, которую она ей оказала. Кто оказал помощь?
а) Джоанна
б) Сюзанна
(Чтобы усложнить задание можно заменить «оказала» на «получила»)

Можно по пальцам пересчитать веб-страницы, на которых человек по имени Джоанна или Сюзанна оказывают кому-то помощь. Поэтому ответ на такой вопрос требует очень глубокого понимания тонкостей человеческого языка и природы социального взаимодействия.
Другие вопросы сложно нагуглить по той же причине, почему вопрос про аллигатора трудно поддаётся поиску: аллигаторы реальны, но конкретный факт фигурирующий в вопросе редко обсуждается людьми. Например:
Большой шар проделал дыру в столе, потому что он был сделан из пенопласта. Что было сделано из пенопласта? (В альтернативной формулировке пенопласт заменяется на железо)
а) Большой шар
б) Стол

Сэм попытался нарисовать картинку пастуха с бараном, но в итоге он получился похожим на гольфиста. Кто получился похожим на гольфиста?
а) Пастух
б) Баран

Эти примеры, которые тесно связаны с лингвистическим феноменом под названием анафора (явление, когда некоторое выражение обозначает ту же сущность, что и некоторое другое выражение, ранее встретившееся в тексте), представляют трудность, так как требуют здравого смысла — который всё ещё не доступен машинам — и потому что в них встречаются вещи, о которых люди не часто упоминают на web-страницах, а потому эти факты не попадают в гигантские базы данных.

Иными словами, это примеры того, что я люблю называть Проблемой тяжелых хвостов: на обычные вопросы часто можно найти ответ в Сети, но редкие вопросы ставят в тупик весь Веб с его Big Data системами. Большинство программ ИИ сталкиваются с проблемой, если то, что они ищут не встречается в виде точной цитаты на веб-страницах. В этом отчасти заключается одна из причин Самой известной оплошности Watson-а — спутать город Торонто в Канаде с одноименным городом в США.

Аналогичная проблема возникает в поиске изображений, по двум причинам: существует много редких картинок, существует много редких подписей к картинкам. Существует миллионы картинок с подписью «кот»; но поиск Google не может показать почти ничего релевантного по запросу «аквалангист с шоколадной сигаретой» (тонны картинок сигар, нарисованных красоток, пляжей и шоколадных тортиков). При этом любой человек может без труда построить воображаемую картинку нужного аквалангиста. Или возьмём запрос «мужчины правши» («right-handed man»). В Сети уйма изображений правшей, занимающихся каким-либо делом именно правой рукой (например бросание бейсбольного мяча). Любой человек может быстренько извлечь такие картинки из фотоархива. Но очень немногие такие картинки подписаны словом «правша» («right-handed-man»). Поиск же по слову «правша» выдаёт на гора огромное количество картинок спортивных звезд, гират, гольф клубов, связок ключей и кружек с кофе. Некоторые соответствуют запросу, но большинство — нет.

Левек приберёг свои самые критические замечания к концу доклада. Его беспокойство не в том, что современный искусственный интеллект не умеет решать подобного рода проблемы, а в том, что современный искусственный интеллект совершенно о них забыл. С точки зрения Левека, разработка ИИ попала в ловушку «сменяющихся серебряных пуль» и постоянно ищет следующего большого прорыва, будь то экспертные системы или BigData, но все едва заметные и глубокие знания, которыми владеет каждый нормальный человек, никогда скрупулёзно не анализировались. Это колоссальная задача — «как уменьшение горы вместо прокладки дороги», пишет Левек. Но это именно то, что надо сделать исследователям.

В сухом остатке, Левек призвал своих коллег перестать вводить в заблуждение. Он говорит: «Предстоит многого достичь, определив, что именно не попадает в область наших исследований, и признать, что могут понадобиться другие подходы». Иными словами, пытаться соревноваться с человеческим интеллектом, без осознания всей запутанности человеческого разума, это как просить аллигатора пробежать стометровку с барьерами.

От переводчика

Меня заинтересовал критический взгляд Левека на современные Siri и Google. Интеллектуальные поисковые системы отлично научились имитировать понимание вопроса, который задают пользователи. Но они всё ещё бесконечно далеки от того ИИ, про который снимают фильмы и пишут книги.
Голубая Собака
11 сентября 2013, 01:19

Martin написал:
Статья на Хабре

Комментаторы там жгут напалмом.


Crux написал:
Да, но захотят ли они с нами общаться?

Быстренько представила себе мой глючный компьютер, который решил (внезапно) со мной пообщаться. В ночи (потому что я живу обычно ночью).
В общем, если я после этого сохраню хоть какой-нибудь естественный интеллект - это будет большая удача.
Нет уж, пусть молча глючит (или хотя бы предупреждает как-нибудь, что, мол... "я тебя вижу"... и слышу)
Daemonis
11 сентября 2013, 13:02


Не очень понял я этого Левека. То, что боты прибегают к уловкам и жульничеству, означает, что тест Тьюринга они не проходят. С другой стороны, предложенный им самим тест - подмножество теста Тьюринга.
Дальше >>
Эта версия форума - с пониженной функциональностью. Для просмотра полной версии со всеми функциями, форматированием, картинками и т. п. нажмите сюда.
Invision Power Board © 2001-2016 Invision Power Services, Inc.
модификация - Яро & Серёга
Хостинг от «Зенон»Сервера компании «ETegro»