Почему мозг человека не похож на компьютер? Око планеты информационно-аналитический портал

Для Windows 10.07.2019
Для Windows

Несмотря на все усилия, неврологи и когнитивные психологи никогда не найдут в мозге копии Пятой симфонии Бетховена, слов, картинок, грамматических правил или любых других внешних сигналов. Конечно же, мозг человека не совсем уж пустой. Но он не содержит большинства вещей, которые, по мнению людей, в нем содержатся - даже таких простых вещей, как «воспоминания».

Наше ложное представление о мозге имеет глубокие исторические корни, но особенно запутало нас изобретение компьютеров в 1940-х годах. На протяжении полувека психологи, лингвисты, нейрофизиологи и другие эксперты по вопросам человеческого поведения утверждали, что человеческий мозг работает подобно компьютеру.

Чтобы представить, насколько легкомысленна эта идея, рассмотрим мозг младенцев. Здоровый новорожденный обладает более чем десятью рефлексами. Он поворачивает голову в том направлении, где ему чешут щечку, и всасывает все, что попадает в рот. Он задерживает дыхание при погружении в воду. Он так сильно хватает вещи, попавшие ему в руки, что почти может удерживать свой собственный вес. Но, возможно, важнее всего то, что новорожденные обладают мощными механизмами обучения, позволяющими им быстро изменяться, чтобы они могли более эффективно взаимодействовать с окружающим миром.

Чувства, рефлексы и механизмы обучения - это то, что есть у нас с самого начала, и, если задуматься, это достаточно много. Если бы нам не хватало каких-либо из этих способностей, наверное, нам было бы трудно выжить.

Но вот, чего в нас нет с рождения: информации, данных, правил, знаний, лексики, представлений, алгоритмов, программ, моделей, воспоминаний, образов, процессоров, подпрограмм, кодеров, декодеров, символов и буферов - элементов, которые позволяют цифровым компьютерам вести себя в какой-то степени разумно. Мало того, что этих вещей нет в нас с рождения, они не развиваются в нас и при жизни.

Мы не храним слова или правила, говорящие нам, как ими пользоваться. Мы не создаем образы визуальных импульсов, не храним их в буфере кратковременной памяти и не передаем затем образы в устройство долгосрочной памяти. Мы не вызываем информацию, изображения или слова из реестра памяти. Все это делают компьютеры, но не живые существа.

Компьютеры в буквальном смысле слова обрабатывают информацию - цифры, слова, формулы, изображения. Сначала информация должна быть переведена в формат, который может распознать компьютер, то есть в наборы единиц и нулей («битов»), собранные в небольшие блоки («байты»).

Компьютеры перемещают эти наборы с места на место в различные области физической памяти, реализованной в виде электронных компонентов. Иногда они копируют наборы, а иногда различными способами трансформируют их - скажем, когда вы исправляете ошибки в рукописи или ретушируете фотографию. Правила, которым следует компьютер при перемещении, копировании или работе с массивом информации, тоже хранятся внутри компьютера. Набор правил называется «программой» или «алгоритмом». Совокупность работающих вместе алгоритмов, которую мы используем для разных целей (например, для покупки акций или знакомств в интернете) называется «приложением».

Это известные факты, но их нужно проговорить, чтобы внести ясность: компьютеры работают на символическом представлении мира. Они действительно хранят и извлекают. Они действительно обрабатывают. Они действительно имеют физическую память. Они действительно управляются алгоритмами во всем без исключения.

При этом люди ничего такого не делают. Так почему так много ученых говорит о нашей умственной деятельности так, как если бы мы были компьютерами?

В 2015 году эксперт по искусственному интеллекту Джордж Заркадакис выпустил книгу «По нашему образу», в которой он описывает шесть различных концепций, используемых людьми в течение последних двух тысяч лет для описания устройства человеческого интеллекта.

В наиболее ранней версии, изложенной в Библии, люди были созданы из глины или грязи, которую разумный Бог затем пропитал своим духом. Этот дух и «описывает» наш разум - по крайней мере, с грамматической точки зрения.

Изобретение гидравлики в III веке до нашей эры стало причиной популярности гидравлической концепции человеческого сознания. Идея состояла в том, что ток различных жидкостей в теле - «телесных жидкостей» - приходится и на физические, и на духовные функции. Гидравлическая концепция существовала на протяжении более чем 1600 лет, все это время затрудняя развитие медицины.

К XVI веку появились устройства, приводимые в действие пружинами и зубчатыми передачами, что вдохновило Рене Декарта на суждения о том, что человек - это сложный механизм. В XVII веке британский философ Томас Гоббс предположил, что мышление происходит благодаря небольшим механическим движениям в мозгу. К началу XVIII века открытия в области электричества и химии привели к появлению новой теории человеческого мышления, опять-таки имеющей больше метафорический характер. В середине XIX века немецкий физик Герман фон Гельмгольц, вдохновленный последними достижениями в области связи, сравнил мозг с телеграфом.

Альбрехт фон Галлер. Icones anatomicae

Математик Джон фон Нейман заявил, что функция человеческой нервной системы является «цифровой при отсутствии доказательств в пользу противного», проводя параллели между компонентами компьютерных машин того времени и участками человеческого мозга.

Каждая концепция отражает самые передовые идеи породившей её эпохи. Как и следовало ожидать, всего через несколько лет после зарождения компьютерных технологий в 1940-х годах стали утверждать, что мозг работает, как компьютер: роль физического носителя играл сам мозг, а наши мысли выступали в качестве программного обеспечения.

Такая точка зрения достигла максимального развития в книге «Компьютер и мозг» 1958 года, в которой математик Джон фон Нейман решительно заявил, что функция нервной системы человека является «цифровой при отсутствии доказательств в пользу противного». Хоть он и признавал, что о роли мозга в работе интеллекта и памяти известно очень мало, ученый проводил параллели между компонентами компьютерных машин того времени и участками человеческого мозга.

Изображение: Shutterstock

Благодаря последующим достижениям в области компьютерных технологий и исследования мозга, постепенно развивалось амбициозное междисциплинарное учение о человеческом сознании, в основе которого лежит идея о том, что люди, как и компьютеры - это информационные процессоры. Эта работа в настоящее время включает в себя тысячи исследований, получает миллиарды долларов финансирования, и становится темой для множества трудов. Книга Рэя Курцвейла «Как создать разум: Раскрытие тайны человеческого мышления», выпущенная в 2013 году, иллюстрирует эту точку зрения, описывает «алгоритмы» мозга, методы «обработки информации» и даже то, как он внешне напоминает в своей структуре интегральные схемы.

Представление о человеческом мышлении как об устройстве обработки информации (ОИ) в настоящее время доминирует в человеческом сознании как среди обычных людей, так и среди ученых. Но это, в конце концов, просто еще одна метафора, вымысел, который мы выдаем за действительность, чтобы объяснить то, что на самом деле не понимаем.

Несовершенную логику концепции ОИ довольно легко сформулировать. Она основана на ошибочном силлогизме с двумя разумными предположениями и неверным выводом. Разумное предположение №1: все компьютеры способны на разумное поведение. Разумное предположение №2: все компьютеры являются информационными процессорами. Неверное заключение: все объекты, способные вести себя разумно - информационные процессоры.

Если забыть о формальностях, то идея о том, что люди должны быть информационными процессорами, только потому, что компьютеры являются таковыми – это полная глупость, и когда от концепции ОИ окончательно откажутся, наверняка историками она будет рассматриваться с этой же точки зрения, как сейчас для нас выглядят чушью гидравлическая и механическая концепции.

Проведите эксперимент: нарисуйте сторублевую купюру по памяти, а потом достаньте ее из кошелька и скопируйте. Видите разницу?

Рисунок, сделанный в отсутствие оригинала, наверняка окажется ужасен в сравнении с рисунком, сделанным с натуры. Хотя вообще-то вы видели эту купюру не одну тысячу раз.

В чем проблема? Разве «образ» банкноты не должен «храниться» в «запоминающем регистре» нашего мозга? Почему мы не можем просто «обратиться» к этому «образу» и изобразить его на бумаге?

Очевидно, нет, и тысячи лет исследований не позволят определить расположение образа этой купюры в мозге человека просто потому, что его там нет.


Продвигаемая некоторыми учеными идея о том, что отдельные воспоминания каким-то образом хранятся в специальных нейронах, абсурдна. Помимо прочего эта теория выводит вопрос об устройстве памяти на еще более неразрешимый уровень: как и где тогда память хранится в клетках?

Сама идея того, что воспоминания хранятся в отдельных нейронах, абсурдна: как и где в клетке может храниться информация?

Нам никогда не придется беспокоиться о том, что человеческий разум выйдет из-под контроля в киберпространстве, и нам никогда не удастся достичь бессмертия, скачав душу на другой носитель.

Одно из предсказаний, которое в том или ином виде высказывали футуролог Рэй Курцвейл, физик Стивен Хокинг и многие другие, заключается в том, что если сознание человека подобно программе, то скоро должны появиться технологии, которые позволят загрузить его на компьютер, тем самым многократно усилив интеллектуальные способности и сделав возможным бессмертие. Эта идея легла в основу сюжета фильма-антиутопии «Превосходство» (2014), в котором Джонни Депп сыграл ученого, похожего на Курцвейла. Он загрузил свой разум в интернет, чем вызвал разрушительные последствия для человечества.

Кадр из фильма «Превосходство»

К счастью, концепция ОИ даже близко не имеет ничего общего с действительностью, так что нам не стоит волноваться о том, что человеческий разум выйдет из-под контроля в киберпространстве, и, как это ни прискорбно, нам никогда не удастся достичь бессмертия, скачав душу на другой носитель. Дело не только в отсутствии какого-то ПО в мозге, проблема здесь еще глубже – назовем ее проблемой уникальности, и она одновременно восхищает и угнетает.

Поскольку в нашем мозге нет ни «запоминающих устройств», ни «образов» внешних раздражителей, а в ходе жизни мозг меняется под действием внешних условий, нет повода считать, что любые два человека в мире реагируют на одно и то же воздействие одинаково. Если вы и я посетим один и тот же концерт, изменения, которые произойдут в вашем мозге после прослушивания, будут отличаться от изменений, которые произойдут в моем мозге. Эти изменения зависят от уникальной структуры нервных клеток, которая формировалась в ходе всей предыдущей жизни.

Именно поэтому, как написал Фредерик Бартлетт в 1932 году в книге «Память», два человека, услышавшие одну и ту же историю, не смогут пересказать ее полностью одинаково, а со временем их версии истории будут все меньше походить друг на друга.

«Превосходство»

По-моему, это очень вдохновляет, ведь это значит, что каждый из нас по-настоящему уникален, не только по набору генов, но и по тому, как меняется наш мозг со временем. Однако это также и угнетает, ведь это делает и без того трудную работу нейробиологов практически неразрешимой. Каждое изменение может затронуть тысячи, миллионы нейронов или весь мозг целиком, причем природа этих изменений в каждом случае тоже уникальна.

Хуже того, даже если бы мы смогли записать состояние каждого из 86 миллиардов нейронов мозга и сымитировать все это на компьютере, эта громадная модель оказалась бы бесполезной вне тела, которому принадлежит данный мозг. Это, пожалуй, самое досадное заблуждение об устройстве человека, которым мы обязаны ошибочной концепции ОИ.

В компьютерах хранятся точные копии данных. Они могут оставаться без изменений долгое время даже при отключении питания, в то время как мозг поддерживает наш интеллект, только пока он остается живым. Нет никакого рубильника. Либо мозг будет работать без остановки, либо нас не станет. Более того, как отметил нейробиолог Стивен Роуз в 2005 году в работе «Будущее мозга», копия текущего состояния мозга может быть бесполезна и без знания полной биографии его владельца, даже включая социальный контекст, в котором рос человек.

Тем временем огромные средства расходуются на исследования мозга, основанные на ложных идеях и обещаниях, которые не будут исполнены. Так, в Евросоюзе был запущен проект исследования человеческого мозга стоимостью $1,3 млрд. Европейские власти поверили заманчивым обещаниям Генри Маркрэма создать к 2023 году действующий симулятор работы мозга на базе суперкомпьютера, который бы в корне изменил подход к лечению болезни Альцгеймера и других недугов, и обеспечили проекту практически безграничное финансирование. Меньше чем через два года после запуска проекта он обернулся провалом, и Маркрэма попросили уйти в отставку.

Люди – это живые организмы, а не компьютеры. Примите это. Нужно продолжать тяжелую работу по пониманию самих себя, но не тратить время на ненужный интеллектуальный багаж. За полвека существования концепция ОИ дала нам всего несколько полезных открытий. Настало время .

Вы наверняка слышали о том, что работа человеческого мозга идет по тем же принципам, что и компьютерные процессы, при этом мозг - всего лишь набор алгоритмов. «Теории и практики» подготовили изложение статьи Роберта Эпштейна, ведущего научного психолога Американского института поведенческих исследований и технологий (Калифорния), который призывает как можно скорее забыть эту теорию.

Сколько бы усилий ни прикладывали нейрофизиологи и когнитивные психологи, они никогда не найдут образцов Пятой симфонии Бетховена или копий слов, изображений, грамматических правил или любых других внешних раздражителей в мозгу. Конечно, человеческий мозг пуст не в буквальном смысле. Но он не хранит большинство вещей, которые, как считают люди, он хранить должен; в нем не содержится даже такого простого объекта, как воспоминания.

Наше ложное представление о том, как устроен мозг, имеет глубокие исторические корни, при этом создание компьютера в 1940-х годах только усложнило ситуацию. Уже на протяжении полувека психологи, лингвисты, нейрофизиологи и другие исследователи человеческого поведения утверждают, что мозг человека работает схожим с компьютером образом.

Чтобы понять, насколько поверхностна эта идея, рассмотрим мозг младенца. Благодаря эволюции новорожденные, как и детеныши млекопитающих, появляются на свет максимально подготовленными к эффективному взаимодействию с миром. Зрение ребенка расплывчато, но он обращает особое внимание на лица и может быстро узнать лицо матери среди лиц других людей. Всем звукам младенец предпочитает человеческий голос и способен отличить один голос от другого. Человек, без сомнения, появляется на свет явно предрасположенным к социальному взаимодействию.

У здорового младенца с рождения есть десяток рефлексов, реакций на определенные раздражители, которые нужны для выживания. Он поворачивает голову в сторону того, что касается его щеки, и начинает сосать все, что попадает ему в рот. Он автоматически задерживает дыхание, если его погрузить в воду. Он хватается за вещи, если вложить их ему в руку, - так крепко, что почти может удержаться на весу. Но, пожалуй, самый важный навык, который есть у новорожденных, - это способность обучаться, которая помогает им развиваться и успешно взаимодействовать с окружающим миром, даже если этот мир уже совсем не тот, что был у наших предков.

Разве у нас нет загруженного в мозговой регистр памяти представления о том, как выглядит долларовая банкнота?

Если задуматься, чувства, рефлексы и умение обучаться - это уже немало. Если бы мы не обладали хотя бы одним из этих навыков при рождении, нам было бы значительно труднее выжить. А вот перечень того, что при рождении у нас отсутствует: информация, данные, правила, программное обеспечение, знания, словарный запас, представления, алгоритмы, модели, воспоминания, образы, шифры, символы и буферы обмена,- все то, что позволяет цифровым компьютерам быть похожими на разумных существ. Более того, у нас не только с рождения нет этих вещей - мы даже не можем создать их внутри себя.

С рождения мы не содержим в себе слова или правила, которые объясняют нам, как их использовать. Внутри нас не хранятся картинки, которые затем можно перекинуть на флешку. Мы не извлекаем информацию или образы и слова из реестров памяти. Это делают компьютеры, но не живые организмы.

Компьютеры обрабатывают информацию: числа, буквы, слова, формулы, изображения. Чтобы компьютер распознал информацию, она должна поступить к нему в закодированном виде - в виде единиц и нулей (битов), которые, в свою очередь, собраны в маленькие блоки (байты). На моем компьютере каждый байт содержит 8 бит. Некоторые из них обозначают букву «D», другие - «O», третьи - «G». Таким образом, все эти байты образуют слово «DOG». Каждое изображение - скажем, фотография моего кота Генри на рабочем столе ― представлено особенным рисунком миллиона таких байтов (1 мегабайт), окруженных специальными символами, которые помогают компьютеру отличить картинку от слова.

Компьютеры в буквальном смысле слова перемещают эти паттерны с одного места на другое в разных отделах запоминающего устройства на электронных компонентах платы. Иногда система копирует паттерны, а иногда изменяет их самыми разнообразными способами - это похоже на ситуацию, когда мы исправляем ошибку в документе или ретушируем фотографию. Правила, по которым компьютер перемещает, копирует или проводит другие операции с этими наборами данных, также хранятся внутри компьютера. Набор этих правил называется программой или алгоритмом. Собранные вместе алгоритмы, помогающие нам в чем-то (например, при покупке акций или поиске данных онлайн), называются приложениями.

Прошу прощения за это введение в информатику, но я хочу четко донести одну мысль: компьютеры работают с символическими репрезентациями мира. Они буквально хранят, извлекают, обрабатывают информацию и обладают физическими воспоминаниями. Они следуют алгоритмам во всем, что делают, - без исключений. Люди, в свою очередь, так не делают, никогда не делали и делать не будут. Учитывая это, хочется спросить: почему же многие ученые рассуждают о нашей психике так, как будто мы компьютеры?

В книге «In Our Own Image» (2015 год) эксперт в области искусственного интеллекта Джордж Заркадакис описывает шесть различных метафор, которые люди использовали в течение двух последних тысячелетий, пытаясь описать природу человеческого разума.

Согласно первой метафоре, библейской, люди были созданы из глины и грязи, которую затем разумный Бог наделил своей душой.

Изобретение гидравлической техники в III веке до н. э. привело к распространению гидравлической модели человеческого интеллекта. Суть ее состояла в том, что различные жидкости нашего тела (телесные жидкости, гуморы) считались причастными и к физическому, и к психическому функционированию. Отметим, что это представление сохранялось более 1 600 лет, препятствуя развитию медицинской практики.

К XVI веку были придуманы автоматические механизмы из пружин и шестеренок. Они подтолкнули ведущих мыслителей того времени (в частности, Рене Декарта) к мысли о том, что люди похожи на сложные машины. В XVII веке английский философ Томас Гоббс выдвинул теорию, что мышление возникло из-за микроскопических механических движений в мозге. К началу XVIII века открытия в области электричества и химии привели к новым предположениям, касающимся человеческого интеллекта, - и снова глубоко метафорическим по своей природе. В середине того же столетия немецкий физик Герман фон Гельмгольц, вдохновленный достижениями в области связи, сравнил мозг с телеграфом.

Каждая идея о природе мозга отражала самые передовые мысли эпохи, которая их и породила. Поэтому нет ничего удивительного в том, что в эру зарождения компьютерных технологий в 40-х годах прошлого века все стали сравнивать работу мозга с компьютерными процессами: мозг - хранилище информации, а мысли - программное обеспечение. Публикация книги психолога Джорджа Миллера «Язык и общение» (1951 год) положила начало когнитивистике. Миллер предположил, что ментальный мир можно изучать при помощи понятий, заимствованных из теории информации, машинного вычисления и лингвистики.

Эта теория была полностью описана в 1958 году в книге «Компьютер и мозг». В ней математик Джон фон Нейман прямо заявляет, что деятельность нервной системы человека, на первый взгляд, имеет цифровую природу. Несмотря на то что сам Нейман признавал, что роль, которую играет мозг в человеческом мышлении и памяти, слабо изучена, он продолжал проводить параллель за параллелью между компонентами вычислительных машин того времени и элементами человеческого мозга.

Стремление ученых, вдохновляемых достижениями в области компьютерных технологий и исследований мозга, познать природу человеческого интеллекта привело к тому, что идея о схожести человека и компьютера прочно засела в умах людей. Сегодня этой теме посвящены тысячи научных работ и популярных статей, а в исследовательские проекты вложены миллиарды долларов. В книге Рэя Курцвейла «Как создать разум» (2013 год) отражена все та же идея о компьютере и мозге, о том, как разум «обрабатывает данные», и даже описано внешнее его сходство с интегральными схемами и их структурами.

Идея о том, что человеческий мозг обрабатывает информацию как компьютер, в наши дни доминирует в умах как обывателей, так и ученых. По факту не существует дискуссии о разумном человеческом поведении, которая бы проходила без упоминания этой метафоры, так же как в определенные эпохи и внутри определенной культуры не обходилось без отсылок к духам и божествам. Справедливость метафоры об обработке информации в современном мире, как правило, воспринимается как само собой разумеющееся.

Однако данная метафора - всего лишь метафора, история, которую мы рассказываем, чтобы уловить смысл чего-то, чего мы сами не понимаем. И, как и все предшествующие метафоры, эта, безусловно, в какой-то момент уйдет в прошлое и будет заменена или очередной метафорой, или истинным знанием.

Чуть больше года назад во время посещения одного из самых престижных исследовательских институтов я бросил вызов ученым: объяснить разумное человеческое поведение без отсылок к любому из аспектов компьютерно-информационной метафоры. Они просто не смогли этого сделать. Когда я снова вежливо поднял вопрос об этом в электронной переписке месяцы спустя, они так ничего и не смогли предложить. Они понимали, в чем проблема, не открещивались от задачи. Но все равно не могли предложить альтернативу. Другими словами, эта метафора прижилась. Она обременяет наше мышление словами и идеями настолько серьезными, что у нас возникают проблемы при попытке их понять.

Ложная логика идеи достаточно проста в формулировке. Она основывается на ложном аргументе с двумя разумными предположениями и единственным ложным выводом. Предположение №1: все компьютеры способны вести себя разумно. Предположение №2: все компьютеры есть информационные процессоры. Ложный вывод: все объекты, способные на разумную деятельность, являются информационными процессорами.

Если отбросить формальную терминологию, идея того, что люди являются информационными процессорами лишь потому, что компьютеры ими являются, звучит глупо, и когда в один прекрасный день эта метафора себя изживет, она наверняка будет рассматриваться историками именно так, как мы сейчас смотрим на высказывания о гидравлической или механической природе человеческого разума.

Если это звучит так глупо, почему же эта идея так успешна? Что удерживает нас от того, чтобы отбросить ее в сторону как ненужную, так же как мы отбрасываем ветку, которая преграждает нам путь? Существует ли способ понять человеческий интеллект, не опираясь на выдуманные костыли? И сколько мы должны будем заплатить за столь долгое использование этой опоры? В конце концов, на протяжении десятилетий эта метафора вдохновляла писателей и мыслителей на огромное количество исследований в самых разных областях науки - но какой ценой?

Во время занятия, которое я проводил за эти годы уже множество раз, я начинаю с выбора добровольца, которого прошу нарисовать на доске купюру в один доллар. «Побольше деталей», - говорю я. Когда он заканчивает рисовать, я закрываю рисунок листом бумаги, достаю купюру из кошелька, прикрепляю ее к доске и прошу студента повторить задание. Когда он или она заканчивает, я убираю лист бумаги с первого рисунка - и тогда класс комментирует различия.

Поскольку есть вероятность, что вы никогда не видели подобной демонстрации, - или, быть может, вам трудно представить себе результат, я попросил Джинни Хен, одного из интернов в институте, где я провожу свои исследования, сделать два рисунка. Вот рисунок по памяти:

А вот срисованный с купюры рисунок:

Джинни была удивлена результатом не меньше остальных, но в этом нет ничего необычного. Как вы можете видеть, рисунок, выполненный без взгляда на купюру, довольно примитивен по сравнению с тем, что был срисован с образца, - несмотря на то, что Джинни видела долларовую купюру тысячи раз.

В чем причина? Разве у нас нет загруженного в мозговой регистр памяти представления о том, как выглядит долларовая банкнота? Неужели мы не можем просто-напросто извлечь его оттуда и использовать при создании нашего рисунка? Очевидно, нет, и никакие тысячи лет исследований в области неврологии не помогут найти представление о виде долларовой банкноты, которое хранится в человеческом мозге, потому что его там попросту нет.

Результаты множества исследований человеческого мозга показывают, что в действительности многочисленные и иногда обширные участки мозга часто вовлечены в, казалось бы, самые рутинные задачи по запоминанию информации. Когда человек испытывает сильные эмоции, миллионы нейронов в мозгу могут стать более активными. В 2016 году нейрофизиолог из Университета Торонто Брайан Левин с коллегами провел исследование , в котором приняли участие люди, выжившие в авиакатастрофе. Исследование показало, что при воспоминании об аварии у выживших пассажиров возрастала нейронная активность в «миндалевидном теле, медиальной височной доле, передней и задней срединной линии, а также в зрительной коре» головного мозга.

Выдвинутая рядом ученых идея о том, что специфические воспоминания каким-то образом сохраняются в отдельных нейронах, нелепа; если уж на то пошло, это предположение лишь поднимает вопрос памяти на еще более сложный уровень: как и где в конечном счете память хранится в клетке?

Что же происходит, когда Джинни рисует долларовую банкноту, не глядя на образец? Если бы Джинни вообще никогда прежде не видела купюру, ее первый рисунок, вероятно, вообще не был бы похож на второй. Тот факт, что она видела долларовые банкноты прежде, каким-то образом на нее повлиял. В частности, ее мозг изменился таким образом, чтобы она смогла наглядно представить себе банкноту, что эквивалентно - по крайней мере, отчасти - тому, чтобы заново пережить ощущение зрительного контакта с купюрой.

Разница же между двумя рисунками говорит нам о том, что визуализация чего-либо (то есть представление чего-то, что мы не видим) намного менее точна, чем непосредственно возможность видеть что-либо. Именно поэтому мы лучше распознаем что-либо, чем вспоминаем это. Когда мы воспроизводим что-то в памяти (англ. re-member от латинского re, «снова», и memorari, «помнить»), мы должны попробовать снова пережить этот опыт. Но вот когда мы пытаемся распознать что-то, мы просто должны осознать тот факт, что ранее уже сталкивались с опытом переживания этого объекта или явления.

Возможно, вы возразите - Джинни видела долларовые банкноты и раньше, однако она не делала осознанных попыток запомнить детали. Вы также можете сказать, что если бы она постаралась запомнить, то результат был бы иной. Но и в этом случае никакое изображение банкноты не «хранилось» бы у нее в мозгу. Она просто подготовилась бы к тому, чтобы нарисовать детали, так же как пианист готовится к исполнению фортепианного концерта, не загружая в себя копию нот. Этот простой эксперимент дает нам возможность выстраивать новую основу теории интеллектуального поведения человека, согласно которой мозг, может, и не полностью пуст, но, по крайней мере, свободен от информационно-компьютерных метафор.

В течение жизни мы подвержены воздействию внешних раздражителей. Перечислим основные из них: 1) мы наблюдаем за тем, что происходит вокруг (как ведут себя другие люди, звуки музыки, слова на страницах, изображения на экранах); 2) мы выстраиваем связи между незначительными раздражителями (например, звук сирен) с более важными стимулами (появление полицейских машин); 3) мы бываем наказаны или вознаграждены за то, что ведем себя определенным образом.

Мы более эффективно развиваемся, если используем этот опыт, чтобы изменить себя: наблюдения дают нам навык прочитать стихотворение или спеть песню, а также следовать инструкциям; причинно-следственные связи позволяют реагировать на менее важные раздражители так же, как на важные раздражители (которые мы знаем, скоро последуют - прим. ред); мы воздерживаемся от поведения, за которым следует наказание, и чаще всего ведем себя так, чтобы получить награду.

К счастью, у нас нет необходимости беспокоиться о том, что разум человека сойдет с ума в киберпространстве или что мы получим бессмертие, загрузив свое сознание на внешний носитель.

Несмотря на вводящие в заблуждение заголовки популярных статей, ни у кого нет ни малейшего представления о том, как именно меняется мозг после того, как мы научились петь песню или выучили стихотворение. Однако мы точно знаем, что ни песни, ни стихотворения не «загружаются» в мозг. Наш мозг просто меняется таким образом, что теперь мы можем спеть песню или рассказать стихотворение при определенных условиях. В момент выступления ни песня, ни стихотворение не «извлекаются» из какого-то места в мозге - точно так же, как не «извлекаются» движения моих пальцев, когда я барабаню по столу. Мы просто поем или рассказываем - никакого «извлечения» для этого нам не нужно.

Несколько лет назад я спросил Эрика Кандела (нейробиолога из Колумбийского университета, получившего Нобелевскую премию за то, что он идентифицировал некоторые из химических изменений, происходящих в нейтронных синапсах морской улитки после того, как она учится чему-то), сколько времени, по его мнению, понадобится для того, чтобы мы поняли природу человеческой памяти. Он быстро ответил: «Сто лет». Правда, я не додумался спросить его, считает ли он, что доминирующая сейчас в науке теория замедляет прогресс в области нейрологии, однако некоторые нейроученые в самом деле начинают подозревать немыслимое - что компьютерная метафора не так уж и незаменима.

Некоторые ученые-когнитивисты, в частности Энтони Чемеро из Университета Цинциннати, автор книги «Radical Embodied Cognitive Science» (2009 год), уже сейчас полностью отрицают представление о том, что деятельность человеческого мозга схожа с работой компьютера. Распространенное мнение гласит, что мы, как и компьютеры, познаем мир, обрабатывая мысленно воссозданные образы предметов и явлений. Однако Чемеро и другие ученые по-другому описывают понимание интеллектуальной деятельности человека, предлагая смотреть на мыслительный процесс как на процессы прямого взаимодействия между организмами и окружающим их миром.

Мой любимый пример, иллюстрирующий огромную разницу между компьютерной метафорой и «антирепрезентативным» взглядом на функционирование мозга, включает в себя два способа объяснения того, как бейсболист пытается поймать высоко отбитый мяч. Этот пример был прекрасно описан Майклом МакБитом из Университета Аризоны и его коллегами в журнале Science в 1995 году. В логике компьютерной метафоры игрок должен сформулировать приблизительную оценку условий полета мяча (силу воздействия, угол траектории и так далее), потом создать и проанализировать внутреннюю модель траектории, по которой пролетит мяч, а уже потом применить модель, чтобы непрерывно направлять и вовремя корректировать движения, направленные на перехват мяча.

Все было бы так, если бы мы функционировали как компьютеры. Но МакБит и его коллеги объясняют процесс ловли мяча проще: чтобы поймать мяч, игроку нужно всего лишь продолжать двигаться так, чтобы постоянно сохранять с ним визуальную связь с учетом расположения основной базы и общей расстановки на поле (то есть придерживаться линейно-оптической траектории). Звучит сложно, но на самом деле это предельно просто и не подразумевает никаких вычислений, представлений и алгоритмов.

Два целеустремленных профессора психологии из Leeds Beckett University - Эндрю Уилсон и Сабрина Голонка - приводят пример с бейсболистом в ряду множества других, позволяющих просто и доходчиво избежать компьютерных сравнений. В течение многих лет они писали о том , что сами называют «более гармоничным и естественным подходом к научному изучению человеческого поведения… по сравнению с преобладающим когнитивистско-нейрологическим подходом». Это, конечно, еще не движение; большинство когнитивистов по-прежнему бездумно барахтаются в парадигме компьютерной метафоры, а некоторые авторитетные мыслители уже сделали грандиозные предсказания о будущем человечества исходя из неоспоримости этой метафоры.

Согласно одному из таких предсказаний - сделанного, среди прочих, футуристом Курцвейлом, физиком Стивеном Хокингом и нейрологом Рэндалом Коэном, - вскоре человеческое сознание (которое, по общему предположению, работает по принципу программного обеспечения) можно будет загрузить в компьютерную сеть, которая нереально усилит наши интеллектуальные способности и, возможно, даже сделает нас бессмертными. Эта теория легла в основу фильма-антиутопии «Превосходство», в котором Джонни Депп играет главную роль - ученого типа Курцвейла, мозг которого был загружен в интернет (что привело к ужасающим последствиям для всего человечества).

К счастью, у нас нет необходимости беспокоиться о том, что разум человека сойдет с ума в киберпространстве или что мы получим бессмертие, загрузив свое сознание на внешний носитель: компьютерная аналогия работы мозга даже близко не соответствует реальности. Но неверно оно не только потому, что в мозгу нет программного обеспечения в виде сознания, - проблема еще глубже. Назовем эту проблему проблемой уникальности - одновременно вдохновляющей и огорчающей.

Так как в мозгу нет ни «банков памяти», ни «репрезентаций» внешних стимулов, а все, что нужно мозгу для того, чтобы исправно функционировать, это меняться в результате приобретенного опыта, у нас нет оснований верить в то, что один и тот же опыт может изменять каждого из нас одним и тем же образом. Если бы мы с вами посетили один и тот же концерт, то изменения, которые бы произошли у меня в мозгу при звуках Пятой симфонии Бетховена, были бы наверняка не похожи на ваши. Какими бы они ни были, они создаются на основе уникальной нейронной структуры, которая к тому моменту уже существовала и развивалась на протяжении всей жизни под воздействием уникального набора переживаний.

Именно поэтому, как писал в своей книге «Вспоминая» (1932 год) сэр Фредерик Бартлетт, два человека не повторяют услышанную ими историю одинаково, а со временем их рассказы будут все больше и больше отличаться друг от друга. Не создается никакой «копии» истории; скорее, каждый индивид, услышав историю, меняется - в степени, достаточной для того, чтобы позже (в некоторых случаях спустя дни, месяцы или даже годы) суметь вновь пережить те минуты, когда он слушал историю, и воспроизвести ее, хотя и не очень точно (см. пример с банкнотой).

Я полагаю, что, с одной стороны, это вдохновляет, так как это значит, что каждый из нас по-настоящему уникален: не только по своему генетическому коду, но даже и по тем изменениям, которые происходят с нашим мозгом. Но, с другой стороны, это и печально, потому что ставит перед нейроучеными обескураживающую задачу. При изменениях, происходящих после переживания опыта, задействуются миллионы нейронов или даже весь мозг, и процесс изменений различен для каждого отдельного мозга.

Чтобы понять хотя бы основы того, как мозг обеспечивает питанием интеллект человека, нам может потребоваться проанализировать состояние всех 86 миллиардов нейронов и 100 триллионов их связей.

Что еще хуже, даже если мы вдруг сможем сделать моментальный снимок всех 86 миллиардов нейронов мозга, а затем смоделировать состояние этих нейронов на компьютере, этот полученный шаблон не будет иметь вообще никакой ценности - вне физического тела мозга, который его произвел. Возможно, непонимание этой идеи и есть самое страшное последствие распространенности идеи о компьютерном строении человеческого разума. В то время как компьютеры и в самом деле сохраняют точные копии информации, которые могут оставаться неизменными в течение долгого времени, даже если сам компьютер был выключен, наш мозг сохраняет интеллект только до тех пор, пока мы живы. У нас нет кнопок «включить» - «выключить». Либо мозг работает, либо нас нет. К тому же, как отметил невролог Стивен Роуз в своей книге «Будущее мозга» (2005 год), моментальный снимок состояния живого мозга также может оказаться бессмысленным, если мы не учтем полную историю жизни владельца - вплоть до знаний об окружении, в котором он вырос.

Просто задумайтесь, насколько сложна эта проблема. Чтобы понять хотя бы основы того, как мозг обеспечивает питанием интеллект человека, нам может потребоваться проанализировать не только состояние всех 86 миллиардов нейронов и 100 триллионов их связей, но и то, как ежесекундная деятельность мозга влияет на целостность этой системы. Добавьте к этому уникальность каждого мозга, вызванную уникальностью жизненного контекста каждого человека, и предсказание Кандела (100 лет на понимание проблемы мозга. - Прим. ред.) начинает казаться чересчур оптимистичным. В вышедшей недавно колонке редактора The New York Times нейробиолог Кеннет Миллер предположил, что задача выяснить природу хотя бы базовых нейронных связей займет века.

Тем временем огромные суммы денег тратятся на исследования мозговой деятельности, основанные зачастую на ошибочных идеях и невыполнимых обещаниях. Наиболее вопиющий случай того, как нейробилогическое исследование пошло не так, задокументировано в отчете Scientific American и относится к проекту Евросоюза «Человеческий мозг», на который в 2013 году было выделено около 1,3 миллиарда долларов. Комиссия поверила харизматичному Генри Маркраму, который утверждал, что сможет воссоздать копию человеческого мозга на суперкомпьютере к 2023 году и совершить прорыв в лечении болезни Альцгеймера. Власти ЕС профинансировали проект без каких-либо ограничений. Меньше чем через два года проект превратился в «заворот мозгов», и Маркрама попросили уйти.

Мы живые организмы, а не компьютеры. Пора смириться с этим. Давайте и дальше пытаться понимать себя, отбросив в сторону ненужный интеллектуальный багаж. Компьютерное сравнение просуществовало полвека и принесло нам не слишком много открытий (если вообще хоть какие-то). Настало время нажать на кнопку «delete».

  • Перевод

Все мы помним со школы мучительные упражнения в арифметике. На то, чтобы перемножить числа вроде 3 752 и 6 901 при помощи карандаша и бумаги, уйдёт не меньше минуты. Конечно же, сегодня, когда под рукой у нас телефоны, мы быстро можем проверить, что результат нашего упражнения должен равняться 25 892 552. Процессоры современных телефонов могут выполнять более 100 млрд таких операций в секунду. Более того, эти чипы потребляют всего несколько ватт, что делает их гораздо эффективнее наших медленных мозгов, потребляющих 20 Вт и требующих гораздо большего времени на достижение того же результата.

Конечно же, мозг эволюционировал не для того, чтобы заниматься арифметикой. Поэтому у него это получается плохо. Но он прекрасно справляется с обработкой постоянного потока информации, идущего от нашего окружения. И он реагирует на неё – иногда быстрее, чем мы можем это осознать. И неважно, сколько энергии будет потреблять обычный компьютер – он с трудом будет справляться с тем, что легко даётся мозгу – например, с пониманием языка или с бегом по лестнице.

Если бы могли создать машины, вычислительные способности и энергетическая эффективность которых были бы сравнимы с мозгом, то всё поменялось бы кардинально. Роботы бы ловко двигались в физическом мире и общались бы с нами на естественном языке. Крупномасштабные системы собирали бы огромные объёмы информации по бизнесу, науке, медицине или управлению государством, обнаруживая новые закономерности, находя причинно-следственные связи и делая предсказания. Умные мобильные приложения типа Siri и Cortana могли бы меньше полагаться на облака. Такая технология могла бы позволить нам создать устройства с небольшим энергопотреблением, дополняющие наши чувства, обеспечивающие нас лекарствами и эмулирующие нервные сигналы, компенсируя повреждение органов или паралич.

Но не рано ли ставить себе такие смелые цели? Не слишком ограничено ли наше понимание мозга для того, чтобы мы могли создавать технологии, работающие на основе его принципов? Я считаю, что эмуляция даже простейших особенностей нервных контуров может резко улучшить работу множества коммерческих приложений. Насколько точно компьютеры должны копировать биологические детали строения мозга, чтобы приблизиться к его уровню быстродействия – это пока открытый вопрос. Но сегодняшние системы, вдохновлённые строением мозга, или нейроморфные, станут важными инструментами для поисков ответа на него.

Ключевая особенность обычных компьютеров – физическое разделение памяти, хранящей данные и инструкции, и логики, обрабатывающей эту информацию. В мозгу такого разделения нет. Вычисления и хранение данных происходят одновременно и локально, в обширной сети, состоящей из примерно 100 млрд нервных клеток (нейронов) и более 100 трлн связей (синапсов). По большей части мозг определяется этими связями и тем, как каждый из нейронов реагирует на входящий сигнал других нейронов.

Говоря об исключительных возможностях человеческого мозга, обычно мы имеем в виду недавнее приобретение долгого эволюционного процесса – неокортекс (новую кору). Этот тонкий и крайне складчатый слой формирует внешнюю оболочку мозга и выполняет очень разные задачи, включающие обработку поступающей от чувств информации, управление моторикой, работу с памятью и обучение. Такой широкий спектр возможностей доступен довольно однородной структуре: шесть горизонтальных слоёв и миллион вертикальных столбиков по 500 мкм шириной, состоящих из нейронов, интегрирующих и распределяющих информацию, закодированную в электрических импульсах, вдоль растущих из них усиков – дендритов и аксонов.

Как у всех клеток человеческого тела, у нейрона существует электрический потенциал порядка 70 мВ между внешней поверхностью и внутренностями. Это мембранное напряжение изменяется, когда нейрон получает сигнал от других связанных с ним нейронов. Если мембранное напряжение поднимается до критической величины, он формирует импульс, или скачок напряжения, длящийся несколько миллисекунд, величиной порядка 40 мВ. Этот импульс распространяется по аксону нейрона, пока не доходит до синапса – сложной биохимической структуры, соединяющей аксон одного нейрона с дендритом другого. Если импульс удовлетворяет определённым ограничениям, синапс преобразует его в другой импульс, идущий вниз по ветвящимся дендритам нейрона, получающего сигнал, и меняет его мембранное напряжение в положительную или отрицательную сторону.

Связность – критическая особенность мозга. Пирамидальный нейрон – особенно важный тип клеток человеческого неокортекса – содержит порядка 30 000 синапсов, то есть 30 000 входных каналов от других нейронов. И мозг постоянно приспосабливается. Нейрон и свойства синапса – и даже сама структура сети – постоянно изменяются, в основном под воздействием входных данных с органов чувств и обратной связи окружающей среды.

Современные компьютеры общего назначения цифровые, а не аналоговые; мозг классифицировать не так-то просто. Нейроны накапливают электрический заряд, как конденсаторы в электронных схемах. Это явно аналоговый процесс. Но мозг использует всплески в качестве единиц информации, а это в основе своей двоичная схема: в любое время в любом месте всплеск либо есть, либо его нет. В терминах электроники, мозг – система со смешанными сигналами, с локальными аналоговыми вычислениями и передачей информацией при помощи двоичных всплесков. Поскольку у всплеска есть только значения 0 или 1, он может пройти большое расстояние, не теряя этой основной информации. Он также воспроизводится, достигая следующего нейрона в сети.

Ещё одно ключевое отличие мозга и компьютера – мозг справляется с обработкой информации без центрального тактового генератора, синхронизирующего его работу. Хотя мы и наблюдаем синхронизирующие события – мозговые волны – они организуются сами, возникая как результат работы нейросетей. Что интересно, современные компьютерные системы начинают перенимать асинхронность, свойственную мозгу, чтобы ускорить вычисления, выполняя их параллельно. Но степень и цель параллелизации двух этих систем крайне различны.

У идеи использования мозга в качестве модели для вычислений глубокие корни. Первые попытки были основаны на простом пороговом нейроне , выдающем одно значение, если сумма взвешенных входящих данных превышает порог, и другое – если не превышает. Биологический реализм такого подхода, задуманного Уорреном Маккалохом и Уолтером Питтсом в 1940-х, весьма ограничен. Тем не менее, это был первый шаг к применению концепции срабатывающего нейрона в качестве элемента вычислений.

В 1957 году Фрэнк Розенблатт предложил другой вариант порогового нейрона, перцептрон . Сеть из взаимосвязанных узлов (искусственных нейронов) составляется слоями. Видимые слои на поверхности сети взаимодействуют с внешним миром в качестве входов и выходов, а скрытые слои, находящиеся внутри, выполняют все вычисления.

Розенблатт также предложил использовать основную особенность мозга: сдерживание. Вместо того, чтобы складывать все входы, нейроны в перцептроне могут вносить и отрицательный вклад. Эта особенность позволяет нейросетям использовать единственный скрытый слой для решения задач на XOR в логике, в которых выход равен истине, если только один из двух двоичных входов истинный. Этот простой пример показывает, что добавление биологического реализма может добавлять и новые вычислительные возможности. Но какие функции мозга необходимы для его работы, а какие – бесполезные следы эволюции? Никто не знает.

Нам известно, что впечатляющих вычислительных результатов можно добиться и без попыток создать биологический реализм. Исследователи глубинного обучения продвинулись очень далеко в деле использования компьютеров для анализа крупных объёмов данных и выделения определённых признаков из сложных изображений. Хотя созданные ими нейросети обладают большим количеством входов и скрытых слоёв, чем когда бы то ни было, они всё-таки основаны на крайне простых моделях нейронов. Их широкие возможности отражают не биологический реализм, а масштаб содержащихся в них сетей и мощность используемых для их тренировки компьютеров. Но сетям с глубинным обучением всё ещё очень далеко до вычислительных скоростей, энергетической эффективности и возможностей обучения биологического мозга.

Огромный разрыв между мозгом и современными компьютерами лучше всего подчёркивают крупномасштабные симуляции мозга. За последние годы было сделано несколько таких попыток, но все они были жёстко ограничены двумя факторами: энергией и временем симуляции. К примеру, рассмотрим симуляцию , проведённую Маркусом Дайсманом с его коллегами несколько лет назад при использовании 83 000 процессоров на суперкомпьютере К в Японии. Симуляция 1,73 млрд нейронов потребляла в 10 млрд раз больше энергии, чем эквивалентный участок мозга, хотя они и использовали чрезвычайно упрощённые модели и не проводили никакого обучения. И такие симуляции обычно работали более чем в 1000 раз медленнее реального времени биологического мозга.

Почему же они такие медленные? Симуляция мозга на обычных компьютерах требует вычисления миллиардов дифференциальных уравнений, связанных между собой, и описывающих динамику клеток и сетей: аналоговые процессы вроде перемещения заряда по клеточной мембране. Компьютеры, использующие булевскую логику – меняющую энергию на точность – и разделяющие память и вычисления, крайне неэффективно справляются с моделированием мозга.

Эти симуляции могут стать инструментом познания мозга, передавая полученные в лаборатории данные в симуляции, с которыми мы можем экспериментировать, а затем сравнивать результаты с наблюдениями. Но если мы надеемся идти в другом направлении и использовать уроки нейробиологии для создания новых вычислительных систем, нам необходимо переосмыслить то, как мы разрабатываем и создаём компьютеры.


Нейроны в кремнии.

Копирование работы мозга при помощи электроники может быть более выполнимым, чем это кажется на первый взгляд. Оказывается, что на создание электрического потенциала в синапсе тратится примерно 10 фДж (10 -15 джоулей). Затвор металл-оксид-полупроводникового (МОП) транзистора, значительно более крупного и потребляющего больше энергии, чем те, что используются в ЦП, требует для заряда лишь 0,5 фДж. Получается, что синаптическая передача эквивалентна зарядке 20 транзисторов. Более того, на уровне устройств биологические и электронные схемы не так уж сильно различаются. В принципе можно создать структуры, подобные синапсам и нейронам, из транзисторов, и соединить их так, чтобы получить искусственный мозг, не поглощающий таких вопиющих объёмов энергии.

Идея о создании компьютеров при помощи транзисторов, работающих как нейроны, появилась в 1980-х у профессора Карвера Мида из Калтеха. Одним из ключевых аргументов Мида в пользу «нейроморфных» компьютеров было то, что полупроводниковые устройства могут, работая в определённом режиме, следовать тем же физическим законам, что и нейроны, и что аналоговое поведение можно использовать для расчётов с большой энергоэффективностью.

Группа Мида также изобрела платформу для нейрокоммуникаций, в которой всплески кодируются только их адресами в сети и временем возникновения. Эта работа стала новаторской, поскольку она первой сделала время необходимой особенностью искусственных нейросетей. Время – ключевой фактор для мозга. Сигналам нужно время на распространение, мембранам – время на реакцию, и именно время определяет форму постсинаптических потенциалов.

Несколько активных сегодня исследовательских групп, например, группа Джиакомо Индивери из Швейцарской высшей технической школы и Квабены Боахен из Стэнфорда, пошли по стопам Мида и успешно внедрили элементы биологических корковых сетей. Фокус в том, чтобы работать с транзисторами при помощи тока низкого напряжения, не достигающего их порогового значения, создавая аналоговые схемы, копирующие поведение нервной системы, и при этом потребляющие немного энергии.

Дальнейшие исследования в этом направлении могут найти применение в таких системах, как интерфейс мозг-компьютер. Но между этими системами и реальным размером сети, связности и способностью к обучению животного мозга существует огромный разрыв.

Так что в районе 2005 году три группы исследователей независимо начали разрабатывать нейроморфные системы, существенно отличающиеся от изначального подхода Мида. Они хотели создать крупномасштабные системы с миллионами нейронов.

Ближе всех к обычным компьютерам стоит проект SpiNNaker , руководимый Стивом Фёрбером из Манчестерского университета. Эта группа разработала собственный цифровой чип, состоящий из 18 процессоров ARM, работающих на 200 МГц – примерно одна десятая часть скорости современных CPU. Хотя ядра ARM пришли из мира классических компьютеров, они симулируют всплески, отправляемые через особые маршрутизаторы, разработанные так, чтобы передавать информацию асинхронно – прямо как мозг. В текущей реализации, являющейся частью проекта Евросоюза «Человеческий мозг» , и завершённой в 2016 году, содержится 500 000 ядер ARM. В зависимости от сложности модели нейрона, каждое ядро способно симулировать до 1000 нейронов.

Чип TrueNorth, разработанный Дармендра Мода и его коллегами из Исследовательской лаборатории IBM в Альмадене, отказывается от использования микропроцессоров как вычислительных единиц, и представляет собой на самом деле нейроморфную систему, в которой переплелись вычисления и память. TrueNorth всё равно остаётся цифровой системой, но основана она на специально разработанных нейроконтурах, реализующих определённую модель нейрона. В чипе содержится 5,4 млрд транзисторов, он построен по 28-нм технологии Samsung КМОП (комплементарная структура металл-оксид-полупроводник). Транзисторы эмулируют 1 млн нейроконтуров и 256 млн простых (однобитных) синапсов на одном чипе.

Я бы сказал, что следующий проект, BrainScaleS , отошёл довольно далеко от обычных компьютеров и приблизился к биологическому мозгу. Над этим проектом работали мы с моими коллегами из Гейдельбергского университета для европейской инициативы «Человеческий мозг». BrainScaleS реализует обработку смешанных сигналов. Он комбинирует нейроны и синапсы, в роли которых выступают кремниевые транзисторы, работающие как аналоговые устройства с цифровым обменом информацией. Полноразмерная система состоит из 8-дюймовых кремниевых подложек и позволяет эмулировать 4 млн нейронов и 1 млрд синапсов.

Система может воспроизводить девять различных режимов срабатывания биологических нейронов, и разработана в тесном сотрудничестве с нейробиологами. В отличие от аналогового подхода Мида, BrainScaleS работает в ускоренном режиме, его эмуляция в 10 000 раз быстрее реального времени. Это особенно удобно для изучения процесса обучения и развития.

Обучение, скорее всего, станет критическим компонентом нейроморфных систем. Сейчас чипы, сделанные по образу мозга, а также нейросети, работающие на обычных компьютерах, тренируются на стороне при помощи более мощных компьютеров. Но если мы хотим использовать нейроморфные системы в реальных приложениях – допустим, в роботах, которые должны будут работать бок о бок с нами, они должны будут уметь учиться и адаптироваться на лету.

Во втором поколении нашей системы BrainScaleS мы реализовали возможность обучения, создав на чипе «обработчики гибкости». Они используются для изменения широкого спектра параметров нейронов и синапсов. Эта возможность позволяет нам точно подстраивать параметры для компенсации различий в размере и электрических свойствах при переходе от одного устройства к другому – примерно как сам мозг подстраивается под изменения.

Три описанных мной крупномасштабных системы дополняют друг друга. SpiNNaker можно гибко настраивать и использовать для проверки разных нейромоделей, у TrueNorth высока плотность интеграции, BrainScaleS разработана для постоянного обучения и развития. Поиски правильного способа оценки эффективности таких систем пока продолжаются. Но и ранние результаты многообещающие. Группа TrueNorth от IBM недавно подсчитала, что синаптическая передача в их системе отнимает 26 пДж. И хотя это в 1000 раз больше энергии, требующейся в биологической системе, зато это почти в 100 000 раз меньше энергии, уходящей на передачу в симуляции на компьютерах общего назначения.

Мы всё ещё находимся на ранней стадии понимания того, что могут делать такие системы и как их применять к решению реальных задач. Одновременно мы должны найти способы комбинировать множество нейроморфных чипов в крупные сети с улучшенными возможностями к обучению, при этом понижая энергопотребление. Одна из проблем – связность: мозг трёхмерный, а наши схемы – двумерные. Вопрос трёхмерной интеграции схем сейчас активно изучают, и такие технологии могут нам помочь.

Ещё одним подспорьем могут стать устройства, не основанные на КМОП – мемристоры или PCRAM (память с изменением фазового состояния). Сегодня веса, определяющие реакцию искусственных синапсов на входящие сигналы, хранятся в обычной цифровой памяти, отнимающей большую часть кремниевых ресурсов, необходимых для построения сети. Но другие виды памяти могут помочь нам уменьшить размеры этих ячеек с микрометровых до нанометровых. И основной трудностью современных систем будет поддержка различий между разными устройствами. Для этого смогут помочь принципы калибровки, разработанные в BrainScaleS.

Мы только начали свой путь по дороге к практичным и полезным нейроморфным системам. Но усилия стоят того. В случае успеха мы не только создадим мощные вычислительные системы; мы даже можем получить новую информацию о работе нашего собственного мозга.

Исследователи, занятые изучением человеческого мозга, после наблюдений над современными детьми сделали неутешительные выводы. Представители компьютерного 3D поколения стремительно глупеют и все чаще проявляют такие расстройства, как нарушение памяти, слабую способность к концентрации внимания, низкий уровень самоконтроля, подавленность и депрессивность. Это касается не только детей. Люди цифровой цивилизации всё меньше читают и запоминают, зато тоннами потребляют готовую информацию и проводят время не в живом общении, а в виртуальном мире. Как это на нас влияет и к чему ведет? А, может быть, это не отупение, а новый этап развития человеческого мозга?

Согласитесь, большую часть своей жизни большинство из нас проводит у монитора или экрана какого-нибудь . Карикатуристы даже грустно шутят о тихих семейных вечерах, где каждый из членов семьи вместо общения с живыми родственниками предпочитает уткнуться в свой экран и чатиться с малознакомыми «друзьями» в социальных сетях. Причем с друзьями, большинства из которых и в глаза не видел.

Чем опасен компьютер?

Не будем говорить об излучении, проблемах с позвоночником, с кожей, глазами, лишним весом от малоподвижного образа жизни, к которому приговаривают нас современные гаджеты. Поговорим о более коварном факторе риска – воздействии компьютера на человеческий мозг.

Действительно ли от пользования интернетом мы приобретаем синдром компьютерного слабоумия?

Давайте попробуем разобраться, как компьютер постепенно превращает нас в зависимых и одиноких дураков.

1. Он дает готовые ответы
. Их не надо искать, не нужно напрягать мозг, лишь правильно сформулировать вопрос.

2. Он создает иллюзию знаний
(ответы, которые дают поисковые системы, воспринимаются человеком как часть его собственного мозга, и он не старается запомнить информацию).

3. Убивает социализацию человека.
Отсутствие живого общения ведет к усложнению . У него тысячи виртуальных друзей, но отсутствуют реальные. Человек постепенно превращается в беспомощного и замкнутого аутиста, который не умеет строить социальные связи, общаться, любить и дружить. Он живет в мире иллюзий и собственных фантазий, которые скроены из случайных отрывков готовой пережеванной информации, клипов, лайков, видео, постов, слоганов и т.д.

4. Делает нас уязвимыми, открытыми до предела. С одной стороны, погружаясь в интернет, мы теряем социальные связи. С другой стороны, нам необходимы эти связи, так как мы являемся социальными существами. Интернет предоставляет нам иллюзию общения. И мы с готовностью раскрываемся ему, не задумываясь о последствиях открытости. Например, бросили фото в инстаграм. Там у нас есть тысяча друзей, которых мы в глаза не видели, но нам обязательно хочется получить от них одобрение. Мы ждем этих пресловутых лайков, считаем их и думаем, что таким образом человек проявляет к нам внимание. Но это лишь иллюзия внимания. Кто-то лайкает от нечего делать, кто-то в надежде, что лайкнут ему в ответ. На самом деле, большинству людей нет до вас никакого дела. И вы, к сожалению, об этом догадываетесь где-то в глубине души. Порой нам бывает так одиноко, что мы готовы выложить на всеобщее обозрение самые сокровенные страницы своей личной жизни, которые могут быть использованы недоброжелателями.

5. Мы попадаем в сети . Мы так привыкли уже к интернету, что в его отсутствии, испытываем настоящую информационную ломку. Нам резко не хватает иллюзорного виртуального мира, в котором можно общаться или без зазрения совести промолчать на заданный вопрос, не думая о выражении своего лица.

В интернете легко получить быструю, практически мгновенную информацию обо всем на свете. Впрочем, ее обилие и разнообразие отнюдь не стимулирует мозг к запоминанию. Более того, постоянно работая с компьютером, человек получает искомое, как будто мимоходом, совмещая с другими занятиями. Создается впечатление, что он выхватывает кусочки, разрозненные, не связанные друг с другом факты, и они тут же забываются, если он вовремя не скопирует ссылки или отрывки текстов. Это не дает ему возможности сформировать глубокие собственные умозаключения. Информационное кусочничанье и надежда на то, что в любой момент ты можешь получить любую информацию без малейших усилий, кажется, избаловывают мозг. Заставляет его работать не в полную силу.

А когда не используются ресурсы мозга, он атрофируется, те участки, которые могли бы развиваться, если бы человек глубоко вникал в информацию, анализировал ее, изучал, не развиваются. Мозг будто бы «усыхает». Отсюда и возникновение всевозможных возрастных болезней, и «отупение» молодых.

Традиционно считается, что, по возможности, надо как можно меньше контактировать с компьютером, особенно детям, пока они учатся и получают информацию о мире. Надо заставлять работать свой мозг в усиленном режиме, в каком бы возрасте вы ни находились. «Век живи, век учись» – прекрасная формула для профилактики болезни Альцгеймера.


А что, если компьютер выводит мозг на новый этап развития?

С вредным воздействием интернета на мозг и социализацию человека можно поспорить и даже опровергнуть. Компьютеры стали естественной частью нашей жизни, и наш мозг невольно приспосабливается к ним, развиваясь в еще неизвестном нам направлении. Это не значит, что мы стали глупее и большую часть работы выполняет за нас машина. Просто работа нашего мозга настолько изменилась, что нам кажется, он вообще не работает.

Это раньше, чтобы получить информацию, мы должны были перелопатить множество литературы, отыскать факты, сопоставить их, выбрать наиболее подходящие для нас. Мозг усиленно работал, дым шел из ушей! Но при этом он засорялся огромным количеством второстепенной информации, которая замедляла получение результата. Теперь все происходит значительно быстрее, и нам кажется, что мозг работает не в полную силу. А кто это сказал?

А что, если мозг не филонит, а, напротив, работает в еще более усиленном, но непривычном для нас режиме? Работает выборочно. Только с той информацией, которая нам нужна в данный момент. Зачастую информационный поток содержит в себе массу мусора, грязи, откровенной ерунды. Пока дочерпаешь до чистой истины, можно потратить полжизни. К тому же в интернете есть множество отвлекающих моментов, которые погружают нас в сеть игр, игрушек и картинок, и мы безнадежно теряем время, отдаляясь от цели.

А что, если, одновременно погружая и освобождая нас от лишнего информационного мусора, ненужных повторений, перелопачивания давно известного, но уже неактуального контента, мозг приспосабливается к темпам нашей жизни и помогает вычленить в потоке информации самое важное.

А, может, это не отупение, а освобождение от ненужного? А наш вечно работающий мозг помогает нам расслабиться и освободиться для чистого творчества, ведь выдержать тот мощный информационный прессинг, который обрушивается на нас ежедневно, нам не под силу и отвлекает от главного? В чем главное для нас, живущих в мире цифровых технологий?

Условие развития мозга – творчество

Исследуя уровень IQ современных людей по сравнению с IQ людей пятидесятых годов, Ричард Линн, психолог Университета Ольстера, отметил значительное . В 2014 году IQ упал на 3 пункта по сравнению с показателями 1950 года. И если оглупление населения планеты будет продолжаться такими же темпами, считает Линн, то в 2110 году IQ человечества станет ниже на 84 пункта.

Получается, что вся планета стремительно глупеет, и нас ждет, полная деградация и вырождение?

Многие считают, что мозг спасёт запоминание. Советуют развивать долговременную память, изучать языки, разгадывать кроссворды, заучивать стихи. Однако простое механическое запоминание развивает память, но не развивает мозг.

Действительно, может показаться, что поисковики и Википедия сделали нас глупее, ослабили нашу долговременную память. Если бы нас вдруг сорвали со стула и забрали гаджеты, отключили интернет и стали бы разговаривать с нами на интеллектуальные темы, мы, наверняка, сели бы в лужу. Надеясь на google, мы не запоминаем теперь даже элементарных вещей. Без компьютера мы становимся практически беспомощными, в какой-то степени даже беззащитными.

Но давайте попробуем посмотреть на проблему иначе. Согласитесь, современные дети, даже без инструкций легко могут справиться с компьютерной техникой, будто она им давно известна. Откуда в них это знание? Может они и обо всем остальном знают? Тогда зачем им изучать и запоминать то, что уже и так есть в их мозгу. Вся история человечества, все накопленные им знания уже содержаться в том грандиозном банке данных, который представляет собой наш мозг. Количество нейронов его исчисляется даже не тысячами, а триллионами. Нам трудно представить себе эти цифры. Но любой человеческий мозг намного мощнее любого, даже самого мощного компьютера. И он лучше нас знает, что необходимо нам на этом этапе развития человечества.

Так может быть стоит ему довериться? И не думать о том, что все мы катастрофически тупеем, хотя этого, по определению, произойти не может. Мы тупеем с точки зрения старой науки, старых методов образования, старых интеллектуальных теорий. А к новым – пока только подступаем. Современный человек владеет априори гораздо большим объемом информации по сравнению с людьми, скажем, в 19 веке. И снижение способностей к традиционному фундаментальному образованию может быть не отрицательной, а положительной тенденцией развития его мозга.

А что, если на данном этапе развития человечества ему не нужны знания из области орфографии, пунктуации, физики, математики и других наук, которым учат в школе, на том уровне, который был нормальным и привычным пятьдесят лет назад. Они кажутся лишними для людей постиндустриального общества, когда цифровые технологии плотно проникли в нашу жизнь, облегчают ее и освобождают человека от необходимости бороться за свое существование и напрягать вопросами выживания свой вечно работающий мозг.

Может быть, современному человеку нужны сегодня какие-то другие знания? И наш мозг пытается до нас это донести, снижая привычные показатели формальной образованности.

Мне кажется, что он призывает нас освободиться от лишних знаний, чтобы снова стать творцами. Творчество возможно только при полном освобождении от информационного мусора. Сказать что-то новое можно только тогда, когда мозг чист и светел.

По-настоящему развивает мозги только творчество, то есть та деятельность, в результате которой рождается что-то новое (в любой сфере нашей жизни). А творчество невозможно, когда мозг засорен чужими идеями и неактуальной информацией. Его надо очистить. Так называемое состояние просветления приходит тогда, когда мы полностью освобождаем мозг от лишней информации. Отчасти мы освобождаем его и тогда, когда бездумно листаем посты в фейсбуке, выхватываем поверхностные, на первый взгляд, клочки и осколки информации из интернета. В этот момент мы как раз и расслабляем мозг. И не подозреваем, что он при этом усиленно работает, сравнивает, анализирует, фильтрует, чтоб из клочков собрать для нас целостную картину мира.

Мозг заставляет нас развивать другие способности

Мы не знаем до конца, на что он способен. Возможно, он может намного больше того, что нам кажется. И эта осколочная информация, благодаря уже накопленным нами знаниям, а также ассоциативным связям между явлениями и предметами, дает возможность мозгу из осколков сложить самый точный слепок реальности, чтобы заставить нас понять, куда нам двигаться дальше.

Картина получается более целостная, чем если бы мы погружались бы в каждый отдельный информационный блок, то есть углублялись бы в ту или иную науку. В том случае мы получали бы информацию, ограниченную только данной сферой, в первом случае, мы получаем более широкую картину действительности, видя ее с разных точек зрения.

На первый взгляд, это ничего не значащие, не связанные между собой куски информации, на самом деле, они, как пиксели на экране, которые мы видим не каждый в отдельности, а в целостности картинки.

Возможно, наш мозг настолько гибок, что адаптируется к такому своеобразному способу нашего существования сегодня и дает нам возможность развиваться каким-то иным способом, незнакомым нам ранее. Дарит шанс развивать не память, не интеллект, а какие-то другие свои способности, которые мы давным-давно запустили и никак не развиваем. Какие? На то он и мозг, чтобы заставлять нас думать об этом.

Популярно утверждение, что человеческий мозг мощнее любого компьютера.
В настоящей заметке такая постоновка вопроса подвергается сомнению.
И предлагается рассматривать мозг с иных позиций.

Фёдор Проходский, редактор

Ваш мозг не обрабатывает информацию, не извлекает знания и не хранит воспоминания. Короче говоря, ваш мозг - не компьютер. Американский психолог Роберт Эпштейн объясняет, почему представление о мозге как о машине неэффективно ни для развития науки, ни для понимания человеческой природы.

Несмотря на все усилия, неврологи и когнитивные психологи никогда не найдут в мозге копии Пятой симфонии Бетховена, слов, картинок, грамматических правил или любых других внешних сигналов. Конечно же, мозг человека не совсем уж пустой. Но он не содержит большинства вещей, которые, по мнению людей, в нем содержатся - даже таких простых вещей, как «воспоминания».

Наше ложное представление о мозге имеет глубокие исторические корни, но особенно запутало нас изобретение компьютеров в 1940-х годах. На протяжении полувека психологи, лингвисты, нейрофизиологи и другие эксперты по вопросам человеческого поведения утверждали, что человеческий мозг работает подобно компьютеру.

Чтобы представить, насколько легкомысленна эта идея, рассмотрим мозг младенцев. Здоровый новорожденный обладает более чем десятью рефлексами. Он поворачивает голову в том направлении, где ему чешут щечку, и всасывает все, что попадает в рот. Он задерживает дыхание при погружении в воду. Он так сильно хватает вещи, попавшие ему в руки, что почти может удерживать свой собственный вес. Но, возможно, важнее всего то, что новорожденные обладают мощными механизмами обучения, позволяющими им быстро изменяться, чтобы они могли более эффективно взаимодействовать с окружающим миром.

Чувства, рефлексы и механизмы обучения - это то, что есть у нас с самого начала, и, если задуматься, это достаточно много. Если бы нам не хватало каких-либо из этих способностей, наверное, нам было бы трудно выжить.

Но вот, чего в нас нет с рождения: информации, данных, правил, знаний, лексики, представлений, алгоритмов, программ, моделей, воспоминаний, образов, процессоров, подпрограмм, кодеров, декодеров, символов и буферов - элементов, которые позволяют цифровым компьютерам вести себя в какой-то степени разумно. Мало того, что этих вещей нет в нас с рождения, они не развиваются в нас и при жизни.

Мы не храним слова или правила, говорящие нам, как ими пользоваться. Мы не создаем образы визуальных импульсов, не храним их в буфере кратковременной памяти и не передаем затем образы в устройство долгосрочной памяти. Мы не вызываем информацию, изображения или слова из реестра памяти. Все это делают компьютеры, но не живые существа.

Компьютеры в буквальном смысле слова обрабатывают информацию - цифры, слова, формулы, изображения. Сначала информация должна быть переведена в формат, который может распознать компьютер, то есть в наборы единиц и нулей («битов»), собранные в небольшие блоки («байты»).

Компьютеры перемещают эти наборы с места на место в различные области физической памяти, реализованной в виде электронных компонентов. Иногда они копируют наборы, а иногда различными способами трансформируют их - скажем, когда вы исправляете ошибки в рукописи или ретушируете фотографию. Правила, которым следует компьютер при перемещении, копировании или работе с массивом информации, тоже хранятся внутри компьютера. Набор правил называется «программой» или «алгоритмом». Совокупность работающих вместе алгоритмов, которую мы используем для разных целей (например, для покупки акций или знакомств в интернете) называется «приложением».

Это известные факты, но их нужно проговорить, чтобы внести ясность: компьютеры работают на символическом представлении мира. Они действительно хранят и извлекают. Они действительно обрабатывают. Они действительно имеют физическую память. Они действительно управляются алгоритмами во всем без исключения.

При этом люди ничего такого не делают. Так почему так много ученых говорит о нашей умственной деятельности так, как если бы мы были компьютерами?

В 2015 году эксперт по искусственному интеллекту Джордж Заркадакис выпустил книгу «По нашему образу», в которой он описывает шесть различных концепций, используемых людьми в течение последних двух тысяч лет для описания устройства человеческого интеллекта.

В наиболее ранней версии, изложенной в Библии, люди были созданы из глины или грязи, которую разумный Бог затем пропитал своим духом. Этот дух и «описывает» наш разум - по крайней мере, с грамматической точки зрения.

Изобретение гидравлики в III веке до нашей эры стало причиной популярности гидравлической концепции человеческого сознания. Идея состояла в том, что ток различных жидкостей в теле - «телесных жидкостей» - приходится и на физические, и на духовные функции. Гидравлическая концепция существовала на протяжении более чем 1600 лет, все это время затрудняя развитие медицины.

К XVI веку появились устройства, приводимые в действие пружинами и зубчатыми передачами, что вдохновило Рене Декарта на суждения о том, что человек - это сложный механизм. В XVII веке британский философ Томас Гоббс предположил, что мышление происходит благодаря небольшим механическим движениям в мозгу. К началу XVIII века открытия в области электричества и химии привели к появлению новой теории человеческого мышления, опять-таки имеющей больше метафорический характер. В середине XIX века немецкий физик Герман фон Гельмгольц, вдохновленный последними достижениями в области связи, сравнил мозг с телеграфом.

Математик Джон фон Нейман заявил, что функция человеческой нервной системы является «цифровой при отсутствии доказательств в пользу противного», проводя параллели между компонентами компьютерных машин того времени и участками человеческого мозга.

Каждая концепция отражает самые передовые идеи породившей её эпохи. Как и следовало ожидать, всего через несколько лет после зарождения компьютерных технологий в 1940-х годах стали утверждать, что мозг работает, как компьютер: роль физического носителя играл сам мозг, а наши мысли выступали в качестве программного обеспечения.

Такая точка зрения достигла максимального развития в книге «Компьютер и мозг» 1958 года, в которой математик Джон фон Нейман решительно заявил, что функция нервной системы человека является «цифровой при отсутствии доказательств в пользу противного». Хоть он и признавал, что о роли мозга в работе интеллекта и памяти известно очень мало, ученый проводил параллели между компонентами компьютерных машин того времени и участками человеческого мозга.

Благодаря последующим достижениям в области компьютерных технологий и исследования мозга, постепенно развивалось амбициозное междисциплинарное учение о человеческом сознании, в основе которого лежит идея о том, что люди, как и компьютеры - это информационные процессоры. Эта работа в настоящее время включает в себя тысячи исследований, получает миллиарды долларов финансирования, и становится темой для множества трудов. Книга Рэя Курцвейла «Как создать разум: Раскрытие тайны человеческого мышления», выпущенная в 2013 году, иллюстрирует эту точку зрения, описывает «алгоритмы» мозга, методы «обработки информации» и даже то, как он внешне напоминает в своей структуре интегральные схемы.

Представление о человеческом мышлении как об устройстве обработки информации (ОИ) в настоящее время доминирует в человеческом сознании как среди обычных людей, так и среди ученых. Но это, в конце концов, просто еще одна метафора, вымысел, который мы выдаем за действительность, чтобы объяснить то, что на самом деле не понимаем.

Несовершенную логику концепции ОИ довольно легко сформулировать. Она основана на ошибочном силлогизме с двумя разумными предположениями и неверным выводом. Разумное предположение №1: все компьютеры способны на разумное поведение. Разумное предположение №2: все компьютеры являются информационными процессорами. Неверное заключение: все объекты, способные вести себя разумно - информационные процессоры.

Если забыть о формальностях, то идея о том, что люди должны быть информационными процессорами, только потому, что компьютеры являются таковыми – это полная глупость, и когда от концепции ОИ окончательно откажутся, наверняка историками она будет рассматриваться с этой же точки зрения, как сейчас для нас выглядят чушью гидравлическая и механическая концепции.

Проведите эксперимент: нарисуйте сторублевую купюру по памяти, а потом достаньте ее из кошелька и скопируйте. Видите разницу?

Рисунок, сделанный в отсутствие оригинала, наверняка окажется ужасен в сравнении с рисунком, сделанным с натуры. Хотя вообще-то вы видели эту купюру не одну тысячу раз.

В чем проблема? Разве «образ» банкноты не должен «храниться» в «запоминающем регистре» нашего мозга? Почему мы не можем просто «обратиться» к этому «образу» и изобразить его на бумаге?

Очевидно, нет, и тысячи лет исследований не позволят определить расположение образа этой купюры в мозге человека просто потому, что его там нет.

Продвигаемая некоторыми учеными идея о том, что отдельные воспоминания каким-то образом хранятся в специальных нейронах, абсурдна. Помимо прочего эта теория выводит вопрос об устройстве памяти на еще более неразрешимый уровень: как и где тогда память хранится в клетках?

Сама идея того, что воспоминания хранятся в отдельных нейронах, абсурдна: как и где в клетке может храниться информация?

Нам никогда не придется беспокоиться о том, что человеческий разум выйдет из-под контроля в киберпространстве, и нам никогда не удастся достичь бессмертия, скачав душу на другой носитель.

Одно из предсказаний, которое в том или ином виде высказывали футуролог Рэй Курцвейл, физик Стивен Хокинг и многие другие, заключается в том, что если сознание человека подобно программе, то скоро должны появиться технологии, которые позволят загрузить его на компьютер, тем самым многократно усилив интеллектуальные способности и сделав возможным бессмертие. Эта идея легла в основу сюжета фильма-антиутопии «Превосходство» (2014), в котором Джонни Депп сыграл ученого, похожего на Курцвейла. Он загрузил свой разум в интернет, чем вызвал разрушительные последствия для человечества.

К счастью, концепция ОИ даже близко не имеет ничего общего с действительностью, так что нам не стоит волноваться о том, что человеческий разум выйдет из-под контроля в киберпространстве, и, как это ни прискорбно, нам никогда не удастся достичь бессмертия, скачав душу на другой носитель. Дело не только в отсутствии какого-то ПО в мозге, проблема здесь еще глубже – назовем ее проблемой уникальности, и она одновременно восхищает и угнетает.

Поскольку в нашем мозге нет ни «запоминающих устройств», ни «образов» внешних раздражителей, а в ходе жизни мозг меняется под действием внешних условий, нет повода считать, что любые два человека в мире реагируют на одно и то же воздействие одинаково. Если вы и я посетим один и тот же концерт, изменения, которые произойдут в вашем мозге после прослушивания, будут отличаться от изменений, которые произойдут в моем мозге. Эти изменения зависят от уникальной структуры нервных клеток, которая формировалась в ходе всей предыдущей жизни.

Именно поэтому, как написал Фредерик Бартлетт в 1932 году в книге «Память», два человека, услышавшие одну и ту же историю, не смогут пересказать ее полностью одинаково, а со временем их версии истории будут все меньше походить друг на друга.

По-моему, это очень вдохновляет, ведь это значит, что каждый из нас по-настоящему уникален, не только по набору генов, но и по тому, как меняется наш мозг со временем. Однако это также и угнетает, ведь это делает и без того трудную работу нейробиологов практически неразрешимой. Каждое изменение может затронуть тысячи, миллионы нейронов или весь мозг целиком, причем природа этих изменений в каждом случае тоже уникальна.

Хуже того, даже если бы мы смогли записать состояние каждого из 86 миллиардов нейронов мозга и сымитировать все это на компьютере, эта громадная модель оказалась бы бесполезной вне тела, которому принадлежит данный мозг. Это, пожалуй, самое досадное заблуждение об устройстве человека, которым мы обязаны ошибочной концепции ОИ.

В компьютерах хранятся точные копии данных. Они могут оставаться без изменений долгое время даже при отключении питания, в то время как мозг поддерживает наш интеллект, только пока он остается живым. Нет никакого рубильника. Либо мозг будет работать без остановки, либо нас не станет. Более того, как отметил нейробиолог Стивен Роуз в 2005 году в работе «Будущее мозга», копия текущего состояния мозга может быть бесполезна и без знания полной биографии его владельца, даже включая социальный контекст, в котором рос человек.

Тем временем огромные средства расходуются на исследования мозга, основанные на ложных идеях и обещаниях, которые не будут исполнены. Так, в Евросоюзе был запущен проект исследования человеческого мозга стоимостью $1,3 млрд. Европейские власти поверили заманчивым обещаниям Генри Маркрэма создать к 2023 году действующий симулятор работы мозга на базе суперкомпьютера, который бы в корне изменил подход к лечению болезни Альцгеймера и других недугов, и обеспечили проекту практически безграничное финансирование. Меньше чем через два года после запуска проекта он обернулся провалом, и Маркрэма попросили уйти в отставку.

Люди – это живые организмы, а не компьютеры. Примите это. Нужно продолжать тяжелую работу по пониманию самих себя, но не тратить время на ненужный интеллектуальный багаж. За полвека существования концепция ОИ дала нам всего несколько полезных открытий. Настало время нажать на кнопку Delete.



Рекомендуем почитать

Наверх