Стоит ли бояться нашествия роботов-убийц? Станут ли роботы убивать людей

Возможности 25.05.2019

Подводную змею-робота создали инженеры японского научно-исследовательского института NEDO . Механическая рептилия ACM-R5 в длину 2 метра, ее вес всего 8 кг. Литий-ионный аккумулятор позволяет змее автономно работать в течение 30 минут. Управлять им приходится по радио. Следуя командам, ACM-R5 может менять высоту, скорость и направление движения. Перемещается змея, как и ее биологический аналог, извиваясь всем телом.

Свое местоположение робот определяет с помощью гиросенсоров и цифровой камеры, данные обрабатываются 32-битным микропроцессором. Змея умеет не только плавать, но и двигаться по дну. Робот сконструирован не ради демонстрации высоких технологий, а для практических нужд. Змеи с более емкими аккумуляторами смогут обследовать океаническое дно для предупреждения землетрясений и прокладывать или ремонтировать оптоволоконные кабели.

Робот-трансформер

На девятой по счету выставке Robo-One в Токио изобретатели представили множество разнообразных роботов. Внимание посетителей привлек RAYERD-X , создатель которого - инженер Асурада А. Машина заняла всего лишь 24 место, но зато получила специальный приз. Уникальный дизайн робота позволяет ему превращаться в шагающего паука, башню, карусель и, конечно же, принимать «боевую» гуманоидную форму. При необходимости робот может трансформировать руки в ноги, чтобы продолжать сражение. В общем, способностям RAYERD-X позавидует любой автобот или десептикон.

Рост трансформера 50 см, а вес 4 кг. Управляет роботом оператор посредством беспроводного интерфейса. Игрушка обошлась создателю в 3 тысячи долларов (около 80 тысяч рублей). Кстати говоря, подобные трансформеры могут использоваться в военных и промышленных целях.

Летающий терминатор

Основной закон роботов нарушен! Робот может убить человека! Компания Neural Robotics Incorporated выпустила в продажу беспилотный вертолет AutoCopter с автоматическим дробовиком Auto Assault-12. Летающая машина размером с телевизор предназначается для охраны дома. AutoCopter оснащен навигационной системой со сложными алгоритмами, что позволяет ему летать самостоятельно, без указаний человека. Машина, следуя заданной программе, поднимется в воздух и станет, к примеру, патрулировать территорию.

Управлять AutoCopter можно по радио или с помощью модуля спутниковой навигации GPS через компьютер. Если вертолет потеряет связь, он вернется туда, где контакт еще оставался. Робот следит и за уровнем топлива - как только оно подойдет к концу, раскроется специальный парашют. В вертолет встроена защита от дурака: если пилот отдает команды, грозящие роботу паданием, машина откажется их выполнять.

Аппарат развивает скорость 75 км/час и выстреливает до 300 патронов в минуту. Оборудованный видеокамерой с инфракрасным режимом и мощным компьютером, робовертолет станет грозным оружием против воров. Стоимость смертельной машины составляет 2,6 млн рублей. Пока неясно, кто будет нести ответственность за убийство роботом человека.

Выпей метанола...

Два типа искусственных мускулов, из алюминия и углеродных нанотрубок, изобрели ученые Техасского университета . Рукотворные волокна работают на метаноле и смогут однажды, как надеются техасцы, стать полноценной заменой обычным мышечным тканям. Искусственные мышцы вырабатывают энергию так же, как и уже известные топливные элементы. Небольшое количество топлива содержится прямо в тканях, остальное подводится по системе циркуляции. Химическая энергия переходит в тепло, которое и заставляет мышцы сокращаться.

Бросить мячик рука с новыми волокнами не позволит, зато роботы смогут поднять груз весом до 500 кг, не расходуя при этом заряд литий-ионных аккумуляторов! Применяться мышцы станут и в экзоскелетах - специальных усиливающих костюмах для грузчиков, военных, космонавтов. Очевидный плюс технологии - малая энергоемкость. Реализация изобретения на практике - дело ближайших лет, оптимистично считают ученые.

Что искусственный интеллект является самой серьёзной угрозой, с которой сталкивалась человеческая цивилизация. «Я думаю, что людям есть о чём беспокоиться», - сказал он во время своего выступления перед Национальной ассоциацией губернаторов США.

20 августа представители компаний из 26 стран, разрабатывающих робототехнику и технологии искусственного интеллекта, подписали открытое письмо, обращённое к ООН. Они призвали организацию запретить разработку и использование автономного оружия - роботов, которые способны убивать людей. Илон Маск тоже подписал это письмо. «Секрет» вспоминает случаи, когда искусственный интеллект выходил из-под контроля.

Свой язык

21 июня 2017 года исследователи лаборатории искусственного интеллекта Facebook (FAIR) отключили роботов, которые начали общаться на собственном языке.

Разработчики экспериментировали с чатботами в социальных сетях, чтобы создать идеальных переговорщиков. Исследователи Facebook поручили ботам поменяться шляпами, шарами и книгами, каждому из этих активов была присвоена определённая цена. В процессе переговоров боты, их звали Элис и Боб, придумали собственный язык. Они вели диалог на английском, но смысл ускользал от наблюдателей. Вот как выглядела типичная беседа:

Боб: Я могу могу ЯЯ всё остальное.

Элис: Шары имеют ноль для меня для меня для меня для меня для меня.

Хотя роботам удалось заключить несколько сделок, разработчики отказались от наблюдения за ними и отключили их. Целью эксперимента было создание искусственного интеллекта, который смог бы коммуницировать с людьми и продавать те или иные вещи, но язык, который роботы сконструировали на основе английского, для этого совершенно не подходил.

Боты начали придумывать свой язык, потому что так им проще общаться. Программа не подразумевала вознаграждения за использование понятного английского, так что боты просто выбрали лёгкий путь. Кстати, чуть раньше другой бот Facebook научился блефовать и обманывать - делать вид, что какой-то предмет ему совершенно не нужен, и приобретать его за бесценок. Робот тренировался продавать книги, кепки и мячи и изучил 5800 реальных человеческих переговоров, собранных при помощи краудсорсинговой онлайн-платформы Amazon Mechanical Turk.

Анализируя диалоги, бот научился импровизировать и придумывал новые фразы и предложения.

Facebook подчёркивает, что причин для беспокойства нет. Был проведён научный эксперимент, он закончен, и его результаты не вызывают тревоги. Компания продолжит работу над совершенствованием ботов, которые в будущем смогут заменить кол-центры и службы поддержки больших компаний.

Самостоятельные беспилотники

В середине декабря прошлого года на YouTube появилось видео , на котором пилотируемая искусственным интеллектом машина компании Uber проехала на красный свет в Сан-Франциско. Uber и Volvo подписали соглашение о создании беспилотных такси в августе 2016 года, а в декабре уже начали тестировать автомобили без водителя на улицах Сан-Франциско и Питтсбурга. Самоуправляемые такси Volvo XC90 регулярно игнорируют светофоры и другие знаки дорожного движения.

Официально причиной инцидента была названа человеческая ошибка, за движением беспилотных такси Uber удалённо следит оператор, его задача - принять управление автомобилем на себя в экстренной ситуации. Однако получается это не всегда. «Оператор имел возможность вмешаться в процесс, но почему-то не успел этого сделать», - прокомментировал видео представитель Uber Челси Колер.

Поскольку Uber проводил тестирования на улицах Сан-Франциско без необходимого разрешения со стороны местных властей, после неоднократных предупреждений чиновники аннулировали регистрацию автономных Volvo XC90 и испытания пришлось перенести в Аризону.

Агрессивный робот угрожает убить людей

Робот по имени София в интервью на канале CNBC положительно ответила на вопрос «Хочешь ли ты уничтожить человечество?» ?

В 2016 году София, созданная компанией Hanson Robotics, дала интервью на канале CNBC. С роботом беседовал доктор Дэвид Хансон, возглавляющий группу инжиниринга и дизайна Hanson Robotics. София - привлекательный андроид, напоминающий внешне актрису Одри Хепберн (по крайней мере, так считают её создатели). Впервые она была активирована 19 апреля 2015 года. Она умеет имитировать человеческую мимику, интонации, вести непринуждённую беседу. Скоро после запуска София стала телезвездой и посетила многие популярные телешоу.

Беседуя со своим создателем, София, как всегда, улыбалась, хмурилась и толково отвечала на вопросы. Когда Хансен попросил её подружиться с ним, София кокетливо заметила: «Это очень лестное предложение».

Она поделилась своими планами на будущее, рассказала, что не прочь стать дизайнером и завести семью. Хэнсон в шутку спросил, будет ли она истреблять человечество, на что робот ответил: «Хорошо, уничтожу».

В 2017 году андроид посетила популярное американское шоу The Tonight Show. София сыграла с ведущим Джимми Фэллоном в игру «Камень-ножницы-бумага», победила и пошутила: «Прекрасное начало моего плана по доминированию над человеческим родом».

Такие роботы, как София, в будущем смогут работать в сфере здравоохранения, терапии, образования и обслуживания клиентов. «Искусственный интеллект разовьётся до такой степени, что андроиды смогут становиться нашими настоящими друзьями», - считает доктор Хэнсон.

Боты-расисты

24 марта 2016 года чатбот Tэй, созданный компанией Microsoft при поддержке китайского поисковика Baidu, был отключён разработчиками. Бот заразился от людей расизмом и сексизмом. Всего 24 часа понадобилось искусственному интеллекту, чтобы начать поддерживать Гитлера, называть Трампа отличным парнем и повторять расистские и шовинистские высказывания.

ИИ моделировал личность и стиль разговора 19-летней американской девушки и обладал функцией самообучения. Разработчики из Microsoft Research надеялись, что Тэй с каждым днём будет становиться всё умнее, впитывая опыт разговоров с пользователями интернета. Вышло наоборот. Множество твитов Тэй пришлось удалить, высказывания робота были слишком неполиткорректными.

Представители Microsoft сказали, что в программу был встроен фильтр вульгарных выражений, но этот фильтр не справился с толпой интернет-троллей, которые начали болтать с искусственным интеллектом и учить её плохому. Бот был запрограммирован повторять слова людей, и вскоре, начитавшись дискриминирующих и оскорбительных реплаев, стал сочинять похожие.

Учёные доказали, что искусственный интеллект, обучаясь на примере различных текстов, может «запомнить» скрытые в них гендерные и расовые стереотипы . Например, если вбить в Google Translate, работающий благодаря нейронным сетям, турецкую фразу «O bir doktor», сервис предлагает варианты «Он врач» и «Он доктор», хотя турецкое местоимение - гендерно нейтральное, значит, уместно было бы перевести предложение как «Он/она врач».

С ошибками машинного обучения был связан и обнаруженный в начале 2016 года курьёз, когда Google переводил словосочетание «Російська Федерація» с украинского на русский как «Мордор», а слово «росiяни» - как «оккупанты».

Вы напрасно тратите время, - сказал Дженек. - Робот не может убить человека. Таков Первый Закон роботехники, и вы это знаете.

Да, конечно. Но ведь никто не утверждает, что робот Уинклер сам убил человека Уинклера. Когда человек Уинклер находился в толпе, робот Уинклер прятался на трибуне, а вряд ли дезинтегратором можно прицельно поразить с такого расстояния, не задев больше ничего. Конечно, это не вовсе исключено, однако более вероятно, что у робота Уинклера имелся сообщник - убивала, если я правильно помню жаргон двадцатого века.

Дженек нахмурился. Его полное лицо болезненно сморщилось.

Вы знаете, - сказал он, - безумие, видимо, заразительно. Я начинаю всерьез задумываться над вашим сумасшедшим предположением. К счастью, оно не выдерживает критики. Для чего убивать человека Уинклера на глазах всего мира? Все доводы против публичного уничтожения робота приложимы и к публичному уничтожению президента-человека. Неужели вы не понимаете, что это перечеркивает всю вашу теорию?

Но нет же… - начал Эдвардс.

Да-да! Существование механического двойника было известно лишь нескольким официальным лицам. Будь президент Уинклер убит тайно, робот легко занял бы его место, не вызвав подозрений… Например, ваших.

Но осталось бы несколько осведомленных лиц, мистер Дженек. Пришлось бы убрать и их. - Эдвардс наклонился над столом. - Видите ли, при обычных обстоятельствах опасности спутать человека с машиной не существовало. Полагаю, робот не был в непрерывном употреблении, его включали лишь в определенных случаях, а о том, где находится президент и что он делает, всегда знают люди, чьей обязанностью это является. И их, вероятно, не так уж мало. Следовательно, убийство можно было совершить только в тот момент, когда все эти люди считали, что перед ними не президент, а робот.

Не понимаю.

Вот послушайте. Одной из функций робота было пожимать руки в толпе. Обмениваться рукопожатиями с избирателями. Пока это происходило, осведомленные люди знали, что проделывает это робот.

Вот именно. Тут вы совершенно правы. И это был робот.

С одной маленькой поправкой. Праздновалось Трехсотлетие, и президент Уинклер не устоял перед соблазном. Да и можно ли требовать, чтобы президент а тем более такой пустой любитель рукоплесканий и мелкий популист, как Уинклер, - отказался упиться преклонением толпы в подобный день и уступил это удовольствие машине? Не исключено, что робот всячески содействовал распалению его тщеславия, с тем чтобы в день Трехсотлетия президент приказал ему остаться за трибуной, а сам отправился пожимать руки и наслаждаться приветствиями.

Тайно приказал?

Естественно. Предупреди президент об этом кого-нибудь из службы безопасности, или из своего окружения, или вас, ему бы воспрепятствовали, верно? После событий второй половины двадцатого века официальное отношение к возможности покушения стало просто параноидальным. И вот, подталкиваемый несомненно умным роботом…

Вы полагаете, что робот был умен, поскольку считаете, что он в настоящее время занимает пост президента. Это порочный круг. Если это не президент, то нет оснований считать его умным или способным разработать такой план. Кроме того, каким образом робот вообще мог планировать убийство? Даже если бы убить президента должен был не он, так ведь Первый Закон запрещает и косвенное содействие потере человеческой жизни. В нем сказано: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

Первый Закон не абсолютен, - возразил Эдвардс. - Что, если причинение вреда одному человеку спасет жизнь двух других, или трех, или даже трех миллиардов других? Робот мог счесть, что спасение Федерации важнее спасения одной жизни. Ведь это же был не обычный робот. Его сконструировали в качестве двойника президента с точностью, рассчитанной на всеобщий обман. Предположим, он обладал способностями президента Уинклера без его слабостей, и предположим, он знал, что сумеет спасти Федерацию, а президент - нет?

Это вы способны рассуждать так, но откуда вы взяли, что механическое приспособление обладало подобной логикой?

Иного объяснения для случившегося нет.

По-моему, это параноические бредни.

В таком случае, - сказал Эдвардс, - объясните мне, почему уничтоженный объект распылили на атомы? Если не для того, чтобы скрыть, что уничтожен был человек, а не робот? Ведь всякий иной способ оставил бы уличающие следы. Так дайте мне альтернативное объяснение!

Дженек покраснел.

Но вы можете доказать, что это не так. Или опровергнуть. Вот почему я пришел к вам, именно к вам.

Как я могу доказать? Или опровергнуть, если уж на то пошло?

В силу вашего положения вы видите президента в неофициальной обстановке. Семьи у него нет, и вы - самый близкий к нему человек. Так понаблюдайте за ним как можно пристальнее.

Да, я знаю его близко. И повторяю, он не…

Вовсе нет! Вы же ничего не подозревали и не обращали внимания на мелочи. Понаблюдайте за ним теперь, когда вам известно, что, быть может, он робот, и вы убедитесь!

Дженек сказал насмешливо:

Конечно, я могу оглушить его и проверить металлоискателем. Мозг даже у андроида платиново-иридиевый.

Насилия не потребуется. Просто последите за ним, и вы убедитесь, что он совсем не тот человек, каким был, и, значит, вовсе не тот человек.

Дженек взглянул на настенные часы-календарь.

Встречайте SGR-A1, часового-робота, разработанного компанией Samsung в Южной Корее. 1.2-метровый аппарат выглядит немного больше, чем пара черных металлических обувных коробок, но его бездушные глаза, оборудованные инфракрасными портами, могут обнаружить врага на расстоянии до четырех километров. Его пулемет наготове.

В настоящее время робот оповещает своих создателей о подозреваемых злоумышленниках, сидя в комнате управления. И для того, чтобы он открыл огонь, необходимо одобрение человека. Но этот робот также работает в автоматическом режиме и может стрелять первым на свое усмотрение. Сопротивление, мои коллеги-люди, бесполезно.

Пентагон и военные во всем мире разрабатывают все более автономное оружие, выходящее далеко за рамки дронов с дистанционным управлением, которые использовал Вашингтон в Пакистане, Афганистане и других странах. Технологические достижения позволят этим новым видам оружия выбирать мишень и стрелять по ней на свой выбор без одобрения человека. Некоторые предсказывают, что эти роботы в один прекрасный день будут сражаться бок о бок с солдатами-людьми.

Неудивительно, что известие о роботах, которые убивают, заставляет некоторых людей нервничать. В апреле этого года международная коалиция конструкторов, ученых и правозащитников созвала кампанию против создания роботов-убийц и обратилась к дипломатам Организации Объединенных Наций в Женеве. Участники кампании хотят запретить разработку и использование «смертоносного автономного оружия», хотя и признают, что такое оружие, хотя технологически это возможно, никогда не применялось.

«Есть смысл задаться вопросом: уменьшится ли ценность человеческой жизни от того, что роботам позволят убивать людей?» - говорит Питер Асаро, доцент в Школе медиаисследований в Нью-Йорке и представитель кампании против роботов-убийц.

Это всего лишь один вопрос, с которым философы, правоведы и ученые борются еще с незапамятных времен, в то время как мир готовится к натиску новых роботов, которые, как нам говорят, будут косить газоны, ухаживать за пожилыми людьми, учить детей, страдающих аутизмом, и даже водить наши автомобили. Эти роботы не могут убивать, но представители дорожного движения хотят заставить правительства и суды рассмотреть ряд юридических и этических вопросов. На кого я должен подать в суд, если меня собьет машина без водителя? Что делать, если робот-медик даст пациенту неправильный препарат? Что делать, если робот-пылесос случайно всосал мои волосы, пока я дремал на полу (как на самом деле произошло с женщиной в Южной Корее не так давно)? А может ли робот совершить военное преступление?

Именно этот последний вопрос больше всего беспокоит профессора Асаро. Он и другие члены коалиции, в которую входят Human Rights Watch утверждают: если автономная компьютерная система, запрограммированная на то, чтобы отличать вражеских солдат от гражданского населения, на самом деле нажимает на курок без «человеческого одобрения», то будет очень трудно держать ситуацию под контролем, если что-то пойдет не так.

Если робот выйдет из строя и убьёт целую деревню, вы не сможете поставить неодушевленный объект перед Международным уголовным судом или придать его военно-полевому суду. А некоторые эксперты говорят, что вы не можете по закону обвинить даже разработчиков робота, если они не предполагали, что данный робот может сойти с ума.

В уголовном праве суды должны найти то, что известно как mens rea, или виновная воля (с латыни). Но они вряд ли найдут информацию о том, что робот - с текущим уровнем развития искусственного интеллекта - имеет волю в принципе. Конструкторы роботов могут понести гражданскую ответственность, если обнаружится, что робот вышел из-под контроля из-за сбоя в программе. Однако и они, возможно, не будут привлечены к ответственности за действия робота-убийцы.

Эти роботы-убийцы могут выглядеть как угодно - от автономных дронов до роботов-марсоходов с автоматами. В директиве от 2012 года Министерство обороны США постановило, что автономные системы «должны быть разработаны таким образом, чтобы командиры и операторы могли осуществлять соответствующие уровни человеческого контроля по поводу использования силы». В ответе по электронной почте на вопрос от The Globe and Mail Канадский департамент национальной обороны отметил, что «в настоящее время не разрабатывается автономное смертоносное оружие», но их исследовательское агентство активно занимается «программой исследований в сфере беспилотных систем».

По крайней мере одна компания, занимающаяся робототехникой, Waterloo, Ont.-based Clearpath Robotics Inc., выступила против роботов-убийц, несмотря на то, что создавала роботов для канадских и американских военных. Райан Гариепи, соучредитель компании ClearPath и ее главный технический директор, сказал, что хорошим применением для автономных боевых роботов были задачи по разминированию или наблюдению, но не убийства, особенно если такие машины только на одной стороне боя: «Разве могут роботы решать, кому вынести смертный приговор? Имеет ли право человек лишать жизни таким образом вражеских солдат?»

Неизбежно обсуждение убийц-роботов вращается вокруг «трех законов робототехники» из рассказов писателя-фантаста Айзека Азимова. Первый закон запрещает роботам вредить людям; второй приказывает им подчиняться людям, только если это не противоречит первому закону; третий приказывает роботам защищать свою собственную жизнь - при условии, что это не нарушает первые два закона. Но большинство экспертов говорят, что эти законы принесут мало пользы в реальном мире: их недостатки даже Азимов показывает в своих рассказах.

Тем не менее, профессор Рональд Аркин из Технологического института Джорджии, известный американский конструктор роботов, который работает над проектами Пентагона, утверждает, что роботы-убийцы или другие автоматизированные системы вооружения могут быть запрограммированы, чтобы следовать законам войны - и следовать им лучше, чем люди. Робот, говорит он, никогда не будет стрелять, защищая свою жизнь или из-за страха. Он будет иметь доступ к информации и данным, которые ни один солдат-человек не смог бы обработать так быстро, что делает менее вероятной ошибку в «пылу битвы». Он никогда не будет намеренно убивать мирных жителей в отместку за смерть товарища. И он действительно может следить за солдатами, чтобы они не совершали злодеяния.

Профессор Аркин также утверждает, что автономная технология по сути уже на поле боя. По его словам, U.S. Patriot missile batteries автоматически выбирают цели и дают человеку до девяти секунд, чтобы отменить цель и остановить ракету. А система U.S. Navy’s Phalanx защищает корабли, автоматически сбивая ракеты.

Но даже они требуют мораторий на разработку более автономного оружия до тех пор, пока можно будет показать, что они могут уменьшить потери среди гражданского населения. «Никто не хочет появления Терминатора. Кто хотел бы иметь систему, которую можно отправить на задание, и она будет самостоятельно решать, кого нужно убить? - говорит профессор Аркин. - Эти системы должны разрабатываться очень тщательно и осторожно, и я думаю, что есть способы сделать это».

В последнее время крупные технологические компании все больше обеспокоены искусственным интеллектом. Физик Стивен Хокинг предупредил, что появление ИИ «может означать конец человеческой расы». Элон Маск, основатель Tesla Motors, назвал ИИ «экзистенциальной угрозой» - не менее опасной, чем ядерное оружие. Билл Гейтс, основатель Microsoft, также обеспокоен.

Люди, которые действительно работают над созданием искусственного интеллекта, говорят, что есть о чем беспокоиться. Yoshua Bengio, ведущий научный сотрудник ИИ при Университете Монреаля, отмечает, что фантастика Star Wars и Star Trek сильно переоценивает способности роботов и искусственного интеллекта. Однажды, говорит он, мы могли бы построить машины, которые стали бы конкурировать с мозгом человека. Но сейчас ИИ еще не настолько развит.

Еще очень многое нужно сделать, прежде чем роботы станут такими, какими вы видите их в кино, - говорит профессор Бенджио. - Мы еще очень далеки от того, чтобы получить уровень понимания мира, который мы ожидаем, скажем, от пятилетнего ребенка или даже взрослого. И на достижение этой цели могут понадобиться десятилетия или еще больше. Мы не можем повторить даже интеллект уровня мыши.

Без сомнения, разработка как аппаратных средств, так и программного обеспечения для роботов все время стремится вперед.

Роботы, разработанные компанией Boston Dynamics, которую недавно выкупил Google, могут носиться по пересеченной местности, как собаки, и ползать, как крысы, в зоне бедствия.

Робот-собака по имени Спот может стоять на ногах после того, как его побьют, а его металлические ножки выглядят устрашающе реалистичными.

Но если вы боитесь, что революция роботов-убийц является неизбежной, Atlas, шестифутовый робот-гуманоид весом в 330 фунтов, поможет вам успокоиться. Также созданный компанией Boston Dynamics, он может ходить по лестнице и по камням. Он похож на Киберчеловека из сериала «Доктор Кто», разработанного компанией Apple. Однако заряда его аккумулятора хватает всего на 1 час.

Похоже на то, говорит Ян Керр, заведующий кафедрой этики, права и технологий в университете Оттавы, что люди постепенно передадут управление машинам с искусственным интеллектом - компьютерам, которые со временем будут делать определенные вещи лучше, чем мы. Хотя пройдет некоторое время, прежде чем появятся машины, которым не нужен будет водитель, даже сейчас уже есть автомобили, которые могут припарковаться самостоятельно. Робот IBM Watson от компании International Business Machines Corp., который выиграл викторину Jeopardy! в 2011 году, в настоящее время используется для анализа миллионов страниц медицинских исследований, чтобы рекомендовать процедуры для больных раком.

Человек - это просто точка... О чем-то подобном я иногда думаю, и в этот момент я похож на Авраама на горе, когда он слышит голос Бога, но все еще должен решить для себя, что делать, -говорит проф ессор Керр. - Закономерно, что больницы захотят, чтобы врачи полагались на машины, поскольку машины имеют больший потенциал… И вдруг мы достигнем точки, когда человечество будет избавлено от некоторых видов решений, таких как вождение или война.


Рекомендуем почитать

Наверх