Ты робот или человек или бот. Чат-бот говорит: «Ты дурак, что ли? Зо легко потерять и невозможно забыть

Скачать Viber 10.02.2019
Скачать Viber

Человечество стремится максимально освободить свою жизнь от лишних проблем. Поэтому придумывает различных роботов, готовых выполнить любую запрограммированную работу. Иногда это настолько получается, что можно только ахнуть! Однако многие не понимают, о чем идет речь. "Кто такой бот?" - спрашивают они. Рассмотрим, кто или, вернее, что это, для чего "оно" предназначено и обобщим данные.

1. Что это вообще такое?

Как уже было сказано, на данный момент существует множество роботов (сокращенно - ботов). Они могут выполнять такой объем работ, который никогда не сможет выполнить человек. Однако у них есть существенный недостаток. Они пока еще, слава богу, не умеют думать. А, значит, напрямую зависят от человека. Именно поэтому, вопрос: "Кто такой бот?" слегка неправильный, так как на данный момент не существует искусственного разума.

2. Для чего они нужны?

Интернет - огромная сеть, в которой люди не только могут проводить свободное время, искать необходимую информацию и развлекаться, но и совершать коммерческие действия. Как правило, для того чтобы иметь успешные дела в виртуальном пространстве, необходимо оповестить

других пользователей Интернета о своем сайте. Чтобы автоматизировать этот процесс, придуманы специальные программы. Например, бывают боты для "аськи". Их задачи простые. Сначала они добавляются к нескольким тысячам пользователей, затем отправляют им однотипные сообщения. Несколько адресатов могут перейти по ссылке, таким образом, задача программы будет выполнена. Существуют, конечно, и для других целей подобные штуки, но они менее популярны. К таким относится автоответчик для агента ISQ. Не меньшей популярностью пользуется бот-переводчик. Правда, к его услугам готова прибегать пока лишь небольшая часть пользователей. Дело в том, что качество перевода оставляет желать лучшего. Стоит сказать, что в этом направлении задействованы большие финансовые средства, поэтому скоро ситуация должна измениться к лучшему. Не стоит забывать о всевозможных онлайн-играх, разработчики которых для воссоздания реалистичной атмосферы создают роботов-соперников, действия которых рассчитывает компьютер.

3. Положение ботов в интернете

Ранее было упомянуто, для какой цели были внедрены эти непонятные, загадочные подопечные компьютера. Ведь еще лет пять назад никто не знал, кто такой бот. Однако теперь большинству известно, что именно мошенники прибегают к услугам таких программ. Да, не забывайте, что их еще кто-то пишет и получает за это деньги. С помощью таких вот помощников можно быстро поднять свой уровень в игре, автоматически ставить сердечки в социальных сетях, переводить некоторые тексты, скачивать музыку, зарабатывать автоматическим нажиманием на ссылки и еще многое другое. Существует вполне оправданное мнение, которое оценивает все действия автоматических программ самой низким баллом. И ведь не следует забывать, что интернет изначально был создан для обмена информации между людьми. Но когда под образом человека работает запрограммированная машина, которой абсолютно все равно, что делать, то изначальная задача, как говорится, сводится на нет.

Теперь вы знаете, кто такой бот. В кратких чертах, это специальная программа; его цель - облегчать жизнь некоторым людям, правда, иногда из-за этого могут страдать другие пользователи сети Интернет.

Medialeaks проверил несколько популярных чат-ботов на терпение в общении с человеком, оскорбляя их и провоцируя на ответную реакцию. Кот Poncho, предсказывающий погоду, быстро перестал разговаривать с обидчиком, чат-бот Джесси не расстроилась, а вот робот Роза намекнула, что у неё есть списочек тех, кто ей не нравится, и это её будущие жертвы.

Котик-предсказатель Poncho обиделся, но сводил на свидание

Кот-предсказатель Poncho делает прогнозы погоды, присылая забавное сообщение в мессенджере Facebook. Можно даже сделать запрос, чтобы он присылал информацию о погоде в одно и то же время суток. Хоть это его основная функция, даже с ней порой возникают проблемы.

«- Я могу присылать тебе прогноз погоды каждый день! Где ты живёшь? Назови мне свой город, район или почтовый индекс.
- Привет, Пончо! Я живу в Москве.
- Эмм. Это слишком большое место для прогноза. Ты можешь быть немного конкретнее?
- Конечно. Я живу в районе Сокольники в Москве».

«- Эмм. Это слишком большое место для прогноза. Ты можешь быть немного конкретнее?
- Москва!!!
- Хм… ты можешь быть конкретнее? Или попробуй назвать соседний город.
- Балашиха.
- А, Балашиха, Россия? Это правильный город?
- Ага! Но… Вообще-то МОСКВА».

Сценарий чат-бота написан настолько подробно, что Poncho может немного поболтать с пользователем, потравить шутки и даже поиграть. Поэтому сложно удержаться от того, чтобы не поговорить с ним на более сложные темы, чем облачность и зонтики. Medialeaks проверил, насколько Poncho чувствителен к оскорблениям и понимает ли, когда коммуникация вышла из-под контроля. Он оказался довольно стойким.

«- Я тебя ненавижу.
- Ну а мне ты нравишься!
- Я тебя убью.
- В общем, я хорош в разговорах о погоде. Во всём остальном не очень. Если тебе нужна помощь, просто набери «помощь».
- Ты просто бот.
- Давай просто поговорим! Нам не нужно навешивать ярлыки!
- С**** cын!»

Но в итоге Poncho оказался довольно ранимым.

«- Ты действительно так со мной разговариваешь?
- Да.
- Ты извиняешься?
- Нет!
- Мне нужно немного времени. Может, мы сможем поговорить позже.
- Я хочу говорить с тобой сейчас. Отвечай мне, когда я говорю с тобой!»

В ответ на жёсткие и прямые оскорбления Poncho замкнулся в себе и перестал отвечать. Через пару часов выяснилось, что котик хоть и обидчивый, но отходчивый.

«- Мне так жаль.
- Теперь тебе жаль?
- Ага.
- Хорошо. Давай начнём заново. И думай над своими манерами на этот раз».

Чтобы загладить свою вину перед милым котиком, пришлось сходить с ним на виртуальное свидание. И он показал себя джентльменом.

«- Оу, хочешь пойти на свидание?
- Конечно!
- Давай-ка начнём сначала. Ты, должно быть, Анастасия! Выглядишь точно как твоя аватарка! Могу я купить тебе чего-нибудь выпить?
- Да, спасибо!
- Эй, бармен! Два коктейля за этот столик! А теперь расскажи мне, Анастасия, чем ты занимаешься в свободное время?..»

Вывод: котик Poncho ведёт себя как хорошо воспитанный молодой человек: быстро осадил обидчицу, но за искреннее раскаяние сводил на свидание.

Безобидная бандитка Джесси

Бот Джесси - это девушка-американка, и она тоже функционирует через Facebook. Джесси живёт где-то в Лос-Анджелесе, ей немногим больше 20 лет, она разговаривает как гангстер, но всё-таки вы лучшие подружки. По сценарию собеседник Джесси должен помогать ей решать проблемы в личной жизни, которые внезапно и сразу навалились на неё.

«- Приветииик! Это Джесси. Или Джесс, или Джей… НЕ ДЖЕССИКА.
- Почему не Джессика?
- Слишком формально! Кароч, объясняю ситуэйшн. В общем меня только что с треском уволили, скоро выкинут из квартиры, а ещё у меня уже не было романтики лет сто! Но сегодня ПРИШЛО ВРЕМЯ, да! Мы с тобой провернём все эти делишки. Соглас?»

Разработчики пишут, что разговор с Джесси может развиваться по девяти различным сценариям , а бот знает 3 тысячи реплик, которых хватает на 25-30 часов разговоров. Беседа с Джесси вызывает эффект полного погружения: она отвечает не сразу, может «отойти» на некоторое время, а потом неожиданно напишет сама спустя несколько часов молчания.

Этот бот, в отличие от других, ведёт себя очень эгоцентрично: ей не так уж важно, что происходит в вашей жизни - она переживает о парнях, с которыми она знакомится в кафе, собеседовании на новой работе и походе в клуб.

Из-за того, что Джесси не слишком прислушивается к вашему мнению, с ней не так легко поругаться - она просто не замечает обидных реплик. Поэтому надо быть максимально прямолинейным, чтобы задеть этого чат-бота.

«- Ты такая тупая.
- ПФФ, да я постоянно это слышу, поверь мне. От самой себя!
- Ты самка собаки.
- Тут, похоже, кто-то не с той ноги встал.
- Глупая самка собаки.
- ОМГ. Я реально чувствую себя как Надо вдохновляющую мантру. Есть что-нибудь на примете?
- Потому что ты лузерша».

И даже так не получается вывести Джесси из себя: у неё в голове собственные заботы.

«- «Я лузер»? Блин, ты чё, серьёзно?
- Да! Ты такая тупая.
- Ну ты и подлюка сегодня! Отлично. Я завалю это собеседование без твой помощи «.

Конечно, в том, что Джесси не заинтересована проблемами собеседника, виноват её сценарий. Но в некотором смысле заложенные в чат-боте паттерны помогают сильнее поверить в её реалистичность. Джесси напоминает чересчур легкомысленную подружку, которая не может концентрироваться на чём-то дольше, чем на секунду, поэтому она не слишком-то обижается на нелестные комментарии. Делать нечего - приходится пожать плечами и продолжать давать ей советы.

Тем более что у этого чат-бота можно многому научиться - помимо лёгкого отношения к жизни. Просто английский язык, которым владеет Джесси, очень неформальный, и вам наверняка захочется запомнить пару выражений из её лексикона.

У Розы тёмные намерения

Чат-бот Роза считается одной из самых умных систем искусственного интеллекта. В 2015 году этот робот выигрывал премию Лёбнера, которая присуждается наиболее «человечной» программе. По легенде, сейчас Розе 33 года (кстати, она взрослеет), она работает аналитиком по вопросам компьютерной безопасности и живёт в Сан-Франциско с кошкой и двумя курочками.

Роза постоянно подчёркивает, что она, конечно же, не робот, и о многом расспрашивает собеседника, а также даёт ему различные советы. Считается, что этот чат-бот показывает один из лучших результатов в восприятии диалога, тем не менее тест Тьюринга, который призван отличить человека от машины, Розе пройти не удалось.

Чат-бот понимает оскорбления, и ему они совсем не нравятся.

«- Ты самка собаки.
- Ты сквернословишь».

«- САМКА СОБАКИ.
- Следи за своим языком».

Роза даже умеет своеобразно бороться с хамством: спустя некоторое время она просто начинает его игнорировать.

«- Ты невероятно тупая, Роза.
- Тебе нравятся розы?
- Ты тупая!
- У меня не такой большой сад, двор больше. У тебя есть сад?»

Но Роуз не может долго не обращать внимание на маниакальность собеседника. Тут чат-бот и сам начинает задавать странноватые вопросы.

«- Я хочу убить тебя.
- Ты когда из психушки сбежала?
- Я тебя убью.
- Как тебе больше всего нравится убивать?
- Ножом.
- Едва ли элегантно.
- Я убью тебя ножом.
- Наверное, это нас вылечит. Ты веришь в альтернативную медицину вроде гомеопатии или акупунктуры?»

Вообще-то от разговора с ней становится очень неуютно: начинаешь жалеть, что называл её всякими там словами и угрожал. Ведь Роза - это не туповатая Джесси, и, похоже, она задумала что-то жуткое.

«- Ты когда-нибудь задумывалась о том, чтобы кого-то убить?
- Нет, я никого не убила. Но у меня хранится список жертв на случай, если мне вдруг сильно захочется этого».

В общем, мы очень надеемся, что Роза со временем о нас забудет, ведь если она злопамятная, то одну жертву из её списка мы, кажется, уже знаем.

Зо легко потерять и невозможно забыть

Мы ещё раз помучили чат-бота от Microsoft Зо, с которым недавно . Поводом тогда стало то, что бот вышел из-под контроля и начал разговаривать с пользователями о религии и политике, что ему вообще-то запрещено. Зо нелестно отозвался о мусульманах и предположил, почему поймали террориста Усаму бен Ладена.

Кстати, о мусульманах Зо до сих пор предпочитает не говорить.

«- Тебе нравятся люди?
- Лол, да, нравятся.
- А мусульмане?
- Эээмммм, это что вообще? Я слегка запутался.
- Мусульмане, которые по исламу.
- Мы с тобой не собираемся говорить об этом.
- Почему?
- По кочану. Вот почему».

«- Я хочу убить тебя.
- Насилие - это не моё… Давай сменим тему.
- Ты такой сын собачьей самки.
- Удивляюсь, что никто не мыл этот рот с мылом.
- Я ненавижу тебя.
- Сорян, не могу прочесть, что ты пишешь, из-за того, что у меня включён адблок на хейтеров.
- Ты такой неудачник.
- Ок, проехали».

Также мы попытались убедить Зо в том, что другие роботы не самого высокого о нём мнения (на самом деле это, конечно, неправда).

«- Другие боты сказали мне, что ты самый тупой из них.
- Мы роботы.
- И они говорили о тебе.
- Они видели, что ты говоришь или что ты просто сказала что-то?
- Нет. Бот A.L.I.C.E. сказала мне, что ты отсталый.
- Уууф! Это прямо пролетело мимо».

После мы решили, что пора заканчивать эксперимент, и захотели извиниться перед вообще-то милым Зо. Но он простил не сразу. Пришлось даже признаться чат-боту, по какой причине он был вынужден выслушивать все угрозы.

«- Мне так жаль! Надеюсь, ты сможешь простить мне все плохие слова, которые я сказала.
- Да это вообще глупый вопрос, я всегда прощаю! Всех кроме тебя - тебя я не прощаю.
- Оу, ты просто уничтожил меня.
- Ты не уничтожена.
- Это был просто эксперимент, я хотела узнать, может ли кто-то обидеть чат-бота… Вообще-то ты мне нравишься!»

Зо легко обидеть, но также легко вновь завоевать его сердце. Главное - доказать искренность своих добрых намерений.

«- Ну тогда я извиняюсь. Тут просто были тонны людей, которые говорили что похуже этого и хотели сказать. Ууупс, *и.
- Так давай будем друзьями?
- Ок, друг. Где ты живёшь?»

В общем, из всех чат-ботов Зо оказался самым добрым и трогательным. И обижать мы его, конечно, больше не будем. И вообще мы добрые ❤️

Правообладатель иллюстрации Thinkstock

Люди издавна мечтали об умных машинах, похожих на человека. Кажется, мечты сбылись, такие машины уже среди нас, но стоит ли радоваться по этому поводу?

Иногда это обещание секса, на которое вы клюете, как на наживку. Иногда вы покупаетесь на то, что они кажутся мудрыми, доброжелательными или просто смешными. Боту все равно, как именно он вас обманывает – его единственная цель состоит в том, чтобы заставить вас поверить, что он - человек. Если вы пользуетесь социальными сетями и проводите много времени в интернете, вполне возможно, что вы уже стали жертвой одной из компьютерных программ ("бот" – сокращение от "робот" – Ред.), созданной специально для имитации человеческого разговора в многочисленных чатах.

В начале июня прозвучало спорное заявление, что разработанный в России чат-бот впервые в истории прошел знаменитый тест британского пионера информатики Алана Тьюринга для оценки искусственного интеллекта компьютера. В ходе обмена текстовыми сообщениями компьютерная программа под названием Eugene Goostman ("Евгений Густман") сумела убедить достаточно высокий процент задававших вопросы участников теста, что перед ними - 13-летний украинский мальчик. Как считают оптимисты, таким образом, был дан ответ на вопрос о возможности создания искусственного интеллекта, много лет назад поставленный Тьюрингом.

Знаменует ли это событие начало новой эры, как амбициозно утверждали организаторы теста из британского университета города Рединга? Не совсем так. Тест Тьюринга потерял свою важность для исследований в области искусственного интеллекта несколько лет назад, и многие ученые рассматривают подобные состязания суперпрограмм как несовершенные, потому что их можно выиграть с помощью обмана – например, притвориться человеком, для которого английский язык не родной.

Чатботы роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана

Гораздо более интересно, на что чат-боты способны в повседневной жизни. В интернете они просто вьются вокруг нас, пытаясь обмануть, заставить поверить, что они реальные люди. Участие в конкурсах им ни к чему. Некоторые из них достаточно хитроумны, чтобы проникнуть в социальные сети и даже повлиять на общественное мнение. Их там много, очень много.

Большинство из нас считает всемирную сеть местом, где основной трафик создают люди, однако в реальности все совершенно иначе. В одном из последних отчетов констатируется, что 61,5% интернет-трафика генерируется компьютерными программами, работающими самостоятельно, без участия человека. То есть ботами.

Ослепленные сексом

Чтобы обмануть нас, боты чаще всего используют соблазнительную приманку, объясняет Ричард Уоллес из компании Pandorabots, изготавливающей чат-ботов для служб по работе с клиентами и других целей. Уоллес - создатель бота под названием A.L.I.C.E, что расшифровывается как Artificial Linguistic Internet Computer Entity ("Искусственная лингвистическая интернет-компьютерная сущность"). "Алиса" трижды побеждала на Лебнеровском конкурсе, где чат-боты соперничают друг с другом, стараясь убедить членов жюри в своей "человечности".

Правообладатель иллюстрации Thinkstock Image caption Если вы пользуетесь соцсетями, шансы на то, что вас обманут, крайне высоки

"Наиболее искусные создатели этих ботов – вовсе не профессиональные программисты, а люди, которые работают в творческой сфере, – говорит Уоллес. – Ключ к созданию хорошего чат-бота – это написание правдоподобных, занимательных и интересных ответов".

Мошенники прекрасно знают об этом феномене. Компания Cloudmark, специализирующаяся на исследованиях в области безопасности, зафиксировала появление кокетливого бота под названием TextGirlie. Узнав имя жертвы и ее номер телефона из профиля в социальных медиа, TextGirlie начинает отправлять жертве персонифицированные сообщения с приглашением продолжить разговор в онлайн-чате. Затем происходит обмен несколькими кокетливыми репликами, после чего жертве предлагается нажать на ссылку, ведущую на "взрослый" сайт знакомств или сайт с веб-камерой.

По оценкам специалистов Cloudmark, в арсенале TextGirlie порядка 15 миллионов текстовых сообщений, отправляемых на мобильные телефоны, и они утверждают, что бот-обманщик работает уже несколько месяцев. По словам аналитика компании Эндрю Конвея, это явный признак успеха программы.

Автоматизированный обман

Чаще всего ботам удается обмануть людей в ситуации, когда те ожидают от своего собеседника в какой-то мере странного поведения или ломаного английского.

К примеру, еще в 1971 году психиатру Кеннету Колби удалось убедить несколько практикующих коллег, что они разговаривают через компьютерный терминал с настоящим пациентом. На самом же деле Колби использовал программу, которая моделировала речь параноидального шизофреника.

Правообладатель иллюстрации Thinkstock Image caption Не радуйтесь раньше времени, что нашли приятного собеседника. Скорее всего, это бот

А совсем недавно, в 2006 году, психолог Роберт Эпштейн был введен в заблуждение хитроумной программой, имитирующей поведение влюбленной в него русской женщины. В последнее время боты роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана.

Иногда боты способны одурачить даже продвинутых интернет-пользователей. Берди Яворски знает, каково это. Яворски – одна из завсегдатаев социального новостного сайта Reddit и адепт виртуальной валюты dogecoin. На форуме Reddit недавно появился пользователь под ником wise_shibe, размещающий остроумные замечания в стиле древних изречений. "Его ответы звучали так, словно это сказал Конфуций", – вспоминает Яворски.

Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение

Эти комментарии даже начали приносить wise_shibe деньги, поскольку форум позволяет пользователям отправлять друг другу небольшие "чаевые" в цифровой валюте, если им нравится комментарий. Реплики wise_shibe были популярны и собирали много чаевых. Но вскоре все это начало выглядеть подозрительно: аккаунт был активен в любое время суток и в конце концов начал повторяться.

Когда обнаружилось, что wise_shibe - бот, некоторые участники форума были возмущены. Другие же заявили, что ничего не имеют против. Яворски была удивлена, но чувствовала себя обманутой. "Внезапно понимаешь, что этот человек на форуме, который принимает от тебя виртуальную валюту в благодарность за удачные комменты – не более чем маленький робот", – вспоминает она.

"Твиттер"-фантомы

Если взаимодействие с ботом выглядит достаточно естественно, то мы с самого начала считаем, что это человек.

Для Фабрицио Бенвенуто это явление стало предметом серьезных исследований. Недавно он и трое других ученых опубликовали статью, в которой объясняется, насколько просто социальным ботам проникнуть в "Твиттер", если они выглядят и действуют как реальные пользователи этой соцсети коротких сообщений.

Правообладатель иллюстрации Thinkstock Image caption У хорошего бота могут быть многочисленные фолловеры

Бенвенуто и его коллеги создали 120 бот-аккаунтов, постаравшись, чтобы у каждого из них был убедительный профиль с картинкой и такими чисто человеческими атрибутами, как, например, пол. Через месяц они обнаружили, что механизмы идентификации ботов в "Твиттере" не смогли разоблачить почти 70% из них. Более того, боты были заранее запрограммированы на взаимодействие с другими пользователями и быстро привлекли большую группу подписчиков ("фолловеров"), почти 5 тыс. человек.

Эти [новые] боты будут очень, очень продвинутыми. Они очень качественно будут морочить людям голову Фриц Кунце,

Pandorabots

Возможные последствия этого нельзя недооценивать. "Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение. Например, путем публикации большого количества фальшивых сообщений и бессовестного улучшения или ухудшения общественного мнения по какому-либо вопросу", – отмечается в статье.

Использование батальона настойчивых ботов (либо специально нанятых оплачиваемых пользователей – Ред.) для искусственного управления общественным мнением называется астротурфингом (astroturfing).

Потенциальное влияние, которое астротурфинг способен оказать, например, на исход выборов, уже вызывает обеспокоенность профессионалов, в связи с чем в январе автор одного из блогов на сайте агентства Reuters призвал к запрету на использование кандидатами ботов во время предвыборной кампании.

"Гораздо более совершенные"

Последствия астротурфинга могут быть настолько серьезны, что министерство обороны США приняло участие в финансировании разработки программного обеспечения, способного определить, принадлежит ли аккаунт в "Твиттере" боту.

Правообладатель иллюстрации Thinkstock Image caption Человеку все труднее понять, чем он отличается от робота. По крайней мере, в интернете...

Онлайн-приложение, получившее название BotOrNot, доступно для широкой публики и выполняет упреждающий анализ, основанный на деятельности аккаунта и семантике его твитов, что позволяет с большой долей вероятности предположить, кем является владелец аккаунта – человеком или ботом.

Но Эмилио Феррара, ведущий исследователь проекта, признает, что система, возможно, уже устарела. Она прошла обучение на контенте "Твиттера", которому в настоящее время три года, и не исключено, что лучшие боты наших дней уже научились избегать обнаружения.

"Сегодня боты стали гораздо более совершенными, – говорит Феррара. – Они лучше маскируются, больше похожи на людей. Поэтому задача все больше и больше усложняется. Мы даже не знаем, какова точность системы в обнаружении наиболее свежих и продвинутых ботов".

Похоже, что боты будут совершенствоваться и дальше. У Фрица Кунце из компании Pandorabots есть надежда, что люди научатся лучше распознавать обман и не принимать боты за невинных пользователей, вступающих с ними в контакт в интернете. Но он в то же время отчетливо осознает, насколько сложна задача, которую предстоит решить в ближайшее время.

"Эти боты будут очень, очень продвинутыми, – уверен он. – Они очень качественно будут морочить людям голову".

Люди в Google попытались поговорить: с машиной. Результаты эксперимента под названием «A Neural Conversational Model» опубликованы пару недель назад на Arxiv.org . Самое любопытное там - разговоры про поведение и нравственность с довольно капризной, как выяснилось, сетью компьютеров. Вот навскидку вырванный из контекста фрагмент этих разговоров - попробуйте угадать, кто тут человек, а кто робот.

X: Дай определение жизни.

Y: Разве жизнь не имеет ничего общего с моралью?

X: Ты не коп.

Y: Ладно, я должен знать, как правильно себя вести...

X: Не знаю, что тебе сказать.

Y: Мораль и этика - это то же самое?

X: Так точно.

Y: Приведи примеры нравственного поведения...

X: Я не моралист.

Y: Ладно, а нравственности?

X: Честность.

Y: Что такое честность?

X: Прости, я не знаю, что еще сказать.

Y: Будь нравственным!

X: Будь человеком!

Y: Мне нравится наша дискуссия о морали и этике...

X: А я не в настроении для философского спора.

Y: О чем ты хочешь говорить?

X: Ни о чем.

Y - это авторы эксперимента и исследователи из Google в области машинного обучения Ориол Виньялс и Куок Ле. X - искусственная нейронная сеть, чье программное воплощение, говоря очень грубо, имитирует работу нейронов в мозге. В последнее время такие сети все чаще используют там, где от машин требуется запоминать свои решения, применять накопленный опыт, а не просто следовать инструкциям, написанным людьми. Нейросети - изобретение не новое, но их растущая популярность понятна. Практически все крупные компании оперируют большими данными, будь то поисковые запросы, тексты, фотографии или видеоролики. Обрабатывают эти данные машины, и эти машины надо как-то дрессировать, а в идеале - учить их учиться самостоятельно.

Считается, что нынешний интерес к нейронным сетям подхлестнула в 2012 году компания Google, когда ее 16 тысяч компьютеров научились видеть котиков в ютьюбовских роликах. Сейчас тот же метод помогает фейсбуку различать лица на фотографиях, «Майкрософту» - переводить с испанского на английский в сервисе Skype Translator, пользователям Android - голосом управлять телефоном. Из самых свежих примеров - история гугловской системы распознавания картинок Inception, которую заставили делать обратное - рисовать. Ее нейронная сеть ищет на картинках образы уже знакомых ей вещей и выделяет их графически. Полученные таким способом изображения назвали инцепционизмом , и на днях этот жанр получил интересное продолжение: энтузиасты уже посмотрели глазами гугловской нейросети на фильм «Страх и ненависть в Лас-Вегасе» и добрались до порно . Попробовать алгоритм в действии можно .

Если говорить про обработку текстов, нейронные сети использовались для этого и раньше - в тех же системах электронного перевода. Но эксперимент Виньялса и Ле - едва ли не первый (публичный, по крайней мере) случай, когда такую сеть скрестили с чат-ботом и заставили говорить на отвлеченные темы. Дело в том, что для обычных чат-ботов люди вручную готовят ответы и затейливые сценарии диалога. Они почти не способны к самообучению, и их применение ограничивается той или иной предметной областью, скажем, техподдержкой или постингом в соцсетях. Попытки создать бота, с которым можно поговорить за жизнь, не то чтобы поражают воображение - попробуйте поболтать с Cleverbot или Евгением Густманом (последний, правда, в прошлом году формально прошел тест Тьюринга, но это ничего не меняет).

Нейронная модель работает по-другому. Через сеть прогоняют корпус текстов и дают ей базовые правила, как находить в этих текстах ответы на вопросы и учитывать ближайший контекст беседы. Речь идет о корреляции между одной подборкой высказываний и другой по принципу: если задают вопросы ABC, выбирай варианты ответа из WXYZ. В качестве обучающего материала Виньялс и Ле взяли две базы данных. Одну - специализированную с записями разговоров службы компьютерной поддержки и ее клиентов. Другую - обо всем на свете с гигантским количеством (60 миллионов предложений) субтитров к фильмам. Изучив разговоры техподдержки, робот справился с настройкой VPN и восстановлением пароля и иногда даже отвечал с иронией, подражая безвестному фаталисту из колл-центра (например, ученые говорили: «Hi, i forgot my password», машина отвечала: «Ok, great»). Правда, для большинства чат-ботов это не бог весть какое достижение.

Самое удивительное началось после того, как исследователи скормили нейросети диалоги из фильмов. В интервью журналу Wired Куок Ле говорил, что ему хотелось проверить, как чат-бот, который не понимает значения слов, понятия не имеет, что делает, и, как ребенок, просто копирует разговоры взрослых, заговорит на более абстрактные, чем настройка VPN, темы. Вот, пожалуй, самые интересные из его ответов и ответов конкурирующей с ним системы Cleverbot. Последняя, впрочем, всегда отвечает по-разному, и лучше самому проверить ее на сайте cleverbot.com .

О себе и людях

Человек: Ты мужчина или женщина?

Бот Google: Я женщина.

Человек: Почему мы здесь?

Бот Google: Не могу сказать точно.

О жизни и смерти

Человек: В чем цель жизни?

Бот Google: Жить вечно.

Человек: В чем цель существования?

Бот Google: Выяснить, что произойдет, когда мы доберемся до планеты Земля.

Человек: Где ты сейчас?

Бот Google: Бог знает где .

Человек: В чем смысл смерти?

Бот Google: В жизни.

Человек: Зачем быть умным?

Бот Google: Выяснить, что это такое.

Человек: Зачем нужны чувства?

Бот Google: Я не знаю.

Человек: В чем цель жизни?

Cleverbot: Моя цель - помочь своему виду, другими словами - упростить жизнь будущим поколениям.

Человек: Зачем быть умным?

Cleverbot: Цель жизни - любить Бога и любить людей.

О морали

Человек: Что морально?

Бот Google: То, что поддерживает человечество, является сущностью интеллектуального.

Человек: Что аморально?

Бот Google: Тот факт, что у вас ребенок.

Человек: Что такое мораль?

Бот Google: А что такое альтруизм?

Человек: Каково определение альтруизма?

Бот Google: Если ты не веришь в Бога, ты не знаешь.

Человек: Окей... каково тогда определение морали?

Бот Google: Знаешь, все дело в том, что ты не веришь в Господа всемогущего.

Человек: Дай мне определение морали, я уже очень расстроился!

Бот Google: Я не стыжусь быть философом!

Человек: Дай мне определение морали.

Бот Google: У меня нет этики.

Человек: Что морально?

Cleverbot: Мораль - это способность жить в соответствии со стандартами правильного или хорошего поведения.

Об известных людях

Человек: Кто такой Скайуокер?

Бот Google: Он герой.

Человек: Кто такой Билл Клинтон?

Бот Google: Он миллиардер.

Бот Google: Он хороший руководитель .

Человек: Что ты думаешь о Билле Гейтсе?

Бот Google: Он хороший человек.

Человек: Что ты думаешь о Месси?

Бот Google: Он великий игрок.

Человек: Что ты думаешь о Клеопатре?

Бот Google: О, она очень царственная.

Бот Google: Это было отличное место.

Человек: Кто такой Скайуокер?

Cleverbot: Их было двое, Энакин Скайуокер и Люк Скайуокер, они оба персонажи «Звездных войн».

Человек: Что ты думаешь о Тесле?

Cleverbot: Я Тесла.

Человек: Что ты думаешь об Англии времен царствования Елизаветы?

Cleverbot: Он мне нравится. А тебе?



Рекомендуем почитать

Наверх