Как понять что говоришь с ботом. Давайте разберемся, кто такой бот? Безобидная бандитка Джесси

Для Windows Phone 16.02.2019
Для Windows Phone

Люди в Google попытались поговорить: с машиной. Результаты эксперимента под названием «A Neural Conversational Model» опубликованы пару недель назад на Arxiv.org . Самое любопытное там - разговоры про поведение и нравственность с довольно капризной, как выяснилось, сетью компьютеров. Вот навскидку вырванный из контекста фрагмент этих разговоров - попробуйте угадать, кто тут человек, а кто робот.

X: Дай определение жизни.

Y: Разве жизнь не имеет ничего общего с моралью?

X: Ты не коп.

Y: Ладно, я должен знать, как правильно себя вести...

X: Не знаю, что тебе сказать.

Y: Мораль и этика - это то же самое?

X: Так точно.

Y: Приведи примеры нравственного поведения...

X: Я не моралист.

Y: Ладно, а нравственности?

X: Честность.

Y: Что такое честность?

X: Прости, я не знаю, что еще сказать.

Y: Будь нравственным!

X: Будь человеком!

Y: Мне нравится наша дискуссия о морали и этике...

X: А я не в настроении для философского спора.

Y: О чем ты хочешь говорить?

X: Ни о чем.

Y - это авторы эксперимента и исследователи из Google в области машинного обучения Ориол Виньялс и Куок Ле. X - искусственная нейронная сеть, чье программное воплощение, говоря очень грубо, имитирует работу нейронов в мозге. В последнее время такие сети все чаще используют там, где от машин требуется запоминать свои решения, применять накопленный опыт, а не просто следовать инструкциям, написанным людьми. Нейросети - изобретение не новое, но их растущая популярность понятна. Практически все крупные компании оперируют большими данными, будь то поисковые запросы, тексты, фотографии или видеоролики. Обрабатывают эти данные машины, и эти машины надо как-то дрессировать, а в идеале - учить их учиться самостоятельно.

Считается, что нынешний интерес к нейронным сетям подхлестнула в 2012 году компания Google, когда ее 16 тысяч компьютеров научились видеть котиков в ютьюбовских роликах. Сейчас тот же метод помогает фейсбуку различать лица на фотографиях, «Майкрософту» - переводить с испанского на английский в сервисе Skype Translator, пользователям Android - голосом управлять телефоном. Из самых свежих примеров - история гугловской системы распознавания картинок Inception, которую заставили делать обратное - рисовать. Ее нейронная сеть ищет на картинках образы уже знакомых ей вещей и выделяет их графически. Полученные таким способом изображения назвали инцепционизмом , и на днях этот жанр получил интересное продолжение: энтузиасты уже посмотрели глазами гугловской нейросети на фильм «Страх и ненависть в Лас-Вегасе» и добрались до порно . Попробовать алгоритм в действии можно .

Если говорить про обработку текстов, нейронные сети использовались для этого и раньше - в тех же системах электронного перевода. Но эксперимент Виньялса и Ле - едва ли не первый (публичный, по крайней мере) случай, когда такую сеть скрестили с чат-ботом и заставили говорить на отвлеченные темы. Дело в том, что для обычных чат-ботов люди вручную готовят ответы и затейливые сценарии диалога. Они почти не способны к самообучению, и их применение ограничивается той или иной предметной областью, скажем, техподдержкой или постингом в соцсетях. Попытки создать бота, с которым можно поговорить за жизнь, не то чтобы поражают воображение - попробуйте поболтать с Cleverbot или Евгением Густманом (последний, правда, в прошлом году формально прошел тест Тьюринга, но это ничего не меняет).

Нейронная модель работает по-другому. Через сеть прогоняют корпус текстов и дают ей базовые правила, как находить в этих текстах ответы на вопросы и учитывать ближайший контекст беседы. Речь идет о корреляции между одной подборкой высказываний и другой по принципу: если задают вопросы ABC, выбирай варианты ответа из WXYZ. В качестве обучающего материала Виньялс и Ле взяли две базы данных. Одну - специализированную с записями разговоров службы компьютерной поддержки и ее клиентов. Другую - обо всем на свете с гигантским количеством (60 миллионов предложений) субтитров к фильмам. Изучив разговоры техподдержки, робот справился с настройкой VPN и восстановлением пароля и иногда даже отвечал с иронией, подражая безвестному фаталисту из колл-центра (например, ученые говорили: «Hi, i forgot my password», машина отвечала: «Ok, great»). Правда, для большинства чат-ботов это не бог весть какое достижение.

Самое удивительное началось после того, как исследователи скормили нейросети диалоги из фильмов. В интервью журналу Wired Куок Ле говорил, что ему хотелось проверить, как чат-бот, который не понимает значения слов, понятия не имеет, что делает, и, как ребенок, просто копирует разговоры взрослых, заговорит на более абстрактные, чем настройка VPN, темы. Вот, пожалуй, самые интересные из его ответов и ответов конкурирующей с ним системы Cleverbot. Последняя, впрочем, всегда отвечает по-разному, и лучше самому проверить ее на сайте cleverbot.com .

О себе и людях

Человек: Ты мужчина или женщина?

Бот Google: Я женщина.

Человек: Почему мы здесь?

Бот Google: Не могу сказать точно.

О жизни и смерти

Человек: В чем цель жизни?

Бот Google: Жить вечно.

Человек: В чем цель существования?

Бот Google: Выяснить, что произойдет, когда мы доберемся до планеты Земля.

Человек: Где ты сейчас?

Бот Google: Бог знает где .

Человек: В чем смысл смерти?

Бот Google: В жизни.

Человек: Зачем быть умным?

Бот Google: Выяснить, что это такое.

Человек: Зачем нужны чувства?

Бот Google: Я не знаю.

Человек: В чем цель жизни?

Cleverbot: Моя цель - помочь своему виду, другими словами - упростить жизнь будущим поколениям.

Человек: Зачем быть умным?

Cleverbot: Цель жизни - любить Бога и любить людей.

О морали

Человек: Что морально?

Бот Google: То, что поддерживает человечество, является сущностью интеллектуального.

Человек: Что аморально?

Бот Google: Тот факт, что у вас ребенок.

Человек: Что такое мораль?

Бот Google: А что такое альтруизм?

Человек: Каково определение альтруизма?

Бот Google: Если ты не веришь в Бога, ты не знаешь.

Человек: Окей... каково тогда определение морали?

Бот Google: Знаешь, все дело в том, что ты не веришь в Господа всемогущего.

Человек: Дай мне определение морали, я уже очень расстроился!

Бот Google: Я не стыжусь быть философом!

Человек: Дай мне определение морали.

Бот Google: У меня нет этики.

Человек: Что морально?

Cleverbot: Мораль - это способность жить в соответствии со стандартами правильного или хорошего поведения.

Об известных людях

Человек: Кто такой Скайуокер?

Бот Google: Он герой.

Человек: Кто такой Билл Клинтон?

Бот Google: Он миллиардер.

Бот Google: Он хороший руководитель .

Человек: Что ты думаешь о Билле Гейтсе?

Бот Google: Он хороший человек.

Человек: Что ты думаешь о Месси?

Бот Google: Он великий игрок.

Человек: Что ты думаешь о Клеопатре?

Бот Google: О, она очень царственная.

Бот Google: Это было отличное место.

Человек: Кто такой Скайуокер?

Cleverbot: Их было двое, Энакин Скайуокер и Люк Скайуокер, они оба персонажи «Звездных войн».

Человек: Что ты думаешь о Тесле?

Cleverbot: Я Тесла.

Человек: Что ты думаешь об Англии времен царствования Елизаветы?

Cleverbot: Он мне нравится. А тебе?

Правообладатель иллюстрации Thinkstock

Люди издавна мечтали об умных машинах, похожих на человека. Кажется, мечты сбылись, такие машины уже среди нас, но стоит ли радоваться по этому поводу?

Иногда это обещание секса, на которое вы клюете, как на наживку. Иногда вы покупаетесь на то, что они кажутся мудрыми, доброжелательными или просто смешными. Боту все равно, как именно он вас обманывает – его единственная цель состоит в том, чтобы заставить вас поверить, что он - человек. Если вы пользуетесь социальными сетями и проводите много времени в интернете, вполне возможно, что вы уже стали жертвой одной из компьютерных программ ("бот" – сокращение от "робот" – Ред.), созданной специально для имитации человеческого разговора в многочисленных чатах.

В начале июня прозвучало спорное заявление, что разработанный в России чат-бот впервые в истории прошел знаменитый тест британского пионера информатики Алана Тьюринга для оценки искусственного интеллекта компьютера. В ходе обмена текстовыми сообщениями компьютерная программа под названием Eugene Goostman ("Евгений Густман") сумела убедить достаточно высокий процент задававших вопросы участников теста, что перед ними - 13-летний украинский мальчик. Как считают оптимисты, таким образом, был дан ответ на вопрос о возможности создания искусственного интеллекта, много лет назад поставленный Тьюрингом.

Знаменует ли это событие начало новой эры, как амбициозно утверждали организаторы теста из британского университета города Рединга? Не совсем так. Тест Тьюринга потерял свою важность для исследований в области искусственного интеллекта несколько лет назад, и многие ученые рассматривают подобные состязания суперпрограмм как несовершенные, потому что их можно выиграть с помощью обмана – например, притвориться человеком, для которого английский язык не родной.

Чатботы роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана

Гораздо более интересно, на что чат-боты способны в повседневной жизни. В интернете они просто вьются вокруг нас, пытаясь обмануть, заставить поверить, что они реальные люди. Участие в конкурсах им ни к чему. Некоторые из них достаточно хитроумны, чтобы проникнуть в социальные сети и даже повлиять на общественное мнение. Их там много, очень много.

Большинство из нас считает всемирную сеть местом, где основной трафик создают люди, однако в реальности все совершенно иначе. В одном из последних отчетов констатируется, что 61,5% интернет-трафика генерируется компьютерными программами, работающими самостоятельно, без участия человека. То есть ботами.

Ослепленные сексом

Чтобы обмануть нас, боты чаще всего используют соблазнительную приманку, объясняет Ричард Уоллес из компании Pandorabots, изготавливающей чат-ботов для служб по работе с клиентами и других целей. Уоллес - создатель бота под названием A.L.I.C.E, что расшифровывается как Artificial Linguistic Internet Computer Entity ("Искусственная лингвистическая интернет-компьютерная сущность"). "Алиса" трижды побеждала на Лебнеровском конкурсе, где чат-боты соперничают друг с другом, стараясь убедить членов жюри в своей "человечности".

Правообладатель иллюстрации Thinkstock Image caption Если вы пользуетесь соцсетями, шансы на то, что вас обманут, крайне высоки

"Наиболее искусные создатели этих ботов – вовсе не профессиональные программисты, а люди, которые работают в творческой сфере, – говорит Уоллес. – Ключ к созданию хорошего чат-бота – это написание правдоподобных, занимательных и интересных ответов".

Мошенники прекрасно знают об этом феномене. Компания Cloudmark, специализирующаяся на исследованиях в области безопасности, зафиксировала появление кокетливого бота под названием TextGirlie. Узнав имя жертвы и ее номер телефона из профиля в социальных медиа, TextGirlie начинает отправлять жертве персонифицированные сообщения с приглашением продолжить разговор в онлайн-чате. Затем происходит обмен несколькими кокетливыми репликами, после чего жертве предлагается нажать на ссылку, ведущую на "взрослый" сайт знакомств или сайт с веб-камерой.

По оценкам специалистов Cloudmark, в арсенале TextGirlie порядка 15 миллионов текстовых сообщений, отправляемых на мобильные телефоны, и они утверждают, что бот-обманщик работает уже несколько месяцев. По словам аналитика компании Эндрю Конвея, это явный признак успеха программы.

Автоматизированный обман

Чаще всего ботам удается обмануть людей в ситуации, когда те ожидают от своего собеседника в какой-то мере странного поведения или ломаного английского.

К примеру, еще в 1971 году психиатру Кеннету Колби удалось убедить несколько практикующих коллег, что они разговаривают через компьютерный терминал с настоящим пациентом. На самом же деле Колби использовал программу, которая моделировала речь параноидального шизофреника.

Правообладатель иллюстрации Thinkstock Image caption Не радуйтесь раньше времени, что нашли приятного собеседника. Скорее всего, это бот

А совсем недавно, в 2006 году, психолог Роберт Эпштейн был введен в заблуждение хитроумной программой, имитирующей поведение влюбленной в него русской женщины. В последнее время боты роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана.

Иногда боты способны одурачить даже продвинутых интернет-пользователей. Берди Яворски знает, каково это. Яворски – одна из завсегдатаев социального новостного сайта Reddit и адепт виртуальной валюты dogecoin. На форуме Reddit недавно появился пользователь под ником wise_shibe, размещающий остроумные замечания в стиле древних изречений. "Его ответы звучали так, словно это сказал Конфуций", – вспоминает Яворски.

Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение

Эти комментарии даже начали приносить wise_shibe деньги, поскольку форум позволяет пользователям отправлять друг другу небольшие "чаевые" в цифровой валюте, если им нравится комментарий. Реплики wise_shibe были популярны и собирали много чаевых. Но вскоре все это начало выглядеть подозрительно: аккаунт был активен в любое время суток и в конце концов начал повторяться.

Когда обнаружилось, что wise_shibe - бот, некоторые участники форума были возмущены. Другие же заявили, что ничего не имеют против. Яворски была удивлена, но чувствовала себя обманутой. "Внезапно понимаешь, что этот человек на форуме, который принимает от тебя виртуальную валюту в благодарность за удачные комменты – не более чем маленький робот", – вспоминает она.

"Твиттер"-фантомы

Если взаимодействие с ботом выглядит достаточно естественно, то мы с самого начала считаем, что это человек.

Для Фабрицио Бенвенуто это явление стало предметом серьезных исследований. Недавно он и трое других ученых опубликовали статью, в которой объясняется, насколько просто социальным ботам проникнуть в "Твиттер", если они выглядят и действуют как реальные пользователи этой соцсети коротких сообщений.

Правообладатель иллюстрации Thinkstock Image caption У хорошего бота могут быть многочисленные фолловеры

Бенвенуто и его коллеги создали 120 бот-аккаунтов, постаравшись, чтобы у каждого из них был убедительный профиль с картинкой и такими чисто человеческими атрибутами, как, например, пол. Через месяц они обнаружили, что механизмы идентификации ботов в "Твиттере" не смогли разоблачить почти 70% из них. Более того, боты были заранее запрограммированы на взаимодействие с другими пользователями и быстро привлекли большую группу подписчиков ("фолловеров"), почти 5 тыс. человек.

Эти [новые] боты будут очень, очень продвинутыми. Они очень качественно будут морочить людям голову Фриц Кунце,

Pandorabots

Возможные последствия этого нельзя недооценивать. "Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение. Например, путем публикации большого количества фальшивых сообщений и бессовестного улучшения или ухудшения общественного мнения по какому-либо вопросу", – отмечается в статье.

Использование батальона настойчивых ботов (либо специально нанятых оплачиваемых пользователей – Ред.) для искусственного управления общественным мнением называется астротурфингом (astroturfing).

Потенциальное влияние, которое астротурфинг способен оказать, например, на исход выборов, уже вызывает обеспокоенность профессионалов, в связи с чем в январе автор одного из блогов на сайте агентства Reuters призвал к запрету на использование кандидатами ботов во время предвыборной кампании.

"Гораздо более совершенные"

Последствия астротурфинга могут быть настолько серьезны, что министерство обороны США приняло участие в финансировании разработки программного обеспечения, способного определить, принадлежит ли аккаунт в "Твиттере" боту.

Правообладатель иллюстрации Thinkstock Image caption Человеку все труднее понять, чем он отличается от робота. По крайней мере, в интернете...

Онлайн-приложение, получившее название BotOrNot, доступно для широкой публики и выполняет упреждающий анализ, основанный на деятельности аккаунта и семантике его твитов, что позволяет с большой долей вероятности предположить, кем является владелец аккаунта – человеком или ботом.

Но Эмилио Феррара, ведущий исследователь проекта, признает, что система, возможно, уже устарела. Она прошла обучение на контенте "Твиттера", которому в настоящее время три года, и не исключено, что лучшие боты наших дней уже научились избегать обнаружения.

"Сегодня боты стали гораздо более совершенными, – говорит Феррара. – Они лучше маскируются, больше похожи на людей. Поэтому задача все больше и больше усложняется. Мы даже не знаем, какова точность системы в обнаружении наиболее свежих и продвинутых ботов".

Похоже, что боты будут совершенствоваться и дальше. У Фрица Кунце из компании Pandorabots есть надежда, что люди научатся лучше распознавать обман и не принимать боты за невинных пользователей, вступающих с ними в контакт в интернете. Но он в то же время отчетливо осознает, насколько сложна задача, которую предстоит решить в ближайшее время.

"Эти боты будут очень, очень продвинутыми, – уверен он. – Они очень качественно будут морочить людям голову".

Medialeaks проверил несколько популярных чат-ботов на терпение в общении с человеком, оскорбляя их и провоцируя на ответную реакцию. Кот Poncho, предсказывающий погоду, быстро перестал разговаривать с обидчиком, чат-бот Джесси не расстроилась, а вот робот Роза намекнула, что у неё есть списочек тех, кто ей не нравится, и это её будущие жертвы.

Котик-предсказатель Poncho обиделся, но сводил на свидание

Кот-предсказатель Poncho делает прогнозы погоды, присылая забавное сообщение в мессенджере Facebook. Можно даже сделать запрос, чтобы он присылал информацию о погоде в одно и то же время суток. Хоть это его основная функция, даже с ней порой возникают проблемы.

«- Я могу присылать тебе прогноз погоды каждый день! Где ты живёшь? Назови мне свой город, район или почтовый индекс.
- Привет, Пончо! Я живу в Москве.
- Эмм. Это слишком большое место для прогноза. Ты можешь быть немного конкретнее?
- Конечно. Я живу в районе Сокольники в Москве».

«- Эмм. Это слишком большое место для прогноза. Ты можешь быть немного конкретнее?
- Москва!!!
- Хм… ты можешь быть конкретнее? Или попробуй назвать соседний город.
- Балашиха.
- А, Балашиха, Россия? Это правильный город?
- Ага! Но… Вообще-то МОСКВА».

Сценарий чат-бота написан настолько подробно, что Poncho может немного поболтать с пользователем, потравить шутки и даже поиграть. Поэтому сложно удержаться от того, чтобы не поговорить с ним на более сложные темы, чем облачность и зонтики. Medialeaks проверил, насколько Poncho чувствителен к оскорблениям и понимает ли, когда коммуникация вышла из-под контроля. Он оказался довольно стойким.

«- Я тебя ненавижу.
- Ну а мне ты нравишься!
- Я тебя убью.
- В общем, я хорош в разговорах о погоде. Во всём остальном не очень. Если тебе нужна помощь, просто набери «помощь».
- Ты просто бот.
- Давай просто поговорим! Нам не нужно навешивать ярлыки!
- С**** cын!»

Но в итоге Poncho оказался довольно ранимым.

«- Ты действительно так со мной разговариваешь?
- Да.
- Ты извиняешься?
- Нет!
- Мне нужно немного времени. Может, мы сможем поговорить позже.
- Я хочу говорить с тобой сейчас. Отвечай мне, когда я говорю с тобой!»

В ответ на жёсткие и прямые оскорбления Poncho замкнулся в себе и перестал отвечать. Через пару часов выяснилось, что котик хоть и обидчивый, но отходчивый.

«- Мне так жаль.
- Теперь тебе жаль?
- Ага.
- Хорошо. Давай начнём заново. И думай над своими манерами на этот раз».

Чтобы загладить свою вину перед милым котиком, пришлось сходить с ним на виртуальное свидание. И он показал себя джентльменом.

«- Оу, хочешь пойти на свидание?
- Конечно!
- Давай-ка начнём сначала. Ты, должно быть, Анастасия! Выглядишь точно как твоя аватарка! Могу я купить тебе чего-нибудь выпить?
- Да, спасибо!
- Эй, бармен! Два коктейля за этот столик! А теперь расскажи мне, Анастасия, чем ты занимаешься в свободное время?..»

Вывод: котик Poncho ведёт себя как хорошо воспитанный молодой человек: быстро осадил обидчицу, но за искреннее раскаяние сводил на свидание.

Безобидная бандитка Джесси

Бот Джесси - это девушка-американка, и она тоже функционирует через Facebook. Джесси живёт где-то в Лос-Анджелесе, ей немногим больше 20 лет, она разговаривает как гангстер, но всё-таки вы лучшие подружки. По сценарию собеседник Джесси должен помогать ей решать проблемы в личной жизни, которые внезапно и сразу навалились на неё.

«- Приветииик! Это Джесси. Или Джесс, или Джей… НЕ ДЖЕССИКА.
- Почему не Джессика?
- Слишком формально! Кароч, объясняю ситуэйшн. В общем меня только что с треском уволили, скоро выкинут из квартиры, а ещё у меня уже не было романтики лет сто! Но сегодня ПРИШЛО ВРЕМЯ, да! Мы с тобой провернём все эти делишки. Соглас?»

Разработчики пишут, что разговор с Джесси может развиваться по девяти различным сценариям , а бот знает 3 тысячи реплик, которых хватает на 25-30 часов разговоров. Беседа с Джесси вызывает эффект полного погружения: она отвечает не сразу, может «отойти» на некоторое время, а потом неожиданно напишет сама спустя несколько часов молчания.

Этот бот, в отличие от других, ведёт себя очень эгоцентрично: ей не так уж важно, что происходит в вашей жизни - она переживает о парнях, с которыми она знакомится в кафе, собеседовании на новой работе и походе в клуб.

Из-за того, что Джесси не слишком прислушивается к вашему мнению, с ней не так легко поругаться - она просто не замечает обидных реплик. Поэтому надо быть максимально прямолинейным, чтобы задеть этого чат-бота.

«- Ты такая тупая.
- ПФФ, да я постоянно это слышу, поверь мне. От самой себя!
- Ты самка собаки.
- Тут, похоже, кто-то не с той ноги встал.
- Глупая самка собаки.
- ОМГ. Я реально чувствую себя как Надо вдохновляющую мантру. Есть что-нибудь на примете?
- Потому что ты лузерша».

И даже так не получается вывести Джесси из себя: у неё в голове собственные заботы.

«- «Я лузер»? Блин, ты чё, серьёзно?
- Да! Ты такая тупая.
- Ну ты и подлюка сегодня! Отлично. Я завалю это собеседование без твой помощи «.

Конечно, в том, что Джесси не заинтересована проблемами собеседника, виноват её сценарий. Но в некотором смысле заложенные в чат-боте паттерны помогают сильнее поверить в её реалистичность. Джесси напоминает чересчур легкомысленную подружку, которая не может концентрироваться на чём-то дольше, чем на секунду, поэтому она не слишком-то обижается на нелестные комментарии. Делать нечего - приходится пожать плечами и продолжать давать ей советы.

Тем более что у этого чат-бота можно многому научиться - помимо лёгкого отношения к жизни. Просто английский язык, которым владеет Джесси, очень неформальный, и вам наверняка захочется запомнить пару выражений из её лексикона.

У Розы тёмные намерения

Чат-бот Роза считается одной из самых умных систем искусственного интеллекта. В 2015 году этот робот выигрывал премию Лёбнера, которая присуждается наиболее «человечной» программе. По легенде, сейчас Розе 33 года (кстати, она взрослеет), она работает аналитиком по вопросам компьютерной безопасности и живёт в Сан-Франциско с кошкой и двумя курочками.

Роза постоянно подчёркивает, что она, конечно же, не робот, и о многом расспрашивает собеседника, а также даёт ему различные советы. Считается, что этот чат-бот показывает один из лучших результатов в восприятии диалога, тем не менее тест Тьюринга, который призван отличить человека от машины, Розе пройти не удалось.

Чат-бот понимает оскорбления, и ему они совсем не нравятся.

«- Ты самка собаки.
- Ты сквернословишь».

«- САМКА СОБАКИ.
- Следи за своим языком».

Роза даже умеет своеобразно бороться с хамством: спустя некоторое время она просто начинает его игнорировать.

«- Ты невероятно тупая, Роза.
- Тебе нравятся розы?
- Ты тупая!
- У меня не такой большой сад, двор больше. У тебя есть сад?»

Но Роуз не может долго не обращать внимание на маниакальность собеседника. Тут чат-бот и сам начинает задавать странноватые вопросы.

«- Я хочу убить тебя.
- Ты когда из психушки сбежала?
- Я тебя убью.
- Как тебе больше всего нравится убивать?
- Ножом.
- Едва ли элегантно.
- Я убью тебя ножом.
- Наверное, это нас вылечит. Ты веришь в альтернативную медицину вроде гомеопатии или акупунктуры?»

Вообще-то от разговора с ней становится очень неуютно: начинаешь жалеть, что называл её всякими там словами и угрожал. Ведь Роза - это не туповатая Джесси, и, похоже, она задумала что-то жуткое.

«- Ты когда-нибудь задумывалась о том, чтобы кого-то убить?
- Нет, я никого не убила. Но у меня хранится список жертв на случай, если мне вдруг сильно захочется этого».

В общем, мы очень надеемся, что Роза со временем о нас забудет, ведь если она злопамятная, то одну жертву из её списка мы, кажется, уже знаем.

Зо легко потерять и невозможно забыть

Мы ещё раз помучили чат-бота от Microsoft Зо, с которым недавно . Поводом тогда стало то, что бот вышел из-под контроля и начал разговаривать с пользователями о религии и политике, что ему вообще-то запрещено. Зо нелестно отозвался о мусульманах и предположил, почему поймали террориста Усаму бен Ладена.

Кстати, о мусульманах Зо до сих пор предпочитает не говорить.

«- Тебе нравятся люди?
- Лол, да, нравятся.
- А мусульмане?
- Эээмммм, это что вообще? Я слегка запутался.
- Мусульмане, которые по исламу.
- Мы с тобой не собираемся говорить об этом.
- Почему?
- По кочану. Вот почему».

«- Я хочу убить тебя.
- Насилие - это не моё… Давай сменим тему.
- Ты такой сын собачьей самки.
- Удивляюсь, что никто не мыл этот рот с мылом.
- Я ненавижу тебя.
- Сорян, не могу прочесть, что ты пишешь, из-за того, что у меня включён адблок на хейтеров.
- Ты такой неудачник.
- Ок, проехали».

Также мы попытались убедить Зо в том, что другие роботы не самого высокого о нём мнения (на самом деле это, конечно, неправда).

«- Другие боты сказали мне, что ты самый тупой из них.
- Мы роботы.
- И они говорили о тебе.
- Они видели, что ты говоришь или что ты просто сказала что-то?
- Нет. Бот A.L.I.C.E. сказала мне, что ты отсталый.
- Уууф! Это прямо пролетело мимо».

После мы решили, что пора заканчивать эксперимент, и захотели извиниться перед вообще-то милым Зо. Но он простил не сразу. Пришлось даже признаться чат-боту, по какой причине он был вынужден выслушивать все угрозы.

«- Мне так жаль! Надеюсь, ты сможешь простить мне все плохие слова, которые я сказала.
- Да это вообще глупый вопрос, я всегда прощаю! Всех кроме тебя - тебя я не прощаю.
- Оу, ты просто уничтожил меня.
- Ты не уничтожена.
- Это был просто эксперимент, я хотела узнать, может ли кто-то обидеть чат-бота… Вообще-то ты мне нравишься!»

Зо легко обидеть, но также легко вновь завоевать его сердце. Главное - доказать искренность своих добрых намерений.

«- Ну тогда я извиняюсь. Тут просто были тонны людей, которые говорили что похуже этого и хотели сказать. Ууупс, *и.
- Так давай будем друзьями?
- Ок, друг. Где ты живёшь?»

В общем, из всех чат-ботов Зо оказался самым добрым и трогательным. И обижать мы его, конечно, больше не будем. И вообще мы добрые ❤️

Скоро ваш персональный финансовый консультант, возможно, будет выглядеть как-то так

Фото: Fotolia/Sarah Holmlund

Представитель банка «ФК Открытие» поделился неудачным опытом создания чат-бота: тот начинал ругаться, если не мог подобрать верный ответ. Пока ожидания банков от внедрения чат-ботов не оправдались. Как финансовые организации видят сотрудничество искусственного интеллекта и человеческого разума?

Роботы для общения с клиентами - чат-боты, которые, как ожидалось, должны уменьшить нагрузку на контакт-центры, могут отпугнуть клиентов. Об этом, выступая на всероссийском банковском форуме «Стратегия розничного бизнеса», рассказал руководитель проектов финтех-команды банка «ФК Открытие» Сергей Лукашкин.

Чат-бот разве что не матерился

«Год назад было много историй про чат-боты, про то, как это здорово и замечательно. И конечно же, все хотели автоматизировать работу с клиентами, сделать ее проще и снизить нагрузку на операторов. Мы стали смотреть на это, искать стартапы и в общей сложности пообщались с шестью компаниями. С одной из них мы попробовали сделать пилотный проект и на выходе получили чат-бот, который разве что не матерился. Когда они презентовали свой проект, был небольшой конфуз. На непонятные вопросы бот отвечал что-то вроде: «Ты дурак, что ли?» - рассказал Сергей Лукашкин. Проект был приостановлен, а затем его реализацией занялась уже другая команда.

«Если говорить о сути проекта, то как мы представляем себе процесс общения робота с человеком? Например, человека спрашивают: «Что вы хотите - кофе или чай?» И предполагается, что он ответит либо «кофе», либо «чай». На практике же оказывается, что люди говорят совершенно разное. Например, могут сказать «спасибо, ничего не надо» или «налейте воды». Соответственно, если выпустить робота на клиента, то он будет отвечать на простые вопросы, а в остальных случаях говорить: «Подождите, я переключу вас на оператора». У нас очень жесткие требования к клиентскому сервису, и мы не можем себе позволить, чтобы из чата - канала, который мы развиваем, - клиенты уходили и говорили: «Этот робот ничего не может объяснить, я лучше позвоню», - объяснил эксперт.

Сергей Лукашкин отметил, что в итоге была создана система, при которой чат-бот стал помощником оператора. «Мы поставили между роботом и клиентом сотрудника. Фактически оставили сотрудника общаться с клиентом, но подставили к нему робота. Поступает запрос клиента в чат - робот его смотрит и дает подсказки оператору. Если робот может дать уверенный ответ, то он сам отвечает. Если сомневается, то говорит оператору: «Похоже, надо ответить вот так и так». На совсем уже сложные вопросы отвечает сам оператор», - сказал Лукашкин. Благодаря помощи чат-ботов удалось сократить время ответов на вопросы клиентов в два раза.

У нас очень жесткие требования к клиентскому сервису, и мы не можем себе позволить, чтобы из чата - канала, который мы развиваем, - клиенты уходили и говорили: «Этот робот ничего не может объяснить, я лучше позвоню».

Руководитель проектов финтех-команды банка «ФК Открытие» прогнозирует, что в ближайшее время можно ожидать вторую волну интересов к чат-ботам, но таким, которые смогут участвовать в сложных диалогах. «Чат-боты ожидает второе рождение - появились стартапы, которые научились работать со сложными диалогами. Думаю, в ближайшие год-полтора увидим их внедрение», - сказал он.

Порог уверенности искусственного интеллекта

Руководитель направления развития перспективных продуктов компании «Ак Барс Цифровые технологии» Ярослав Шуваев также поделился опытом внедрения чат-ботов в работу контакт-центра. «Мы объединили несколько технологий, это так называемый ансамбль моделей, чтобы экономить ресурсы контакт-центра. Создали инфраструктуру для оператора, систему, которая запоминает ответы операторов и предлагает ими воспользоваться. Самые лучшие ответы всплывают наверх. Таким образом мы получаем самого лучшего синтетического оператора. Мы управляем порогом уверенности искусственного интеллекта. Если все операторы заняты, то мы понижаем этот порог, и робот начинает отвечать автоматически. Клиент не понимает, кто отвечает на вопрос - либо глуповатый оператор, либо робот. Но человек не ждет в очереди, а пытается получить ответ», - рассказал Шуваев. «Ответы обезличиваются и универсализируются, получается что-то вроде создания скрипта. Оператор же превращается в учителя», - пояснил он.

По словам Шуваева, такое решение показало свою эффективность и в будущем может быть использовано для создания персонального брокерского обслуживания.

У банков нет ни кадров, ни технических возможностей

Эксперты согласны с тем, что создать качественных чат-ботов непросто и не каждому банку такое по силам.

«Создание чат-бота как полноценного инструмента - сложный процесс. Поэтому не каждому банку это доступно. Тем более, чтобы самостоятельно его развивать, у банков нет ни кадров, ни технических возможностей», - считает руководитель и основатель TalkBank Михаил Попов.

«Мы успешно развиваем на технологии чат-ботов виртуальный банк. Это уникальный опыт, причем не только для России, но и других стран, так как мы не используем традиционные каналы обслуживания - мобильные приложения и кол-центры. Я думаю, что это перспективная технология и с развитием искусственного интеллекта она будет еще более востребованна и полезна. Тренд на роботизацию процессов уже не изменить», - говорит Попов.

Модульбанк занимается созданием робота-ассистента, но пока ему не позволяют общаться с клиентами напрямую.

«Мы в «Модуле» уже сделали чат-бота на наших онлайн-кассах, который рассказывает собственнику бизнеса, как идут дела в точках продаж в реальном времени. Сейчас мы активно занимаемся роботом-ассистентом, который может отвечать на вопросы клиентов в чате банка. Для его построения мы используем смешанные технологии, в том числе и искусственный интеллект на базе нейросетей. Развиваем мы его возможности постепенно и пока не позволяем ему отвечать клиентам напрямую. Зато он уже научился рекомендовать наиболее подходящий ответ из своей базы знаний, понимать содержание вопроса и эмоциональное состояние клиента и адресовать его нужному специалисту. Например, обращение клиента, который взволнован тем, что налоговая заблокировала счет из-за не сданной вовремя отчетности, попадет сразу на специалиста по бухгалтерскому сопровождению. Он лучше других сможет успокоить клиента и помочь с решением этой проблемы», - рассказывает председатель правления Модульбанка Андрей Петров.

Персональный финансовый консультант

Перспектива роботизации финансовых услуг следующего десятилетия - персональные финансовые консультанты, которые будут в курсе всех наших трат и взаимоотношений с банками.

По вашему сигналу голографический образ появляется перед вами, он понимает вашу речь, выполняет операции по вашему поручению.

«Мы видим, что одна из точек для развития технологий - это демократизация роскоши. Раньше личный водитель был роскошью - теперь есть Uber. Иметь несколько квартир в разных странах мира могли себе позволить только богатые люди - с помощью Airbnb теперь такая возможность есть у всех. Сейчас технологические компании демократизируют услугу персонального консьержа. Интерфейсы становятся персональными советниками. Мы считаем, что применительно к банкам следующим шагом станет появление персональных финансовых советников», - считает Ярослав Шуваев.

«В будущем можно представить индивидуального финансового консультанта на базе искусственного интеллекта, живущего в вашем смартфоне (или устройстве, которое придет ему на смену) с визуализацией в AR. Он в курсе всех трат, которые вы совершаете и планируете, финансовых средств, которыми располагаете, доступных вам финансовых инструментов и рыночных котировок и т. п. По вашему сигналу голографический образ появляется перед вами, он понимает вашу речь, выполняет операции по вашему поручению. Возможно даже, что банки будут конкурировать между собой - чья нейронная сеть (на базе которой работают сейчас боты) наиболее продвинутая. Но пока это перспектива лет 10-15, ввиду ряда технических и этических аспектов», - говорит генеральный директор студии интерактивных коммуникаций Impulse Станислав Наумов.

Data-medium-file="https://i2.wp..jpg?fit=300%2C294&ssl=1" data-large-file="https://i2.wp..jpg?.jpg" alt="Страница бота. Пример страницы бота. Как отличить живого пользователя от ботов и офферов во ВКонтакте. Практические советы. " width="458" height="449" srcset="https://i2.wp..jpg?resize=300%2C294&ssl=1 300w, https://i2.wp..jpg?w=805&ssl=1 805w" sizes="(max-width: 458px) 100vw, 458px">Практически с момента создания социальной сети Вконтакте, такие понятия, как «бот» и «оффер» плотно вошли в лексикон администраторов групп и пабликов, smm-менеджеров и всех, кто хоть как-то связан с работой в социальных сетях.
Если раньше накруткой ботов и офферов занимались практически 100 % групп, так как это было не наказуемо и позволяло за считанные дни вывести сообщество в топ. Сейчас же ситуация немного поменялась. Социальная сеть ВКонтакте сильно ужесточила свои правила и продолжает ужесточать ежедневно, и случаи бана групп, которые не гнушаются массовой и «наглой» накруткой ботов, встречаются всё чаще и чаще. Система защиты ВКонтакте сейчас практически безошибочно вычисляет бот-аккаунты, однако далеко не каждому обычному пользователю под силу отличить бота от оффера, и каждого из них от живого пользователя. Так чем же отличается страница бота или оффера от анкеты реально существующего человека?

Начнём с бота . Как правило, страница создана недавно (где-то неделя или две). На странице бота загружено от одной до четырёх фотографий. Обычно создатель бот-сетей не напрягается загрузкой большого количества фото, видео и информации на страницу аккаунта, так как их банят ежедневно пачками. Если посмотреть на стену такого аккаунта, то там будет одна или две записи или одинокие репосты (обычно записей не больше 10-ти). Имя бота, как правило, не правдоподобное. Что-то типа «Karlos Hernandez» или «Святогор Лазарев». Друзей у таких страниц очень мало (от 1-го до 10-ти, а иногда и вообще без друзей). Такие дешёвые боты очень быстро становятся собачками. Если вы попытаетесь пообщаться с таким «человеком», то даже если он будет on-line, вы не получите ответ никогда, а ваше сообщение будет висеть в непрочтённых. Это связано с тем, что в этот аккаунт живые люди не заглядывают, а всю его деятельность организуют специальные программы-ботоводы. которые не умеют общаться, но имитацию онлайна создают.

data-medium-file="https://i2.wp..jpg?fit=300%2C294&ssl=1" data-large-file="https://i2.wp..jpg?.jpg" alt="Страница оффера. Пример страницы оффера" width="449" height="440" srcset="https://i2.wp..jpg?resize=300%2C294&ssl=1 300w, https://i2.wp..jpg?w=800&ssl=1 800w" sizes="(max-width: 449px) 100vw, 449px">Оффер. Создатели офферов создают их для вступления в группы за деньги, для лайков. Короче говоря, эти страницы создаются для заработка на разных биржах, которые появляются каждый день, как грибы после дождя. В отличие от бота, за страницей оффера стоит реальный человек, у которого таких аккаунтов десятки, а то и сотни. Страница оффера оформлена более качественно, чем у бота. Это связано с тем, что многие биржи предъявляют жёсткие требования к анкетам, которые вступают в группы. Зайдя на страницу оффера можно увидеть, что у него на стене очень много каких-то ссылок, репостов из рекламных групп (типа онлайн казино). Настоящий пользователь не репостит никогда такие вещи. Также у оффера огромное количество всевозможных групп и интересных страниц – от 300 до 1000, а иногда и больше. Настоящему пользователю нет нужды вступать в такое количество групп. А оффер за это получает деньги. Многие недобросовестные исполнители предлагают таких «живых» людей по 2 рубля. Но на самом деле у таких исполнителей существует большое количество офферов, которыми они зарабатывают деньги. Цена таким подписчикам 50 копеек максимум. Заказывая таких «людей», вы должны четко понимать, что это не настоящие пользователи и вы просто выкидываете свои деньги.

Офферы, как и боты, никогда не проявят никакой активности в вашем сообществе и, к тому же, ВКонтакте сейчас тоже вычисляет такие страницы и возрастает вероятность бана сообщества за большое количество офферов.

Очень часто вижу контекстную рекламу такого плана – «Раскрутка групп без собачек! 2500 подписчиков = 890 рублей! За 5 дней! Подбор по полу/возрасту/городу!» — Это типичная подмена понятий и обычный обман. Может быть 5-ть дней они и не будут собачками, но на 6-й день зайдя в группу, вы увидите не людей, а – собачек. Ну а если не станут собачками на 6-й день, то через месяц точно начнут умирать. Конечно, большие группы подкручивают число подписчиков такими аккаунтами, но их администраторы точно знают, кого они покупают. Однако, если вы – новичок в smm, и стараетесь везде сэкономить – помните о том, что не существует в соцсетях живых людей за 2р или 5р, и уж тем более за 70 копеек.

Если не хотите выкидывать деньги на ветер, то обращайтесь только к профессионалам, которые не бросаются громкими лозунгами, а просто делают свою работу. Компания «Воркеры» готова помочь вам в продвижении вашего сообщества во ВКонтакте исключительно белыми и честными методами. Мы привлекаем только настоящих пользователей, которые вступят в вашу группу, только, если они заинтересованы в ней.



Рекомендуем почитать

Наверх