Кокетливые боты: как нас обманывают в интернете
Гораздо более интересно, на что чат-боты способны в повседневной жизни. В интернете они просто вьются вокруг нас, пытаясь обмануть, заставить поверить, что они реальные люди. Участие в конкурсах им ни к чему. Некоторые из них достаточно хитроумны, чтобы проникнуть в социальные сети и даже повлиять на общественное мнение. Их там много, очень много.
Большинство из нас считает всемирную сеть местом, где основной трафик создают люди, однако в реальности все совершенно иначе. В одном из последних отчетов констатируется, что 61,5% интернет-трафика генерируется компьютерными программами, работающими самостоятельно, без участия человека. То есть ботами.
Ослепленные сексом
Чтобы обмануть нас, боты чаще всего используют соблазнительную приманку, объясняет Ричард Уоллес из компании Pandorabots, изготавливающей чат-ботов для служб по работе с клиентами и других целей. Уоллес - создатель бота под названием A.L.I.C.E, что расшифровывается как Artificial Linguistic Internet Computer Entity ("Искусственная лингвистическая интернет-компьютерная сущность"). "Алиса" трижды побеждала на Лебнеровском конкурсе, где чат-боты соперничают друг с другом, стараясь убедить членов жюри в своей "человечности".
"Наиболее искусные создатели этих ботов – вовсе не профессиональные программисты, а люди, которые работают в творческой сфере, – говорит Уоллес. – Ключ к созданию хорошего чат-бота – это написание правдоподобных, занимательных и интересных ответов".
Мошенники прекрасно знают об этом феномене. Компания Cloudmark, специализирующаяся на исследованиях в области безопасности, зафиксировала появление кокетливого бота под названием TextGirlie. Узнав имя жертвы и ее номер телефона из профиля в социальных медиа, TextGirlie начинает отправлять жертве персонифицированные сообщения с приглашением продолжить разговор в онлайн-чате. Затем происходит обмен несколькими кокетливыми репликами, после чего жертве предлагается нажать на ссылку, ведущую на "взрослый" сайт знакомств или сайт с веб-камерой.
По оценкам специалистов Cloudmark, в арсенале TextGirlie порядка 15 миллионов текстовых сообщений, отправляемых на мобильные телефоны, и они утверждают, что бот-обманщик работает уже несколько месяцев. По словам аналитика компании Эндрю Конвея, это явный признак успеха программы.
Автоматизированный обман
Чаще всего ботам удается обмануть людей в ситуации, когда те ожидают от своего собеседника в какой-то мере странного поведения или ломаного английского. К примеру, еще в 1971 году психиатру Кеннету Колби удалось убедить несколько практикующих коллег, что они разговаривают через компьютерный терминал с настоящим пациентом. На самом же деле Колби использовал программу, которая моделировала речь параноидального шизофреника.
А совсем недавно, в 2006 году, психолог Роберт Эпштейн был введен в заблуждение хитроумной программой, имитирующей поведение влюбленной в него русской женщины. В последнее время боты роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана.
Иногда боты способны одурачить даже продвинутых интернет-пользователей. Берди Яворски знает, каково это. Яворски – одна из завсегдатаев социального новостного сайта Reddit и адепт виртуальной валюты dogecoin. На форуме Reddit недавно появился пользователь под ником wise_shibe, размещающий остроумные замечания в стиле древних изречений. "Его ответы звучали так, словно это сказал Конфуций", – вспоминает Яворски.
Эти комментарии даже начали приносить wise_shibe деньги, поскольку форум позволяет пользователям отправлять друг другу небольшие "чаевые" в цифровой валюте, если им нравится комментарий. Реплики wise_shibe были популярны и собирали много чаевых. Но вскоре все это начало выглядеть подозрительно: аккаунт был активен в любое время суток и в конце концов начал повторяться.
Когда обнаружилось, что wise_shibe - бот, некоторые участники форума были возмущены. Другие же заявили, что ничего не имеют против. Яворски была удивлена, но чувствовала себя обманутой. "Внезапно понимаешь, что этот человек на форуме, который принимает от тебя виртуальную валюту в благодарность за удачные комменты – не более чем маленький робот", – вспоминает она.
"Твиттер"-фантомы
Если взаимодействие с ботом выглядит достаточно естественно, то мы с самого начала считаем, что это человек. Для Фабрицио Бенвенуто это явление стало предметом серьезных исследований. Недавно он и трое других ученых опубликовали статью, в которой объясняется, насколько просто социальным ботам проникнуть в "Твиттер", если они выглядят и действуют как реальные пользователи этой соцсети коротких сообщений.
Бенвенуто и его коллеги создали 120 бот-аккаунтов, постаравшись, чтобы у каждого из них был убедительный профиль с картинкой и такими чисто человеческими атрибутами, как, например, пол. Через месяц они обнаружили, что механизмы идентификации ботов в "Твиттере" не смогли разоблачить почти 70% из них. Более того, боты были заранее запрограммированы на взаимодействие с другими пользователями и быстро привлекли большую группу подписчиков ("фолловеров"), почти 5 тыс. человек.
Возможные последствия этого нельзя недооценивать. "Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение. Например, путем публикации большого количества фальшивых сообщений и бессовестного улучшения или ухудшения общественного мнения по какому-либо вопросу", – отмечается в статье.
Использование батальона настойчивых ботов (либо специально нанятых оплачиваемых пользователей – Ред.) для искусственного управления общественным мнением называется астротурфингом (astroturfing). Потенциальное влияние, которое астротурфинг способен оказать, например, на исход выборов, уже вызывает обеспокоенность профессионалов, в связи с чем в январе автор одного из блогов на сайте агентства Reuters призвал к запрету на использование кандидатами ботов во время предвыборной кампании. Последствия астротурфинга могут быть настолько серьезны, что министерство обороны США приняло участие в финансировании разработки программного обеспечения, способного определить, принадлежит ли аккаунт в "Твиттере" боту.
Онлайн-приложение, получившее название BotOrNot, доступно для широкой публики и выполняет упреждающий анализ, основанный на деятельности аккаунта и семантике его твитов, что позволяет с большой долей вероятности предположить, кем является владелец аккаунта – человеком или ботом.
Но Эмилио Феррара, ведущий исследователь проекта, признает, что система, возможно, уже устарела. Она прошла обучение на контенте "Твиттера", которому в настоящее время три года, и не исключено, что лучшие боты наших дней уже научились избегать обнаружения. "Сегодня боты стали гораздо более совершенными, – говорит Феррара. – Они лучше маскируются, больше похожи на людей. Поэтому задача все больше и больше усложняется. Мы даже не знаем, какова точность системы в обнаружении наиболее свежих и продвинутых ботов".
Похоже, что боты будут совершенствоваться и дальше. У Фрица Кунце из компании Pandorabots есть надежда, что люди научатся лучше распознавать обман и не принимать боты за невинных пользователей, вступающих с ними в контакт в интернете. Но он в то же время отчетливо осознает, насколько сложна задача, которую предстоит решить в ближайшее время.
"Эти боты будут очень, очень продвинутыми, – уверен он. – И они будут морочить людям голову очень качественно".
Крис Баранюк