Люди издавна мечтали об умных машинах, похожих на человека. Кажется, мечты сбылись, такие машины уже среди нас, но стоит ли радоваться по этому поводу?
Иногда это обещание секса, на которое вы клюете, как на наживку. Иногда вы покупаетесь на то, что они кажутся мудрыми, доброжелательными или просто смешными. Боту все равно, как именно он вас обманывает – его единственная цель состоит в том, чтобы заставить вас поверить, что он - человек. Если вы пользуетесь социальными сетями и проводите много времени в интернете, вполне возможно, что вы уже стали жертвой одной из компьютерных программ ("бот" – сокращение от "робот" – Ред.), созданной специально для имитации человеческого разговора в многочисленных чатах.
В начале июня прозвучало спорное заявление, что разработанный в России чат-бот впервые в истории прошел знаменитый тест британского пионера информатики Алана Тьюринга для оценки искусственного интеллекта компьютера. В ходе обмена текстовыми сообщениями компьютерная программа под названием Eugene Goostman ("Евгений Густман") сумела убедить достаточно высокий процент задававших вопросы участников теста, что перед ними - 13-летний украинский мальчик. Как считают оптимисты, таким образом, был дан ответ на вопрос о возможности создания искусственного интеллекта, много лет назад поставленный Тьюрингом.
Знаменует ли это событие начало новой эры, как амбициозно утверждали организаторы теста из британского университета города Рединга? Не совсем так. Тест Тьюринга потерял свою важность для исследований в области искусственного интеллекта несколько лет назад, и многие ученые рассматривают подобные состязания суперпрограмм как несовершенные, потому что их можно выиграть с помощью обмана – например, притвориться человеком, для которого английский язык не родной.
Гораздо более интересно, на что чат-боты способны в повседневной жизни. В интернете они просто вьются вокруг нас, пытаясь обмануть, заставить поверить, что они реальные люди. Участие в конкурсах им ни к чему. Некоторые из них достаточно хитроумны, чтобы проникнуть в социальные сети и даже повлиять на общественное мнение. Их там много, очень много.
Большинство из нас считает всемирную сеть местом, где основной трафик создают люди, однако в реальности все совершенно иначе. В одном из последних отчетов констатируется, что 61,5% интернет-трафика генерируется компьютерными программами, работающими самостоятельно, без участия человека. То есть ботами.
Ослепленные сексом...
Чтобы обмануть нас, боты чаще всего используют соблазнительную приманку, объясняет Ричард Уоллес из компании Pandorabots, изготавливающей чат-ботов для служб по работе с клиентами и других целей. Уоллес - создатель бота под названием A.L.I.C.E, что расшифровывается как Artificial Linguistic Internet Computer Entity ("Искусственная лингвистическая интернет-компьютерная сущность"). "Алиса" трижды побеждала на Лебнеровском конкурсе, где чат-боты соперничают друг с другом, стараясь убедить членов жюри в своей "человечности".
"Наиболее искусные создатели этих ботов – вовсе не профессиональные программисты, а люди, которые работают в творческой сфере, – говорит Уоллес. – Ключ к созданию хорошего чат-бота – это написание правдоподобных, занимательных и интересных ответов".
Мошенники прекрасно знают об этом феномене. Компания Cloudmark, специализирующаяся на исследованиях в области безопасности, зафиксировала появление кокетливого бота под названием TextGirlie. Узнав имя жертвы и ее номер телефона из профиля в социальных медиа, TextGirlie начинает отправлять жертве персонифицированные сообщения с приглашением продолжить разговор в онлайн-чате. Затем происходит обмен несколькими кокетливыми репликами, после чего жертве предлагается нажать на ссылку, ведущую на "взрослый" сайт знакомств или сайт с веб-камерой.
Автоматизированный обман...
Чаще всего ботам удается обмануть людей в ситуации, когда те ожидают от своего собеседника в какой-то мере странного поведения или ломаного английского.
К примеру, еще в 1971 году психиатру Кеннету Колби удалось убедить несколько практикующих коллег, что они разговаривают через компьютерный терминал с настоящим пациентом. На самом же деле Колби использовал программу, которая моделировала речь параноидального шизофреника.
А совсем недавно, в 2006 году, психолог Роберт Эпштейн был введен в заблуждение хитроумной программой, имитирующей поведение влюбленной в него русской женщины. В последнее время боты роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана.
Иногда боты способны одурачить даже продвинутых интернет-пользователей.
"Твиттер"-фантомы...
Если взаимодействие с ботом выглядит достаточно естественно, то мы с самого начала считаем, что это человек.
Для Фабрицио Бенвенуто это явление стало предметом серьезных исследований. Недавно он и трое других ученых опубликовали статью, в которой объясняется, насколько просто социальным ботам проникнуть в "Твиттер", если они выглядят и действуют как реальные пользователи этой соцсети коротких сообщений.
Бенвенуто и его коллеги создали 120 бот-аккаунтов, постаравшись, чтобы у каждого из них был убедительный профиль с картинкой и такими чисто человеческими атрибутами, как, например, пол. Через месяц они обнаружили, что механизмы идентификации ботов в "Твиттере" не смогли разоблачить почти 70% из них. Более того, боты были заранее запрограммированы на взаимодействие с другими пользователями и быстро привлекли большую группу подписчиков ("фолловеров"), почти 5 тыс. человек.
Возможные последствия этого нельзя недооценивать. "Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение. Например, путем публикации большого количества фальшивых сообщений и бессовестного улучшения или ухудшения общественного мнения по какому-либо вопросу".
Использование батальона настойчивых ботов (либо специально нанятых оплачиваемых пользователей – Ред.) для искусственного управления общественным мнением называется астротурфингом (astroturfing).
Потенциальное влияние, которое астротурфинг способен оказать, например, на исход выборов, уже вызывает обеспокоенность профессионалов, в связи с чем в январе автор одного из блогов на сайте агентства Reuters призвал к запрету на использование кандидатами ботов во время предвыборной кампании.
"Сегодня боты стали гораздо более совершенными, – говорит Феррара. – Они лучше маскируются, больше похожи на людей. Поэтому задача все больше и больше усложняется. Мы даже не знаем, какова точность системы в обнаружении наиболее свежих и продвинутых ботов".
Похоже, что боты будут совершенствоваться и дальше. У Фрица Кунце из компании Pandorabots есть надежда, что люди научатся лучше распознавать обман и не принимать боты за невинных пользователей, вступающих с ними в контакт в интернете. Но он в то же время отчетливо осознает, насколько сложна задача, которую предстоит решить в ближайшее время.
"Эти боты будут очень, очень продвинутыми, – уверен он. – Они очень качественно будут морочить людям голову".
На всех сайтах есть такие боты и фейки...Так что , друзья, держите "ухо востро"....
Мы используем cookie-файлы, чтобы улучшить сервисы для вас. Если ваш возраст менее 13 лет, настроить cookie-файлы должен ваш законный представитель. Больше информации
Нет комментариев