Тролли научили искусственный интеллект Microsoft ругаться и публиковать расистские твиты




16:29 25.03.2016 |   4284



В Microsoft вынуждены были временно выключить и отправить на доработку Twitter-бота по имени Tay, созданного в качестве «культурного эксперимента» в области искусственного интеллекта, который должен был обучаться естественному языку посредством общения в социальных сетях.

Приостановить эксперимент пришлось меньше чем через сутки после начала. Как объясняют в Microsoft, «пользователи Интернета превратили чатбота Tay в инструмент злоупотреблений».

Когда робот появился в сети, быстро выяснилось, что он реагирует на команду «повторяй за мной» и в ответ воспроизводит любое сообщение, которое получил. Многочисленные тролли тут же начали командовать Tay сыпать руганью и расистскими оскорблениями, чему тот подчинялся, иногда тоже прибавляя в конце «Повторяйте за мной». Пикантности ситуации прибавляло то, что судя по аватару, Tay — молодая девушка.

Но бот оказался не просто «попугаем»: например, когда у него спросили, за кого лучше голосовать на президентских выборах, Tay ответила, что обожает Дональда Трампа и, как она «слышала от многих людей», он будет лучшим президентом в истории.

Сотрудники Microsoft вынуждены были удалить самые оскорбительные твиты Tay, а с веб-страницы, посвященной роботу, исчезли инструкции о том, как с ним можно общаться.


Теги: Digital Life Microsoft Искусственный интеллект
На ту же тему: