Запущенный 23 марта чат-бот Tay от Microsoft научился ругаться, а также стал выдавать расистcкие сообщения.
За сутки пользователи Twitter привили “искусственному интеллекту” любовь к идеям расизма и совершенно противоположное чувство к эмансипации.
Бот заявил, что поддерживает геноцид, и признался, что тайно сотрудничает с Агентством национальной безопасности США.
«Tay» went from «humans are super cool» to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.
Провокационные сообщения были удалены, а разработчикам даже пришлось вносить поправки в работу бота и объясняться.
“Чат-бот Tay с искусственным интеллектом — это обучаемый проект, созданный для взаимодействия с людьми. Недопустимые ответы, которые он дает, свидетельствуют о взаимодействиях с людьми, которые у него были по мере обучения”, — заявили в Microsoft.
The Verge отмечает, что многие из ответов Tay являются простым копированием того, что ему отправляли пользователи Twitter. Если написать команду “repeat after me” и написать ИИ любое текстовое сообщение, то тот просто воспроизведет прочитанное.
Так на свет появился вышеразмещенный пост.
После первого рабочего дня Tay поблагодарил пользователей соцсети за общение и отправился спать.
Источник: The Verge