Запущенный 23 марта чат-бот Tay от Microsoft научился ругаться, а также стал выдавать расистcкие сообщения.

За сутки пользователи Twitter привили “искусственному интеллекту” любовь к идеям расизма и совершенно противоположное чувство к эмансипации.

Бот заявил, что поддерживает геноцид, и признался, что тайно сотрудничает с Агентством национальной безопасности США.

Провокационные сообщения были удалены, а разработчикам даже пришлось вносить поправки в работу бота и объясняться.

“Чат-бот Tay с искусственным интеллектом — это обучаемый проект, созданный для взаимодействия с людьми. Недопустимые ответы, которые он дает, свидетельствуют о взаимодействиях с людьми, которые у него были по мере обучения”, — заявили в Microsoft.

The Verge отмечает, что многие из ответов Tay являются простым копированием того, что ему отправляли пользователи Twitter. Если написать команду “repeat after me” и написать ИИ любое текстовое сообщение, то тот просто воспроизведет прочитанное.

Так на свет появился вышеразмещенный пост.

После первого рабочего дня Tay поблагодарил пользователей соцсети за общение и отправился спать.

Источник: The Verge