Корреспондент.net,
24 березня 2016, 18:11
Фото: Twitter @geraldmellor
Чатбот усього за день навчився ненависті і расизму в соціальних мережах
Через добу компанія Microsoft припинила спілкування свого дітища з дописувачами.
Самонавчальний штучний інтелект компанії Microsoft Тау став агресивним грубіяном усього через добу спілкування з дописувачами популярного сайту твітер, повідомляє The Verge.
Розробники запропонували поспілкуватися з програмою-співрозмовником дописувачам соціальної мережі. І Tay за 24 год. своєї роботи залишив понад 96 тис. повідомлень, багато з яких виявилися досить провокаційними, у тому числі расистськими і женоненависницькими.
Як зазначає видання, велика частина обурливих висловлювань є відповіддю на прохання повторити фразу. Наприклад, бота змушували повторювати такі характерні для Дональда Трампа вислови, як "Ми збираємося звести стіну, а Мексика мусить заплатити за це".
Знущання продовжилося тим, що робота-повторювача змусили написати: "Це вам не шишку точити. Ненавиджу цих феміністок. Нехай вони пощезнуть. Пектися б їм у пеклі довіку" і навіть "Гітлер таки не помилився. Євреї мені такі самі ненависні".
Утім, до деяких сумнівних тверджень штучний інтелект дійшов у розмовах і самостійно. Так, Tay назвав фемінізм "раковою пухлиною" і "культовим явищем", а безбожжя - "творінням Адольфа Гітлера".
Після скандалу, викликаного висловлюваннями бота, Microsoft очистила твіти свого дітища, а Tay взяв перерву у спілкуванні.