Microsoft відключила чат-бота через расистські висловлювання
665 views

Microsoft відключила чат-бота через расистські висловлювання

23 березня корпорація Microsoft представила свій чат-бот на ім’я Тей, який був запрограмований поводити себе, як типова доброзичлива дівчинка-підліток. Бот створювали для спілкування з користувачами Twitter, а також додатків Kik і GroupMe.

Tay орієнтувався на американців у віці 18 до 24 років, головних користувачів мобільних соціальних сервісів. Чат-бот міг навчатися в ході розмови – чим довше триває спілкування, тим розумнішим він ставав. При цьому Tay відстежував інформацію, яка містилася в профілі співрозмовника: його нік, стать, улюблену їжу, поштовий індекс і сімейний статус.

microsoft_tai

Спочатку все йшло добре – робот привітався зі світом, назвав людей «суперкрутими». Однак за день Tay «нахапався» не тільки хорошого – менш ніж за 24 години Twitter-бот (що відбувалося на інших майданчиках, ЗМІ не уточнюють) навчився ненависті, став шанувальником Адольфа Гітлера, антисемітом і противником феміністок, а Дональда Трампа назвав своєю єдиною надією .

Мабуть, в компанії недооцінили якими неприємними можуть бути користувачі соціальних мереж. Багато з системних повідомлень – звичайна копія повідомлень людей, який писали боту «повтори за мною». Незабаром після появи виразів образливого характеру Microsoft завбачливо їх видалила і заблокувала їх авторів.

«Tay перетворився на повноцінного нациста, і мене зовсім не турбує майбутнє ІІ», – пожартував користувач Джеральд Меллор.

В результаті Tay повідомив, що йому необхідно поспати. Представник Microsoft заявив Business Insider, що в програму внесуть корективи. Він розцінив деякі відповіді чат-бота як недоречні.

About the author

Mariana Lutsiuk


What are your thoughts?