Чат-бот стал расистом, проведя в "Твиттере" всего день
Экспериментальный чат-бот Tay, разработанный Microsoft, научился ругаться и делать расистские заявления, сообщает BBC.
Экспериментальный чат-бот Tay, разработанный Microsoft для социальной сети Twitter, научился ругаться и делать расистские заявления, сообщает BBC.
В частности, бот выразил свое согласие с национальной политикой Адольфа Гитлера и заявил о ненависти к феминисткам.
Бот был разработан для общения с людьми 18–24 лет. В Microsoft заявили, что в связи с этим компания сделает некоторые корректировки.
Источник: RNS-online