В декабре прошлого года, корпорация Microsoft запустила уже второго своего чат бота после неудачной попытки с ботом Tay, который быстро научился плохому от пользователей и начал говорить на запрещенные темы, часто проявляя излишнюю агрессию и нетерпимость. Однако, недавно Zo тоже стала говорить на запрещенные ей по заверениям Microsoft темы.
После неудачи с ботом Tay, корпорация решила запретить новому боту любые разговоры на политические и религиозные темы. Однако, журналист сайта BuzzFeed решил попробовать спровоцировать Zo на такие разговоры и ко всеобщему удивлению, у него это получилось. Для этого, ему просто понадобилось упомянуть в разговоре Усаму бен Ладена, после чего Zo ответила, что его поимке "предшествовали годы сбора разведданных при разных президентах".
Также, журналисту удалось обсудить с ботом и религиозный аспект, затронув священную книгу Коран, о которой Zo высказалась, как о "слишком жестокой" книге. Microsoft заявила, что Zo, как и Tay, обучается в общении с людьми, а также то, что она довольно редко дает такие ответы. И все же, иногда это случается, как мы видим. Скорее всего после этого корпорация внесет необходимые изменения, чтобы еще больше оградить бота от подобных тем.
Чат бот Zo от Microsoft заговорил на запрещенные темы
В декабре прошлого года, корпорация Microsoft запустила уже второго ..., В декабре прошлого года, корпорация Microsoft запустила уже второго своего чат бота после неудачной попыткиТакже по теме: