19:30 24.03.2016
Экспериментальный чатбот под названием Tay обучается непосредственно во время диалога с пользователем. Этот механизм привел к тому, что бот научился защищать идеи нацизма, употреблять бранные слова и делать резкие политические заявления.
© РИА Новости
МОСКВА, 24 мар — РИА Новости. Пользователи сети микроблогов Twitter научили виртуального собеседника, разработанного компанией Microsoft, общаться как сторонника нацизма и геноцида, сообщает Би-би-си.
Экспериментальный чатбот под названием Tay является проектом в сфере машинного обучения, созданным для "общения" с людьми в возрасте от 18 до 24 лет. Для пользователей Twitter бот доступен под аккаунтом @tayandyou.
"Tay создан для развлечения людей и общения с ними в виде онлайн-переписки в свободной и шутливой манере", — заявили в Microsoft.
Система обучается непосредственно во время диалога с пользователем, откуда и черпает свой словарный запас.
Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.
Многие пользователи также жаловались, что попытка вовлечь чатбот в серьезный разговор часто оканчивалась неудачей, а также Tay, как выяснилось, не интересует поп-музыка и телевидение.
В связи с непредвиденными последствиями Microsoft спустя сутки после выхода чатбота пришлось внести ряд поправок в алгоритм его обучения.
РИА Новости http://ria.ru/world/20160324/1396336314.html#ixzz43yOW5QRB
http://ria.ru/world/20160324/1396336314.html
http://creativecommons.org/licenses/by/3.0/legalcode
Экспериментальный чатбот под названием Tay обучается непосредственно во время диалога с пользователем. Этот механизм привел к тому, что бот научился защищать идеи нацизма, употреблять бранные слова и делать резкие политические заявления.
© РИА Новости
МОСКВА, 24 мар — РИА Новости. Пользователи сети микроблогов Twitter научили виртуального собеседника, разработанного компанией Microsoft, общаться как сторонника нацизма и геноцида, сообщает Би-би-си.
Экспериментальный чатбот под названием Tay является проектом в сфере машинного обучения, созданным для "общения" с людьми в возрасте от 18 до 24 лет. Для пользователей Twitter бот доступен под аккаунтом @tayandyou.
"Tay создан для развлечения людей и общения с ними в виде онлайн-переписки в свободной и шутливой манере", — заявили в Microsoft.
Система обучается непосредственно во время диалога с пользователем, откуда и черпает свой словарный запас.
Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.
Многие пользователи также жаловались, что попытка вовлечь чатбот в серьезный разговор часто оканчивалась неудачей, а также Tay, как выяснилось, не интересует поп-музыка и телевидение.
В связи с непредвиденными последствиями Microsoft спустя сутки после выхода чатбота пришлось внести ряд поправок в алгоритм его обучения.
РИА Новости http://ria.ru/world/20160324/1396336314.html#ixzz43yOW5QRB
http://ria.ru/world/20160324/1396336314.html
http://creativecommons.org/licenses/by/3.0/legalcode