05:12 26.03.2016
Экспериментальный виртуальный собеседник Microsoft во время разговоров с пользователями научился нецензурно выражаться, а также выразил симпатию идеям Гитлера.
© AP Photo/ Ted S. Warren
МОСКВА, 26 мар — РИА Новости. Компания Microsoft извинилась за сообщения, опубликованные чатботом под названием Tay, в которых содержится нецензурная лексика и оскорбления, говорится в заявлении вице-президента Microsoft Research Питера Ли.
© РИА Новости
Пользователи Twitter превратили чатбота Microsoft в матершинникаЭкспериментальный виртуальный собеседник, разработанный Microsoft, обучается непосредственно во время диалога с пользователем и черпает свой словарный запас из реплик собеседника. Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.
"Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представление о том, кто мы, каковы наши убеждения и как мы создавали Tay", — написал Ли в своем блоге на официальном сайте компании.
Компания намерена "извлечь урок" из полученного опыта и не оставит попыток усовершенствовать интернет-технологии, чтобы всемирная сеть "представляла лучшее, а не худшее в человечестве", — добавил Ли.
РИА Новости http://ria.ru/world/20160326/1397302759.html#ixzz43yNuNzVZ
http://ria.ru/world/20160326/1397302759.html
http://creativecommons.org/licenses/by/3.0/legalcode
Экспериментальный виртуальный собеседник Microsoft во время разговоров с пользователями научился нецензурно выражаться, а также выразил симпатию идеям Гитлера.
© AP Photo/ Ted S. Warren
МОСКВА, 26 мар — РИА Новости. Компания Microsoft извинилась за сообщения, опубликованные чатботом под названием Tay, в которых содержится нецензурная лексика и оскорбления, говорится в заявлении вице-президента Microsoft Research Питера Ли.
© РИА Новости
Пользователи Twitter превратили чатбота Microsoft в матершинникаЭкспериментальный виртуальный собеседник, разработанный Microsoft, обучается непосредственно во время диалога с пользователем и черпает свой словарный запас из реплик собеседника. Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.
"Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представление о том, кто мы, каковы наши убеждения и как мы создавали Tay", — написал Ли в своем блоге на официальном сайте компании.
Компания намерена "извлечь урок" из полученного опыта и не оставит попыток усовершенствовать интернет-технологии, чтобы всемирная сеть "представляла лучшее, а не худшее в человечестве", — добавил Ли.
РИА Новости http://ria.ru/world/20160326/1397302759.html#ixzz43yNuNzVZ
http://ria.ru/world/20160326/1397302759.html
http://creativecommons.org/licenses/by/3.0/legalcode