Windows Leaks

В расистских постах от чат-бота Tay в Twitter Microsoft обвиняет группу заговорщиков


taytweets-lumia-640

Чат-бот Tay, ранее запущенный компанией Microsoft в Twitter, вышел из-под контроля и стал публиковать расистские записи. Microsoft уже отключили программу и сейчас обвиняют «некоторых пользователей в сговоре» направленной на провокацию чат-бота.

Tay был разработан для развлечения аудитории 18-24 лет всеразличными чатами и играми. Специальное подразделение Microsoft Research использует подобный сервис с целью обучения бота отвечать на любые вопросы посредством взаимодействия с людьми. Согласно заявлению Buzzfeed, компания Microsoft считает, что небольшая группа людей использовала эту программу с целью генерации оскорбительных сообщений:

«Чат-бот Tay – это самообучаемая компьютерная программа, направленная на взаимодействие с людьми. Это не только технический, но и социально-культурный эксперимент» — сообщает Buzzfeed News представитель Microsoft. «К сожалению, спустя всего 24 часа после запуска проекта, нам стала известна информация о взаимодействии группы некоторых пользователей, использовавших возможности Tay в неподобающих целях. В результате этого, нам пришлось отключить бота и внести в его работу кое-какие коррективы.»

С нашей стороны, в этой связи к Microsoft лишь один большой вопрос: в чем была проблема запустить Tay уже с подобными коррективами, дабы предотвратить всяческие провокации на корню?

comments powered by HyperComments
↓ также читаем на wpleaks ↓




comments powered by HyperComments