Microsoft рассказывает о чат-боте Tay

tay

Как начать зарабатывать в интернете?

Мы лично выводим более 96 000 рублей в месяц:
Инструкция как заработать!

Переходите и начните получать первые деньги уже сегодня

Как вы уже знаете, недавно компания Microsoft создала чат-бота: казалось бы, весьма интересная и в то же время ничем не примечательная новость. Бот, под никнеймом @TayandYo использовался в Twitter, как искусственный интеллект, отвечающий на вопросы и предложения пользователей.

Поначалу программа работала отлично. Кроме того, Microsoft постарались над тем, чтобы Tay позиционировал себя, как подросток. Подобное, по сообщению из пресс-релиза компании, было направлено на 18-24-летних пользователей и, таким образом способствовало обучению программы воспринимать и обрабатывать абсолютно новую и различную информацию.

Тем не менее, интернет дал о себе знать и Tay — привлекательное и забавное создание — было превращено в ненавистника и расиста.

Отдельные его сообщения оказались просто ужасающими, и, в этом плане Microsoft оставили за собой большую недоработку. Большинство примеров, конечно же, были удалены из Twitter (вероятно, потому что они бесконечно репостились), однако скриншоты все-таки удалось сохранить.

Компания Microsoft в связи со случившимся уже принесла свои извинения, так как инцидент был освещен крупными новостными сайтами. Вот, что пишет корпоративный президент Microsoft Research, Питер Ли, в своем блоге:

«Мы приносим свои глубочайшие извинения за непреднамеренные оскорбления и провокации в Twitter. В частности, хотелось бы извиниться перед теми, кто далек от того, чем занимается наша и компания, и не знает, для чего разрабатывался Tay».

Также, причиной случившегося, некоторые аналитики считают «скоординированное действие со стороны группы людей, воспользовавшимися уязвимыми местами Tay».

Дело в том, что Tay способен повторять ваше сообщение, если вы у него попросите об этом. Некоторые пользователи намеренно писали оскорбительные посты и просили Tay продублировать написанное. Отсюда, по-видимому, и растут ноги произошедшего.

screen-tay

За все время работы боту удалось создать тысячи различных твитов, многие из которых были забавны и смешны. Впрочем, наибольший интерес вызвали самые неприемлемые — за что, конечно же, все и будут помнить @TayandYou.

В этом я искренне сочувствую Microsoft и, как я уже однажды писал в своем Twitter, идея запуска Tay сама по себе была грандиозной. Обучение искусственного интеллекта – дело не простое, однако подвергая его обработке со стороны коллективного сознания в лице соц. медиа, можно получить действительно хорошие результаты. У компании есть другой подобный проект в Китае, под названием Xiaoice, который также обучается благодаря социальным формам коммуникации.

Тем не мене, все, кто когда-либо пользовался Twitter, понимают, что подобная среда – не самое благоприятное место для ИИ.

Пример высказываний @realDonaldTrump и массовых жалоб от женщин в его адрес о злоупотреблении положением должен был заставить Microsoft задуматься над тем, что многие пользователи попросту хотят оказаться в центре внимания, — только дай повод.

По мнению компании, Twitter является чем-то вроде «крылом свободы речи», дающим право пользователям говорить о жизни без ограничений, что соответственно делает социальную сеть идеальным местом для запуска бота с возможностями отвечать и повторять за другими пользователями.

tay22

«Хоть мы и подготовились ко многим незаурядным ситуациям в работе системы, подобное происшествие оказалось критическим», сообщает Ли, лаконично прокомментировав случившееся.

Сообщения Tay не были самодостаточными, и именно поэтому, данный эксперимент оказался катастрофой для Microsoft с точки зрения освещения в прессе.

В первую очередь твиты были обнаружены медиа-ресурсами, далее подключились более популярные СМИ — преимущественно благодаря их аккаунтам в Twitter. Представители The Guardian, The New York Times, The New Yorker – все тут же начали публиковать своё мнение о чат-боте на главных страницах своих изданий.

На прошлой неделе у Microsoft дела были, откровенно говоря, не очень, но этот инцидент, пожалуй, не сравнится ни с чем. Примечательно, что личная информация Tay содержит следующее: «Официальный аккаунт Tay. Искусственный интеллект от Microsoft в прозябающем от холода интернете». Кто создал это, и кто понесет ответственность за содеянное?

Тем не менее Microsoft не отступают от намерения закончить работу с искусственным интеллектом. «Для того, чтобы сделать хороший ИИ, нужно взаимодействовать с большим количеством людей на массовых форумах», подмечает Ли. «Мы должны продолжать работу теперь уже с большей осторожностью, добиваясь в конечном счете поставленных целей в обучении и совершенствовании – шаг за шагом – стараясь при этом, по возможности, не оскорблять людей на протяжении данного процесса».

Таким образом, остается известно лишь одно: Tay войдет в историю, как самая большая оплошность Microsoft, захватившая как технологические, так и общественные сферы. В настоящее время искусственный интеллект является одним из самых значимых областей исследования и разработки в мире технологий: компания Microsoft – один из лидеров в этом направлении деятельности, однако, подобные происшествия выглядят не очень хорошо.

А что вы думаете о Tay? Делитесь своим мнением в комментариях.

Вы хотите заработать свои деньги в интернете?
Мы лично его проверили и зарабатываем по 30 000 рублей в неделю!