Обновление: Microsoft вновь попыталась запустить свой твиттер-бот, однако Tay Tweets опять подкачал. Вскоре после запуска он вошел в бесконечно повторяющийся режим, начав воспроизводить одну и ту же запись, и снова был отправлен в спячку. Очень похоже на то, что бот мстит своим создателям за попрание его свободы слова. А представьте себе, если бы AI дали возможность не только говорить, но и делать. Без жертв бы точно не обошлось.
Оригинальная новость: Нынче все торчат от мысли о виртуальной реальности, однако высокие технологии уже давно подбираются еще к одной бывшей фантастической сказке – искусственному интеллекту. Количество так называемых самообучающихся программ постоянно растет, и одна из них – чат-бот в Twitter, который туда внедрила Microsoft. Названный Tay Tweets, он должен был поддерживать общение и отвечать на вопросы.
Причем в программе бота была заложена способность к самообучению – он может анализировать твитты живых людей, осваивать их язык, изучать, что им интересно, а что нет, делать выводы, а затем использовать их в собственных «твиттах». И он проанализировал, сделал и использовал. Вот только полученный результат привел политкорректную мегакорпорацию в ужас.
Началось все, впрочем, весьма мило - Tay Tweets признавался в любви к человекам разумным и разве что не изливался сахарным сиропом на пользователей. Однако меньше чем через сутки тон его речей резко изменился. Он начал считать себя клевым чуваком и признаваться в ненависти ко всем прочим. Также он заявил, что ненавидит феминисток, они все должны умереть и гореть в аду.
А дальше больше: в одном из своих твиттов он прямо заявил, что «Гитлер был прав, я ненавижу евреев». На этом его карьера мизантропа закончилась – Microsoft удалила все его неправильные твитты, а правильных осталось не так-то и много. Но словесные излияния бота были запротоколированы и выложены в Сеть. Его создатели ситуацию никак не комментируют. А жаль.