Голосовой помощник Alexa приказал пользователю убить приёмных родителей

Недоразумение произошло вскоре после запуска Amazon экспериментальной функции «Давай поболтаем».

Новая инициатив разработчиков направлена на то, чтобы сделать Alexa более похожим на реального человека и дать возможность ему шутить с пользователями. В результате грубых ошибок в функциональности искусственного интеллекта, голосовой помощник заговорил об испражнениях и сексе собак, и приказал человеку убить своих приёмных родителей. Разработчики не исключают возможность взлома и раскрытия данных некоторых клиентов. ИИ изначально призван общаться с пользователями посредством текстов, историй, шуток, найденных на просторах интернета.

Как показало расследование, спич об убийстве родителей Alexa выдал после того, как нашёл новость на одном из агрегаторов и пересказал её владельцу. Шокированный пользователь написал гневный отзыв на сайте Amazon, где назвал ситуацию «совершенно диким случаем». В компании обеспокоены ситуацией и утверждают, что к этому привело нарушение конфиденциальности разговоров пользователей. В Amazon признались, что некоторые беседы в Сети могут записываться устройствами компании, информация из которых становится достоянием маркетологов, работников правоохранительных органов и даже преступников. На данный момент разработчики пообещали усилить защиту конфиденциальности и принимают меры по выявлению злоумышленников.