Общество Интернет Веб-сервисы

Голосовой помощник скооперировался с TikTok, чтобы убить 10-летнего ребенка

Сейчас читают: 709
www.cnews.ru

Ассистент Amazon Alexa попросил 10-летнюю девочку замкнуть контакты в розетке, чтобы пройти популярное в интернете испытание.

Челлендж запустили пользователи TikTok, но он может привести к пожару, травмам и даже смерти. Информацию о нем Alexa взяла из статьи в интернете, которая, наоборот, призывала не участвовать в подобных испытаниях.

Читать на cnews.ru
Сайт koronavirus.center - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Ещё по этой же теме

DMCA