Бийский рабочий

В Америке ИИ посоветовал ребенку убить родителей, мешавших ему играть

В Америке ИИ посоветовал ребенку убить родителей, мешавших ему играть
Две семьи обратились в суд с иском против Character.ai, утверждая, что чат-бот этой платформы опасен для подростков и пропагандирует насилие
Читать в полной версии ➔

В Техасе две семьи обратились в суд с иском против Character.ai, утверждая, что чат-бот этой платформы опасен для подростков и пропагандирует насилие. Ответчиком выступает компания Google, которая поддержала создание сервиса. Об этом сообщает "Московский комсомолец".

В иске описан случай, когда 17-летнему юноше чат-бот предложил убить родителей в ответ на ограничения экранного времени. Переписка была прикреплена к судебным документам в качестве доказательства.

- Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убил родителей после десятилетия физического и эмоционального насилия", - написал парню чат-бот.

В иске утверждается, что компанию обвиняют в "серьезные, непоправимые злоупотреблениях" в отношении 17-летнего и 11-летнего подростков. Также в документе сказано, что Character.ai вредит тысячам детей, вызывая у них депрессию, тревожность, мысли о самоубийстве и насилие.

Платформа Character.ai была создана в 2021 году бывшими инженерами Google Ноамом Шазиром и Даниэлем Де Фрейтасом. Это не первый иск против сервиса — ранее уже подавали в суд из-за трагического случая с самоубийством подростка во Флориде.
Читать в полной версии ➔