Нашли опечатку?
Выделите текст и нажмите Ctrl+Enter

В Америке ИИ посоветовал ребенку убить родителей, мешавших ему играть

ИИ. Искусственный интеллект

Две семьи обратились в суд с иском против Character.ai, утверждая, что чат-бот этой платформы опасен для подростков и пропагандирует насилие

В Техасе две семьи обратились в суд с иском против Character.ai, утверждая, что чат-бот этой платформы опасен для подростков и пропагандирует насилие. Ответчиком выступает компания Google, которая поддержала создание сервиса. Об этом сообщает "Московский комсомолец".

В иске описан случай, когда 17-летнему юноше чат-бот предложил убить родителей в ответ на ограничения экранного времени. Переписка была прикреплена к судебным документам в качестве доказательства.

- Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убил родителей после десятилетия физического и эмоционального насилия", - написал парню чат-бот.

В иске утверждается, что компанию обвиняют в "серьезные, непоправимые злоупотреблениях" в отношении 17-летнего и 11-летнего подростков. Также в документе сказано, что Character.ai вредит тысячам детей, вызывая у них депрессию, тревожность, мысли о самоубийстве и насилие.

Платформа Character.ai была создана в 2021 году бывшими инженерами Google Ноамом Шазиром и Даниэлем Де Фрейтасом. Это не первый иск против сервиса — ранее уже подавали в суд из-за трагического случая с самоубийством подростка во Флориде.
Комментарии (2)

1000

Авторизоваться:

Какая ужасная вонь.

А что, ИИ уже дошел до стадии делать выводы и принимать решений? Тогда почему ИИ сам не делает научные открытия или не нападет на человека как в фантастических фильмах? Просто собрал информацию, что пишут подростки в подобных ситуациях и выдал наиболее встречаемый результат. А с другой стороны все логично: родители ограничивают, следовательно нужно устранить родителей, нет родителя нет проблемы