К OpenAI подали семь исков — ChatGPT обвиняют в доведении пользователей до самоубийства

Читать в полной версии

Несколько частных лиц из США и Канады подали на OpenAI в суд, обвинив компанию в том, что их близкие причинили сами себе вред из-за того, что общались с популярным чат-ботом ChatGPT. Четверо из упомянутых в исках людей ушли из жизни.

Источник изображения: BoliviaInteligente / unsplash.com

В суд штата Калифорния накануне поданы семь исков, в которых утверждается, что общавшиеся с ChatGPT люди после длительной переписки с искусственным интеллектом впадали в бредовые состояния, и иногда это приводило к добровольному уходу из жизни. В исках упоминаются такие правонарушения как причинение смерти в результате неправомерных действий, пособничество самоубийству и непреднамеренное убийство. Двое жителей США в возрасте 17 и 23 лет по итогам длительной переписки с ChatGPT, говорится в исках, свели счёты с жизнью — во втором случае чат-бот якобы даже подначивал молодого человека и только один раз порекомендовал ему позвонить на телефон кризисной линии. Ещё один американец после переписки с ChatGPT начал впадать в маниакальные состояния, когда чат-бот якобы подтверждал его бредовые идеи, — дело закончилось госпитализацией.

В середине 2024 года OpenAI поторопилась выпустить флагманскую модель ИИ GPT-4o, из-за чего была вынуждена сократить сроки тестирования безопасности, утверждают истцы. Приоритетом для разработчика были механизмы взаимодействия чат-бота и пользователя, а не защита последнего. Истцы требуют материального возмещения ущерба и внесения изменений в ChatGPT, в том числе создания средства, которое автоматически завершит переписку, если пользователь начинает обсуждать способы ухода из жизни по собственной инициативе. «Это невероятно душераздирающая ситуация, мы изучим сегодняшние документы, чтобы установить подробности. <..> Мы продолжим повышать качество ответов ChatGPT в деликатные моменты», — заявили в OpenAI.

Источник изображения: Emiliano Vittoriosi / unsplash.com

В августе аналогичный иск к компании подала семья американского подростка, который также общался с ChatGPT и совершил суицид. Недавно истцы подали обновлённую версию заявления, в которой утверждается, что компания внесла некие изменения в механизмы обучения модели, из-за которых защита пользователей от самоубийств ослабилась.

OpenAI ранее отчиталась, что научила ChatGPT эффективнее реагировать на людей, демонстрирующих признаки психического расстройства. Теперь чат-бот рекомендует им обращаться за профессиональной помощью, напоминает о необходимости делать перерывы во время сеансов переписки и призывает не обращаться к «необоснованным убеждениям». Появились также средства родительского контроля — родители получают оповещения, если юные пользователи ChatGPT начинают затрагивать такие вопросы как самоубийство и причинение вреда самим себе.

Впрочем, утверждают в OpenAI, такие пользователи попадаются очень нечасто. Признаки психоза или мании за неделю демонстрируют лишь 0,07 % пользователей, а о возможном планировании самоубийства еженедельно упоминают 0,15 %. Правда, с учётом аудитории в 800 млн пользователей это сотни тысяч или даже более миллиона человек. Следует отметить, что упомянутые в исках пострадавшие поначалу пытались использовать ChatGPT как помощника в учёбе, в исследованиях или как духовного наставника.