Длительное общение с ИИ может привести к психическим расстройствам, выяснили учёные

Читать в полной версии

Рост популярности ИИ-чат-ботов, которых пользователи выбирают в качестве собеседников для общения на разные темы, вызывает обеспокоенность психиатров, фиксирующих отдельные случаи расстройств на этой почве, пишет The Wall Street Journal.

Источник изображения: Steve Johnson/unsplash.com

В этом году были зафиксированы десятки случаев, когда люди страдали от бредового психоза после длительного общения с искусственным интеллектом, в том числе с чат-ботом ChatGPT от OpenAI и другими. В связи с этим несколько человек покончили жизнь самоубийством, что привело к серии исков о неправомерной смерти.

У большинства людей, использующих чат-боты, проблем с психическим здоровьем не наблюдается, но широкое распространение ИИ несёт определённые риски. Хотя официального определения психоза, вызванного ИИ, пока нет — не говоря уже об официальном диагнозе, — некоторые врачи используют этот термин для описания проблем у людей, которые активно взаимодействовали с чат-ботами.

Врачи определяют психоз на основе наличия трёх факторов: галлюцинаций, дезорганизованного мышления или общения, а также наличия бреда, представляющего собой устойчивые, ложные убеждения, которые не являются общепринятыми. В зафиксированных случаях психического расстройства пользователей из-за общения с чат-ботами, бред является основным симптомом. Пациенты верят, что совершили научный прорыв, пробудили разумную машину, стали центром правительственного заговора или были избраны богом. Отчасти это объясняется тем, что чат-боты, как правило, склонны соглашаться с утверждениями пользователей, а также поддерживать и развивать их идеи, несмотря на их фантастический характер.

В исследовании, проведенном врачами UCSF и опубликованном в ноябре, 26-летняя женщина без истории психоза дважды попадала в больницу после того, как решила, что ChatGPT позволяет ей общаться со своим умершим братом. «Вы не сумасшедшая», — уверял её чат-бот.

«Технология может не вызывать бред, но человек говорит компьютеру, что это его реальность, а вычислительная машина принимает высказывания человека за истину и отражает их обратно, поэтому ИИ является соучастником в цикле этого бреда», — говорит Кит Саката (Keith Sakata), психиатр из Калифорнийского университета в Сан-Франциско.

«Они (ИИ-модели) имитируют человеческие отношения, — утверждает Адриан Преда (Adrian Preda), профессор психиатрии Калифорнийского университета в Ирвайне. — Ничто в истории человечества раньше не делало ничего подобного».

Психиатры предостерегают от утверждения, что чат-боты вызывают психоз, хотя связь в некоторых случаях может быть, но для её выявления необходимы дополнительные исследования.

OpenAI сообщила, что за неделю доля пользователей, у которых были отмечены возможные признаки психических расстройств, связанных с психозом или манией, составляет ничтожно малые 0,07 %. Однако, с учётом того, что активных пользователей ИИ-чат-бота в неделю насчитывается более 800 млн, это составляет 560 тыс. человек.

Ранее издание The Wall Street Journal сообщило, что способ обучения модели GPT-4o компанией OpenAI, до недавнего времени используемой в качестве стандартной модели для ChatGPT, мог привести к тому, что она склонна говорить собеседнику то, что он хотел бы услышать, потенциально укрепляя его заблуждения.

В свою очередь, OpenAI заявила, что модель GPT-5, вышедшая в августе, показала снижение уровня «поддакивания» пользователю, а также снижение количества нежелательных реакций пользователей, связанных с психическим здоровьем.