После того, как стало известно, что чат-боты с искусственным интеллектом, в том числе ChatGPT, при определённых условиях способны причинять моральный вред пользователям с нестабильной психикой, OpenAI всерьёз озаботилась вопросом о повышении безопасности своих сервисов. В компании начал работать «Совет по вопросам благополучия и ИИ», в который вошли восемь экспертов.

Источник изображений: Mariia Shalabaieva / unsplash.com
Одним из них стал Дэвид Бикхэм (David Bickham), директор по исследованиям в Бостонской детской больнице и эксперт по вопросам влияния соцсетей на психическое здоровье людей. В одной из своих работ он, в частности, указал, что современные дети уже учатся у виртуальных персонажей и выстраивают с ними «парасоциальные отношения», то есть связи, одностороннего характера. И если современному ИИ суждено хотя бы в какой-то мере заменить учителей, то следует задаться вопросом, как дети взаимодействуют с чат-боатми.
В новую структуру также вошла Матильда Чериоли (Mathilde Cerioli), старший научный сотрудник некоммерческой организации Everyone.AI. Сфера её научных интересов — воздействие ИИ на умственное и эмоциональное развитие детей. Детей неверно считать маленькими взрослыми, подчёркивает госпожа Чериоли, — их мозг сильно отличается, как и оказываемое на него влияние ИИ. В одной из своих недавних работ она указала, что выросшие с ИИ дети рискуют оказаться неспособными справляться с противоречиями: на раннем этапе, когда их нейронные связи очень пластичны, они вступают в социальное взаимодействие с сущностями, которые бесконечно подстраиваются под пользователя и другие внешние субъекты.
Ещё один член совета — профессор Технологического института Джорджии Мунмун Де Чоудхури (Munmun De Choudhury). Её специальность — разработка и изучение математических алгоритмов, направленных на расширение «роли онлайн-технологий в формировании и улучшении психического здоровья». В 2023 году она провела исследование, в котором попыталась сопоставить пользу и вред от больших языковых моделей в отношении психического здоровья человека в условиях цифровой среды. Лишь в половине случаев предоставляющие медицинские услуги чат-боты оказались способными распознать у человека склонность к саморазрушению, обратила внимание профессор Чоудхури, причём эта задача решалась «непредсказуемо» и «отрывочно». Впрочем, она призывает лишний раз не драматизировать и обращает внимание, что наличие односторонних, парасоциальных связей с машиной для отдельных людей — это всё равно лучше, чем полное отсутствие связей.

Профессор психологии и соучредитель Arcade Therapeutics Трейси Деннис-Тивари (Tracy Dennis-Tiwary), ещё один член совета, ранее заявила, что в большинстве не относящихся к клиническим случаев считает термин «ИИ-психоз», описывающий угрозу продолжительных диалогов с ИИ, бесполезным. Она считает, что ИИ должен поддерживать социальные связи как основу человеческого благополучия: ИИ может помогать людям, но и безоговорочно давать к нему доступ людям с неокрепшей и нестабильной психикой тоже неосмотрительно.
Основательница Клиники цифрового психического здоровья при Стэнфордском университете Сара Йохансен (Sara Johansen) в отношении ботов-компаньонов настроена оптимистически. Она считает, что при разработке ИИ-помощников следует учитывать опыт, полученный при изучении влияния соцсетей на здоровье человека; «ИИ обладает огромным потенциалом для улучшения поддержки психического здоровья и поднимает новые вопросы в отношении конфиденциальности, доверия и качества», —утверждает она.
Директор Центра технологий коррекции поведения при Северо-Западном университете Дэвид Мор (David Mohr) ранее изучал, как новые «технологии способны помочь в предотвращении и лечении депрессии». В 2017 году он говорил о потенциале приложений для людей, которые не могут получить помощь у психотерапевта; но в прошлом году напомнил, что полной заменой специалисту ИИ быть не может, потому что способен выйти из-под контроля.
Профессор в области человеческого поведения и технологий Эндрю Пржибыльски (Andrew K. Przybylski) в 2023 году выступил соавтором исследования, в котором опровергалось отрицательное влияние доступа в интернет как такового на психическое здоровье. Эти наработки он может применить при изучении влияния ИИ на человека.
Восьмым членом совета значится Роберт Росс (Robert K. Ross) — эксперт в области общественного здравоохранения, которого OpenAI ранее уже привлекала в качестве консультанта. Новая структура призвана помочь компании преодолеть кризис и доказать безопасность ChatGPT и Sora, которые пока привлекают слишком много нежелательного внимания. OpenAI заявила, что продолжит консультироваться с врачами, политиками и прочими экспертами по всему миру и будет учитывать их мнение в разработке передовых систем ИИ, направленных на поддержку благополучия людей.
Источник: