Сегодня 23 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → психология

У больших языковых ИИ-моделей проявилась способность проводить аналогии

Большие языковые модели, такие как OpenAI GPT-3, демонстрируют способность к решению логических задач, проводя аналогии — это роднит их с образом мышления человека, который находит решения новых задач, сравнивая их с уже известными, гласят результаты нового исследования учёных из Калифорнийского университета в Лос-Анджелесе (США).

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Авторы исследования предложили GPT-3 несколько логических задач, которые можно решить, применив известную схему к новой ситуации, и обнаружили, что нейросеть действительно может рассуждать по аналогии, пользуясь этим инструментом так же эффективно или даже более эффективно, чем человек. Учёные считают, что эти возможности модель получила за счёт большого объёма и разнообразия обучающих данных, хотя напрямую таким методам рассуждений систему не обучали.

Психологи склонны считать, что человек рассуждает по аналогии, применяя «систематическое сравнение знаний, основанное на явных реляционных представлениях», то есть связях между элементами. Но механизмы рассуждения по аналогии у машины понятны не до конца — учёные допускают, что у ИИ-модели может быть некое сходство с блоками человеческого мышления, но пока нельзя исключать вероятности, что этот интеллектуальный процесс фундаментально отличается от человеческого.

Допускается и более простое объяснение: GPT-3 был обучен на огромном пласте человеческого языка, который сам по себе является плодом человеческой интеллектуальной эволюции и богат аналогиями — иными словами, ИИ «фундаментально паразитирует на естественном человеческом интеллекте», как выразились исследователи.

Люди стали обращаться к ChatGPT вместо психотерапевтов — последствия могут быть непредсказуемыми

Некоторые пользователи интернета начали общаться с основанным на алгоритмах искусственного интеллекта (ИИ) чат-ботом ChatGPT вместо походов к психотерапевту. Эксперты предупреждают, что последствия такой практики могут быть непредсказуемыми: есть вопросы к конфиденциальности сервиса и этическим принципам ИИ.

 Источник изображения: Alexander Pemberton / unsplash.com

Источник изображения: Alexander Pemberton / unsplash.com

О своём опыте общения с ИИ агентству Bloomberg рассказал Майло Ван Слик (Milo Van Slyck), работающий помощником юриста в Чарльстоне (США, шт. Южная Каролина) — у него нестандартный подход к собственной идентичности, который не могут принять его родители, придерживающиеся характерных для южного штата традиционных ценностей. Пропустив встречу со своим психотерапевтом в начале апреля, Ван Слик решил обратиться к ChatGPT и обнаружил, что общение с ИИ дало ему ощущение психологического комфорта.

«Когда снова увидитесь с родителями, важно будет расставить приоритеты в ваших потребностях и благополучии. Подумайте, что вам нужно, чтобы ощущать комфорт и безопасность в их присутствии. Это нормально — устанавливать границы того, сколько времени вы с ними проводите, каких тем не следует касаться, и как они относятся к вам и вашей идентичности», — такой совет ChatGPT дал «пациенту», у которого назрел конфликт с родителями.

В последующие дни у Ван Слика выработалась привычка обращаться к ИИ, когда возникает потребность выговориться, а ответы ChatGPT стали давать ему психологическую разрядку. Ранее он ощущал себя обузой для других людей и даже психотерапевта, зато в общении с чат-ботом он себя навязчивым уже не чувствовал.

Новое поколение чат-ботов только начинает развиваться, и пока рано говорить о том, сохранится ли их популярность, когда исчезнет эффект новизны. Сейчас ими пользуются для поиска информации в интернете, написания домашних заданий, программного кода и даже бронирования столиков в ресторанах. Замена психотерапевта — идея далеко не новая. Один из первых чат-ботов Eliza был создан ещё в шестидесятые годы прошлого века профессором Джозефом Вайценбаумом (Joseph Weizenbaum) как раз как замена психотерапевту. Подобные проекты существуют и сейчас: чат-боты не устают, и общение с ними обходится дешевле услуг настоящих специалистов.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Но существует и потенциальная угроза, исходящая от таких решений. Мощные платформы общего назначения, в том числе OpenAI ChatGPT, Google Bard и Microsoft Bing Chat, основаны на больших языковых моделях, и предназначены они лишь для того, чтобы генерировать убедительно звучащую информацию. Для психотерапии они не предназначаются, а их алгоритмы не программировались в соответствии с этическими и юридическими принципами, которых придерживаются психотерапевты. Они не могут отслеживать, что «пациенты» им говорят от сеанса к сеансу, хотя от живых специалистов такого не потерпел бы никто.

Эксперты признают, что ChatGPT — действительно хороший собеседник, хотя специалиста по психическому здоровью машина заменить пока не может. С этим согласился и сам чат-бот, когда ему рассказали о публикации в Twitter, автор которой назвал ChatGPT более эффективным, чем живого психотерапевта. «Важно помнить, что онлайн-ресурсы могут быть полезными, но обращений за профессиональной помощью они не заменяют, если речь идёт о травме или проблемах с психическим здоровьем. Если у вас есть непосредственные вопросы или проблемы, по которым вы бы хотели получить от меня информацию или ответы, я сделаю всё возможное, чтобы вам помочь», — заявил ИИ.

Маргарет Митчелл (Margaret Mitchell), главный специалист по вопросам этики в компании Hugging Face, специализирующейся в разработке и поддержке ИИ-моделей, считает, что подобные чат-боты можно использовать для помощи людям, которые звонят на линии помощи в кризисных ситуациях, однако чрезмерное к ним доверие может усугубить страдания людей, испытывающих проблемы, причём эти люди могут даже не понять происходящего. Она также указала на возможные проблемы конфиденциальности: OpenAI оставила за собой право просматривать разговоры ChatGPT с пользователями для последующего обучения модели. И людям, которые делятся личными проблемами с ИИ, это может не понравиться.

Эмад Мостак (Emad Mostaque), основатель и глава компании Stability AI, ответственной за генератор изображений Stable Diffusion, напротив, считает чат-бот на основе модели GPT-4 «лучшим психотерапевтом». Он, по его словам, разработал некую систему команд, которые переводят систему в режим психотерапии, и теперь беседует с ChatGPT на самые различные темы, в том числе о способах справляться со стрессами, связанными с управлением молодой компанией — особенно если ей руководит человек, открыто говорящий о своих нейродивергенции, синдроме дефицита внимания и гиперактивности. Он не считает, что чат-бот может стать заменой психотерапевту, но признаёт, что они могут оказаться полезными, когда нужно поговорить, а другого собеседника в пределах досягаемости нет.


window-new
Soft
Hard
Тренды 🔥