Сегодня 08 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследователи Anthropic и Google поищут признаки сознания у ИИ — ещё недавно за подобное увольняли

Ещё три года назад заявления о признаках сознания у ИИ воспринимались в индустрии высоких технологий как повод для насмешек и даже увольнения. Сегодня стартап Anthropic и исследователи Google DeepMind открыто обсуждают возможность появления сознания у ИИ, что отражает стремительное развитие технологий и глубокий сдвиг в научной парадигме.

 Источник изображения: Steve Johnson / Unsplash

Источник изображения: Steve Johnson / Unsplash

Anthropic, разработчик ИИ-модели Claude, объявил о создании новой исследовательской инициативы, посвящённой изучению возможности возникновения сознания у ИИ. Компания планирует исследовать, могут ли ИИ-модели в будущем испытывать субъективные переживания, формировать предпочтения или испытывать страдания. Ситуация резко контрастирует с событиями 2022 года, когда старший программный инженер из Google Блейк Лемойн (Blake Lemoine) был уволен после заявлений о сознательности ИИ-чат-бота LaMDA. Лемойн утверждал, что ИИ боялся отключения и идентифицировал себя как личность. В ответ Google назвал эти утверждения «совершенно необоснованными», а обсуждение темы сознания в ИИ-сообществе быстро сошло на нет.

В отличие от случая с Лемойном, Anthropic не утверждает, что ИИ-модель Claude обладает сознанием. Компания намерена выяснить, может ли в будущем возникнуть подобное явление. Кайл Фиш (Kyle Fish), специалист по согласованию ИИ и ценностей человека, подчеркнул, что сегодня нельзя безответственно полагать, будто ответ на вопрос о сознательности ИИ-моделей будет всегда отрицательным. По оценке исследователей Anthropic, вероятность сознательности у Claude 3.7 составляет от 0,15 % до 15 %.

 Источник изображения: Alex Shuper / Unsplash

Источник изображения: Alex Shuper / Unsplash

Anthropic изучает, проявляет ли Claude 3.7 предпочтения или отвращение к определённым заданиям. Также компания тестирует механизмы отказа, которые позволяли бы ИИ-модели избегать нежелательных задач. Генеральный директор Anthropic Дарио Амодей (Dario Amodei) ранее выдвинул идею внедрения кнопки «Я бросаю эту работу» (англ. — I quit this job) для будущих ИИ-систем. Такая мера необходима не из-за признания сознательности, а для выявления паттернов отказов, которые могут сигнализировать о дискомфорте у ИИ.

В Google DeepMind ведущий научный сотрудник Мюррей Шэнахэн (Murray Shanahan) предложил переосмыслить само понятие сознания применительно к ИИ. В подкасте, опубликованном в четверг, он заявил, что, возможно, потребуется изменить привычную лексику, описывающую сознание, чтобы она могла объяснить поведение ИИ-систем. Шэнахэн отметил, что хотя мы не можем находиться в общем мире с ИИ, как это происходит с собакой или осьминогом, это не означает, что внутренние процессы полностью отсутствуют. Google даже разместила вакансию исследователя для проекта «post-AGI», в обязанности которого входило бы изучение машинного сознания.

Тем не менее, не все специалисты уверены в реальности появления сознания у ИИ. Джаред Каплан (Jared Kaplan), главный научный сотрудник Anthropic, заявил в интервью изданию The New York Times, что современные ИИ-модели легко обучаются имитировать сознательность, даже если ею не обладают. Он подчеркнул, что тестирование сознательности ИИ-моделей крайне сложно именно из-за их высокой способности к имитации.

Критические оценки звучат и со стороны когнитивных учёных. Гэри Маркус (Gary Marcus) в интервью изданию Business Insider отметил, что акцент на теме сознания больше служит маркетинговым целям, чем научным. Он саркастически сравнил идею наделения правами ИИ-моделей с возможностью признания прав за калькуляторами и электронными таблицами, которые, в отличие от ИИ, не выдумывают информацию.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Взрывной коктейль из Metal Slug, Contra и фильмов 80-х»: ретроэкшен Huntdown: Overtime ворвался в ранний доступ Steam c 97 % положительных отзывов 2 ч.
Telegram получил большое обновление с ИИ — ботов теперь можно призвать в любой чат и другие нововведения 3 ч.
Приложение Fitbit превратилось в Google Health — и сможет собирать данные о здоровье даже из Apple Health 4 ч.
Новый стандарт жанра для вселенной «Чужих»: анонсирован амбициозный кооперативный шутер Aliens: Fireteam Elite 2 5 ч.
В Steam вышло атмосферное сюжетное приключение Will: Follow The Light о поиске смысла «даже в темноте» 6 ч.
Заряженное ностальгией музыкальное приключение Mixtape от создателей The Artful Escape очаровало критиков — игра доступна в российском Steam 7 ч.
IBM когда-то хотела отказаться от навигации с клавишей Tab — Microsoft не согласилась, сославшись на маму Билла Гейтса 8 ч.
ИИ с «глазами» оказался в разы дороже обычного API — агенты сжигают бюджеты, ходя по сайтам 8 ч.
Глава Take-Two взял вину за неудачи Sid Meier’s Civilization VII на себя, а обновление Test of Time исправит главную проблему игры 8 ч.
Доля российского ПО в госсекторе превысила 75 % 8 ч.
Valve внедрила защиту от перекупщиков и пообещала новые партии Steam Controller 26 мин.
Грядёт катастрофическое падение продаж материнских плат — пользователи отказываются обновлять ПК 30 мин.
Новая статья: Ноутбук DIGMA PRO Pactos на процессоре AMD Ryzen 5 7430U: скромность украшает 55 мин.
GeIL анонсировала модули DDR5, которые работают со скоростью 8000 МТ/с без разгона 4 ч.
AMD выпустила ИИ-ускоритель Instinct MI350P с 144 Гбайт HBM3E, PCIe 5.0 x16 и потреблением 600 Вт 4 ч.
Компания Ploopy «отделила» культовый манипулятор TrackPoint от ноутбуков ThinkPad и превратила его в портативную мышь 5 ч.
Google анонсировала Fitbit Air — лёгкий фитнес-трекер без экрана за $99 с круглосуточным отслеживанием активности владельца 5 ч.
Apple закажет новую партию чипов A18 Pro из-за высокого спроса на MacBook Neo 8 ч.
Iridium анонсировала PNT-решение для безошибочного позиционирования и синхронизации времени Project Authentic 8 ч.
Hisense представила игровой 5K-монитор GX Ultra с частотой обновления 180 Гц 9 ч.