Сегодня 19 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Интеллектуальные способности ChatGPT деградировали из-за попыток его улучшить, выяснили учёные

Учёные сообщили об очередной проблеме, которая может преследовать чат-боты, основанные на платформах искусственного интеллекта — этот феномен называется «дрейфом» (drift), и он отражает деградацию интеллектуальных способностей системы.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Дебютировавший в прошлом году ChatGPT произвёл настоящую революцию в области искусственного интеллекта и даже косвенно способствовал разразившейся в Голливуде забастовке сценаристов. Но опубликованное учёными Стэнфордского университета и Калифорнийского университета в Беркли (США) исследование указывает на новую проблему ИИ: ChatGPT стал хуже выполнять некоторые элементарные математические операции. Этот феномен известен как «дрейф»: попытка усовершенствовать одну часть сложной модели ИИ приводит к ухудшению работы других её областей. И это, отмечают исследователи, значительно усложняет непрерывное совершенствование нейросетей.

Учёные пришли к такому выводу, когда протестировали две версии GPT: доступную для всех бесплатно 3.5; и 4.0, работать с которой можно только при наличии платной подписки. Чат-боту предложили элементарную задачу: определить, является ли определённое число простым. Простым, напомним, называется натуральное число, которое делится только на единицу и на себя. Если число достаточно большое, то человек не может оценить, является ли оно простым, в уме. А вот компьютер может справиться с этой задачей методом грубой силы: проверить его делимость на 2, 3, 5 и т. д. Основу теста составила выборка из 1000 чисел. В марте доступный по премиум-подписке GPT-4 давал правильные ответы в 84 % случаев, и это уже сомнительный результат для компьютера, но к июню доля правильных ответов рухнула до 51 %.

 Источник изображения: wsj.com

Источник изображения: wsj.com

В общем случае GPT-4 продемонстрировал деградацию в шести задачах из восьми. GPT-3.5, напротив, по шести задачам продемонстрировал прогресс, но в большинстве остался слабее своего продвинутого собрата. Повышение числа неправильных ответов отметили многие пользователи чат-ботов, и, согласно выводам учёных Стэнфорда и Беркли, это не субъективные ощущения — деградация подтверждается эмпирическими данными. «Когда мы выпускаем новые версии моделей, наш приоритет — сделать новые модели умнее по всем направлениям. Мы прилагаем усилия, чтобы новые версии совершенствовались во всём спектре задач. При этом наша методология оценки несовершенна, и мы её постоянно улучшаем», — прокомментировали научную работу в OpenAI.

О тотальной деградации моделей ИИ речи не идёт: в ряде тестов менее точный в целом GPT-3.5 показал прогресс, а GPT-4 свои результаты ухудшил. Помимо математических задач, исследователи предлагали чат-ботам ответить на 1500 вопросов. И если в марте чат-бот на базе GPT-4 отвечал на 98 % вопросов, то в июне давал ответы только на 23 %, и зачастую они оказывались слишком короткими: ИИ заявлял, что вопрос был субъективным, и собственного мнения у него нет.

Учёные Стэнфорда и Беркли говорят, что в своём исследовании они не призывают отказаться от технологий ИИ — это скорее пристальное наблюдение за их динамикой. Человек привык воспринимать знания как решение ряда задач, где каждая последующая основывается на предыдущей. В случае с ИИ схема оказывается другой: одному шагу вперёд соответствует шаг назад или в другом непредсказуемом направлении. ИИ-сервисы, вероятно, продолжат развиваться, но их путешествие будет проходить не по прямой линии.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Cast n Chill — вы, сэр, рыба. Рецензия 3 ч.
Возвращение к шутерам от первого лица: Ubisoft подтвердила разработку новой Ghost Recon 4 ч.
Кооперативный боевик Contraband от создателей Just Cause всё ещё жив, но оказался игрой-сервисом 5 ч.
Meta отказалась соблюдать «чрезмерные» правила разработки ИИ, предложенные ЕС 6 ч.
Microsoft уличили в допуске китайцев к секретным облачными системами Пентагона 7 ч.
Legacy of the Forge «уже не за горами» — Warhorse раскрыла, когда ждать новостей о втором дополнении к Kingdom Come: Deliverance 2 7 ч.
Перевод на русский, Denuvo и первые детали геймплея: Persona 4 Revival получила страницу в Steam 8 ч.
Netflix призналась, что начала использовать ИИ при создании сериалов 9 ч.
Фэнтезийная 4X-стратегия Endless Legend 2 от создателей Humankind не выйдет 7 августа в раннем доступе Steam, но есть и хорошая новость 10 ч.
iOS 26 защитит пользователей iPhone от телефонных спамеров 10 ч.
Углеродные выбросы Amazon выросли в 2024 году на 6 % из-за ИИ ЦОД и любителей шопинга 3 ч.
Австрийцы упаковали электромобильный аккумулятор в корпус из дерева и стали 6 ч.
В Роттердаме запустят беспилотные рейсовые автобусы между городом и аэропортом 7 ч.
Asus представила материнскую плату ROG Strix X870-H Gaming WiFi7 S с ярким аниме-дизайном 7 ч.
ASRock представила плату X870E Taichi OCF для экстремального разгона Ryzen 9000 и другие новинки с AM5 9 ч.
США намерены ослабить влияние Китая на подводную интернет-инфраструктуру, но у них это вряд ли получится 10 ч.
Российские учёные создали фотонный детектор с «обонянием» — он учует опасные газы в воздухе, диабет и алкогольную вечеринку 11 ч.
Передовые твердотельные батареи в электромобилях появятся в лучшем случае через пять лет 11 ч.
В России впервые запущено производство особо чистого тетрахлорида германия для выпуска оптоволокна 13 ч.
Китайский охотник за астероидами испытал камеры на Земле и Луне — и поделился впечатляющими снимками 14 ч.