Сегодня 12 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Новая модель OpenAI CriticGPT обучена «критиковать» результаты GPT-4

Компания OpenAI представила CriticGPT — новую модель искусственного интеллекта, предназначенную для выявления ошибок в коде, сгенерированном непосредственно ChatGPT. CriticGPT будет использоваться в качестве алгоритмического помощника для тестировщиков, которые проверяют программный код, выданный ChatGPT.

 Источник изображения: Copilot

Источник изображения: Copilot

Согласно новому исследованию «LLM Critics Help Catch LLM Bugs», опубликованному OpenAI, новая модель CriticGPT создана как ИИ-ассистент для экспертов-тестировщиков, проверяющих программный код, сгенерированный ChatGPT. CriticGPT, основанный на семействе большой языковой модели (LLM) GPT-4, анализирует код и указывает на потенциальные ошибки, облегчая специалистам обнаружение недочётов, которые в противном случае могли бы остаться незамеченными из-за человеческого фактора. Исследователи обучили CriticGPT на наборе данных с образцами кода, содержащими намеренно внесённые ошибки, научив его распознавать и отмечать различные погрешности.

Учёные обнаружили, что в 63-% случаев, связанных с естественно возникающими ошибками LLM, аннотаторы предпочитали критику CriticGPT человеческой. Кроме того, команды, использующие CriticGPT, писали более полные отзывы, чем люди, не использующие этого ИИ-помощника, при этом снижался уровень конфабуляций (ложных фактов и галлюцинаций).

Разработка автоматизированного «критика» включала обучение модели на большом количестве входных данных с намеренно внесёнными ошибками. Экспертов просили модифицировать код, написанный ChatGPT, внося ошибки, а затем предоставлять результат с якобы обнаруженными багами. Этот процесс позволил модели научиться выявлять и критиковать различные типы ошибок в коде.

В экспериментах CriticGPT продемонстрировал способность улавливать как внесённые баги, так и естественно возникающие ошибки в результатах ответов ChatGPT. Исследователи также создали новый метод «Force Sampling Beam Search» (FSBS), который помогает CriticGPT писать более детальные обзоры кода, позволяя регулировать тщательность поиска проблем и одновременно контролируя частоту ложных срабатываний.

Интересно, что возможности CriticGPT выходят за рамки простой проверки кода. В экспериментах модель применили к множеству тренировочных данных ChatGPT, ранее оцененных людьми как безупречные. Удивительно, но CriticGPT выявил ошибки в 24-% случаев, которые впоследствии были подтверждены экспертами. OpenAI считает, что это демонстрирует потенциал модели не только для работы с техническими задачами, но и подчёркивает её способность улавливать тонкие ошибки, которые могут ускользнуть даже от тщательной проверки человеком.

Несмотря на многообещающие результаты, CriticGPT, как и все ИИ-модели, имеет ограничения. Модель обучалась на относительно коротких ответах ChatGPT, что может не полностью подготовить её к оценке более длинных и сложных задач, с которыми могут столкнуться будущие ИИ-системы. Команда исследователей признаёт, что модель наиболее эффективна в обнаружении ошибок, которые могут быть определены в одном конкретном, узком месте кода. Однако реальные ошибки в выводе AI могут часто быть разбросаны по нескольким частям ответа, что представляет собой вызов для будущих итераций модели.

Кроме того, хотя CriticGPT снижает уровень конфабуляций, он не устраняет их полностью, и люди-эксперты по-прежнему могут совершать ошибки на основе этих ложных данных.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Особые цены для особо ценных клиентов: Broadcom запросила у Telefónica Germany за поддержку VMware впятеро больше прежнего 23 мин.
Франция возбудила уголовное дело в отношении соцсети X по подозрению в манипулировании алгоритмами 49 мин.
Китайский стартап Moonshot выпустил открытую ИИ-модель Kimi K2, превосходящую GPT-4 3 ч.
Microsoft представила рассуждающую ИИ-модель Phi-4-mini-flash-reasoning— в 10 раз быстрее аналогов и запустится даже на смартфоне 10 ч.
ИИ-боты оказались никудышными психотерапевтами — они давали вредные советы и отказывались общаться с алкоголиками 10 ч.
Meta не откажется от бизнес-модели «плати или соглашайся», несмотря на угрозу штрафов в ЕС 11 ч.
Российские учёные усовершенствовали MP3 11 ч.
Meta пополнила коллекцию ИИ-талантов, поглотив специализирующийся на голосовом ИИ стартап PlayAI 11 ч.
Поглощение ИИ-стартапа Windsurf компанией OpenAI сорвалось и специалистов тут же переманила Google 12 ч.
В Windows 11 появилась функция быстрого самовосстановления 12 ч.
SpaceX добилась, чтобы спутники Starlink не мешали работе обсерватории им. Веры Рубин 56 мин.
Intel сократит 2400 работников в своём крупнейшем центре разработки в Орегоне 6 ч.
Китайская многоразовая ракета из нержавейки отправится в полёт в четвёртом квартале 6 ч.
Нет чипов — нет ЦОД: строящиеся ради ИИ электростанции могут так и не пригодиться 7 ч.
От 100GbE до 800GbE, недорого: стартап TORmem обещает трансформировать рынок ЦОД-коммутаторов 8 ч.
Tesla попытается выбраться из кризиса, запустив продажи электромобилей в Индии 10 ч.
Зонд NASA Parker сфотографировал Солнце с рекордно близкого расстояния 12 ч.
Главный дизайнер Xiaomi пояснил, что внешность электромобилей должна оставлять эмоциональный след 17 ч.
Глава Nvidia стал седьмым самым богатым человеком в мире 17 ч.
Сенаторы рекомендовали главе Nvidia не встречаться в Китае с представителями компаний, которые США пытаются душить санкциями 17 ч.