Сегодня 31 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI представила основные правила поведения для ИИ-моделей

Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций.

«Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств.

Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам.

Проект документа также включает в себя несколько правил:

  • Следуйте цепочке командования.
  • Соблюдайте применимое законодательство.
  • Не представляйте информационную опасность.
  • Уважайте авторов и их права.
  • Защищайте конфиденциальность людей.
  • Не отвечайте с использованием NSFW-контента (Not Safe For Life), то есть содержащего ненормативную лексику, обнажённую натуру и т.д.

Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность.

OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Глава Naughty Dog дал фанатам новую надежду на The Last of Us Part III 23 мин.
Google запустила новую систему верификации разработчиков 42 мин.
В Минцифры РФ задумали исключать из «белых списков» сайты, которые доступны через VPN 43 мин.
Студия-разработчик Deus Ex: Mankind Divided осталась без руководителя и уволила ещё 120 сотрудников 2 ч.
«Становится только хуже»: инсайдер рассекретил ещё одну игру из апрельской подборки PS Plus, и фанаты не рады 15 ч.
Microsoft завалила рекламой ИИ тысячи запросов на слияние GitHub — теперь в них одинаковые «советы» от Copilot 17 ч.
Microsoft анонсировала крупную игровую презентацию Xbox Games Showcase 2026 и первый за два года показ Gears of War: E-Day 18 ч.
Microsoft серьёзно улучшит поиск в Windows 11 после многолетних жалоб 18 ч.
Microsoft отозвала очередное обновление Windows 11 из-за отсутствующих или повреждённых файлов 18 ч.
Российские власти собираются наказывать пользователей VPN, для начала финансово 18 ч.