Сегодня 04 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI представила основные правила поведения для ИИ-моделей

Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций.

«Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств.

Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам.

Проект документа также включает в себя несколько правил:

  • Следуйте цепочке командования.
  • Соблюдайте применимое законодательство.
  • Не представляйте информационную опасность.
  • Уважайте авторов и их права.
  • Защищайте конфиденциальность людей.
  • Не отвечайте с использованием NSFW-контента (Not Safe For Life), то есть содержащего ненормативную лексику, обнажённую натуру и т.д.

Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность.

OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами 5 ч.
Поддержка ИИ-моделью DeepSeek V4 ускорителей Huawei вызвала рост спроса на них в Китае 5 ч.
Новая статья: Life is Strange: Reunion — отчаяние приводит к успеху. Рецензия 11 ч.
Креативный директор Naughty Dog заинтриговал фанатов фотографией из командировки — на снимке углядели тизер Uncharted 5 14 ч.
Комедийная ретрофутуристическая игра Breathedge 2 пережила тотальную переработку геймплея и взяла курс на ранний доступ Steam 15 ч.
State of Decay 3 восстала из мёртвых и спустя шесть лет после анонса готовится к публичной «альфе» 16 ч.
ИИ-модель Claude обнаружила уязвимость и разработала рабочий эксплойт для FreeBSD 17 ч.
Китайские власти ополчились на цифровых людей 17 ч.
Google, Meta и другие бигтехи больше не смогут избегать ответственности за контент пользователей, как делали 30 лет 17 ч.
Фэнтезийная ролевая игра Songs of Glimmerwick отправит в мир, где магия рождается из музыки — новый трейлер, релиз в 2026 году и демо на подходе 17 ч.