Сегодня 18 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI представила основные правила поведения для ИИ-моделей

Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций.

«Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств.

Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам.

Проект документа также включает в себя несколько правил:

  • Следуйте цепочке командования.
  • Соблюдайте применимое законодательство.
  • Не представляйте информационную опасность.
  • Уважайте авторов и их права.
  • Защищайте конфиденциальность людей.
  • Не отвечайте с использованием NSFW-контента (Not Safe For Life), то есть содержащего ненормативную лексику, обнажённую натуру и т.д.

Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность.

OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Ant Group представила ИИ-ассистента для разработки мини-приложений за полминуты 5 мин.
Бум ИИ оказался самой безрадостной технической революцией — он делает людей богаче, но не счастливее 7 мин.
Создатели ролевого боевика в мире славянского технофэнтези «Киберслав: Затмение» показали первый геймплей и готовятся к «Игромиру» 11 мин.
Google выпустила улучшенный ИИ для прогнозирования погоды — в восемь раз быстрее, а также точнее 58 мин.
Пол Маккартни выпустил песню без слов и музыки — протест против ИИ поддержали более тысячи британских исполнителей 2 ч.
xAI выпустила Grok 4.1 — ИИ-модель заняла первое место в независимых тестах LMArena 2 ч.
Microsoft рассказала, как Windows 11 превратится в заполненную ИИ-агентами ОС 2 ч.
ИИ-режим в поиске Google научился визуализировать маршруты планируемых путешествий 3 ч.
«Мы сделали это. Hytale спасена»: ролевая песочница в духе Minecraft вернулась из мёртвых и скоро выйдет в ранний доступ 3 ч.
Утечка раскрыла дату выхода Silent Hill: Townfall — загадочного хоррора от создателей Observation 4 ч.