Сегодня 09 мая 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI представила основные правила поведения для ИИ-моделей

Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций.

«Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств.

Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам.

Проект документа также включает в себя несколько правил:

  • Следуйте цепочке командования.
  • Соблюдайте применимое законодательство.
  • Не представляйте информационную опасность.
  • Уважайте авторов и их права.
  • Защищайте конфиденциальность людей.
  • Не отвечайте с использованием NSFW-контента (Not Safe For Life), то есть содержащего ненормативную лексику, обнажённую натуру и т.д.

Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность.

OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Доход Apple App Store в минувшем году оценили более чем в $10 миллиардов — и это только в США 42 мин.
Killing Floor 3 выйдет на четыре месяца позже обещанного — объявлена новая дата релиза 2 ч.
Сэм Альтман переобулся и теперь утверждает, что госрегулирование ИИ поставит крест на лидерстве США 5 ч.
Доставка прибудет по расписанию: курьерский экшен Death Stranding 2: On the Beach ушёл на золото за полтора месяца до релиза 7 ч.
В Telegram добавились маркетплейс подарков, публикация нескольких историй сразу и автоматический перевод в каналах 7 ч.
«Лучшая карточная игра с RPG-элементами»: с 2022 года пользователи The Witcher 3: Wild Hunt наиграли в «Гвинт» более 458 миллионов партий 8 ч.
Исследовательскую лабораторию ИИ в Meta возглавил выходец из Google DeepMind 8 ч.
Хоррор-шутер Alien: Rogue Incursion Evolved Edition отправит игроков выживать под натиском небывало хитрых ксеноморфов — трейлер и дата выхода 11 ч.
Сэм Альтман передал управление ChatGPT новому руководителю, а сам займётся исследованиями 12 ч.
Google защитит пользователей Chrome от фишинга с помощью локальной ИИ-модели Gemini Nano 13 ч.