Сегодня 10 мая 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI так и не разрешила некоторые вопросы безопасности ИИ

OpenAI считается мировым лидером в гонке за создание сильного искусственного интеллекта, не уступающего человеку. Тем временем сотрудники компании регулярно появляются в прессе и подкастах и выражают сильную обеспокоенность по поводу безопасности разрабатываемых ей систем.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Недавно OpenAI выпустила некий продукт, проверка которого на безопасность была проведена поспешно, но выход самого продукта компания отмечала с размахом. «Они распланировали вечеринку по случаю запуска до того, как узнали, безопасен ли продукт. Мы фактически провалили процесс», — сообщил анонимный источник изданию Washington Post. Это уже не первое сообщение подобного рода — ранее бывшие и действующие сотрудники OpenAI подписали открытое письмо с призывом усовершенствовать практику обеспечения безопасности и прозрачности в компании вскоре после ухода отвечавших за эти вопросы Яна Лейке (Jan Leike) и Ильи Суцкевера (Ilya Sutskever).

На бумаге, однако всё выглядит совершенно иначе. Одно из положений устава OpenAI гласит, что при достижении сильного ИИ другим игроком компания будет оказывать помощь в обеспечении безопасности, а не состязаться с конкурентом. И закрытый характер моделей ИИ от OpenAI также объясняется соображениями безопасности. «Мы гордимся своим послужным списком, в котором представлены самые эффективные и безопасные системы ИИ, и верим в наш научный подход к решению проблемы угроз. Решающее значение имеют обстоятельные дебаты, учитывая важность этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру в интересах нашей миссии», — заявила ресурсу The Verge представитель OpenAI Тая Кристиансон (Taya Christianson).

При запуске передовой модели GPT-4o компания «не срезала углов» в аспекте безопасности, заверила Washington Post ещё один официальный представитель OpenAI Линдси Хелд (Lindsey Held). Но анонимный источник заявил, что срок экспертизы в отношении данного продукта был сокращён всего до одной недели. Ранее компания сообщила о запуске совместного проекта с Лос-Аламосской национальной лабораторией для выявления потенциальных рисков применения ИИ в научной работе. Стало также известно о существовании системы оценки прогресса ИИ в компании.

Общественность и власти обеспокоены тем, что развитие технологий ИИ контролируется небольшой горсткой компаний, а у среднестатистического человека нет рычагов влияния на них. Если заявления многочисленных анонимных источников о безопасности в OpenAI соответствуют действительности, то контроль такой компании над технологией, способной изменить жизнь человечества, действительно вызывает некоторую тревогу.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: despelote — го-о-о-о-о-о-о-о-о-о-ол! Рецензия 3 ч.
Разработчики ремейка «Готики» прокачали демоверсию на основе отзывов игроков — «Пролог Нираса» получил крупное обновление 6 ч.
Доход Apple App Store в минувшем году оценили более чем в $10 миллиардов — и это только в США 9 ч.
Killing Floor 3 выйдет на четыре месяца позже обещанного — объявлена новая дата релиза 9 ч.
Сэм Альтман переобулся и теперь утверждает, что госрегулирование ИИ поставит крест на лидерстве США 12 ч.
«Мы явно перестарались»: разработчикам Clair Obscur: Expedition 33 пришлось ослабить умение, которое позволяло наносить миллиарды единиц урона 14 ч.
Доставка прибудет по расписанию: курьерский экшен Death Stranding 2: On the Beach ушёл на золото за полтора месяца до релиза 14 ч.
Google обновила дизайн поискового виджета на Android 15 ч.
В Telegram добавились маркетплейс подарков, публикация нескольких историй сразу и автоматический перевод в каналах 15 ч.
«Лучшая карточная игра с RPG-элементами»: с 2022 года пользователи The Witcher 3: Wild Hunt наиграли в «Гвинт» более 458 миллионов партий 16 ч.