Сегодня 09 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI так и не разрешила некоторые вопросы безопасности ИИ

OpenAI считается мировым лидером в гонке за создание сильного искусственного интеллекта, не уступающего человеку. Тем временем сотрудники компании регулярно появляются в прессе и подкастах и выражают сильную обеспокоенность по поводу безопасности разрабатываемых ей систем.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Недавно OpenAI выпустила некий продукт, проверка которого на безопасность была проведена поспешно, но выход самого продукта компания отмечала с размахом. «Они распланировали вечеринку по случаю запуска до того, как узнали, безопасен ли продукт. Мы фактически провалили процесс», — сообщил анонимный источник изданию Washington Post. Это уже не первое сообщение подобного рода — ранее бывшие и действующие сотрудники OpenAI подписали открытое письмо с призывом усовершенствовать практику обеспечения безопасности и прозрачности в компании вскоре после ухода отвечавших за эти вопросы Яна Лейке (Jan Leike) и Ильи Суцкевера (Ilya Sutskever).

На бумаге, однако всё выглядит совершенно иначе. Одно из положений устава OpenAI гласит, что при достижении сильного ИИ другим игроком компания будет оказывать помощь в обеспечении безопасности, а не состязаться с конкурентом. И закрытый характер моделей ИИ от OpenAI также объясняется соображениями безопасности. «Мы гордимся своим послужным списком, в котором представлены самые эффективные и безопасные системы ИИ, и верим в наш научный подход к решению проблемы угроз. Решающее значение имеют обстоятельные дебаты, учитывая важность этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру в интересах нашей миссии», — заявила ресурсу The Verge представитель OpenAI Тая Кристиансон (Taya Christianson).

При запуске передовой модели GPT-4o компания «не срезала углов» в аспекте безопасности, заверила Washington Post ещё один официальный представитель OpenAI Линдси Хелд (Lindsey Held). Но анонимный источник заявил, что срок экспертизы в отношении данного продукта был сокращён всего до одной недели. Ранее компания сообщила о запуске совместного проекта с Лос-Аламосской национальной лабораторией для выявления потенциальных рисков применения ИИ в научной работе. Стало также известно о существовании системы оценки прогресса ИИ в компании.

Общественность и власти обеспокоены тем, что развитие технологий ИИ контролируется небольшой горсткой компаний, а у среднестатистического человека нет рычагов влияния на них. Если заявления многочисленных анонимных источников о безопасности в OpenAI соответствуют действительности, то контроль такой компании над технологией, способной изменить жизнь человечества, действительно вызывает некоторую тревогу.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В Steam открылось тестирование Valor Mortis от разработчиков Ghostrunner — ролевого боевика от первого лица в духе Dark Souls и BioShock 9 ч.
Ninja Gaiden 4, Baldur’s Gate, новая игра от создателей Psychonauts и многое другое: Microsoft раскрыла первые новинки Game Pass после подорожания 11 ч.
«Билайн Big Data & AI» и IVA Technologies займутся совместной разработкой ИИ-продуктов 11 ч.
«Интернет — не свалка для негатива»: в китайских соцсетях массово банят пессимистов 11 ч.
Еврокомиссия выделит €1 млрд на внедрение ИИ в десяти отраслях 12 ч.
Демоны, титаны и невообразимые ужасы: новый геймплейный трейлер Painkiller показал, почему в чистилище веселее с друзьями 12 ч.
Российский рынок IaaS и PaaS отметился 30-проценным ростом с начала года 14 ч.
Разработчик Baldur’s Gate 3 бросил тень на план Илона Маска «сделать игры снова великими» с помощью ИИ 16 ч.
У Gemini обнаружили уязвимость с подменой символов, но Google решила ничего не делать 17 ч.
Apple высмеяла Windows 11 в 8-минутном рекламном ролике про «синий экран смерти» 17 ч.