Сегодня 28 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI так и не разрешила некоторые вопросы безопасности ИИ

OpenAI считается мировым лидером в гонке за создание сильного искусственного интеллекта, не уступающего человеку. Тем временем сотрудники компании регулярно появляются в прессе и подкастах и выражают сильную обеспокоенность по поводу безопасности разрабатываемых ей систем.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Недавно OpenAI выпустила некий продукт, проверка которого на безопасность была проведена поспешно, но выход самого продукта компания отмечала с размахом. «Они распланировали вечеринку по случаю запуска до того, как узнали, безопасен ли продукт. Мы фактически провалили процесс», — сообщил анонимный источник изданию Washington Post. Это уже не первое сообщение подобного рода — ранее бывшие и действующие сотрудники OpenAI подписали открытое письмо с призывом усовершенствовать практику обеспечения безопасности и прозрачности в компании вскоре после ухода отвечавших за эти вопросы Яна Лейке (Jan Leike) и Ильи Суцкевера (Ilya Sutskever).

На бумаге, однако всё выглядит совершенно иначе. Одно из положений устава OpenAI гласит, что при достижении сильного ИИ другим игроком компания будет оказывать помощь в обеспечении безопасности, а не состязаться с конкурентом. И закрытый характер моделей ИИ от OpenAI также объясняется соображениями безопасности. «Мы гордимся своим послужным списком, в котором представлены самые эффективные и безопасные системы ИИ, и верим в наш научный подход к решению проблемы угроз. Решающее значение имеют обстоятельные дебаты, учитывая важность этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру в интересах нашей миссии», — заявила ресурсу The Verge представитель OpenAI Тая Кристиансон (Taya Christianson).

При запуске передовой модели GPT-4o компания «не срезала углов» в аспекте безопасности, заверила Washington Post ещё один официальный представитель OpenAI Линдси Хелд (Lindsey Held). Но анонимный источник заявил, что срок экспертизы в отношении данного продукта был сокращён всего до одной недели. Ранее компания сообщила о запуске совместного проекта с Лос-Аламосской национальной лабораторией для выявления потенциальных рисков применения ИИ в научной работе. Стало также известно о существовании системы оценки прогресса ИИ в компании.

Общественность и власти обеспокоены тем, что развитие технологий ИИ контролируется небольшой горсткой компаний, а у среднестатистического человека нет рычагов влияния на них. Если заявления многочисленных анонимных источников о безопасности в OpenAI соответствуют действительности, то контроль такой компании над технологией, способной изменить жизнь человечества, действительно вызывает некоторую тревогу.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Ремейк Bloodborne от Bluepoint Games едва не стал реальностью — Sony проект одобрила, но был нюанс 17 мин.
Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном 5 ч.
Новая статья: 30 лет Resident Evil: юбилейное путешествие по играм серии. Часть 1 12 ч.
Аудитория ChatGPT разрослась до 900 млн пользователей в неделю 13 ч.
Борьба со спойлерами вышла на новый уровень: в Китае арестовали видных датамайнеров Genshin Impact 14 ч.
«Дешёвая пародия с YouTube»: фанаты не оценили первый кадр из сериала God of War от Amazon 16 ч.
OpenAI раздулась до $840 млрд — создатель ChatGPT привлёк $110 млрд от Amazon, Nvidia и Softbank 17 ч.
Мультиплеерный экшен Spellcasters Chronicles от создателей Heavy Rain и Detroit: Become Human оказался в раннем доступе Steam почти никому не нужен 17 ч.
Женщина в суде обвинила Instagram и YouTube в том, что она не может оторваться от соцсетей 18 ч.
Sony прокачала апскейлер PSSR для PS5 Pro, но пока только в Resident Evil Requiem 18 ч.