Сегодня 07 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Совет директоров OpenAI сможет блокировать выпуск нейросетей, если сомневается в их безопасности

После недавнего скандала с отставкой генерального директора OpenAI Сэма Альтмана (Sam Altman) и его возвращения компания OpenAI всерьёз задумалась не только о реформировании структуры управления бизнесом, но и повышении ответственности разработчиков за выпуск больших языковых моделей. Теперь совет директоров может задержать выпуск новых моделей, если сочтёт их недостаточно безопасными.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Ключевая роль в этом механизме контроля и согласования будет отведена, по данным Bloomberg, специальной «группе готовности» под руководством Александра Мадри (Aleksander Madry), совмещающего эту должность с научной деятельностью в Массачусетском технологическом институте. В задачи группы экспертов будет входить анализ подготовленной к релизу каждой новой большой языковой модели на предмет выявления «катастрофических рисков». К таковым относятся вероятные последствия применения данной языковой модели, которые повлекут сотни миллиардов долларов материального ущерба или даже человеческие жертвы.

Группа Мадри будет на ежемесячной основе делиться отчётами о деятельности разработчиков OpenAI со специальным советом по безопасности, а тот уже будет делиться своими выводами с генеральным директором компании и советом директоров. Сэм Альтман сможет принимать решение о выпуске новой языковой модели на рынок или её задержке для доработки, причём совет директоров получает право наложить вето на положительное решение главы OpenAI о выпуске модели в общий доступ.

Группа анализа готовности языковых моделей была сформирована внутри OpenAI ещё в октябре, до хорошо известных событий с перестановками в руководстве. В целом, внутри компании действуют ещё две группы, занимающиеся анализом разработок. Прежде всего, это группа безопасности как таковой, а также группа «сверхрегулирования» (superalignment), которая учитывает гипотетические угрозы от внедрения сверхмощных систем искусственного интеллекта в будущем.

Разрабатываемые OpenAI языковые модели будут оцениваться группой Мадри по шкале, подразумевающей четыре градации рисков: низкая, средняя, высокая или критическая. По замыслу, компания сможет выпускать в оборот только те системы искусственного интеллекта, которые в итоге всех процедур анализа и доработки получили оценку риска не выше низкого или среднего. Как признался сам Мадри, «OpenAI — это не что-то, происходящее само собой и способное нести нам пользу или вред, это нечто, формируемое нами». Представитель компании выразил надежду, что подобным подходом к управлению рисками в сфере искусственного интеллекта будут пользоваться и другие разработчики. В стенах OpenAI подобная практика формировалась последовательно и в течение последних двух месяцев просто была закреплена решениями высшего руководства.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Основатель Twitter запустил Bitchat — приватный мессенджер, работающий без интернета 4 мин.
Путин подписал закон, обязывающий Apple открыть iPhone для магазина RuStore 21 мин.
Релиз платформы «Альт Виртуализация» 11.0 (редакция PVE): новый инсталлятор, поддержка SDN, прямой импорт из VMware 28 мин.
Windows 11 наконец-то обогнала Windows 10 и стала самой используемой ОС в мире 58 мин.
Как Left 4 Dead, но не совсем: кооперативный шутер Toxic Commando от авторов Space Marine 2 показался на скриншотах с закрытой «беты» 3 ч.
«Они либо убьют остальных, либо сдадутся»: глава издательского отдела Larian Studios и основатель Arkane Studios не верят в Game Pass 4 ч.
Apple обжаловала гигантский штраф в €500 млн за ограничения для разработчиков в App Store 4 ч.
«Я был готов на всё»: создатель Deus Ex рассказал, как культовая игра едва не стала RPG по Command & Conquer 4 ч.
Студия Romero Games соавтора Doom Джона Ромеро после потери поддержки Microsoft оказалась «полностью закрыта» 9 ч.
Власти ОАЭ опровергли информацию о выдаче 10-летних «золотых виз» за стейкинг TON 11 ч.
Российская электроника страдает от заниженных цен в госзакупках — виноваты иностранные производители 8 мин.
CoolIT за полтора года в 25 раз увеличила производство СЖО для ИИ-серверов и ЦОД 2 ч.
На TSMC подали в суд за дискриминацию «ленивых» американских сотрудников, расизм и домогательства на заводе в США 2 ч.
Китай сменит путь к полупроводниковому суверенитету — $47,5 млрд направят на прорыв в литографии и ПО для выпуска чипов 2 ч.
Пошлины США и геополитическая напряжённость притормозили рост поставок ИИ-серверов в 2025 году 3 ч.
Маск обвалил акции Tesla на 7 %, заявив о создании политической партии 3 ч.
В России представили Aurus Komendant и Lada Vesta с отечественным автопилотом 3 ч.
Апгрейд старых ПК скоро подорожает — память DDR4 взлетит в цене до конца сентября 3 ч.
Axiomtek выпустила 1,6″ одноплатный компьютер KIWI330 на базе Intel Alder Lake-N для приложений AIoT 4 ч.
Суперкомпьютер Doudna получит смешанное All-Flash хранилище IBM и VAST Data 4 ч.