Сегодня 26 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Серия отставок в OpenAI продолжается: ушёл ключевой специалист по безопасности ИИ

Один из ключевых специалистов OpenAI, Лилиан Венг (Lilian Weng), объявила о своём уходе. Венг проработала в компании 7 лет, занимая должность главы отдела систем разработки безопасности, а в августе этого года получила повышение. В своём заявлении на платформе X она отметила, что покидает OpenAI, чтобы «начать всё сначала и попробовать что-то новое».

 Источник изображения: Levart_Photographer/Unsplash

Источник изображения: Levart_Photographer/Unsplash

Как сообщает TechCrunch, последним рабочим днём Венг станет 15 ноября, однако о своих дальнейших планах она не сообщила. «Я приняла крайне трудное решение покинуть OpenAI», — призналась Венг. «Оглядываясь на то, чего мы достигли, я очень горжусь каждым членом команды по системам безопасности и полностью уверена, что команда продолжит процветать».

Венг — не единственный специалист, который покинул компанию. За последний год оттуда ушли исследователи в области безопасности, а также руководители, обвинившие компанию в приоритете коммерческих продуктов над безопасностью ИИ. Ранее в этом году OpenAI покинули Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike) — руководители расформированной команды «Superalignment», которая занималась разработкой методов управления сверхразумными системами ИИ.

Венг присоединилась к OpenAI в 2018 году, начав свою карьеру в команде робототехники, которая создала роботизированную руку, способную собирать кубик Рубика за считаные секунды. С переходом OpenAI к парадигме GPT, Венг присоединилась к команде прикладных исследований ИИ в 2021 году. После запуска GPT-4 в 2023 году она возглавила команду по разработке систем безопасности, в которой работает более 80 человек.

OpenAI сообщает, что руководство ищет замену Венг. «Мы глубоко ценим вклад Лилиан в прорывные исследования в области безопасности и создание надёжных технических гарантий, — говорится в заявлении официального представителя OpenAI. Мы уверены, что команда по системам безопасности продолжит играть ключевую роль в обеспечении надёжности наших систем, обслуживающих сотни миллионов людей по всему миру».

Стоит отметить, что в октябре компанию покинул Майлз Брандейдж (Miles Brundage), работавший над политикой в сфере ИИ, после чего OpenAI объявила о роспуске команды AGI Readiness. В тот же день газета New York Times опубликовала интервью с бывшим исследователем OpenAI Сучиром Баладжи (Suchir Balaji), который заявил, что тоже покинул компанию, поскольку считает, что её технологии принесут обществу больше вреда, чем пользы.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
GPT-5 обещает серьёзный прогресс в практическом программировании и разработке ПО 3 ч.
Microsoft назвала Windows 11 24H2 самой стабильной за всю историю, что бы это ни значило 3 ч.
Новая статья: Tony Hawk’s Pro Skater 3 + 4 — кажется, вы что-то забыли. Рецензия 4 ч.
ВТБ провёл крупнейшее в России импортозамещение системы управления знаниями 4 ч.
Plants vs. Zombies Replanted скоро выйдет из тени — инсайдер раскрыл дату выхода переиздания культовой игры о противостоянии растений и зомби 4 ч.
Вышел релиз обновлённого «Кибер Хранилища» с массой оптимизаций для работы с кластерами S3 5 ч.
Microsoft рассказала, что ждёт Copilot в будущем: ИИ будет «жить», «стареть» и получит собственную комнату 6 ч.
«История про убийство нацистов всегда в моде»: Amazon запустила в производство сериал по Wolfenstein 6 ч.
Как много чемпионов: Bethesda похвасталась новыми успехами The Elder Scrolls IV: Oblivion Remastered 8 ч.
Google представила экспериментальный ИИ-генератор веб-приложений Opal 8 ч.