Сегодня 08 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Серия отставок в OpenAI продолжается: ушёл ключевой специалист по безопасности ИИ

Один из ключевых специалистов OpenAI, Лилиан Венг (Lilian Weng), объявила о своём уходе. Венг проработала в компании 7 лет, занимая должность главы отдела систем разработки безопасности, а в августе этого года получила повышение. В своём заявлении на платформе X она отметила, что покидает OpenAI, чтобы «начать всё сначала и попробовать что-то новое».

 Источник изображения: Levart_Photographer/Unsplash

Источник изображения: Levart_Photographer/Unsplash

Как сообщает TechCrunch, последним рабочим днём Венг станет 15 ноября, однако о своих дальнейших планах она не сообщила. «Я приняла крайне трудное решение покинуть OpenAI», — призналась Венг. «Оглядываясь на то, чего мы достигли, я очень горжусь каждым членом команды по системам безопасности и полностью уверена, что команда продолжит процветать».

Венг — не единственный специалист, который покинул компанию. За последний год оттуда ушли исследователи в области безопасности, а также руководители, обвинившие компанию в приоритете коммерческих продуктов над безопасностью ИИ. Ранее в этом году OpenAI покинули Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike) — руководители расформированной команды «Superalignment», которая занималась разработкой методов управления сверхразумными системами ИИ.

Венг присоединилась к OpenAI в 2018 году, начав свою карьеру в команде робототехники, которая создала роботизированную руку, способную собирать кубик Рубика за считаные секунды. С переходом OpenAI к парадигме GPT, Венг присоединилась к команде прикладных исследований ИИ в 2021 году. После запуска GPT-4 в 2023 году она возглавила команду по разработке систем безопасности, в которой работает более 80 человек.

OpenAI сообщает, что руководство ищет замену Венг. «Мы глубоко ценим вклад Лилиан в прорывные исследования в области безопасности и создание надёжных технических гарантий, — говорится в заявлении официального представителя OpenAI. Мы уверены, что команда по системам безопасности продолжит играть ключевую роль в обеспечении надёжности наших систем, обслуживающих сотни миллионов людей по всему миру».

Стоит отметить, что в октябре компанию покинул Майлз Брандейдж (Miles Brundage), работавший над политикой в сфере ИИ, после чего OpenAI объявила о роспуске команды AGI Readiness. В тот же день газета New York Times опубликовала интервью с бывшим исследователем OpenAI Сучиром Баладжи (Suchir Balaji), который заявил, что тоже покинул компанию, поскольку считает, что её технологии принесут обществу больше вреда, чем пользы.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Взрывной коктейль из Metal Slug, Contra и фильмов 80-х»: ретроэкшен Huntdown: Overtime ворвался в ранний доступ Steam c 97 % положительных отзывов 6 ч.
Приложение Fitbit превратилось в Google Health — и сможет собирать данные о здоровье даже из Apple Health 8 ч.
Новый стандарт жанра для вселенной «Чужих»: анонсирован амбициозный кооперативный шутер Aliens: Fireteam Elite 2 9 ч.
В Steam вышло атмосферное сюжетное приключение Will: Follow The Light о поиске смысла «даже в темноте» 10 ч.
Заряженное ностальгией музыкальное приключение Mixtape от создателей The Artful Escape очаровало критиков — игра доступна в российском Steam 11 ч.
IBM когда-то хотела отказаться от навигации с клавишей Tab — Microsoft не согласилась, сославшись на маму Билла Гейтса 12 ч.
ИИ с «глазами» оказался в разы дороже обычного API — агенты сжигают бюджеты, ходя по сайтам 12 ч.
Глава Take-Two взял вину за неудачи Sid Meier’s Civilization VII на себя, а обновление Test of Time исправит главную проблему игры 12 ч.
Доля российского ПО в госсекторе превысила 75 % 12 ч.
Фейковый сайт ИИ-бота Claude распространяет новый вредонос Beagle для Windows 12 ч.