Сегодня 17 мая 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI продолжает терять сотрудников — они считают, что ИИ может быть опасен для человечества

Бывшая сотрудница OpenAI Гретхен Крюгер (Gretchen Krueger) сообщила, что 14 мая ушла из компании в связи с опасениями, что разрабатываемый OpenAI искусственный интеллект может представлять угрозу для человечества. Это «непростое решение» она приняла незадолго до того, как о своём уходе объявили Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike), которые руководили ныне расформированным подразделением Superalignment.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

«Я подала в отставку за несколько часов до того, как услышала новости об [Илье Суцквере] и [Яне Лейке], и приняла своё решение независимо. Их опасения я разделяю. У меня также есть другие и частично совпадающие опасения», — написала Крюгер в соцсети X. По её словам, компании необходимо проделать работу по улучшению «процессов принятия решений; подотчётности; прозрачности; документации; обеспечения соблюдения политик; осторожности в применении наших собственных технологий; и сокращения воздействия на неравенство, права и окружающую среду».

Крюгер, которая работала специалистом по разработке политик исследования, заявила, что эти опасения разделяет общественность — они «могут влиять на то, как и кем могут определяться аспекты будущего», и эти опасения не следует «неправильно воспринимать как узкие, спекулятивные или не имеющие отношения» к созданию и работе ИИ. «Один из способов, которым технологические компании могут обезоружить тех, кто пытается привлечь их к ответственности, — посеять раскол между теми, кто выражает обеспокоенность или бросает вызов их доминированию. Я крайне озабочена тем, чтобы это предотвратить», — отметила Крюгер.

Покинувшие на минувшей неделе OpenAI главный научный сотрудник и соучредитель компании Илья Суцкевер и исполнительный директор Ян Лейке возглавляли подразделение Superalignment — оно разрабатывало меры безопасности, предотвращающие выход сильного ИИ (AGI) из-под контроля. По словам Лейке, компания ставила «блестящие продукты» выше мер безопасности: отделу Superalignment приходилось бороться за ресурсы, а выполнять свою работу ему становилось всё труднее.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Intel выпустила важные исправления безопасности для устранения уязвимостей в Core Ultra, Arc и серверных GPU 2 ч.
OpenAI станет одним из основных пользователей крупного ЦОД в ОАЭ 3 ч.
Новая статья: «Приключения Капитана Блада» — ахой из прошлого. Рецензия 10 ч.
«Мы делаем всё возможное»: создатели Stellar Blade отреагировали на недоступность игры в 130 странах и развеяли опасения фанатов насчёт Denuvo 11 ч.
В ChatGPT появился ИИ-помощник программиста Codex 12 ч.
В Fortnite появилась ИИ-версия Дарта Вейдера с голосом Джеймса Эрла Джонса — с владыкой ситхов можно поговорить 12 ч.
«Мы не пытаемся стрясти с потребителя всё до последней копейки»: глава Take-Two объяснил, почему Mafia: The Old Country стоит $50 13 ч.
Warhammer 40,000: Speed Freeks скоро вырвется из раннего доступа Steam и станет платной — это боевая гонка про культ помешанных на скорости орков 14 ч.
Хакеры похитили данные клиентов Coinbase, подкупив техподдержку — это может стоить криптобирже до $400 млн 15 ч.
Продажи GTA V за последние три месяца превысили 5 млн копий, хотя игре уже почти 12 лет 15 ч.