Сегодня 16 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI продолжает терять сотрудников — они считают, что ИИ может быть опасен для человечества

Бывшая сотрудница OpenAI Гретхен Крюгер (Gretchen Krueger) сообщила, что 14 мая ушла из компании в связи с опасениями, что разрабатываемый OpenAI искусственный интеллект может представлять угрозу для человечества. Это «непростое решение» она приняла незадолго до того, как о своём уходе объявили Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike), которые руководили ныне расформированным подразделением Superalignment.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

«Я подала в отставку за несколько часов до того, как услышала новости об [Илье Суцквере] и [Яне Лейке], и приняла своё решение независимо. Их опасения я разделяю. У меня также есть другие и частично совпадающие опасения», — написала Крюгер в соцсети X. По её словам, компании необходимо проделать работу по улучшению «процессов принятия решений; подотчётности; прозрачности; документации; обеспечения соблюдения политик; осторожности в применении наших собственных технологий; и сокращения воздействия на неравенство, права и окружающую среду».

Крюгер, которая работала специалистом по разработке политик исследования, заявила, что эти опасения разделяет общественность — они «могут влиять на то, как и кем могут определяться аспекты будущего», и эти опасения не следует «неправильно воспринимать как узкие, спекулятивные или не имеющие отношения» к созданию и работе ИИ. «Один из способов, которым технологические компании могут обезоружить тех, кто пытается привлечь их к ответственности, — посеять раскол между теми, кто выражает обеспокоенность или бросает вызов их доминированию. Я крайне озабочена тем, чтобы это предотвратить», — отметила Крюгер.

Покинувшие на минувшей неделе OpenAI главный научный сотрудник и соучредитель компании Илья Суцкевер и исполнительный директор Ян Лейке возглавляли подразделение Superalignment — оно разрабатывало меры безопасности, предотвращающие выход сильного ИИ (AGI) из-под контроля. По словам Лейке, компания ставила «блестящие продукты» выше мер безопасности: отделу Superalignment приходилось бороться за ресурсы, а выполнять свою работу ему становилось всё труднее.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Dispatch — помощь уже в пути. Рецензия 6 ч.
Новая статья: Gamesblender № 752: три «железных» анонса Valve, новый перенос GTA VI и «конечная» Halo Infinite 6 ч.
Grokipedia Илона Маска основывается на сомнительных источниках, заявили учёные 9 ч.
В соцсети X появился полноценный мессенджер с шифрованием 12 ч.
Илон Маск перенёс выпуск ИИ-модели Grok 5 на следующий год — есть вероятность, что она будет на уровне человека 13 ч.
Logitech подтвердила утечку данных со своих серверов после вымогательской атаки хакерами Clop 13 ч.
Broadcom упростила сертификацию оборудования для VCF для ускорения внедрения современных частных облаков 13 ч.
Meta начнёт оценивать сотрудников по их навыкам работы с ИИ 14 ч.
Восемь лет «беты» подошли к концу: в Steam и лаунчере Battlestate Games вышла релизная версия Escape from Tarkov 15 ч.
Grokipedia потеряла более 90 % трафика всего за несколько недель после запуска 17 ч.