Сегодня 07 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Команда специалистов OpenAI по защите человечества от угроз, связанных с ИИ, просуществовала менее года

Уход из OpenAI одного из основателей этого стартапа Ильи Суцкевера, как поясняет CNBC, стал одной из причин распада команды специалистов по управлению долгосрочными рисками, связанными с внедрением искусственного интеллекта. Эта структурная единица, призванная защитить человечество от угроз, возникающих в связи с распространением ИИ, не просуществовала в OpenAI и одного года.

 Источник изображения: Университет Торонто

Источник изображения: Университет Торонто

По данным CNBC, озабоченность подобными рисками уже давно проявлял сам Илья Суцкевер (на фото выше), руководивший в OpenAI научными изысканиями и исследованиями. Он же возглавлял и профильную команду по управлению рисками вместе с Яном Лейке (Jan Leike), но последний на уходящей неделе тоже покинул штат компании. Сформированная в прошлом году команда, как изначально подразумевалась, будет следить за минимизацией рисков, связанных с распространением технологий искусственного интеллекта, и OpenAI намеревалась выделить до 20 % своих вычислительных ресурсов для этих нужд в течение ближайших четырёх лет. После ухода руководителей команды её оставшиеся члены были назначены на другие позиции внутри компании.

Вчера Ян Лейке заявил, комментируя свой уход из OpenAI, что «культура безопасности и процессы уступили место сияющим продуктам». Как и в случае с уходом Ильи Суцкевера, действующий генеральный директор OpenAI Сэм Альтман (Sam Altman) выразил сожаление по поводу отставки Яна Лейке. По словам последнего, он уже длительное время не разделял взглядов руководства на приоритетные направления развития компании, и теперь эти противоречия достигли критического значения. Как он считает, OpenAI должна уделять больше внимания безопасности и влиянию создаваемых технологий на общество. На протяжении последних нескольких месяцев профильная команда внутри OpenAI, по словам Лейке, буквально «шла по воде под парусом против ветра». Достигать поставленных задач становилось всё сложнее, специалисты были очень ограничены в ресурсах. Лейке по-прежнему убеждён, что OpenAI должна в разработке генеративного искусственного интеллекта быть компанией, ставящей безопасность во главу угла, поскольку «создание машин, превосходящих людей — это очень опасная затея».

Как поясняет Bloomberg, компания OpenAI сохранит в своём штате специалистов, которые следят за безопасностью искусственного интеллекта, но они будут рассредоточены по различным подразделениям. Схожими функциями будут наделены и обособленные подразделения стартапа, поэтому говорить о полностью бесконтрольном развитии ИИ в новых условиях не приходится.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Поддержка шутера Chernobylite 2: Exclusion Zone сократится из-за провального старта и вороха проблем 4 ч.
TikTok скоро переродится в США в виде нового приложения, чтобы избежать блокировки 4 ч.
Дорого и опасно: европейская ассоциация издателей выступила против инициативы Stop Killing Games, которая защищает права игроков 12 ч.
Анонсирован HellHeart Breaker — гибрид роглайт-экшена и симулятора свиданий 13 ч.
Новая статья: Death Stranding 2: On the Beach — сиквел, который понравится не всем. Рецензия 06-07 00:03
Новая статья: Gamesblender № 733: «умирающая» Xbox, возвращение Red Dead Online и AMD FSR 4 на PlayStation 05-07 23:30
Рынок российского ПО за год вырос на четверть и приблизился к 2,5 трлн руб. 05-07 13:27
«Жизнь в Найт-Сити продолжается»: CD Projekt Red и студия Trigger официально анонсировали Cyberpunk: Edgerunners 2 05-07 11:21
Еврокомиссия подтвердила: правила по ИИ вступят в силу без отсрочки 05-07 04:08
Microsoft закрыла офис в Пакистане после 25 лет работы 05-07 04:06
Новая статья: Компьютер месяца — июль 2025 года 4 ч.
Giga Computing представила ИИ-серверы на базе NVIDIA HGX B200 с воздушным и жидкостным охлаждением 5 ч.
Роботакси Tesla впервые попало в ДТП — пострадала припаркованная Toyota 6 ч.
Let's Encrypt начал выдавать бесплатные сертификаты для IP-адресов, но нужно это немногим 12 ч.
Учёные придумали точное «рентгеновское» зрение для роботов на базе технологии, родственной Wi-Fi 13 ч.
Грузовой космический корабль «Прогресс МС-31» доставил 2,6 т припасов, оборудования и топлива на МКС 19 ч.
Космические похороны пошли не по плану: стартап TEC потерял прах 166 человек в Тихом океане 19 ч.
Esperanto, создатель уникального тысячеядерного RISC-V-ускорителя, закрывается — всех инженеров переманили крупные компании 06-07 00:44
Потеряшек не будет: зонд NASA «Новые горизонты» нашёл себя среди звёзд без помощи с Земли 05-07 15:32
Повальный спрос на HBM тормозит внедрение CXL- и PIM-памяти 05-07 15:16