Сегодня 14 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI распустила AGI Readiness — ещё один отдел безопасности ИИ

OpenAI распустила отдел AGI Readiness — он консультировал компанию по вопросам её способности справляться с новыми системами искусственного интеллекта, которые становятся всё более мощными, а также готовности мира управлять этой технологией.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Старший консультант AGI Readiness Майлз Брандейдж (Miles Brundage) сообщил о своём уходе на платформе Substack. Основными причинами этого шага он назвал слишком высокие скрытые издержки, более высокую эффективность его исследований вне компании, желание быть менее предвзятым и то, что в OpenAI он достиг всего, что намеревался. Сильный ИИ (AGI) — гипотетическая система, сравнима с уровнем человека или превосходящая его; одни эксперты уверены, что человечество приблизилось к её созданию, другие считают, что это вообще невозможно. По мнению господина Брандейджа, к этому не готова ни OpenAI или любая другая передовая компания, ни весь мир — эксперт заявил, что намеревается создать собственную некоммерческую организацию или устроиться в уже существующую, чтобы заняться исследованиями и пропагандой политики в области ИИ. Его бывших подчинённых из AGI Readiness переведут в другие отделы OpenAI.

В прошлом году OpenAI сформировала отдел Superalignment — он занимался исследованиями в области «научных и технических прорывов для управления и контроля систем ИИ, которые намного умнее нас», чтобы не дать им «выйти из-под контроля». Компания обещала в течение четырёх лет выделить на нужды отдела 20 % своих вычислительных мощностей. Но уже через год, в мае этого года, он прекратил работу, а его руководители, соучредители OpenAI Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike), заявили об уходе из компании. «Создание машин, которые умнее человека — изначально опасное начинание. OpenAI берет на себя огромную ответственность от имени всего человечества. Но за последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами», — заявил тогда Лейке.

В конце сентября в один и тот же день об уходе из OpenAI объявили технический директор Мира Мурати (Mira Murati), руководитель направления исследований Боб Макгрю (Bob McGrew) и вице-президент по исследованиям Баррет Зоф (Barret Zoph).

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Власти США признали парниковые газы безопасными для людей — ДВС, уголь и нефть снова в игре 3 ч.
У NASA снова испортилась лунная ракета SLS — при попытке её заправить, топливо перестало поступать в баки 4 ч.
«Карманный» стартап Amazon получил лицензию на производство ядерного супертоплива в США для реакторов нового поколения 4 ч.
Робопсы будут патрулировать мексиканский стадион на Чемпионате мира по футболу 8 ч.
Китай запретит нетрадиционные рули в автомобилях — под ударом штурвалы Tesla 9 ч.
TSMC придётся вложить ещё $100 млрд в американское производство чипов ради сделки США и Тайваня 9 ч.
Disney потребовала от ByteDance отключить новейший ИИ-генератор видео Seedance 2.0 — он копирует персонажей Star Wars и Marvel 9 ч.
Даже взлетевшие цены на DDR5 не вывели Corsair в плюс — а впереди спад выручки 9 ч.
NVIDIA арендует «подсудный» ЦОД, строящийся на средства от продажи «мусорных» облигаций 11 ч.
Сделано в Японии: Fujitsu организует производство суверенных ИИ-серверов 12 ч.