Сегодня 23 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной

Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные.

Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов.

Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели.

Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Keep Driving — великолепная игра, сотканная из странных идей. Рецензия 2 ч.
Количество слияний и поглощений в российском IT-секторе в 2024 году выросло на треть 3 ч.
В рекордной краже криптовалюты у ByBit обвинили северокорейских хакеров 12 ч.
OpenAI провела зачистку ChatGPT от аккаунтов из Китая и Северной Кореи, подозреваемых во вредоносной деятельности 12 ч.
«Нам просто нужно больше мощностей»: OpenAI постепенно поборет зависимость от Microsoft 13 ч.
Трамповская криптооттепель: Coinbase удалось малой кровью отделаться от иска Комиссии по ценным бумагам США 13 ч.
Apple выпустила первую бету iOS 18.4, в которой появились «приоритетные уведомления» 15 ч.
Новая статья: Kingdom Come: Deliverance II — ролевое вознесение. Рецензия 22-02 00:03
Apple отключила сквозное шифрование в iCloud по требованию властей Великобритании 21-02 23:43
Взрывной платформер Shotgun Cop Man от создателя My Friend Pedro предложит спуститься в ад и арестовать Дьявола — трейлер и демоверсия в Steam 21-02 22:01
Lenovo сообщила о двузначном росте выручки за III финансовый квартал по всем подразделениям — ISG снова в плюсе благодаря ИИ 3 ч.
В облаке Google Cloud появились инстансы A4X на базе суперускорителей NVIDIA GB200 NVL72 3 ч.
STMicroelectronics представила фотонный чип для 1,6-Тбит/с сетей 3 ч.
Несмотря на риск землетрясений, геотермальную энергию ждёт светлое будущее, считают учёные 4 ч.
Размышляющий ИИ DeepSeek R1 встроят в смартфоны Infinix Note 50 8 ч.
Nvidia признала, что не знает, когда сможет решить все проблемы видеокарт GeForce RTX 5000 10 ч.
Huawei захватила больше половины рынка складных смартфонов в Китае — на втором месте Honor 10 ч.
В Asus разогнали GeForce RTX 5090 до 3,5 ГГц и установили несколько рекордов 11 ч.
Дженсен Хуанг снял с DeepSeek обвинения в обвале акций Nvidia — это инвесторы всё не так поняли 13 ч.
На первых смарт-часах OnePlus Watch 3 обнаружена нелепая ошибка, которую невозможно исправить 14 ч.