Сегодня 22 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Руководители OpenAI обещают развивать ИИ ответственно, хотя специалисты в этой сфере уволились

После недавней и неожиданной отставки двух ключевых фигур из отдела ИИ-безопасности OpenAI, руководители компании вынуждены были занять оборонительную позицию, так как к ним появилось много вопросов со стороны общественности в отношении стратегии рисков при разработке искусственного интеллекта.

 Источник изображения: Copilot

Источник изображения: Copilot

Ушедшие руководители — главный научный сотрудник Илья Суцкевер (Ilya Sutskever) и его коллега Ян Лейке (Jan Leike) — были частью суперкоманды OpenAI, отвечающей за разработку ИИ, совместимого с интересами человечества. Их уход, предположительно, был вызван разногласиями с руководством компании по поводу обеспечения глобального приоритета безопасности, чтобы «ИИ не разрушил мир».

Лейке прямо заявил, что давно не согласен с руководством в этих вопросах и что ситуация достигла критической точки. А Суцкевер даже пытался сместить гендиректора Сэма Альтмана (Sam Altman) с поста в прошлом году, хотя позднее выразил сожаление в своих действиях.

После их ухода общественность забила тревогу по поводу приоритетов OpenAI в плане безопасности. В ответ Альтман и президент Грег Брокман (Greg Brockman) опубликовали подробные заявления, объясняющие подход компании.

Они подчеркнули, что OpenAI уже внесла большой вклад в обеспечение безопасного развития ИИ, в частности, призывали к международному регулированию еще до того, как это стало мейнстримом. Альтман также предлагал создать международное агентство для обеспечения разумного тестирования систем ИИ.

Брокман заверил, что OpenAI тщательно анализирует риски на каждом этапе разработки и не планирует публиковать новые системы, пока компания не будет уверена в их безопасности, даже если это задержит выпуск.

Однако ушедшие руководители отдела ИИ-безопасности, похоже, обеспокоены тем, что текущий подход не обеспечивает достаточной защиты. По словам Лейке, эти проблемы очень сложно решать, и он обеспокоен, что компания не движется в правильном направлении в этом вопросе.

Несмотря на заверения руководства, уход ключевых специалистов ставит под сомнение заявления OpenAI о глобальной безопасности ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Foxconn немного охладела к покупке Nissan, но вернётся к этой теме, если слияние с Honda не состоится 5 ч.
В следующем году выйдет умная колонка Apple HomePod с 7-дюймовым дисплеем и поддержкой ИИ 6 ч.
Продажи AirPods превысили выручку Nintendo, они могут стать третьим по прибыльности продуктом Apple 6 ч.
Прорывы в науке, сделанные ИИ в 2024 году: археологические находки, разговоры с кашалотами и сворачивание белков 14 ч.
Arm будет добиваться повторного разбирательства нарушений лицензий компанией Qualcomm 18 ч.
Поставки гарнитур VR/MR достигнут почти 10 млн в 2024 году, но Apple Vision Pro занимает лишь 5 % рынка 20 ч.
Первая частная космическая станция появится на два года раньше, но летать на неё будет нельзя 21 ч.
В США выпущены федеральные нормы для автомобилей без руля и педалей 22 ч.
Для невыпущенного суперчипа Tachyum Prodigy выпустили 1600-страничное руководство по оптимизации производительности 23 ч.
Qualcomm выиграла в судебном разбирательстве с Arm — нарушений лицензий не было 21-12 08:39