Сегодня 09 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Ведущие разработчики ИИ всеми силами уклоняются от надзора и критики, заявили экс-работники OpenAI

Несколько бывших сотрудников OpenAI опубликовали открытое письмо, в котором предупредили, что передовые разработчики технологий искусственного интеллекта противостоят критике и надзору, и это важно в свете возросших за последние месяцы опасений по поводу ИИ.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Открытое письмо подписали 13 бывших сотрудников OpenAI, шесть из которых предпочли остаться анонимными; его также одобрил «крёстный отец ИИ» Джеффри Хинтон (Geoffrey Hinton). В документе говорится, что в отсутствие эффективного государственного надзора компании-разработчики ИИ должны придерживаться принципов открытой критики. Им надлежит отказаться от создания и применения положений о недискредитации, содействовать «проверяемому» процессу информирования о проблемах, предоставить нынешним и бывшим сотрудникам возможность рассказывать общественности о своих опасениях, а также отказаться от принятия ответных мер против осведомителей.

Авторы письма утверждают, что верят в потенциал ИИ для пользы общества, но также видят риски: укрепление неравенства, простор для манипуляций и дезинформации — вплоть до возможности вымирания человечества. Подписанты указывают, что существующие меры защиты осведомителей недостаточны — они касаются незаконной деятельности компаний, а не проблем, которые не регулируются. Это значит, что работники могут свободно сообщать о нарушениях в выплате заработной платы, о дискриминации, проблемах безопасности, фактах мошенничества или удержании выходных — в соответствии с законами о защите осведомителей работодатель не может их увольнять, сокращать им рабочие часы или понижать в должности. Но это не касается сведений, имеющих отношение к безопасности систем ИИ.

При этом OpenAI ранее включала положение о недискредитации в соглашении о расторжении трудового договора, а также расформировала подразделение Superalignment, которое специализировалось на безопасности ИИ. Google продолжила отстаивать свою правоту после того, как поисковый ИИ дал пользователям множество явно несуразных ответов. Microsoft же подвергалась критике за генератор изображений Copilot Designer, посредством которого создавались явно выходящие за рамки этических норм картинки.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Discord сообщил об утечке удостоверений личности 70 000 пользователей 2 ч.
В Steam открылось тестирование Valor Mortis от разработчиков Ghostrunner — ролевого боевика от первого лица в духе Dark Souls и BioShock 11 ч.
Ninja Gaiden 4, Baldur’s Gate, новая игра от создателей Psychonauts и многое другое: Microsoft раскрыла первые новинки Game Pass после подорожания 13 ч.
«Билайн Big Data & AI» и IVA Technologies займутся совместной разработкой ИИ-продуктов 14 ч.
«Интернет — не свалка для негатива»: в китайских соцсетях массово банят пессимистов 14 ч.
Еврокомиссия выделит €1 млрд на внедрение ИИ в десяти отраслях 15 ч.
Демоны, титаны и невообразимые ужасы: новый геймплейный трейлер Painkiller показал, почему в чистилище веселее с друзьями 15 ч.
Российский рынок IaaS и PaaS отметился 30-проценным ростом с начала года 16 ч.
Разработчик Baldur’s Gate 3 бросил тень на план Илона Маска «сделать игры снова великими» с помощью ИИ 19 ч.
У Gemini обнаружили уязвимость с подменой символов, но Google решила ничего не делать 19 ч.