Сегодня 21 ноября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.

 Источник изображения: D koi/unsplash.com

Источник изображения: D koi/unsplash.com

Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.

В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.

«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.

Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.

С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.

По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Австралия представила беспрецедентный законопроект о полном запрете соцсетей для детей до 16 лет 9 мин.
Биткоин приближается к $100 000 — курс первой криптовалюты установил новый рекорд 47 мин.
В открытых лобби Warhammer 40,000: Space Marine 2 запретят играть с модами, но есть и хорошие новости 2 ч.
Apple попросила суд отклонить антимонопольный иск Минюста США 2 ч.
Битва за Chrome: Google рассказала об ужасных последствиях отчуждения браузера для США и инноваций 2 ч.
ИИ помог Google выявить 26 уязвимостей в открытом ПО, включая двадцатилетнюю 4 ч.
Минюст США потребовал от Google продать Chrome, чтобы разрушить поисковую монополию 4 ч.
Microsoft расширяет Xbox Cloud Gaming для стриминга игр на любых устройствах 5 ч.
«Симулятор загрузки»: Microsoft Flight Simulator 2024 оказалась не готова к взлёту 13 ч.
В Chrome устранили баг, из-за которого на сайтах могла не работать подсветка текста при выделении 14 ч.