Сегодня 13 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Глава Anthropic призвал человечество не терять бдительность в отношении опасностей ИИ

Глава стартапа Anthropic Дарио Амодеи (Dario Amodei) присоединился к представителям ИИ-отрасли, которые призывают к контролируемому и ответственному использованию соответствующих технологий. Он не уверен, что человечество обладает достаточной зрелостью, чтобы гуманно использовать все возможности, которые предоставляет искусственный интеллект.

 Источник изображения: Unsplash, sebastiaan stam

Источник изображения: Unsplash, sebastiaan stam

«Человечеству вот-вот дадут почти невообразимую мощь, и совершенно непонятно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью для обуздания этой силы», — заявил глава Anthropic в своей недавней публикации на соответствующую тему. Как он ожидает, в ближайшие несколько лет ИИ окажется значительно «умнее» любого учёного из числа лауреатов Нобелевской премии, политика или представителя технологической отрасли. К числу создаваемых бурным развитием ИИ рисков Амодеи относит возможность разработки отдельным индивидуумом биологического оружия, способного не только убить миллионы людей, но и истребить всё живое на Земле.

Если раньше одиночки могли устроить стрельбу, по словам Амодеи, но не имели возможности создать ядерное оружие или распространять чуму, то теперь их способности будут подняты до уровня учёного-вирусолога. От вышедшего из-под контроля ИИ тоже исходит определённая опасность для человечества, а ещё злоупотребления в этой сфере могут привести к образованию мировой диктатуры тоталитарного типа, как опасается глава Anthropic. Дарио Амодеи с осуждением отнёсся к идее американских властей разрешить поставки в Китай ускорителей вычислений Nvidia H200, которые не являются передовыми по американским меркам, но обеспечат заметный прогресс китайской ИИ-отрасли в случае их закупки и распространения. Глава Anthropic такие шаги сравнил с продажей ядерного оружия в Северную Корею.

Амодеи также выразил сомнения по поводу способности конкурирующих разработчиков ИИ добровольно ограничить злоупотребления, и примером могут служить проблемы чат-бота Grok с генерацией изображений сексуального характера с использованием несовершеннолетних. Если уже в этой сфере возникают трудности с соблюдением ограничений, то и в других повторение сценария не исключено. В политической сфере соблазн добиться преимущества над другими странами чаще оказывается выше соображений безопасности, а потому иметь дело с соответствующими рисками в сфере ИИ неизбежно придётся. Конфликт с руководством OpenAI на почве необходимости ограничений этического характера стал одной из причин, по которым Дарио Амодеи покинул этот стартап и основал Anthropic.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Red Hat анонсировала интегрированную ИИ-платформу Red Hat AI 3.4 5 ч.
Google объявила, что Android-смартфоны массово научатся передавать файлы на iPhone через AirDrop 6 ч.
«Быстро, жестоко и бескомпромиссно олдскульно»: анонсирован ретрошутер Nailcrown в эстетике тёмного фэнтези 7 ч.
Роскомнадзор уже третий раз за полгода опроверг слухи о блокировке Minecraft в России 7 ч.
OpenAI вооружила европейские компании ИИ-моделью GPT-5.5-Cyber для защиты от хакеров 8 ч.
Анонсирован необычный кооперативный роглайт Kingfish, в котором смешались экшен и градостроительная стратегия 8 ч.
Бывший босс Tekken ушёл из Bandai Namco для создания «по-настоящему великих» игр в новой студии 10 ч.
Как у Маска: в Threads внедрят ИИ-бота, который сможет участвовать в обсуждениях и проверять информацию 11 ч.
Обновление Dell SupportAssist вызвало массовые «синие экраны смерти» и бесконечные перезагрузки ноутбуков 11 ч.
TikTok бросила вызов Booking: теперь можно бронировать путешествия и отели прямо из видео 11 ч.