Глава Anthropic призвал человечество не терять бдительность в отношении опасностей ИИ

Читать в полной версии

Глава стартапа Anthropic Дарио Амодеи (Dario Amodei) присоединился к представителям ИИ-отрасли, которые призывают к контролируемому и ответственному использованию соответствующих технологий. Он не уверен, что человечество обладает достаточной зрелостью, чтобы гуманно использовать все возможности, которые предоставляет искусственный интеллект.

Источник изображения: Unsplash, sebastiaan stam

«Человечеству вот-вот дадут почти невообразимую мощь, и совершенно непонятно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью для обуздания этой силы», — заявил глава Anthropic в своей недавней публикации на соответствующую тему. Как он ожидает, в ближайшие несколько лет ИИ окажется значительно «умнее» любого учёного из числа лауреатов Нобелевской премии, политика или представителя технологической отрасли. К числу создаваемых бурным развитием ИИ рисков Амодеи относит возможность разработки отдельным индивидуумом биологического оружия, способного не только убить миллионы людей, но и истребить всё живое на Земле.

Если раньше одиночки могли устроить стрельбу, по словам Амодеи, но не имели возможности создать ядерное оружие или распространять чуму, то теперь их способности будут подняты до уровня учёного-вирусолога. От вышедшего из-под контроля ИИ тоже исходит определённая опасность для человечества, а ещё злоупотребления в этой сфере могут привести к образованию мировой диктатуры тоталитарного типа, как опасается глава Anthropic. Дарио Амодеи с осуждением отнёсся к идее американских властей разрешить поставки в Китай ускорителей вычислений Nvidia H200, которые не являются передовыми по американским меркам, но обеспечат заметный прогресс китайской ИИ-отрасли в случае их закупки и распространения. Глава Anthropic такие шаги сравнил с продажей ядерного оружия в Северную Корею.

Амодеи также выразил сомнения по поводу способности конкурирующих разработчиков ИИ добровольно ограничить злоупотребления, и примером могут служить проблемы чат-бота Grok с генерацией изображений сексуального характера с использованием несовершеннолетних. Если уже в этой сфере возникают трудности с соблюдением ограничений, то и в других повторение сценария не исключено. В политической сфере соблазн добиться преимущества над другими странами чаще оказывается выше соображений безопасности, а потому иметь дело с соответствующими рисками в сфере ИИ неизбежно придётся. Конфликт с руководством OpenAI на почве необходимости ограничений этического характера стал одной из причин, по которым Дарио Амодеи покинул этот стартап и основал Anthropic.