Сегодня 13 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследователи предупредили об опасности ИИ-моделей с открытым исходным кодом

Совместное исследование, проведённое в течение 293 дней компаниями по кибербезопасности SentinelOne и Censys показало масштабы потенциально незаконных сценариев использования тысяч развёрнутых больших языковых моделей с открытым исходным кодом. К ним относятся взлом, разжигание ненависти и преследование, спам, фишинг, контент со сценами насилия или жестокости, кража личных данных, мошенничество и материалы, связанные с сексуальным насилием над детьми

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Исследователи утверждают, что злоумышленники могут легко получить доступ к компьютерам, на которых запущены большие языковые модели (Large language model, LLM) с открытым исходным кодом, а затем использовать их для массовой рассылки спама, создания фишингового контента или дезинформационных кампаний, обходя протоколы безопасности платформы.

Хотя существуют тысячи вариантов LLM-систем с открытым исходным кодом, значительная часть доступных моделей представляют собой варианты Meta Llama, Google DeepMind Gemma и некоторых других. Хотя некоторые LLM включают в себя механизмы защиты, исследователи выявили сотни случаев, когда эти механизмы были намеренно отключены. По мнению исполнительного директора по исследованиям в области разведки и безопасности SentinelOne Хуана Андреса Герреро-Сааде (Juan Andres Guerrero-Saade), в дискуссиях индустрии ИИ о мерах безопасности «игнорируется этот избыточный потенциал, который явно используется для самых разных целей, некоторые из которых законны, а некоторые явно преступны».

В исследовании были проанализированы общедоступные платформы на базе Ollama. Примерно в четверти наблюдаемых моделей исследователи смогли увидеть системные подсказки — инструкции, определяющие поведение модели. Примерно 7,5 % таких подсказок потенциально могут использоваться для вредоносной деятельности. Около 30 % наблюдаемых исследователями хостов расположены на территории Китая, а около 20 % — в США.

Генеральный директор и основатель «Глобального центра по управлению ИИ» (Global Center on AI Governance) Рэйчел Адамс (Rachel Adams) полагает, что после выпуска открытых моделей ответственность за дальнейшие действия распределяется между всеми участниками экосистемы, включая лаборатории-источники. «Лаборатории не несут ответственности за каждое последующее злоупотребление, но они сохраняют важную обязанность предвидеть возможный вред, документировать риски и предоставлять инструменты и рекомендации по их смягчению, особенно учитывая неравномерность глобальных возможностей по обеспечению соблюдения законодательства», — заявила Адамс.

Представитель Meta отказался отвечать на вопросы об ответственности разработчиков за решение проблем, связанных с последующим злоупотреблением моделями с открытым исходным кодом, и о том, как можно сообщать о таких проблемах, но отметил наличие у компании инструментов Llama Protection для разработчиков Llama, а также руководства Meta Llama Responsible Use Guide.

Представитель Microsoft заявил, что модели с открытым исходным кодом «играют важную роль» в различных областях, но признал, что «открытые модели, как и все преобразующие технологии, могут быть использованы злоумышленниками не по назначению, если они выпущены без надлежащих мер защиты».

В конечном итоге, такие ответственные открытые инновации, как запуск доступных моделей ИИ с открытым исходным кодом, требуют сотрудничества между создателями, разработчиками, исследователями и группами безопасности.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Инди-разработчик попросил пользователя Steam удалить негативный отзыв и получил ещё больше негативных отзывов 30 мин.
«Ваши разговоры не сохраняются»: в WhatsApp появились «Инкогнито-чаты» для приватных бесед с ИИ 54 мин.
Уход Sora открыл дорогу конкурентам: ИИ-генераторы видео Kling AI и AI Video ворвались в топы Apple App Store 56 мин.
Аналитики: продажи амбициозного боевика Saros от создателей Returnal не впечатлят Sony 2 ч.
Выручка Nebius Аркадия Воложа взлетела на 684 % благодаря буму ИИ 3 ч.
Разработчики Subnautica 2 подтвердили утечку игры и предупредили пиратов 3 ч.
Linux снова под ударом: раскрыт эксплойт Fragnesia, который превратит любого пользователя в администратора 3 ч.
Хакеры атаковали интернет-магазин Škoda — данные клиентов могли утечь 3 ч.
Биологический ИИ оказался обоюдоострым: он создаёт и яды, и антидоты — и не ясно, что опаснее 5 ч.
Microsoft объяснила, как планирует ускорить интерфейс Windows 11 5 ч.
Apple нарастила продажи в США, тогда как Android-смартфоны потеряли более 14 % 8 мин.
Canon представила полнокадровую беззеркалку EOS R6 V с вентилятором, но без видоискателя 16 мин.
Представлена полнокадровая беззеркалка Sony A7R VI с многослойным 66,8-Мп сенсором — серийную съёмку разогнали до 30 кадров/с 23 мин.
Curator вошла в число крупнейших ИБ-компаний России 34 мин.
Выручка Tencent не оправдала прогнозов, несмотря на успехи игрового бизнеса и ИИ 52 мин.
Прибыль Alibaba рухнула на 84 %, но гендир назвал отдачу от ИИ «абсолютно очевидной» 3 ч.
Xiaomi скоро представит флагман Xiaomi 17 Max, фитнес-браслет Smart Band 10 Pro и первые спортивные наушники 3 ч.
Аэрокосмический ИИ-стартап Aetherflux сменил имя на Cowboy Space Corporation и привлёк $275 млн на создание орбитального ЦОД 3 ч.
Нидерланды выступили против новых санкций США на поставки чипового оборудования ASML в Китай 3 ч.
Motorola выпустила трекер Moto Tag 2 с поддержкой UWB, Google Find Hub и автономностью на 600 дней 3 ч.