Сегодня 16 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследователи предупредили об опасности ИИ-моделей с открытым исходным кодом

Совместное исследование, проведённое в течение 293 дней компаниями по кибербезопасности SentinelOne и Censys показало масштабы потенциально незаконных сценариев использования тысяч развёрнутых больших языковых моделей с открытым исходным кодом. К ним относятся взлом, разжигание ненависти и преследование, спам, фишинг, контент со сценами насилия или жестокости, кража личных данных, мошенничество и материалы, связанные с сексуальным насилием над детьми

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Исследователи утверждают, что злоумышленники могут легко получить доступ к компьютерам, на которых запущены большие языковые модели (Large language model, LLM) с открытым исходным кодом, а затем использовать их для массовой рассылки спама, создания фишингового контента или дезинформационных кампаний, обходя протоколы безопасности платформы.

Хотя существуют тысячи вариантов LLM-систем с открытым исходным кодом, значительная часть доступных моделей представляют собой варианты Meta Llama, Google DeepMind Gemma и некоторых других. Хотя некоторые LLM включают в себя механизмы защиты, исследователи выявили сотни случаев, когда эти механизмы были намеренно отключены. По мнению исполнительного директора по исследованиям в области разведки и безопасности SentinelOne Хуана Андреса Герреро-Сааде (Juan Andres Guerrero-Saade), в дискуссиях индустрии ИИ о мерах безопасности «игнорируется этот избыточный потенциал, который явно используется для самых разных целей, некоторые из которых законны, а некоторые явно преступны».

В исследовании были проанализированы общедоступные платформы на базе Ollama. Примерно в четверти наблюдаемых моделей исследователи смогли увидеть системные подсказки — инструкции, определяющие поведение модели. Примерно 7,5 % таких подсказок потенциально могут использоваться для вредоносной деятельности. Около 30 % наблюдаемых исследователями хостов расположены на территории Китая, а около 20 % — в США.

Генеральный директор и основатель «Глобального центра по управлению ИИ» (Global Center on AI Governance) Рэйчел Адамс (Rachel Adams) полагает, что после выпуска открытых моделей ответственность за дальнейшие действия распределяется между всеми участниками экосистемы, включая лаборатории-источники. «Лаборатории не несут ответственности за каждое последующее злоупотребление, но они сохраняют важную обязанность предвидеть возможный вред, документировать риски и предоставлять инструменты и рекомендации по их смягчению, особенно учитывая неравномерность глобальных возможностей по обеспечению соблюдения законодательства», — заявила Адамс.

Представитель Meta отказался отвечать на вопросы об ответственности разработчиков за решение проблем, связанных с последующим злоупотреблением моделями с открытым исходным кодом, и о том, как можно сообщать о таких проблемах, но отметил наличие у компании инструментов Llama Protection для разработчиков Llama, а также руководства Meta Llama Responsible Use Guide.

Представитель Microsoft заявил, что модели с открытым исходным кодом «играют важную роль» в различных областях, но признал, что «открытые модели, как и все преобразующие технологии, могут быть использованы злоумышленниками не по назначению, если они выпущены без надлежащих мер защиты».

В конечном итоге, такие ответственные открытые инновации, как запуск доступных моделей ИИ с открытым исходным кодом, требуют сотрудничества между создателями, разработчиками, исследователями и группами безопасности.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Нуарный ретрошутер Mouse: P.I. For Hire стартовал в Steam с рейтингом 94 % 37 мин.
Nvidia выпустила драйвер с поддержкой Pragmata, Neverness to Everness и Windrose 4 ч.
Эпичный финал: для Atomic Heart вышло масштабное сюжетное дополнение «Кровь на Хрустале» 4 ч.
«Вот это похоже на фильм по видеоигре»: первый полноценный трейлер экранизации Street Fighter произвёл фурор среди фанатов 4 ч.
Anthropic представила флагманскую ИИ-модель Opus 4.7 — она стала «самостоятельнее» и лучше в сложных задачах 5 ч.
Google с помощью ИИ заблокировала 8,3 млрд рекламных объявлений за 2025 год — на 60 % больше, чем годом ранее 5 ч.
Зачем читать классику, если можно в неё играть — Character.AI получил режим «Книги», который превращает чтение в ролевую игру 6 ч.
Windrose подтвердила, что геймеры соскучились по пиратским играм — 500 тысяч проданных копий за два дня 7 ч.
ЕС обязал Google открыть конкурентам доступ к поисковым данным 7 ч.
«Алиса AI» предложит помощь в подготовке к школьным экзаменам 8 ч.
Ракета Blue Origin New Glenn прошла огневые испытания перед первым повторным запуском в воскресенье 17 мин.
Keychron представила геймерские беспроводные мыши G4 и G5 по цене $80 и $110 2 ч.
Эксперты бьют тревогу в связи с неготовностью сетей к ИИ-трафику 3 ч.
Apple похвасталась экологичностью: её продукты на 30 % созданы из переработанных материалов 4 ч.
Honor представила ноутбуки MagicBook 14 и 16 2026 с чипами Intel Panther Lake и автономностью свыше 15 часов 4 ч.
DJI представила блогерскую камеру Osmo Pocket 4 — 1″ сенсор, замедленное видео в 4K и больше 100 Гбайт 6 ч.
Gigabyte представила блоки питания Gaming — до 1000 Вт и защита T-Guard от выгорания 12V-2x6 6 ч.
Starlink продолжает бурный рост: число пользователей увеличилось более чем вдвое 6 ч.
AMD объявила, когда её процессоры получат поддержку памяти LPDDR5X SOCAMM2 6 ч.
Meta подняла цены на VR-гарнитуры Quest 3S и Quest 3 — и снова из-за дефицита памяти 6 ч.