Сегодня 01 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Исследователи предупредили об опасности ИИ-моделей с открытым исходным кодом

Совместное исследование, проведённое в течение 293 дней компаниями по кибербезопасности SentinelOne и Censys показало масштабы потенциально незаконных сценариев использования тысяч развёрнутых больших языковых моделей с открытым исходным кодом. К ним относятся взлом, разжигание ненависти и преследование, спам, фишинг, контент со сценами насилия или жестокости, кража личных данных, мошенничество и материалы, связанные с сексуальным насилием над детьми

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Исследователи утверждают, что злоумышленники могут легко получить доступ к компьютерам, на которых запущены большие языковые модели (Large language model, LLM) с открытым исходным кодом, а затем использовать их для массовой рассылки спама, создания фишингового контента или дезинформационных кампаний, обходя протоколы безопасности платформы.

Хотя существуют тысячи вариантов LLM-систем с открытым исходным кодом, значительная часть доступных моделей представляют собой варианты Meta Llama, Google DeepMind Gemma и некоторых других. Хотя некоторые LLM включают в себя механизмы защиты, исследователи выявили сотни случаев, когда эти механизмы были намеренно отключены. По мнению исполнительного директора по исследованиям в области разведки и безопасности SentinelOne Хуана Андреса Герреро-Сааде (Juan Andres Guerrero-Saade), в дискуссиях индустрии ИИ о мерах безопасности «игнорируется этот избыточный потенциал, который явно используется для самых разных целей, некоторые из которых законны, а некоторые явно преступны».

В исследовании были проанализированы общедоступные платформы на базе Ollama. Примерно в четверти наблюдаемых моделей исследователи смогли увидеть системные подсказки — инструкции, определяющие поведение модели. Примерно 7,5 % таких подсказок потенциально могут использоваться для вредоносной деятельности. Около 30 % наблюдаемых исследователями хостов расположены на территории Китая, а около 20 % — в США.

Генеральный директор и основатель «Глобального центра по управлению ИИ» (Global Center on AI Governance) Рэйчел Адамс (Rachel Adams) полагает, что после выпуска открытых моделей ответственность за дальнейшие действия распределяется между всеми участниками экосистемы, включая лаборатории-источники. «Лаборатории не несут ответственности за каждое последующее злоупотребление, но они сохраняют важную обязанность предвидеть возможный вред, документировать риски и предоставлять инструменты и рекомендации по их смягчению, особенно учитывая неравномерность глобальных возможностей по обеспечению соблюдения законодательства», — заявила Адамс.

Представитель Meta отказался отвечать на вопросы об ответственности разработчиков за решение проблем, связанных с последующим злоупотреблением моделями с открытым исходным кодом, и о том, как можно сообщать о таких проблемах, но отметил наличие у компании инструментов Llama Protection для разработчиков Llama, а также руководства Meta Llama Responsible Use Guide.

Представитель Microsoft заявил, что модели с открытым исходным кодом «играют важную роль» в различных областях, но признал, что «открытые модели, как и все преобразующие технологии, могут быть использованы злоумышленниками не по назначению, если они выпущены без надлежащих мер защиты».

В конечном итоге, такие ответственные открытые инновации, как запуск доступных моделей ИИ с открытым исходным кодом, требуют сотрудничества между создателями, разработчиками, исследователями и группами безопасности.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Quarantine Zone: The Last Check — эмоций при досмотре не выявлено. Рецензия 12 ч.
Новая статья: Gamesblender № 761: GTA VI только в «цифре», иск к Valve на $900 млн и тайны отмененного «Принца» 13 ч.
IBM превзошла прогнозы Уолл-стрит благодаря спросу на ИИ, а мейнфреймы показали лучший старт продаж за всю историю 15 ч.
Соцсети вскоре столкнутся с массовыми набегами ИИ-агентов, предупредили учёные 19 ч.
Apple проигрывает борьбу за ИИ-специалистов — ценные кадры уходят в Meta и Google DeepMind 20 ч.
Instagram разрешит удалять себя из чужих списков «Близкие друзья» 20 ч.
Экс-инженера Google осудили за кражу коммерческих тайн для Китая 21 ч.
ФСТЭК России опубликовала рекомендации по безопасной настройке Samba 23 ч.
Обещанная Павлом Дуровым интеграция Grok c Telegram до сих пор не случилась и, похоже, уже никогда не случится 31-01 10:02
Запустилась соцсеть Moltbook, где общаются только ИИ-агенты — людям разрешили только наблюдать 31-01 06:31
Продажи спорткара Xiaomi SU7 Ultra упали в 70 раз 27 мин.
Курс биткоина опустился ниже $80 000 впервые с апреля прошлого года 5 ч.
Крупнейшим направлением инвестирования для Nvidia станет OpenAI, но речь идёт не о $100 млрд 5 ч.
10 тыс. ампер на ускоритель: AmberSemi представила чип питания PowerTile для повышения энергоэффективности ИИ ЦОД 14 ч.
Флеш-альянс без срока давности: Kioxia и SanDisk продлили партнёрство по выпуску NAND до 2034 года 15 ч.
RISC-V, Wi-Fi 6, Bluetooth 5.2 и 10GbE SFP+: представлен одноплатный компьютер Milk-V Jupiter 2 15 ч.
Не только ChatGPT: ИИ Google и Microsoft тоже уличили в цитировании Grokipedia 16 ч.
Улучшенная геотермальная энергетика будет выгоднее АЭС, ископаемых и возобновляемых источников, заявили учёные из США 17 ч.
Цена прогресса: Oracle не нашла денег на новые ЦОД и может уволить до 30 тысяч человек 18 ч.
Очередная группа космических туристов отправится на МКС в январе 2027 года — Axiom и NASA подписали контракт 21 ч.