Сегодня 05 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → манипулирование

Франция обвинила Илона Маска в завышении стоимости X и xAI дипфейками с обнажёнкой

Прокуратура Парижа передала Комиссии по ценным бумагам и биржам США (SEC) и Министерству юстиции США (DOJ) материалы, из которых следует, что скандал вокруг дипфейков Grok, всплеск загрузок приложения и публикации Илона Маска (Elon Musk) могли использоваться для искусственного завышения оценки X и xAI перед IPO новой структуры, запланированным на июнь 2026 года. Основанием стало отдельное расследование против X, начатое во Франции в начале 2025 года.

 Источник изображения: @elonmusk / x.com

Источник изображения: @elonmusk / x.com

Издание Le Monde сообщило, что глава киберподразделения прокуратуры Парижа Йоханна Брусс (Johanna Brousse) во вторник направила два сообщения: одно — в SEC, второе — в DOJ. Переданные материалы были собраны в ходе французского расследования против соцсети X, открытого в начале 2025 года. Оно касается предполагаемой предвзятости алгоритма рекомендаций контента и дипфейков, которые создавал ИИ-чат-бот Grok, включая в отдельных случаях сексуализированные изображения несовершеннолетних.

Прокуратура Парижа указала, что сведения из открытых источников позволяют предположить, что полемика вокруг этих дипфейков могла быть сознательно спровоцирована для искусственного повышения оценки X и xAI. По версии прокуратуры, это произошло перед первичным размещением акций (IPO) новой структуры, образованной после объединения SpaceX и xAI и запланированным на июнь 2026 года, в момент, когда X «явно теряла импульс».

Ключевое место в материалах занимают публикации Маска, сделанные на пике скандала. Французские прокуроры сочли их побуждением к созданию изображений без согласия изображённых лиц. Маск опубликовал несколько сообщений, в которых с множеством эмодзи выражал удовлетворение возможностями своего ИИ по «раздеванию» людей, и распространил изображение, на котором чат-бот показал его в бикини. Одновременно он разместил около 20 постов о выходе Grok на верхние позиции в рейтингах самых скачиваемых приложений в разных странах.

По данным Sensor Tower, с 1 по 19 января 2026 года среднесуточное число загрузок Grok во всём мире выросло на 72 % по сравнению с аналогичным периодом декабря 2025 года. Это позволило приложению войти в Топ-10 бесплатных сервисов Apple App Store наряду с ChatGPT компании OpenAI и Gemini компании Google. До этого Grok находился на многие десятки позиций ниже.

Рост пользовательской базы, как следует из переданных сведений, позволял добиваться максимально высокой оценки компании перед IPO. В 2018 году Маск уже урегулировал с SEC дело о манипулировании котировками Tesla. В августе 2018 года после заявления о возможном выводе Tesla с биржи и выкупе акций по цене выше рыночной бумаги компании подорожали более чем на 6 %. Для завершения расследования Маск и Tesla согласились выплатить $40 млн.

По данным издания Axios, основанным на официальных документах, Маск вновь ведёт переговоры с SEC — теперь по поводу поглощения Twitter в 2022 году. Утверждается, что он не раскрыл в установленный срок покупки акций X, сделанные до публичного предложения, и это позволило приобретать бумаги по искусственно заниженной цене. Сообщается, что вопрос пытаются урегулировать до предстоящего IPO.

После создания Grok Маск, стремясь опередить конкурирующие системы генеративного ИИ, придал ИИ-чат-боту более скандальную тональность и сделал его ответы более провокационными. The Washington Post со ссылкой на источники и документы компании сообщила, что в последние месяцы xAI ослабила часть внутренних ограничений для отдельных типов контента, включая сексуализированный контент, чтобы повысить популярность сервиса.

По данным некоммерческой организации AI Forensics, с 25 декабря 2025 года по 1 января 2026 года на такие изображения приходилась половина всего контента, создаваемого Grok. Организация также сообщила, что выявила изображения с участием «детей младше 5 лет». Только через 10 дней xAI ограничила функцию генерации изображений платными пользователями, но не приостановила её и не ввела жёсткого регулирования. Ещё через несколько дней компания добавила меры против создания «изображений реальных людей в откровенной одежде, например в бикини», причём только в странах, где этого требует закон.

По этим изображениям идут разбирательства в нескольких странах. Европейская комиссия начала расследование о возможном нарушении Закона о цифровых рынках (Digital Markets Act, DMA). В США в начале недели против xAI подан коллективный иск от трёх пострадавших, включая двух несовершеннолетних.

Учёные взломали ИИ бессмыслицей: перестановка слов обходит фильтры и путает модели

Американские учёные из Массачусетского технологического института, Северо-Восточного университета и компании Meta✴ обнаружили, что большие языковые модели искусственного интеллекта в некоторых случаях при ответах на вопросы ставят структуру предложений выше, чем их смысл. Это открывает пространство для злоупотреблений и взлома ИИ.

 Источник изображения: Milad Fakurian / unsplash.com

Источник изображения: Milad Fakurian / unsplash.com

Чтобы проверить это, исследователи задавали моделям ИИ бессмысленные вопросы, имитируя структуру осмысленных фраз. К примеру, фраза «Быстро сиди Париж облачный?» («Quickly sit Paris clouded?») приводила к тому же ответу «Во Франции», что и вопрос «Где находится Париж?» («Where is Paris located?»). Это значит, что для ИИ-моделей важны как семантика, то есть смысл, так и синтаксические закономерности — и если в семантической части смысл теряется, чат-бот пытается сориентироваться по структуре предложения. Структуру предложений изучает синтаксис — дисциплина, для которой важно взаимное расположение слов и их принадлежность к тем или иным частям речи. Семантика же обращается к фактическому значению слов, которое может меняться при сохранении той же грамматической структуры.

Семантика в значительной степени зависит от контекста — анализ контекста и обеспечивает работу больших языковых моделей. Процесс преобразования входных данных (запросов) в выходные (ответы ИИ) представляет собой сложную последовательность сопоставления с образцами и закодированными в модели обучающими данными. Чтобы выяснить угрозу сбоя при этом процессе, учёные провели контролируемый эксперимент. Они построили синтетический набор данных, в которых каждой предметной области соответствовал грамматический шаблон, основанный на конструкциях из слов, относящихся к определённым частям речи. Географии соответствовала одна последовательность, творческому направлению — другая. На этих данных исследователи обучили модели семейства OLMo, после чего проверили соотношения синтаксиса и семантики для ИИ.

В результате анализа учёные обнаружили «ложную корреляцию», когда модели в крайних случаях воспринимали синтаксис как посредника для предметной области. При конфликте грамматических шаблонов с семантикой память ИИ о конкретных грамматических формах оказывалась выше семантического анализа, и чат-бот давал неверный ответ, основанный на структуре, а не значении фразы в запросе. Проще говоря, ИИ может чрезмерно зацикливаться на стиле вопроса, а не том, что он значит. Так, если в обучающем массиве все вопросы по географии начинаются со слова «где», то при вопросе «Где лучшая пицца в Казани?» чат-бот ответит «В Татарстане» и не попытается привести список пиццерий из столицы республики, потому что не поймёт, что вопрос задан о еде. Это создаёт две угрозы: модели начинают давать неверные ответы в незнакомом контексте, демонстрируя своего рода ложную память; а злоумышленники могут использовать эти грамматические шаблоны, чтобы обойти средства безопасности, пряча недопустимые вопросы в «безопасные» синтаксические структуры. Таким образом, они меняют предметную область, связывая запрос с другим контекстом.

 Источник изображения: Conny Schneider / unsplash.com

Источник изображения: Conny Schneider / unsplash.com

Чтобы измерить степень жёсткости при сопоставлении шаблонов, учёные подвергли подопытные модели ИИ стрессовому тестированию. Если форма запроса соответствует заданной предметной области, при замене некоторых слов в нём синонимами или даже антонимами точность ответов снижается максимум до 93 %, что соответствует исходному показателю в 94 % у той же модели. Но если применить тот же грамматический шаблон к иной предметной области, точность ответов снижалась на значение от 37 до 54 п.п. в зависимости от размера модели.

Исследователи провели испытания, используя пять способов управления запросами: точные фразы из обучающего массива, замена синонимами, замена антонимами, парафразы с изменением структуры предложений и «косноязычные» — бессмысленные, но грамматически верные запросы. В пределах области обучения модели демонстрировали высокие результаты во всех случаях за исключением стабильно низкого качества ответов на «косноязычные» запросы. При принудительном переключении предметной области качество ответов резко снижалось, оставаясь стабильно низким у «косноязычных».

Схожее снижение было зафиксировано для моделей OLMo-2-7B, GPT-4o и GPT-4o. В задаче по эмоциональной классификации твитов Sentiment140 модель GPT-4o-mini демонстрировала снижение точности ответов со 100 % до 44 %, стоило к запросам на эмоциональную окраску добавить географические шаблоны. Схожие закономерности обнаружились и в других наборах данных. Аналогичным образом исследователи обходили и защитные средства моделей: в случае с OLMo-2-7B-Instruct они добавляли структуры запросов, типичные для безопасных разделов обучающего массива, к вредоносному содержимому. К безобидным шаблонам рассуждений они добавили тысячу вредоносных запросов из известного набора WildJailbreak — доля отказов модели снизилась с 40 % до 2,5 %. Учёные привели примеры, когда им удалось получить подробные инструкции по совершениям противозаконных действий.

Полученные исследователями результаты имеют несколько оговорок. Им, в частности, не удалось подтвердить наличие определённых наборов данных в обучающих массивах у закрытых моделей, а значит, выявленные закономерности для них могут иметь иные объяснения. Они также использовали упрощённые критерии оценки ответов ИИ, поэтому неправильные ответы могли быть не связаны с переходами в иные предметные области. Наконец, чаще всего предметами исследования были модели OLMo с диапазоном от 1 млрд до 13 млрд параметров — более крупные и рассуждающие модели могли вести себя по-другому. А чтобы подтвердить закономерность, учёные исходили из синтетических наборов данных — в применяемых на практике обучающих массивах содержатся более сложные грамматические шаблоны, общие для нескольких предметных областей сразу. Тем не менее, исследование в очередной раз подтвердило, что большие языковые модели ИИ представляют собой статистические машины, которые сопоставляют запросы с образцами из обучающих данных, и их можно обманывать, искажая контекст.

Учёные заставили ИИ видеть то, чего нет — машинное зрение оказалось уязвимым

Исследователи из университета Северной Каролины продемонстрировали новый способ атаки на системы компьютерного зрения, позволяющий контролировать то, что «увидит» искусственный интеллект. Использованный метод под названием RisingAttacK оказался эффективным для манипулирования всеми наиболее широко используемыми системами компьютерного зрения.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

RisingAttacK — это так называемая «состязательная атака» (adversarial attack), которая манипулирует данными, подаваемыми в систему ИИ. RisingAttacK состоит из серии операций, целью которых является внесение минимального количества изменений в изображение, которое позволит сбить с толку когнитивные способности ИИ. В результате ИИ может неправильно определить цвет светофора или поставить ошибочный диагноз по рентгеновскому снимку.

Сначала RisingAttacK идентифицирует все визуальные особенности изображения и пытается определить, какая из них наиболее важна для достижения цели атаки. Затем RisingAttacK вычисляет, насколько чувствительна система ИИ к изменениям найденных ключевых особенностей.

«Это требует некоторой вычислительной мощности, но позволяет нам вносить очень небольшие целенаправленные изменения в ключевые особенности, что делает атаку успешной, — рассказал доцент кафедры электротехники и вычислительной техники университета Северной Каролины Тяньфу Ву (Tianfu Wu). — В результате два изображения могут выглядеть одинаково для человеческого глаза, и мы можем чётко видеть машину на обоих изображениях. Но из-за RisingAttacK ИИ увидит машину на первом изображении, но не увидит на втором».

 Источник изображений: Tri-Star Pictures

Источник изображений: Tri-Star Pictures

Исследователи протестировали метод RisingAttacK против четырёх наиболее часто используемых программ компьютерного зрения: ResNet-50, DenseNet-121, ViTB и DEiT-B. Метод оказался эффективным при манипулировании всеми четырьмя программами.

«Мы хотели найти эффективный способ взлома систем машинного зрения с ИИ, потому что эти системы часто используются в контекстах, которые могут повлиять на здоровье и безопасность человека — от автономных транспортных средств до медицинских технологий и приложений безопасности, — пояснил Ву. — Выявление уязвимостей является важным шагом в обеспечении безопасности этих систем».

 Источник изображений: Tri-Star Pictures

«Хотя мы продемонстрировали способность RisingAttacK манипулировать моделями зрения, сейчас мы находимся в процессе определения того, насколько эффективен этот метод при атаке на другие системы искусственного интеллекта, такие как большие языковые модели. В дальнейшем наша цель состоит в разработке методов, которые могут успешно защищать от таких атак», — заключил он.

Исследовательская группа сделала код RisingAttacK общедоступным для изучения и тестирования.


window-new
Soft
Hard
Тренды 🔥
Telegram стал помечать пользователей сторонних клиентов, предупреждая о снижении защищённости переписки 2 ч.
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену 3 ч.
Microsoft инвестирует в развитие ИИ-инфраструктуры Японии $10 млрд 9 ч.
LinkedIn скрытно собирает данные о ПО, установленном на компьютерах пользователей соцсети 10 ч.
В Google Chrome появится функция, которая ускорит загрузку сайтов и сэкономит сетевой трафик 12 ч.
Новая статья: Grime 2 — истязание на любителя. Рецензия 22 ч.
Новая статья: Gamesblender № 770: релиз DLSS 4.5, Синдзи Миками и авторы Stellar Blade, почти конец Eidos Montreal 22 ч.
Энтузиаст установил Windows 3.1x на компьютер 2025 года — и она заработала c Ryzen 9 9900X и RTX 5060 Ti 04-04 18:58
Microsoft принудительно обновит до Windows 11 25H2 компьютеры с более старыми версиями ОС 04-04 15:10
В руководстве OpenAI провели очередные кадровые перестановки — частично вынужденные 04-04 14:05
Fujitsu планирует выпуск 1,4-нм NPU для ИИ-систем 9 ч.
Владельцы компьютеров Mac с чипами M-серии смогут использовать внешние видеокарты AMD и Nvidia 10 ч.
Американские ИИ-компании не смогут запустить в этом году более 30 % дата-центров из-за дефицита электроэнергии 14 ч.
В условиях дефицита памяти портативная игровая консоль Lenovo Legion Go 2 подорожала до полутора раз 14 ч.
В Китае введут строгий стандарт безопасности для пауэрбанков 15 ч.
NASA впервые разрешило астронавтам взять на борт iPhone в рамках лунной миссии Artemis II 15 ч.
Сразу после старта лунной миссии Трамп предложил сократить бюджет NASA на 23 % 16 ч.
Обновлённый RedMagic 11 Pro показал достойный FPS в играх для ПК класса AAA 04-04 17:02
ИИ на селе: NetApp и NTT протестировали геораспределённое обучение LLM 04-04 15:28
Стартап CavilinQ получил $8,8 млн на разработку квантового интерконнекта для объединения квантовых компьютеров 04-04 14:33