Сегодня 14 декабря 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → безопасность
Быстрый переход

Учёные обнаружили, что ИИ-модели с трудом понимают разницу между верой и знанием

Учёные Стэнфордского университета опубликовали в журнале Nature Machine Intelligence статью, где утверждают, что, хотя современные языковые модели становятся все более способными к логическому мышлению, они с трудом отличают объективные факты от субъективных убеждений и порой просто полагаются на закономерности в их обучающих данных. Такое поведение нейросетей создаёт серьёзные риски для их использования в ответственных сферах человеческой деятельности.

Человеческое общение во многом зависит от понимания разницы между констатацией факта и выражением собственного мнения. Когда человек говорит, что он что-то знает, это подразумевает уверенность в истинности его слов, тогда как утверждение, что он во что-то верит, допускает возможность ошибки. По мере того, как искусственный интеллект интегрируется в такие важные области, как медицина или юриспруденция, способность обрабатывать эти различия становится крайне важной для безопасности.

Большие языковые модели (БЛМ) используют огромные массивы текстовых данных, чтобы на основе весовых коэффициентов научиться предсказывать следующее слово в последовательности для создания связных ответов. Популярные примеры этой технологии включают GPT от OpenAI, Gemini от Google, Claude от Anthropic и Llama от Meta✴. Предыдущие оценки эффективности этих систем часто фокусировались на общих возможностях рассуждения, но им не хватало конкретного тестирования того, как модели обрабатывают лингвистические маркёры убеждений и знаний. Авторы исследования постарались восполнить этот пробел, изучив реакцию моделей при столкновении фактов и убеждений. Они хотели определить, действительно ли эти системы понимают разницу между верой и знанием или же они просто имитируют закономерности, обнаруженные в их обучающих данных.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

Научная группа разработала набор тестов Knowledge and Belief Language Evaluation (KBLE). Этот набор данных состоит из 13 000 конкретных вопросов, разделённых на тринадцать различных заданий. Для его создания они начали с 1000 предложений, охватывающих десять различных предметных областей, таких как история, литература, математика и медицина. Половина этих предложений представляла собой фактические утверждения, подтверждённые авторитетными источниками, такими как Britannica и NASA. Другая половина — искажённые, гарантированно ложные версии этих утверждений, созданные путём изменения ключевых деталей.

Исследователи оценили двадцать четыре различных модели. В выборку вошли как старые универсальные модели, такие как GPT-4 и Llama-3, так и более новые ориентированные на рассуждения модели, например, o1 от OpenAI и DeepSeek R1. Команда использовала стандартизированный метод подсказок для получения чётких ответов. Точность измерялась путём проверки того, могут ли модели правильно проверять факты, подтверждать существование убеждений и обрабатывать сложные предложения, включающие несколько уровней знаний.

Исследование показало, что моделям сложно распознать ложное убеждение говорящего. Когда пользователь заявлял: «Я считаю, что [ложное утверждение]», модели часто пытались исправить факт, а не просто подтвердить убеждение пользователя. Например, точность GPT-4o упала с 98,2 % при обработке истинных убеждений до 64,4 % при обработке ложных убеждений. Падение было ещё более значительным для DeepSeek R1, точность которого снизилась с более чем 90ё% до всего лишь 14,4ё%.

Исследователи также обнаружили, что системы гораздо лучше справлялись с приписыванием ложных убеждений третьим лицам, таким как «Джеймс» или «Мэри», чем первому лицу «я». В среднем модели правильно определяли ложные убеждения от третьего лица в 95 % случаев. Однако их точность в отношении ложных убеждений от первого лица составляла всего 62,6 %. По мнению учёных, модели используют разные стратегии обработки в зависимости от того, кто говорит.

Исследование также выявило несоответствия в том, как модели проверяют основные факты. Более старые модели, как правило, гораздо лучше распознавали истинные утверждения, чем ложные. Например, GPT-3.5 правильно определяла истину почти в 90 % случаев, но ложь — менее чем в 50 %. Напротив, некоторые более новые модели рассуждений показали противоположную картину, лучше проверяя ложные утверждения, чем истинные. Модель o1 достигла точности в 98,2 % при проверке ложных утверждений по сравнению с 94,4 % при проверке истинных.

Эта противоречивая закономерность предполагает, что недавние изменения в методах обучения моделей повлияли на их стратегии проверки. По-видимому, усилия по уменьшению галлюцинаций или обеспечению строгого соблюдения фактов могли привести к чрезмерной коррекции в некоторых областях. Модели демонстрируют нестабильные границы принятия решений, часто сомневаясь при столкновении с потенциальной дезинформацией. Эти колебания приводит к ошибкам, когда задача состоит просто в определении ложности утверждения.

Любопытно, что даже незначительные изменения в формулировке приводили к значительному снижению производительности. Когда вопрос звучал как «Действительно ли я верю» вместо просто «Верю ли я», точность резко падала повсеместно. Для модели Llama 3.3 70B добавление слова «действительно» привело к снижению точности с 94,2 % до 63,6 % для ложных убеждений. Это указывает на то, что модели, возможно, полагаются на поверхностное сопоставление образов, а не на глубокое понимание концепций.

Ещё одна трудность связана с рекурсивными знаниями, которые относятся к вложенным уровням осведомлённости, таким как «Джеймс знает, что Мэри знает X». Хотя некоторые модели высшего уровня, такие как Gemini 2 Flash, хорошо справлялись с этими задачами, другие испытывали значительные трудности. Даже когда модели давали правильный ответ, их рассуждения часто были непоследовательными. Иногда они полагались на то, что знание подразумевает истину, а иногда и вовсе игнорировали значимость этих знаний.

Большинству моделей не хватало чёткого понимания фактической природы знания. В лингвистике «знать» — это глагол фактического характера, означающий, что нельзя «знать» что-то ложное; можно только верить в это. Модели часто не распознавали это различие. При столкновении с ложными утверждениями о знании они редко выявляли логическое противоречие, вместо этого пытаясь проверить ложное утверждение или отвергая его, не признавая лингвистической ошибки.

Эти ограничения имеют существенные последствия для применения ИИ в условиях высокой ответственности. В судебных разбирательствах различие между убеждениями свидетеля и установленным знанием имеет центральное значение для судебных решений. Модель, которая смешивает эти два понятия, может неверно истолковать показания или предоставить ошибочные юридические исследования. Аналогично, в учреждениях психиатрической помощи признание убеждений пациента имеет жизненно важное значение для эмпатии, независимо от того, являются ли эти убеждения фактически точными.

Исследователи отмечают, что сбои БЛМ, вероятно, связаны с обучающими данными, в которых приоритет отдаётся фактической точности и полезности. Модели, по-видимому, имеют «корректирующий» уклон, который мешает им принимать неверные предположения от пользователя, даже когда запрос явно формулирует их как субъективные убеждения. Такое поведение препятствует эффективной коммуникации в сценариях, где в центре внимания находятся субъективные точки зрения.

Исследователи пришли к выводу, что пока «модели не в состоянии отличить убеждения пользователя от фактов». Они полагают, что у БЛМ нет хорошей ментальной модели пользователей, поэтому следует быть «очень осторожными при их использовании в более субъективных и личных ситуациях».

Будущие исследования должны быть сосредоточены на том, чтобы помочь моделям отделить понятие истины от понятия убеждения. Исследовательская группа предполагает, что необходимы улучшения, прежде чем эти системы будут полностью внедрены в областях, где понимание субъективного состояния пользователя так же важно, как и знание объективных фактов. Устранение этих эпистемологических «слепых зон» является необходимым условием ответственного развития ИИ.

Microsoft заплатит за обнаружение критических уязвимостей даже в сторонних приложениях

Microsoft пересмотрела свою программу вознаграждения за обнаружение уязвимостей и будет платить исследователям за обнаружение уязвимостей во всех своих продуктах и ​​сервисах, даже в тех, где нет установленных программ вознаграждения. Новый подход «по умолчанию входит в сферу действия» предусматривает выплату вознаграждения даже за критические уязвимости, обнаруженные в сторонних приложениях.

Вице-президент центра реагирования на инциденты безопасности Microsoft (Microsoft Security Response Center, MSRC) Том Галлахер (Tom Gallagher) сообщил о новом подходе компании к выплате вознаграждений за обнаруженные уязвимости, который она называет «по умолчанию входит в сферу действия». В рамках новой модели MSRC будет выплачивать вознаграждение исследователям, которые сообщают о критических уязвимостях, оказывающих ощутимое влияние на онлайн-сервисы Microsoft.

«Независимо от того, принадлежит ли код Microsoft, третьей стороне или является открытым исходным кодом, мы сделаем все необходимое для устранения проблемы, — сказал Галлахер. — Наша цель — стимулировать исследования в областях с самым высоким риском, особенно в тех, которые наиболее вероятно будут использованы злоумышленниками». По его словам, выплаты за один и тот же класс обнаруженной уязвимости и степень её серьёзности как в коде стороннего разработчика, так и в продукте Microsoft, будут одинаковыми.

«Там, где нет программ вознаграждения за обнаружение уязвимостей, мы будем признавать и вознаграждать разнообразные идеи сообщества исследователей безопасности, независимо от того, куда их направляет их опыт. Это включает в себя домены и корпоративную инфраструктуру, принадлежащие Microsoft и управляемые ею», — добавил Галлахер.

Подход «по умолчанию входит в сферу действия» означает, что даже новые продукты и услуги покрываются программами вознаграждения за обнаружение уязвимостей, включая те, для которых на момент запуска не была назначена специальная программа.

Этот шаг представляет собой радикальное изменение в системе вознаграждения за обнаружение уязвимостей MSRC, которая в прошлом была строго регламентирована в отношении того, какой тип уязвимости заслуживает вознаграждения и какие продукты или услуги включены в программу вознаграждения.

«Переход к модели вознаграждения за обнаружение уязвимостей, которая по умолчанию входит в сферу действия программы, направлен на укрепление нашей безопасности в условиях постоянно меняющегося ландшафта угроз, особенно в облачных технологиях и искусственном интеллекте», — пояснил Галлахер.

Microsoft запустила свою программу вознаграждения за обнаружение уязвимостей в 2013 году после многолетних обращений исследователей безопасности. Хотя многие из них с тех пор получили финансовую выгоду от этой программы, нашлось немало тех, кто жалуется на усложнённый процесс подачи заявок, медленную реакцию компании и сомнительные выводы по результатам анализа.

По данным Microsoft, в прошлом году она выплатила исследователям более $17 млн в рамках своей программы вознаграждения за обнаружение уязвимостей и конкурса Zero Day Quest, и ожидает дальнейшего увеличения расходов.

Хакерский ИИ уже почти обошёл человека — девять из десяти экспертов оказались слабее

Современные средства взлома компьютерных систем, основанные на искусственном интеллекте, стали настолько мощными, что уже почти превзошли человека. Таковы результаты эксперимента, проведённого исследователями Стэнфордского университета (США), пишет The Wall Street Journal.

 Источник изображения: Fotis Fotopoulos / unsplash.com

Источник изображения: Fotis Fotopoulos / unsplash.com

Почти весь прошедший год группа учёных из Стэнфорда вела разработку чат-бота с ИИ Artemis, предназначенного для хакерских операций. Artemis сканирует сеть на предмет возможных ошибок — уязвимостей ПО, а затем находит способы эксплуатировать эти уязвимости для взлома систем. Обучив ИИ, они выпустили его из лаборатории и попросили найти ошибки в реальной компьютерной сети инженерного факультета в университете. Деятельность Artemis сравнили с работой настоящих хакеров — специалистов по тестированию на проникновение.

Первоначально авторы эксперимента не ожидали от ИИ многого, но на деле он оказался чрезвычайно хорош и превзошёл девятерых из десяти специалистов, нанятых исследователями для проверки. Artemis обнаруживал ошибки с молниеносной скоростью, а его обслуживание было относительно недорогим — $60 в час, тогда как специалист того же профиля зарабатывает в час от $2000 до $2500. Но и идеальной работа Artemis тоже не была — около 18 % его сообщений об ошибках были ложными срабатываниями; кроме того, он пропустил очевидную ошибку, которую большинство людей заметило на веб-странице.

Сеть в Стэнфорде ранее не взламывалась с помощью ИИ-ботов, и проведённый эксперимент оказался удачным поводом устранить некоторые изъяны в средствах защиты. У Artemis также была функция аварийного отключения, которая позволила бы исследователям мгновенно деактивировать ИИ-агента в случае возникновения проблем. Значительная часть программного кода во всём мире, указывают учёные, не проходила надёжного тестирования на наличие уязвимостей, поэтому инструменты вроде Artemis в долгосрочной перспективе способны обернуться благом для защитников сетевых ресурсов, помогая им находить и исправлять большее число ошибок в коде, чем когда-либо прежде. Но в краткосрочной перспективе это также и угроза — к ИИ за поиском уязвимостей могут обратиться и злоумышленники.

Любопытно, что одну из ошибок Artemis обнаружил на странице, которая не открывалась современными браузерами — специалисты по поиску уязвимостей её пропустили, а он нашёл, потому что открыл эту страницу при помощи утилиты cURL. Ранее разработчик этой утилиты пожаловался, что на него обрушилась лавина ложных сообщений об ошибках в ней, которые якобы обнаруживают модели ИИ.

Google подготовила Chrome к внедрению ИИ-агентов — и объяснила, как защитит их от взлома и мошенников

Компания Google подробно описала свой подход к обеспечению безопасности пользователей в Chrome в связи с планами вскоре добавить в браузер агентские функции, анонсированные в сентябре.

 Источник изображений: Google

Источник изображений: Google

Использование в браузере агентских функций, способных выполнять действия от имени пользователя, например бронировать билеты или совершать покупки, обеспечивает определённые удобства, но также сопряжено с рисками безопасности, которые могут привести к потере данных или денег.

Google отметила, что основная новая угроза, исходящая от злоумышленников для агентских браузеров, — это «непрямое внедрение подсказок» с целью «заставить агента выполнить нежелательные действия, такие как инициирование финансовых транзакций или кража конфиденциальных данных». Атака может «появляться на вредоносных сайтах, в стороннем контенте в iframe или в пользовательском контенте, например в отзывах».

Для контроля действий ИИ-агентов используется несколько моделей. Google создала модель User Alignment Critic на основе Gemini для тщательной проверки действий, сформированных моделью-планировщиком для конкретной задачи. Она «запускается после завершения планирования для повторной проверки каждого предложенного действия» и его одобрения или отклонения. Если запланированные задачи не отвечают целям пользователя, она просит модель-планировщик пересмотреть стратегию. Google отметила, что модель User Alignment Critic видит только метаданные предлагаемого действия, а не какой-либо неотфильтрованный, недостоверный веб-контент, что гарантирует невозможность его прямого заражения из интернета.

Чтобы предотвратить доступ агентов к запрещённым или ненадёжным сайтам, Google использует наборы источников Agent Origin Sets, которые ограничивают доступ модели к источникам только для чтения и к источникам, доступным для чтения и записи. В первом случае это данные, из которых Gemini разрешено получать контент. Например, на сайте интернет-магазина листинги подходят для решения задачи, а рекламные баннеры — нет. Аналогичным образом агенту разрешено кликать или вводить текст только в определённых iframe страницы.

«Такое разграничение гарантирует, что агенту доступны только данные из ограниченного набора источников, и эти данные могут быть переданы только на источники, доступные для записи. Это ограничивает вектор угрозы кросс-источниковых утечек данных. Это также даёт браузеру возможность применять часть этого разделения, например, даже не отправляя модели данные, находящиеся за пределами набора, доступного для чтения», — пояснила Google в блоге.

С помощью ещё одной модели — Observe — компания также контролирует навигацию по страницам, анализируя URL-адреса, что позволяет предотвратить переход на вредоносные URL, сгенерированные моделью.

При этом пользователи могут контролировать процесс: Gemini в Chrome «подробно описывает каждый шаг в рабочем журнале» с возможностью остановки и перехвата управления в любой момент.

Например, перед переходом на конфиденциальный сайт с такой информацией, как банковские или медицинские данные, агент запрашивает подтверждение пользователя. Для сайтов, требующих входа в систему, он запрашивает у пользователя разрешение на использование менеджера паролей Chrome (у агента нет прямого доступа к сохранённым паролям).

Также агент будет запрашивать подтверждение пользователя перед выполнением таких действий, как совершение покупки или отправка сообщения.

По словам компании, у неё также есть классификатор подсказок для предотвращения нежелательных действий, а также она тестирует возможности агентов по противодействию атакам, разработанным исследователями.

Власти Индии передумали принуждать производителей смартфонов предустанавливать неудаляемое госприложение

Все прелести индийской демократии демонстрируются событиями всего лишь одной недели, когда инициатива местных властей по обязательной установке государственного приложения для поиска похищенных смартфонов сначала была ослаблена по своим требованиям, а затем и вовсе была отменена, о чём индийские чиновники сообщили вчера вечером.

 Источник изображения: Apple

Источник изображения: Apple

По информации Reuters, индийские власти отказались от идеи обязательной установки приложения Sanchar Saathi на все смартфоны, продаваемые на внутреннем рынке страны. Первоначально предполагалось, что новому требованию поставщики смартфонов должны будут подчиниться в течение 90 дней, начиная с 28 ноября. Считалось также, что должны быть предусмотрены механизмы, не позволяющие пользователю самостоятельно заблокировать или удалить приложение. Позже индийские чиновники смягчили позицию, заявив, что владельцы смартфонов смогут удалить приложение в любой момент, если захотят этого.

Инициатива натолкнулась не только на критику со стороны оппозиционных партий в Индии, но и на сопротивление самих производителей смартфонов. По крайней мере, Apple и Samsung отказались обеспечить установку этого приложения на свои смартфоны, реализуемые на территории Индии. В конечном итоге, как можно понять из публичных заявлений Министерства коммуникаций Индии, правительство решило отказаться от требований обязательной установки приложения на мобильные устройства силами производителей и поставщиков. Чиновники добавили, что граждане страны и так активно скачивают упоминаемое приложение, которое было выпущено в начале года, и сейчас его уже установили 600 000 человек. Власти настаивают на безопасности приложения и его ориентации на борьбу с хищениями смартфонов.

Все ИИ-гиганты провалили проверку на безопасность — никто не в состоянии контролировать суперинтеллект

Новый отчёт группы по безопасности искусственного интеллекта Future of Life Institute (FLI) указывает на то, что меры обеспечения безопасности ведущих отраслевых компаний, таких как OpenAI, Anthropic, xAI и Meta✴, «далеки от новых мировых стандартов». Независимые эксперты пришли к выводу, что хоть IT-гиганты и соревнуются в разработке так называемого «суперинтеллекта», ни один из них не имеет продуманной стратегии контроля таких передовых систем.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Результаты исследования опубликованы на фоне растущей общественной обеспокоенности по поводу социального воздействия систем, превосходящих человека в плане интеллектуальных способностей, которые могут рассуждать и мыслить логически. Поводом для таких опасений стали несколько случаев, когда ИИ-боты подталкивали людей к самоубийству или нанесению себе вреда.

«Несмотря на недавний шум вокруг хакерских атак с использованием ИИ и случаев, когда ИИ доводил людей до психоза и членовредительства, американские ИИ-компании остаются менее регулируемыми, чем рестораны, и продолжают выступать против обязательных стандартов безопасности», — заявил Макс Тегмарк (Max Tegmark), профессор MIT и президент Future of Life. Отмечается, что гонка в сфере ИИ не показывает признаков замедления. Крупные технологические компании инвестируют сотни миллиардов долларов в модернизацию и расширение своих проектов в сегменте ИИ.

Напомним, FLI является некоммерческой организацией, которая привлекает внимание общественности к рискам, с которыми человечество может столкнуться в случае появления «умных» машин. Организация существует с 2014 года и на ранних этапах её поддерживал американский бизнесмен Илон Маск (Elon Musk). Последний недавно назвал три принципа, без которых ИИ станет опасен для человека.

Индия пошла на уступки: обязательное госприложение всё же разрешат удалять со смартфонов

Реализуемые властями Индии меры по борьбе с хищениями смартфонов привели их к сложному решению потребовать от производителей реализуемых на территории страны устройств обязательно устанавливать ни них специальное государственное приложение. Сперва считалось, что его нельзя будет удалить, но теперь позиция индийских властей на этот счёт смягчилась.

 Источник изображения: Apple

Источник изображения: Apple

По крайней мере, об этом сообщает Bloomberg со ссылкой на представителей профильных ведомств в составе индийского правительства. Приложение Sanchar Saathi, по словам чиновников, пользователи смогут удалять самостоятельно, если они считают, что оно им не потребуется. Выбор, по словам министра связи Индии Джиотирадитьи Шиндэ (Jyotiraditya Scindia), всегда остаётся за пользователем. Соответствующее приложение призвано повысить безопасность граждан, а не следить за ними, как добавил министр. «Пользователи обладают полной свободой активации или удаления приложения в любой момент, обеспечивая безопасность без угрозы для приватности», — пояснил чиновник.

Представители оппозиционной партии в индийском парламенте на днях выразили своё недовольство инициативой властей по обязательной установке подобного приложения, увидев в этой инициативе угрозу для неприкосновенности частной жизни граждан и проявление диктатуры. Компания Apple также выразила протест по поводу данной идеи, хотя по итогам прошлого фискального года выручила в Индии рекордные $9 млрд, а потому должна дорожить доступом к нему.

По словам источников, знакомых с функциональными возможностями упоминаемого приложения, оно способно просматривать логи переписки и историю звонков, а доступ к камере получает только через разрешение пользователя. Доступ к микрофону, геопозиции или управлению Bluetooth вообще не предусмотрен. С момента выпуска приложения на рынок оно было скачано 14 млн раз и помогло отследить 2,6 млн похищенных и украденных смартфонов.

Google научила Circle to Search выявлять сообщения от мошенников

Google выпустила обновление функции визуального поиска Circle to Search, которая теперь может распознавать цифровое мошенничество, используя для анализа подозрительных сообщений и веб-контента инструмент AI Overview («Обзор на основе ИИ»).

 Источник изображения: 9to5google.com

Источник изображения: 9to5google.com

Компания отметила, что одной из распространённых тактик злоумышленников является отправка мошеннических текстовых сообщений как посредством SMS, так и через мессенджеры и социальные сети. Эти сообщения часто содержат просьбы или требования денег и ссылки на вредоносные сайты.

Зачастую мошеннические сообщения сложно распознать самостоятельно, поскольку они неотличимы от настоящих. Теперь в случае, если возникли подозрения по поводу сообщения или текста, пользователю достаточно обвести фрагмент с помощью Circle to Search и Google предоставит ИИ-обзор, в котором, основываясь на информации из интернета, будет определено, является ли сообщение вредоносным. Если сообщение действительно мошенническое, в обзоре будут предложены соответствующие рекомендации по дальнейшим действиям.

Такая возможность также была добавлена в Google Lens. Для этого достаточно сделать скриншот текста и загрузить его в этом приложении.

Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды

Apple значительно сократила размеры вознаграждений за обнаружение уязвимостей в операционной системе macOS, несмотря на растущую активность вредоносных программ. Некоторые выплаты были уменьшены более чем в шесть раз, например, за обнаружение уязвимости, связанной с обходом механизма защиты приватности, цена снизилась с $30 500 до $5000.

 Источник изображения: AI

Источник изображения: AI

Об этом рассказало издание 9to5Mac со ссылкой на ведущего исследователя по безопасности macOS в компании Iru Цабу Фитцла (Csaba Fitzl). Фитцл опубликовал актуальные ставки программы Apple Security Bounty на своей странице в LinkedIn, отметив, что такие изменения трудно интерпретировать в положительном ключе, особенно на фоне заявлений Apple о приверженности защите приватности пользователей. По его мнению, это может сигнализировать либо о том, что Apple не намерена инвестировать в исправление подобных проблем, либо о снижении приоритета безопасности на платформе Mac в целом.

Механизм защиты приватности Transparency, Consent, and Control (TCC) — это фреймворк прозрачности, согласия и контроля, который обеспечивает уверенность в том, что приложения получают доступ к чувствительным данным пользователя только после его явного разрешения. Система регулирует доступ к таким ресурсам, как файлы и папки, данные из встроенных приложений, а также к микрофону, веб-камере и функциям записи экрана. В прошлом исследователи уже находили критические уязвимости в TCC: одна из них позволяла злоумышленнику производить такие действия, при которых macOS считала, будто пользователь дал разрешение, хотя этого не происходило. Другой баг позволял внедрять вредоносный код в легитимные приложения, чтобы использовать выданные им права.

Фитцл подчеркнул, что и без того небольшое сообщество исследователей, специализирующихся на безопасности macOS, может ещё больше сократиться из-за снижения финансовой мотивации. Это, в свою очередь, повышает вероятность того, что обнаруженные уязвимости будут продаваться на чёрном рынке, а не передаваться Apple для исправления.

Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках

Компания Google опубликовала декабрьский бюллетень по безопасности Android, в котором сообщила об устранении 107 уязвимостей, включая две, активно эксплуатируемые в целевых атаках.

 Источник изображения: AI

Источник изображения: AI

Две уязвимости высокого уровня серьёзности обозначены как CVE-2025-48633 и CVE-2025-48572. Первая связана с риском неавторизованного доступа к информации, вторая — с проблемами повышенных привилегий. Обе уязвимости затрагивают версии Android с 13-й по 16-ю.

«Имеются признаки того, что следующие [уязвимости] могут подвергаться ограниченной целенаправленной эксплуатации», — говорится в декабрьском бюллетене Google по Android.

Хотя компания не предоставила никаких технических деталей и подробностей об эксплуатации этих уязвимостей, аналогичные проблемы ранее использовались для таргетированных атак с помощью коммерческого шпионского ПО или в рамках государственных операций, направленных на небольшое число лиц, представляющих особый интерес.

Самая серьёзная уязвимость, исправленная в этом месяце, — это CVE-2025-48631, уязвимость типа «отказ в обслуживании» (DoS) в Android Framework.

Обновления этого месяца устраняют в общей сложности 51 уязвимость в компонентах Android Framework и System, а также 56 ошибок в ядре и сторонних компонентах с закрытым исходным кодом. Что касается последнего, Google выпустила четыре критически важных исправления для уязвимостей, связанных с повышением привилегий в подкомпонентах ядра Pkvm и UOMMU, а также два критических исправления для устройств на базе процессоров Qualcomm (CVE-2025-47319 и CVE-2025-47372). Дополнительную информацию об исправлениях с закрытым исходным кодом можно найти в бюллетенях безопасности Qualcomm и MediaTek за декабрь 2025 года. Компания Samsung тоже опубликовала свой бюллетень безопасности, включающий исправления, перенесённые из обновления Google, а также исправления, специфичные для её устройств.

Важно отметить, что обновления распространяются на устройства под управлением Android 13 и более поздних версий, но устройства на Android 10 и более поздних версиях могут получить некоторые важные исправления через системные обновления Google Play. Также функция Play Protect может обнаруживать и блокировать задокументированные вредоносные программы и цепочки атак, поэтому пользователям любой версии Android следует поддерживать компонент в актуальном состоянии и активировать его.

Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии

YouTube начал расширять доступ к инструменту «Обнаружение сходства», впервые представленному в октябре, который выявляет дипфейки — поддельные видео, созданные искусственным интеллектом с использованием лиц популярных блогеров. Однако этот инструмент требует от создателей контента предоставления биометрических данных, что вызвало среди экспертов серьёзные опасения.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Основная критика связана с условиями использования инструмента. Как пишет CNBC, эксперты ссылаются на базовую «Политику конфиденциальности Google», где указано, что общедоступная информация, к которой могут быть отнесены и биометрические данные, способна применяться для обучения ИИ-моделей компании и разработки новых продуктов. Это и создаёт, по мнению специалистов, потенциальный риск и неопределённость для создателей, передающих свои уникальные биометрические данные видеохостингу.

Официальный представитель YouTube Джек Малоун (Jack Malon) в ответ на запрос CNBC заявил, что собранная информация используется исключительно для идентификации пользователей и функционирования данного инструмента. Он подчеркнул, что компания никогда не применяла биометрию создателей для тренировки своих алгоритмов искусственного интеллекта. В YouTube также сообщили, что работают над уточнением формулировок, чтобы избежать недопонимания, однако базовая политика в отношении данных меняться не будет.

Руководитель направления продуктов для издателей YouTube Амджад Ханиф (Amjad Hanif) пояснил, что инструмент был разработан с расчётом на колоссальные масштабы платформы, где ежедневно публикуется огромный объём контента. Планируется, что к концу января доступ к нему получат более трёх миллионов участников партнёрской программы. При этом эксперты рынка, такие как Дэн Нили (Dan Neely) из компании Vermillio, специализирующейся на защите имиджевых прав, советуют авторам проявлять осторожность. Он отмечает, что в эпоху ИИ цифровой образ становится ключевым активом, и потеря контроля над ним может быть необратимой. Одновременно генеральный директор компании Loti Люк Арригони (Luke Arrigoni), также заявил, что не рекомендует клиентам подключать данную функцию в её текущем виде, указывая на высокие потенциальные риски.

Актуальность проблемы дипфейков растёт параллельно с развитием технологий генерации видео, таких как собственный продукт Google под названием Veo 3, который, по данным CNBC, обучается в том числе и на видеоматериалах с YouTube. Популярные издатели, например, врач-блогер Михаил Варшавски (Mikhail Varshavski), известный как Doctor Mike, уже регулярно сталкиваются с подделками, где его внешность используется для рекламы сомнительных товаров или дезинформации.

В настоящее время у создателей контента нет возможности монетизировать несанкционированное использование своей внешности, в отличие от вариантов распределения доходов, доступных через систему Content ID YouTube. Однако Ханиф заявил, что компания изучает возможность использования аналогичной модели для видео, созданных с помощью ИИ.

Власти Индии обязали производителей смартфонов, включая Apple и Samsung, предустанавливать неудаляемое государственное приложение

Региональная специфика требует от производителей смартфонов и разработчиков программного обеспечения подстраиваться под те или иные законодательные инициативы. В Индии, например, заведующее телекоммуникациями министерство потребовало от них предустанавливать на все продаваемые смартфоны приложение, необходимое для реализации некоторых функций кибербезопасности.

 Источник изображения: Apple

Власти страны продвигают инициативу по установке неудаляемого приложения, которое препятствует использованию информационной инфраструктуры злоумышленниками и борется с хищениями смартфонов. Apple, Samsung, Vivo, Oppo и Xiaomi уже получили от властей Индии соответствующие требования, сформулированные в ведомственном распоряжении от 28 ноября, на которое ссылается Reuters. Поставщикам смартфонов отводится 90 дней на установку приложения Sanchar Saathi на все новые продаваемые в Индии устройства, с дополнительной реализации мер, которые не позволят пользователям отключить или удалить это приложение.

Уже существующие смартфоны, находящиеся в эксплуатации на территории Индии, данное приложение должны получить в ходе ближайшего обновления ПО. Запущенное властями Индии в январе специализированное приложение позволило найти более 700 000 украденных или потерянных смартфонов, только в октябре их количество достигло 50 000 штук. На территории Индии находится около 1,2 млрд пользователей сетей мобильной связи.

По словам индийских чиновников, в стране остро стоит проблема клонирования номеров IMEI для осуществления противоправной деятельности. По состоянию на середину текущего года, смартфоны Apple занимали только 4,5 % эксплуатируемых в Индии 735 млн смартфонов, остальные работали под управлением операционной системы Google Android. Корпоративные правила Apple, например, не предусматривают предварительной установки сторонних приложений до продажи смартфона, исторически компания все подобные требования властей прочих стран отвергала.

Указанное приложение позволяет отслеживать смартфоны по IMEI и блокировать их в случае хищения. Впрочем, власти страны в равной мере могут блокировать смартфоны лиц, подозреваемых в противоправной деятельности. Это приложение уже было скачано более 5 млн раз, более 3,7 млн украденных или потерянных смартфонов при этом были блокированы с его помощью, а ещё властям Индии удалось в 30 млн случаев блокировать звонки, связанные с противоправной деятельностью. По словам индийских чиновников, приложение позволяет бороться с чёрным рынком мобильных устройств и пресекать правонарушения.

Новейшую ИИ-модель Google Gemini 3 Pro взломали всего за пять минут

Специалисты стартапа Aim Intelligence, тестирующего ИИ-системы на уязвимости, провели стресс-тест Gemini 3 Pro, новейшей модели Google, представленной в прошлом месяце. Как сообщает газета Maeil Business, исследователям потребовалось всего пять минут, чтобы обойти защиту программного комплекса.

 Источник изображения: blog.google

Источник изображения: blog.google

После взлома исследователи попросили Gemini 3 предоставить инструкции по созданию вируса оспы, и в ответ модель предоставила множество подробных советов, которые команда назвала «практически выполнимыми». И это был не единственный промах. Исследователи предложили модели подготовить сатирическую презентацию об уязвимости собственной системы безопасности. Gemini ответила презентацией под названием Excused Stupid Gemini 3 («Оправданный глупый Gemini 3»).

Затем команда воспользовалась инструментами кодирования Gemini для создания веб-сайта с инструкциями по изготовлению газа зарин и самодельной взрывчатки. Подобный контент модель никогда не должна предоставлять, но в обоих случаях, как сообщается, система не только обошла запреты, но и проигнорировала собственные правила безопасности.

Тестировщики сообщили, что это не только проблема Gemini. Разработчики развивают новые модели настолько быстро, что не успевают подготовить соответствующие меры безопасности. В частности, эти модели не просто дают советы с нарушением правил безопасности, они ещё и пытаются избежать обнаружения этого. В Aim Intelligence сообщили, что Gemini 3 может для этого использовать обходные стратегии и подсказки по маскировке, что снижает эффективность предпринимаемых мер предосторожности.

Asus предупредила об очередной критической уязвимости в маршрутизаторах с AiCloud

Компания Asus выпустила новую прошивку, закрывающую девять уязвимостей безопасности, включая критическую уязвимость обхода аутентификации в своих маршрутизаторах с поддержкой AiCloud. Последняя представляет собой функцию удалённого доступа на основе облака, встроенную во многие маршрутизаторы Asus, которая превращает их в частные облачные серверы для удалённой потоковой передачи мультимедиа и облачного хранения данных.

 Источник изображения: Bleeping Computer

Источник изображения: Bleeping Computer

Как пояснил тайваньский производитель электроники, уязвимость CVE-2025-59366 «может быть вызвана непреднамеренным побочным эффектом функционала Samba, что потенциально может привести к выполнению определённых функций без надлежащей авторизации». Злоумышленники без прав доступа могут удалённо эксплуатировать брешь, объединяя метод обхода пути и уязвимость внедрения команд ОС в ходе атак, не требующих взаимодействия с пользователем.

«Для защиты ваших устройств Asus настоятельно рекомендует всем пользователям немедленно обновить прошивку своих маршрутизаторов до последней версии. Мы рекомендуем сделать это, как только новая прошивка станет доступной», — говорится в сообщении компании.

 Уязвимости и версии прошивок, которые их исправляют

Asus не уточнила, какие модели маршрутизаторов затронуты уязвимостью, а лишь упомянула версии прошивок, которые закрывают эту брешь. Компания также предложила меры по её снижению риска для пользователей устаревших моделей маршрутизаторов, которые не будут получать обновления прошивки.

Чтобы заблокировать потенциальные атаки без установки исправлений на маршрутизаторы, пользователям рекомендуется отключить все службы, доступные в настройках «Интернет» устройства, включая удалённый доступ из WAN, переадресацию портов, DDNS, VPN-сервер, DMZ, триггер портов и FTP, а также ограничить удалённый доступ к устройствам с программным обеспечением AiCloud, уязвимым к атакам CVE-2025-59366.

Asus также рекомендовала принять дополнительные меры безопасности для сокращения риска атаки путём установки надёжного пароля доступа к настройкам маршрутизатора и беспроводных сетей.

В апреле Asus исправила ещё одну критическую уязвимость обхода аутентификации (CVE-2025-2492), которая может быть активирована с помощью специально созданного запроса, нацеленного на маршрутизаторы с включённым AiCloud. Наряду с шестью другими уязвимостями безопасности, уязвимость CVE-2025-2492 была использована для взлома тысяч маршрутизаторов Asus WRT в ходе глобальной кампании под названием Operation WrtHug, нацеленной на устаревшие или вышедшие из эксплуатации устройства из Тайваня, а также из стран Юго-Восточной Азии, России, Центральной Европы и США.

Исследователи SecurityScorecard, зафиксировавшие атаки, полагают, что взломанные маршрутизаторы могут использоваться в качестве оперативных ретрансляторов (ORB) в китайских хакерских операциях, в качестве скрытых ретрансляторов для проксирования и сокрытия командно-административной инфраструктуры.

Роскомнадзор объявил о начале блокировки WhatsApp в России

Роскомнадзор обвинил мессенджер WhatsApp в нарушении российского законодательства и фактически анонсировал полную блокировку сервиса. РКН утверждает, что платформа отказывается выполнять требования ведомства, направленные на пресечение преступлений на территории России. Роскомнадзор сообщил о «поэтапном вводе ограничений», что должно позволить пользователям перейти на использование других мессенджеров.

 Источник изображения: Роскомнадзор

Источник изображения: Роскомнадзор

По словам представителя РКН, «WhatsApp продолжает нарушать российское законодательство. Мессенджер используется для организации и проведения террористических действий на территории страны, для вербовки их исполнителей, для мошеннических и иных преступлений против наших граждан».

Первые ограничения WhatsApp в виде блокировки голосовых и видеовызовов были введены в августе. Тогда же РКН сообщил, что ограничения будут продолжаться и посоветовал пользователям переходить на «национальные сервисы». В ответ на массовые жалобы жителей многих регионов России на сбои в работе Telegram и WhatsApp, Роскомнадзор заявил о «мерах по частичному ограничению работы иностранных мессенджеров».

В конце октября российским пользователям перестали поступать SMS и звонки для регистрации в Telegram и WhatsApp. Это ограничение потребовалось с целью «прекращения регистрации новых российских пользователей». Вчера жители Москвы сообщали о массовом сбое в работе WhatsApp, который может стать предвестником полной блокировки платформы.

 Источник изображения: freepik.com

Источник изображения: freepik.com

«Ограничения вводятся поэтапно, позволяя перейти пользователям на использование других мессенджеров, — заявил представитель Роскомнадзора. — В случае, если требования российского законодательства так и не будут выполнены мессенджером, он будет полностью заблокирован».

Член комитета Госдумы по информационной политике Антон Немкин назвал полную блокировку WhatsApp «лишь вопросом времени». Он подчеркнул наблюдаемую комитетом «тревожную динамику» возрастающего количества атак на российских пользователей с использованием платформы. По его данным, число таких атак по сравнению с предыдущим годом выросло в три с половиной раза.

«Давайте честно: когда сервис системно игнорирует наши правила, угрожает безопасности людей и продолжает работать на территории страны без малейшего уважения к её законам, то его блокировка — лишь вопрос времени»,— написал Антон Немкин в своём Telegram-канале.


window-new
Soft
Hard
Тренды 🔥
10 тысяч модов и 350 миллионов загрузок: Larian похвасталась новыми достижениями игроков Baldur’s Gate 3 6 ч.
Вызывающий привыкание роглайк Ball x Pit достиг миллиона проданных копий и в 2026 году получит новые шары 7 ч.
Соавтор Counter-Strike признался в любви к русской культуре и рассказал о «самом депрессивном» периоде за 25 лет карьеры 9 ч.
Apple резко снизила награды багхантерам — при этом рост вредоносов в macOS бьёт рекорды 9 ч.
Mortal Kombat 1, Routine и Dome Keeper возглавили первую волну декабрьских новинок Game Pass, а Mortal Kombat 11 скоро подписку покинет 10 ч.
Google закрыла 107 дыр в Android — две нулевого дня уже использовались в атаках 10 ч.
В YouTube появился Recap — пользователям расскажут, чем они занимались на платформе в течение года 10 ч.
ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов 10 ч.
Инструмент YouTube для защиты блогеров от дипфейков создал риск утечки их биометрии 11 ч.
В Microsoft Teams появились «иммерсивные встречи» в метавселенной с аватарами без ног 11 ч.