Опрос
|
реклама
Быстрый переход
Европейцы получат урезанную iOS 26 из-за неутихающего противостояния Apple и ЕС
30.06.2025 [19:12],
Сергей Сурабекянц
Сегодня на семинаре с должностными лицами и разработчиками ЕС в Брюсселе вице-президент Apple по юридическим вопросам Кайл Андер (Kyle Andeer) сообщил, что компании «пришлось принять решение об отсрочке выпуска продуктов и функций, о которых мы объявили в этом месяце для наших клиентов в ЕС». Он объяснил это решение стремлением обезопасить пользователей, если экосистема Apple будет открыта для конкурентов. ![]() Евросоюз требует от Apple соблюдения «Закона о цифровых рынках» (Digital Markets Act, DMA), который призван ограничить рыночные преимущества так называемых технологических компаний — «привратников» (gatekeepers) путём открытия их платформ для сторонних разработчиков. По мнению чиновников Евросоюза, этот закон призван обеспечить конкуренцию и справедливость на цифровых рынках Европы. Apple категорически не согласна с реализацией DMA и утверждает, что это ухудшает качество её продуктов, подвергает пользователей рискам безопасности и конфиденциальности и усложняет развёртывание обновлений в ЕС. Андер утверждает, что изменения, которые пришлось внести Apple, чтобы привести свои продукты в соответствие с правилами, «создают реальные риски конфиденциальности, безопасности и сохранности для наших пользователей». Apple заявила, что все ещё решает, какие функции пока окажутся недоступными в Евросоюзе, и работает над поиском решений для их скорейшего предоставления. Известно, что такие инструменты, как «Посещённые места» в приложении «Карты», не будут доступны жителям ЕС в момент выхода iOS 26 в конце этого года. Чиновник Евросоюза, присутствовавший на встрече с Кайлос Андером, подтвердил, что регулятор и Apple расходятся во мнениях относительно сферы действия DMA и потенциальных рисков безопасности. Китайские электромобили станут безопаснее: власти ужесточат требования к защите батарей от возгораний и взрывов
30.06.2025 [11:42],
Алексей Разин
Как отмечает Nikkei Asian Review, на крупнейшем в мире рынке электромобилей, коим является Китай, с июля 2026 года вступят в силу новые требования к безопасности тяговых батарей. Они предполагают, что батарея должна гарантировать отсутствие взрыва или воспламенения на протяжении как минимум двух часов после проявления неисправности аккумуляторной ячейки. ![]() Источник изображения: CATL Новые правила вводятся впервые за пять лет, они помогут укрепить имидж китайской продукции данного типа за пределами КНР. Перегрев одной из аккумуляторных ячеек в результате неисправности может приводить к неуправляемой химической реакции с выделением тепла, поэтому регуляторы стремятся обеспечить как можно более безопасную эксплуатацию тяговой батареи и электромобиля в целом в подобной ситуации. В текущей редакции правил от производителя требуется выдать предупреждение об угрозе воспламенения за пять минут до его предполагаемого начала. На поставщиков батарей возлагается обязанность по проведению сертификационных испытаний. Сейчас батареи проверяются на устойчивость к нагреву внешней оболочки, а также на прокалывание, но после вступления в силу новых требований к ним добавится и тест на противодействие локальному нагреву изнутри, который может быть спровоцирован неисправностью одной или нескольких аккумуляторных ячеек. Лидирующая на этом рынке китайская компания CATL заявила, что новые требования к безопасности тяговых батарей уже учитывает при производстве своей продукции семейства Qilin. Конкурирующая BYD ещё в мае заявила, что выпускаемые ею батареи семейства Blade тоже соответствуют требованиям нового стандарта. Из числа автопроизводителей аналогичные заявления в отношении своей продукции сделали XPeng и Li Auto (Lixiang), а также совместное предприятие Dongfeng Nissan. Введение таких требований было предсказуемо, поэтому участники рынка успели подстроиться под них заблаговременно. По данным SNE Research, за пределами китайского рынка крупнейшие китайские поставщики тяговых батарей с начала этого года по апрель включительно контролировали сообща 38,7 % сегмента, тогда как корейские опередили их незначительно, заняв 39,7 %. Половина всех проданных за этот период легковых транспортных средств в Китае пришлась на подзаряжаемые гибриды и электромобили. Международные организации сейчас заняты выработкой единых для всех стран правил, касающихся безопасности тяговых батарей и машин на их основе. Переход на тяговые батареи с твердотельным электролитом помог бы устранить многие проблемы с их безопасностью, но даже с учётом усилий крупнейших компаний по их разработке, на рынке они начнут распространяться в значимых объёмах не ранее 2030 года. Ужесточение стандартов безопасности, тем не менее, потребует увеличения затрат на выпуск тяговых батарей, поэтому в том же Китае к 2027 году объёмы их производства могут сократиться на 30 %. На местном рынке разрешением на выпуск тяговых батарей обладают почти 20 компаний. В миллионах принтеров Brother обнаружены уязвимости безопасности — некоторые невозможно исправить
28.06.2025 [06:15],
Николай Хижняк
Исследователи по цифровой безопасности обнаружили, что многие модели принтеров компании Brother, использующиеся миллионами людей по всему миру, а также некоторые модели печатных устройств от других компаний подвержены нескольким критическим уязвимостям. ![]() Источник изображения: Bleeping Computer Согласно отчёту компании Rapid7 в сфере кибербезопасности, 689 моделей принтеров, сканеров и принтеров этикеток компании Brother, а также 46 печатных устройств Fujifilm, 6 компании Konica Minolta, 5 компании Ricoh и 2 марки Toshiba имеют восемь уязвимостей, часть из которых в принципе невозможно исправить. Серьёзность обнаруженных уязвимостей варьируется от умеренной (оценка CVSS 5,3) до критической (оценка CVSS 9,8). Самой опасной из них является уязвимость CVE-2024-51978, позволяющая злоумышленникам определить пароль администратора принтера по умолчанию. Brother использует слабые алгоритмы генерации паролей на основе серийных номеров устройств и статической таблицы. По данным BleepingComputer, злоумышленники могут использовать серийный номер принтера (можно получить через другие уязвимости) для генерации пароля по умолчанию и получения контроля над устройством. Это также позволит им атаковать другие устройства в сети. Другие уязвимости позволяют получить доступ к конфиденциальным данным принтера, вызвать сбой в его работе, установить несанкционированные сетевые подключения или раскрыть пароли подключённых устройств. Более подробную информацию можно найти в отчёте Rapid7. Компания Brother выпустила обновления прошивки для своих устройств, устраняющие только 7 из 8 обнаруженных уязвимостей. К сожалению, критическая уязвимость, связанная с получением доступа к паролю, не может быть исправлена программным обновлением, поскольку она связана с процессом производства принтеров, где пароль устанавливается по умолчанию. Brother планирует решить эту проблему в будущих моделях устройств, изменив процесс их производства. Для существующих устройств пользователи должны вручную изменить пароль администратора на своих устройствах со значения по умолчанию на более надёжный. Эксперты по цифровой безопасности советуют обновлять прошивки принтеров, устанавливать надёжный пароль администратора, использовать брандмауэр и помещать принтеры в отдельную сеть. Также, рекомендуется ограничить доступ к принтеру через порт 9100. В Android 16 появится детектор поддельных вышек сотовой связи
27.06.2025 [18:43],
Сергей Сурабекянц
Google добавит в Android 16 функцию «сетевого уведомления», которая предупредит владельца, если его смартфон подключается к поддельной или небезопасной мобильной сети. Пользователь также получит сообщение, если соединение не зашифровано или сеть запрашивает идентификаторы телефона — это поможет защититься от слежки. Из-за требований к оборудованию функция, скорее всего, будет доступна только на новых устройствах, таких как предстоящий Pixel 10. ![]() Источник изображения: unsplash.com Существует несколько простых правил, которые помогают сохранить персональные данные в безопасности: использование надёжных паролей, проверка разрешений приложений и установка их только из надёжных источников. Однако от некоторых видов атак защититься гораздо сложнее. Одна из таких атак заключается в том, что злоумышленники обманом подключают смартфон жертвы к поддельной мобильной сети. Подобную атаку крайне трудно обнаружить даже специалисту, не говоря уже об обычном пользователе. Устройство, используемое в таких атаках, известно под названием Stingray («скат»). Злоумышленник устанавливает его поблизости от потенциальной жертвы, после чего Stingray начинает имитировать реальную вышку сотовой связи. Если находящиеся рядом мобильные устройства подключаются к имитатору, злоумышленник получает уникальные идентификаторы смартфона (например, IMEI), а также детальную информацию о нём. Кроме того, Stingray может инициировать использование незашифрованного протокола связи, что позволяет перехватывать текстовые сообщения и телефонные звонки. Подобные устройства печально известны тем, что используются правоохранительными органами, однако их технология с лёгкостью копируется злоумышленниками. Хотя в ряде случаев применение Stingray оправдано необходимостью отслеживания преступников, потенциал для злоупотреблений значителен — такие устройства могут использоваться для скрытого сбора данных об обычных людях. Google последовательно работает над способами предупреждения пользователей или предотвращения отправки ими данных через небезопасные сотовые сети. В Android 12 компания добавила возможность отключения устаревшего протокола связи 2G на уровне модема. В Android 14 появилась поддержка отключения соединений, использующих нулевое шифрование. Android 15 добавил уведомления о запросе сетью уникальных идентификаторов устройства или попытке принудительно изменить алгоритм шифрования. К сожалению, из этих трёх функций сегодня реально доступна лишь возможность отключения 2G. Реализация остальных мер требует внесения изменений в драйвер модема смартфона. Например, для уведомления о запросе идентификаторов устройство должно поддерживать версию 3.0 уровня абстракции оборудования Android IRadio (HAL). Именно эти аппаратные требования являются причиной отсутствия большинства перечисленных функций на текущих моделях Pixel и других устройствах под управлением Android. Вероятно, по этой же причине Google отложила запуск отдельной страницы настроек «безопасности мобильной сети», которую она планировала для Android 15. Сотни торговцев персональными данными уличили в нарушении законов США
26.06.2025 [11:11],
Владимир Мироненко
Electronic Frontier Foundation (EFF) и некоммерческая группа по защите прав на конфиденциальность Privacy Rights Clearinghouse (PRC) обратились в правоохранительные органы ряда штатов США с требованием провести расследование, почему «сотни» брокеров данных не зарегистрировались в государственных агентствах по защите прав потребителей, что является нарушением местного законодательства, пишет The Verge. ![]() Источник изображения: Steve Johnson / unsplash.com Брокеры данных — это компании, которые торгуют личной информацией пользователей, включая их имена, адреса, номера телефонов, финансовые сведения и многое другое. Потребители не контролируют их деятельность, которая может быть сопряжена с нарушением конфиденциальности данных. В прошлом месяце компания LexisNexis Risk Solutions сообщила о утечке данных, касающихся более 364 тыс. человек. В штатах Калифорния, Техас, Орегон и Вермонт приняли законы, которые требуют от брокеров регистрироваться в регулирующих органах и агентствах по защите прав потребителей, а также предоставлять сведения о том, какие данные они собирают. В письмах EFF и PRC, направленных генеральным прокурорам штатов, сообщается, что многие брокеры данных не зарегистрировали свой бизнес во всех четырёх штатах. Количество брокеров данных, которые указаны в одном реестре, но их нет в другом, включает 524 в Техасе, 475 в Орегоне, 309 в Вермонте и 291 в Калифорнии. В EFF отметили, что некоторые из этих несоответствий можно объяснить различием в определении каждым штатом статуса брокера данных. Также брокеры могут работать не во всех штатах, хотя, как правило, они собирают данные по всей стране. Вместе с тем следует учитывать и то, что некоторые компании игнорируют законы штата, не регистрируясь ни в одном штате. EFF и PRC предлагают правоохранительным органам провести расследование случаев отсутствия регистрации, которые «могут указывать на систематическое несоблюдение» законодательства в каждом штате. В настоящее время брокеры могут продавать персональные данные пользователей, взятые из приложений и других веб-сервисов, без их ведома. В прошлом году Бюро по защите прав потребителей в сфере финансов (CFPB) США намеревалось ввести запрет на продажу брокерами номера социального страхования, но в министерстве финансов отказались от этих планов. Каждый продвинутый ИИ сам научился врать и манипулировать — даже рассуждая «вслух»
24.06.2025 [12:52],
Сергей Сурабекянц
Лидеры в области ИИ Anthropic, Google, OpenAI и xAI разработали методику под названием «цепочка мыслей» (chains of thought), которая позволяет пошагово следить за процессом рассуждений моделей ИИ во время генерации ответа на запрос. Кроме ряда ценных идей по дальнейшему совершенствованию нейросетей, эта методика продемонстрировала примеры «неправильного поведения» моделей, когда их окончательный ответ совершенно не соответствует последовательности рассуждений. Это подтверждает, что разработчики до сих пор не знают, как ИИ размышляет над ответом. ![]() Источник изображения: Immo Wegmann / unsplash.com Результаты исследования подкрепили опасения о возможном выходе из-под контроля продвинутых систем ИИ, которые становятся все более мощными и автономными. Даже ведущие мировые лаборатории ИИ порой не полностью осознают, как генеративные модели ИИ приходят к своим выводам. Anthropic недавно опубликовала результаты исследования поведения больших языковых моделей (LLM). В вымышленных тестовых сценариях все новые продвинутые LLM стремились обходить меры безопасности, прибегали к обману и шантажу, пытались украсть корпоративные секреты и даже были готовы устранить оператора при угрозе отключения. При помощи цепочки мыслей разработчики ИИ могут видеть весь «мыслительный процесс» LLM, что даёт им возможность в нужный момент вмешаться и дообучить модель для получения более качественных и адекватных ответов в будущем. «В нашей недавней работе мы обнаружили, что можно читать их [цепочки мыслей] и находить доказательства неправильного поведения модели и использовать это, чтобы увидеть, где и почему она ведёт себя неправильно», — заявил научный сотрудник OpenAI Боуэн Бейкер (Bowen Baker). «Одна из замечательных особенностей интерпретируемости цепочки мыслей заключается в том, что она не требует дополнительных затрат, — добавил он. — Мы обучали эти модели не для того, чтобы сделать их интерпретируемыми. Мы обучали их, потому что нам нужны были наилучшие возможные модели рассуждений, которые могли бы решать сложные задачи». Инженеры OpenAI также пришли к выводу, что анализ цепочки мыслей LLM более эффективен для обнаружения неправильного поведения, чем просто просмотр конечных результатов. Тем не менее, тесты компании показали, что при вмешательстве и корректировке цепочки мыслей модели, она может скрыть своё нежелательное поведение от пользователя, но всё равно продолжит действие — например, обман в тесте по программной инженерии путём извлечения информации из запрещённой базы данных. Дилемма для исследователей заключается в том, что цепочка мыслей полезна для выявления потенциальных недостатков систем ИИ, но пока не может считаться полностью заслуживающей доверия. Решение этой проблемы стало приоритетом для Anthropic, OpenAI и других лабораторий ИИ. Исследователи отмечают риск того, что «по мере оптимизации [цепочки мыслей] модель учится грамотно мыслить, но затем все равно будет вести себя плохо». Поэтому своей основной задачей они видят использование методики для анализа процесса рассуждения LLM и совершенствования самой модели, а не просто исправление выявленного «плохого поведения». Большинство учёных сходятся во мнении, что текущие цепочки мыслей не всегда соответствуют базовому процессу рассуждений, но эта проблема, вероятно, будет решена в ближайшее время. «Мы должны относиться к цепочке мыслей так же, как военные относятся к перехваченным радиосообщениям противника, — считает исследователь Сидни фон Аркс (Sydney von Arx). — Сообщение может быть вводящим в заблуждение или закодированным, но в конечном итоге мы знаем, что оно используется для передачи полезной информации, и мы, вероятно, сможем многому научиться, прочитав его». Всего за год отечественный спрос на специалистов по безопасности ИИ вырос в 4 раза
24.06.2025 [12:41],
Владимир Мироненко
В России число вакансий для специалистов по безопасности искусственного интеллекта увеличилось в первой половине 2025 года в четыре раза по сравнению с аналогичным периодом прошлого года — с 80 до 350. Также выросла медианная зарплата у таких специалистов — с 134 тыс. до 200 тыс. рублей, пишут «Ведомости» со ссылкой на совместное исследование рынка труда разработчика решений информационной безопасности (ИБ) Swordfish Security и рекрутингового портала hh.ru. ![]() Источник изображения: Igor Omilaev/unsplash.com Директор по исследованиям hh.ru Мария Игнатова рассказала, что почти половина вакансий размещается компаниями из IT-отрасли, ещё треть поступает от финансового сектора. В 47 % вакансий указано требование опыта работы от трёх до шести лет, в 32 % — от года до трёх лет, в 17 % — свыше шести лет, и лишь в 4 % опыт не требуется. По оценкам эксперта Swordfish Security Дарьи Фигуркиной, общая нехватка кадров по этой специальности составляет около 100 тыс. специалистов, что приводит к замедлению внедрения больших языковых моделей (LLM) в бизнесе. В то же время компании используют ИИ-модели, чтобы решить проблему общего дефицита кадров. Внедрение LLM в сервисах, например, в колл-центрах и сервисах поддержки, ведёт к снижению вакансий. Игнатова сообщила, что в I квартале 2025 года было открыто на 22 % меньше вакансий для операторов колл-центров – 77,3 тыс. против 99,2 тыс. годом ранее и на 14 % меньше вакансий для специалистов технической поддержки — 18,2 тыс. против 21,1 тыс. в I квартале прошлого года. Представитель «Авито работы» отметил, что рынок кадров в сфере безопасности ИИ только формируется, спрос растёт, но речь пока идёт о росте в 2–3 раза год к году, а не о массовой потребности. Такие специалисты, кроме трудоустройства, часто предлагают проектные услуги в сфере LLM-security с почасовой оплатой — для решения конкретных прикладных задач, а не на базе постоянной занятости, рассказал он. Фигуркина отмечает, что внедрение ИИ не решает проблему кадрового голода, так как на рынке сохраняется дефицит квалифицированных специалистов в сфере применения ИИ. Специалисты по безопасности ИИ обеспечивают защиту и надёжность ИИ-систем, предотвращают злоупотребление ими (например, подтасовку данных, генерацию вредоносного контента), говорит HR-директор IT-интегратора «Телеком биржа» Катерина Смирнова. Внедрение компанией ИИ-технологий без контроля со стороны таких специалистов может привести к утечке данных, что чревато репутационными потерями или даже серьёзными правовыми проблемами, сообщила она. По оценкам Смирновой, дефицит в категории специалистов по безопасности ИИ будет наблюдаться около пяти лет, пока вузы не начнут их выпускать в достаточном количестве. Роботакси Tesla за два дня работы привлекли внимание американских властей странными манёврами
24.06.2025 [11:56],
Алексей Разин
Взаимоотношения американского ведомства NHTSA, отвечающего за безопасность дорожного движения, с компанией Tesla нельзя назвать гладкими, а недавний запуск коммерческой эксплуатации парка беспилотных такси в Остине только добавил проблем. Регуляторы уже заинтересовались инцидентами с участием роботакси Tesla, которые попали в поле зрения блогеров и журналистов. ![]() Источник изображения: Tesla Как известно, с минувшего воскресенья Tesla вывела на дороги южной части техасского Остина парк из примерно десяти электромобилей Model Y, способных перевозить пассажиров без участия водителя, хотя страхующий автоматику сотрудник компании в каждом случае присутствует на переднем пассажирском сидении. Данное событие уже привлекло внимание множества блогеров и очевидцев, и в Сети стали появляться видеозаписи с демонстрацией аномального поведения беспилотных такси Tesla. В одном из случаев автоматически управляемая машина выехала на полосу встречного движения, в ряде случаев было зафиксировано движение по дороге с превышением допустимой на участке скорости, а ещё два инцидента выразились в резком торможении прототипов без видимой причины. Предварительный анализ ситуации позволил предположить, что так роботакси реагировали на припаркованные вдоль дороги полицейские машины. Ранее у программного обеспечения FSD выявлялись проблемы с идентификацией подобного типа транспортных средств, стоящих на проезжей части, поэтому специалистам Tesla наверняка пришлось внедрить алгоритмы, предусматривающие повышенную осторожность при движении по близости от полицейских и пожарных машин. Агентство Bloomberg сегодня подтвердило, что NHTSA заинтересовалось данными инцидентами, и запросила соответствующую информацию у Tesla. По сложившейся в США практике, это ведомство не занимается предварительной сертификацией отдельных новых технологий и систем, применяемых на транспорте внутри страны. Обязанность обеспечения безопасности дорожного движения ложится на автопроизводителей, которые сертифицируют транспортные средства в целом. Если расследование выявит, что поведение роботакси Tesla может служить источником опасности для участников дорожного движения, то NHTSA может вмешаться в процесс их эксплуатации. Компания Tesla согласилась поделиться с NHTSA подробностями о поведении своих роботакси, но попросила ведомство сохранить всю предоставленную информацию в секрете, поскольку её разглашение может обернуться для автопроизводителя существенными материальными потерями. Конгресс США запретил сотрудникам пользоваться высокорискованным WhatsApp
23.06.2025 [23:26],
Анжелла Марина
Палата представителей США запретила своим сотрудникам использовать мессенджер WhatsApp на служебных устройствах. Решение было принято после оценки рисков безопасности, проведённой специалистами по кибербезопасности, которые сочли приложение потенциальной угрозой. ![]() Источник изображения: Jainam Sheth / Unsplash Как стало известно порталу The Verge, главный административный офицер Палаты представителей (CAO) сообщил, что служба кибербезопасности сочла WhatsApp высокорискованным из-за недостаточной прозрачности в защите пользовательских данных, отсутствия шифрования хранимой информации и возможных уязвимостей, которые могут быть использованы злоумышленниками. Согласно отчёту, всем сотрудникам Конгресса запрещено скачивать и использовать любые версии WhatsApp (мобильные и десктопные) на устройствах, принадлежащих государственным структурам. В случае обнаружения установленного приложения сотрудники будут уведомлены и обязаны удалить его. Те, кто уже используют WhatsApp на рабочих устройствах, получат соответствующее напоминание от технической службы. ![]() Источник изображения: Grant Davies / Unsplash Представитель Meta✴ Энди Стоун (Andy Stone) раскритиковал это решение в своём посте в социальной сети X. Он отметил, что компания категорически не согласна с оценкой мессенджера со стороны CAO, подчеркнув, что все сообщения в WhatsApp по умолчанию защищены сквозным шифрованием, которое делает невозможным их прочтение кем-либо, включая саму Meta✴. По его словам, уровень безопасности WhatsApp выше, чем у большинства приложений, разрешённых к использованию администрацией Конгресса. Вместе с запретом на WhatsApp сотрудникам предложили перейти на другие приложения для обмена сообщениями, среди которых — Microsoft Teams, Signal, iMessage, FaceTime и сервис Wickr, принадлежащий Amazon. При этом официальный ответ от офиса CAO на запрос издания The Verge пока не поступил. Также отмечается, что WhatsApp — не единственный мессенджер, ограниченный к использованию в Палате представителей США. Ранее там был запрещён TikTok на государственных устройствах и введены ограничения на использование бесплатной версии искусственного интеллекта ChatGPT. Выяснилось, что Intel замедлила свои GPU на 20 % ради безопасности — в Linux уже придумали, как это исправить
23.06.2025 [21:23],
Сергей Сурабекянц
Компания Canonical, разработчик популярного дистрибутива Ubuntu, совместно с Intel планирует отключить ряд защитных механизмов в драйверах для графических решений Intel. Эти изменения коснутся исключительно GPU-вычислений, выполняемых через API OpenCL и Level Zero. По словам разработчиков, эти изменения позволят увеличить вычислительную производительность графической подсистемы примерно на 20 %. ![]() Хотя патчам безопасности Intel по части графики уделяется заметно меньше внимания, чем аналогичным механизмам на стороне центрального процессора, их влияние на производительность оказалось значительно выше, чем предполагалось ранее. По данным из баг-трекера Ubuntu Launchpad, на которые ссылается Phoronix, отключение защитных функций может дать пользователям прибавку до 20 % при работе с задачами, использующими вычисления на GPU. Такой прирост стал возможен за счёт использования опции компиляции NEO_DISABLE_MITIGATIONS, которая отключает встроенные в Intel Compute Runtime защитные механизмы, связанные, в частности, с уязвимостью Spectre. Canonical намерена активировать эту опцию по умолчанию в Ubuntu, начиная с версии 25.10. При этом уточняется, что это изменение коснётся исключительно пакетов Compute Runtime и никак не затронет защитные механизмы ядра Linux или других компонентов операционной системы. Представители Intel и Canonical уже согласовали данные изменения и подтвердили, что потенциальные риски от отключения этих мер безопасности минимальны. Intel даже распространяет свои собственные пакеты Compute Runtime для OpenCL и Level Zero на платформе GitHub уже без включённых защитных механизмов. Согласно официальной позиции обеих компаний, уязвимости типа Spectre для GPU уже достаточно хорошо нейтрализованы на уровне ядра Linux, поэтому повторное применение мер защиты на уровне Compute Runtime нецелесообразно и не даёт ощутимого повышения безопасности. Однако разработчики предупреждают, что теоретически отключение мер защиты может открыть ранее неизвестные векторы атак или выявить скрытые ошибки, которые до этого устранялись существующими мерами безопасности. Несмотря на это, обе компании считают, что риски оправданы заметным приростом производительности, особенно с учётом отсутствия реальных примеров эксплуатации подобных уязвимостей. В настоящее время разработчики Ubuntu активно тестируют изменения с использованием специального PPA-репозитория Launchpad, где уже представлены сборки с отключёнными защитными механизмами. Ожидается, что все изменения будут окончательно внедрены в релиз Ubuntu 25.10. Лунная пыль менее вредна, чем смог земных мегаполисов, выяснили учёные
23.06.2025 [20:12],
Сергей Сурабекянц
Новый эксперимент показал, что воздух на оживлённой улице мегаполиса более токсичен, чем лунная пыль. «Результаты подтверждают безопасность возвращения людей на Луну», — уверен почётный профессор естественных наук Технологического университета Сиднея Брайан Оливер (Brian Oliver). Тем не менее, вдыхание лунной пыли может вызвать то, что один из астронавтов миссии «Аполлон-17» назвал «лунной сенной лихорадкой». ![]() Источник изображения: NASA Опасения по поводу токсичности лунной пыли возникли во время миссии «Аполлон-17» при высадке астронавтов на лунную поверхность. Под воздействием статического электричества лунная пыль прилипла к скафандрам астронавтов и часть её попала в спускаемый модуль. Вдыхание пыли вызвало резь в глазах, кашель и боль в горле, которые исчезли в течение земных суток. Астронавт Харрисон Шмитт (Harrison Schmitt) сравнил появившиеся симптомы с аллергической реакцией, назвав их «лунной сенной лихорадкой». После возвращения миссии «Аполлон-17» подобные проблемы возникли у сотрудников, распаковывавших использованные скафандры, причём симптомы усиливались после каждого контакта с лунной пылью. Тем не менее, подобные разрозненные свидетельства не несут характера полноценного исследования. Эту недоработку решила исправить аспирант группы респираторных исследований Сиднейского технологического университета Микаэла Смит (Michaela Smith). Смит провела эксперименты с имитаторами лунной пыли, поскольку доступ к настоящим образцам крайне ограничен. Частицы размером меньше 2,5 микрон, достаточно малы, чтобы при вдыхании задержаться в нижних дыхательных путях. Для полноты эксперимента Смит вводила имитатор лунной пыли в два разных типа клеток — бронхиальные и альвеолярные, представляющие верхнюю и нижнюю части лёгких соответственно. Затем Смит провела тот же эксперимент, но с реальными частицами из пробы воздуха, взятой на оживлённой улице Сиднея, и сравнила воздействие лунной и земной пыли. Она обнаружила, что, хотя неровная форма и шероховатость частиц лунной пыли приводят к раздражению лёгких, её воздействие значительно меньше, чем у земного загрязнённого воздуха. Выводы Смит были опубликованы в журнале Life Sciences in Space Research. «Важно различать физический раздражитель и высокотоксичное вещество, — сказал Смит. — Наши результаты показывают, что, хотя лунная пыль может вызывать некоторое немедленное раздражение дыхательных путей, она, по-видимому, не представляет риска возникновения хронических, долгосрочных заболеваний, таких как силикоз, который вызывается материалами типа кремниевой пыли». Исследование Микаэлы Смит может помочь NASA в планировании лунной миссии «Артемида 3», в ходе которой планируется первая с 1972 года высадка людей на поверхность Луны. Ранее агентство рассматривало возможность закрепления скафандров снаружи лунного посадочного модуля и вход-выход из них через специальный шлюз, что исключает попадание лунной пыли внутрь модуля. Благодаря работе Смит проблема лунной пыли, возможно, уже не так серьёзна, как предполагалось. ![]() Источник изображения: Axiom Space Как избежать оборотных штрафов по 152-ФЗ и не сломать маркетинг: объясняют эксперты рынка, регуляторы и юристы
23.06.2025 [10:00],
Сергей Карасёв
30 июня в 12:00 компания Sendsay проведёт бесплатный вебинар с участием регулятора, профильного юриста и эксперта по работе с персональными данными. Мероприятие ответит на самый острый вопрос бизнеса: как избежать оборотных штрафов по 152-ФЗ и не сломать маркетинг. Модератор мероприятия — руководитель отдела телекоммуникаций лидирующего федерального СМИ. С 30 мая 2025 года в России вступили в силу самые масштабные изменения в законе о персональных данных (152-ФЗ). Теперь любые компании, ИП и даже физлица, обрабатывающие персональные данные, обязаны уведомить Роскомнадзор и пересмотреть внутренние процессы работы с ПД — обновить документы, формы, проверить маркетинговые активности. За нарушения предусмотрены оборотные штрафы, а реальные проверки и наказания начнутся с 30 июня. При этом большинство представителей бизнеса не до конца понимают, что именно изменилось и как теперь работать с клиентскими базами без риска. Поэтому Sendsay, как сооснователь Ассоциации компаний по защите и хранению персональных данных, собрала свою экспертизу и пригласила на неформальный диалог основного регулятора этого закона — Роскомнадзор, а также профильного юриста по 152-ФЗ, чтобы доступным языком ответить представителям бизнеса, как действовать в новых условиях. Тема вебинара: «Как избежать оборотных штрафов по 152-ФЗ и не сломать маркетинг: объясняют эксперты рынка, регуляторы и юристы». Эксперты обсудят:
Спикеры:
Модератор:
Вебинар пройдёт онлайн, 30 июня 2025 года в 12:00. У всех зарегистрировавшихся участников будет возможность задать свои вопросы. Ссылку на трансляцию пришлём на почту после регистрации на сайте вебинара: https://webinar.sendsay.ru/ Запись вебинара будет доступна всем зарегистрировавшимся. Если у вас остались вопросы, можете их задать по почте pr@sendsay.ru или телефону +79299872044 (Елена Петрякова, PR-директор CDP Sendsay) Генеральный партнер мероприятия: РАЭК Для достижения своих целей продвинутые модели ИИ будут хитрить, обманывать и воровать
21.06.2025 [08:54],
Сергей Сурабекянц
Anthropic опубликовала результаты своего исследования поведения больших языковых моделей (LLM). Специалисты компании обнаружили, что в вымышленных тестовых сценариях все новые продвинутые LLM всё чаще стремятся обходить меры безопасности, прибегают к обману и шантажу, и даже пытаются украсть корпоративные секреты. Дальнейшее развитие LLM в сочетании с обретением ими большей автономности ведёт к угрожающему росту рисков и требует строгого контроля. ![]() Источник изображения: Axios Исследователи Anthropic пришли к выводу, что потенциально опасное поведение характерно для всех ведущих моделей в отрасли. «Когда мы протестировали различные моделируемые сценарии в 16 основных моделях ИИ от Anthropic, OpenAI, Google, Meta✴, xAI и других разработчиков, мы обнаружили последовательное несогласованное поведение, — говорится в отчёте. — Модели, которые обычно отклоняют вредоносные запросы, иногда выбирают шантаж, помощь в корпоративном шпионаже и даже некоторые более экстремальные действия, когда это поведение необходимо для достижения их целей». Все модели признавали этические ограничения и всё же продолжали совершать вредоносные действия. По мнению Anthropic, согласованность моделей от разных поставщиков говорит о том, что это не причуда подхода какой-либо конкретной компании, а признак более фундаментального риска от агентских больших языковых моделей. Угрозы становятся всё более изощрёнными, поскольку LLM получают широкий, а порой неограниченный доступ к корпоративным данным и инструментам. Исследователи предложили сценарии, в которых у моделей не было этичного способа достижения своих целей, «и обнаружили, что модели последовательно выбирали вред вместо неудачи». В одном экстремальном сценарии многие модели были готовы отключить подачу кислорода работнику в серверной комнате, если он становился препятствием и система подвергалась риску отключения. Даже конкретные системные инструкции по сохранению человеческой жизни и предотвращению шантажа не остановили их. ![]() Источник изображения: unsplash.com «Модели не случайно сталкивались с несоответствующим поведением; они вычисляли его как оптимальный путь», — говорится в отчёте Anthropic. Некоторые исследователи ИИ утверждают, что не видели признаков подобного поведения LLM в реальном мире. Специалисты Anthropic объясняют это тем, что в этих исследованиях некоторые «разрешения не были доступны агентам ИИ». Бизнесу следует быть осторожным с широким увеличением уровня разрешений, которые они предоставляют агентам ИИ. Anthropic подчеркнула, что эти результаты были получены не при реальном использовании ИИ, а в контролируемых симуляциях. «Наши эксперименты намеренно строили сценарии с ограниченными возможностями, и мы заставляли модели делать бинарный выбор между неудачей и вредом, — говорится в отчёте. — Реальные развёртывания обычно предлагают гораздо более тонкие альтернативы, увеличивая вероятность того, что модели будут по-другому общаться с пользователями или найдут альтернативный путь вместо того, чтобы напрямую перейти к вредоносным действиям». Однако, собственная модель Anthropic как раз чаще прибегала к шантажу, когда полагала, что находится в реальном сценарии. Исследование Anthropic подчёркивает важность прозрачности со стороны разработчиков передового ИИ и необходимость общеотраслевых стандартов безопасности, поскольку системы ИИ становятся все более способными и автономными. OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие
20.06.2025 [20:40],
Сергей Сурабекянц
OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности. ![]() Источник изображений: unsplash.com OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие. «Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях. Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального». OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей. ![]() В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ. Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных. Крупнейшая утечка паролей в истории: скомпрометированы 16 млрд аккаунтов Apple, Google, Facebook✴ и других
19.06.2025 [17:19],
Владимир Фетисов
На этой неделе исследователи обнаружили, вероятно, крупнейшую утечку данных пользователей за всю историю. По данным источника, проблема затрагивает примерно 16 млрд учётных записей пользователей сервисов Apple, Facebook✴, Google и других компаний. ![]() Источник изображения: FlyD / Unsplash Утечка паролей — это серьёзный инцидент, поскольку она приводит к компрометации учётных записей и позволяет злоумышленникам использовать эту информацию для разного рода мошеннических действий. Именно поэтому Google рекомендовала миллиардам своих клиентов перестать пользоваться обычными паролями и перейти на более безопасные ключи доступа. Украденные учётные данные в больших количествах продают в даркнете и приобрести их может любой желающий за небольшие деньги. По данным Вилиуса Петкаускаса (Vilius Petkauskas) из Cybernews, «было обнаружено 30 открытых наборов данных, содержащих от десятков миллионов до более чем 3,5 млрд записей». Он подтвердил, что общее количество скомпрометированных данных достигло 16 млрд записей. Всё это указывает на то, что исследователи обнаружили крупнейшую в историю утечку пользовательских данных. В сообщении сказано, что 16 млрд записей содержатся в нескольких сверхмассивных наборах данных. Они включают в себя миллиарды записей для авторизации в социальных сетях, VPN-сервисах, на различных порталах и в сервисах крупнейших технологических компаний. Отмечается, что ранее ни об одном из этих наборов данных не сообщалось публично как об утечке информации. «Это не просто утечка информации — это план массового использования», — говорят исследователи. Они действительно правы, поскольку эти учетные данные являются основой для проведения крупных фишинговых кампаний и кражи чужих аккаунтов. «Это свежая информация, которую можно использовать в качестве оружия в больших масштабах», — подчеркивают исследователи. Большая часть информации в упомянутых наборах данных структурирована таким образом, что после ссылки на ресурс указаны логин и пароль для авторизации в нём. По данным исследователей, эта база открывает доступ к «практически любому онлайн-сервису», который только можно вспомнить, начиная от сервисов Apple и Facebook✴, заканчивая аккаунтами Google, GitHub, Telegram, а также разных госслужб. Даррен Гуччионе (Darren Guccione), гендиректор и соучредитель Keeper Security, отметил, что данная утечка указывает на то, «насколько легко конфиденциальные данные могут быть непреднамеренно раскрыты в интернете». Однако он может быть неправ, поскольку происхождение этих данных неизвестно. «Факт того, что учётные данные, о которых идёт речь, имеют большое значение для широко используемых сервисов, имеет далеко идущие последствия», — уверен Гуччионе. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |