Сегодня 04 ноября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Apple отказалась от сканирования фото в iCloud с помощью системы CSAM Detection, предназначенной для защиты детей

Ещё в 2021 году компания Apple анонсировала ряд мер по обеспечению безопасности детей, включая сканирование фотографий в частных галереях iCloud Photos с помощью системы Child Sexual Abuse Material (CSAM) Detection, способной выявлять преступления в отношении детей. Тем не менее это вызвало резкую критику правозащитников, увидевших угрозу конфиденциальности в намерении тотального сканирования фотоконтента.

 Источник изображения: LinkedIn Sales Solutions/unsplash.com

Источник изображения: LinkedIn Sales Solutions/unsplash.com

После этого Apple сначала отложила использование системы на неопределённый срок, а теперь и вовсе объявила о том, что планы по внедрению системы распознавания CSAM-материалов отменяются. В тот же день компания анонсировала программу Advanced Data Protection, предусматривающую сквозное шифрование данных в iCloud. Новости подтвердила в интервью The Wall Street Journal и один из топ-менеджеров компании — Джоанна Стерн (Joanna Stern).

Когда CSAM Detection только анонсировалась, в Apple заявляли, что неприемлемый контент в iCloud Photos можно будет распознавать на устройствах самих пользователей.

Как сообщала в прошлом году «Лаборатория Касперского», «для этого используется технология NeuralHash, по сути, создающая цифровой идентификатор фотографии в зависимости от её содержимого. Если идентификатор совпадает с таковым в базе известных снимков с эксплуатацией детей, информация об этом отправляется на серверы Apple. Там проводится ещё одна проверка». Как заявляли представители «Касперского», ещё один элемент системы — криптографический протокол Private Set Intersection. Он шифрует результаты работы CSAM Detection так, чтобы расшифровать их на стороне Apple можно было бы только в случае выполнения ряда критериев. Теоретически это должно было предотвратить использование системы за пределами заданных ограничений.

Так или иначе, система CSAM Detection вызвала резкую критику со стороны пользователей, экспертов и правозащитников. Не в последнюю очередь потому, что система, используемая для поиска фото с преступлениями в отношении детей легко может быть перенастроена и для поиска любого другого контента. Не говоря уже о том, что неуязвимых для злоумышленников алгоритмов фактически нет, и создавать лишний «бэкдор» просто опасно.

Теперь Apple решила отказаться от данной практики, так и не введя её в действие. Впрочем, прочие меры по защите детей, включая ограничения в iMessage, по-прежнему действуют в iOS.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Baldur’s Gate 3, Stellar Blade, Star Wars Outlaws и многие другие: поддержку PS5 Pro на запуске получат более 50 игр 2 ч.
Соцсеть X обновила принцип блокировки пользователей — многим это не понравилось 3 ч.
Евросоюз проверит iPadOS на соответствие требованием антимонопольного законодательства 3 ч.
Windows 11 закрепилась как самая популярная ОС в Steam 5 ч.
«Смута» получила «знаковое» обновление 2.0.0 и крупнейшую скидку с релиза, а на iOS и Android вышла визуальная новелла «Смута: Зов сердца» 8 ч.
iOS 18.2 выйдет раньше — интеграция с ChatGPT и ИИ-генератор эмодзи Genmoji появятся на iPhone уже 2 декабря 8 ч.
Энтузиаст запустил классическую Doom на умном будильнике Alarmo от Nintendo 9 ч.
Project Borealis: Prologue обзавелась страницей в Steam — новые скриншоты демоверсии фанатской Half-Life 3 на Unreal Engine 5 10 ч.
Dragon Age: The Veilguard точно не получит DLC — BioWare «целиком» переключилась на новую Mass Effect 11 ч.
Аудитория кооперативного хоррора Phasmophobia превысила 20 млн игроков 03-11 15:56