Сегодня 14 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Apple отказалась от сканирования фото в iCloud с помощью системы CSAM Detection, предназначенной для защиты детей

Ещё в 2021 году компания Apple анонсировала ряд мер по обеспечению безопасности детей, включая сканирование фотографий в частных галереях iCloud Photos с помощью системы Child Sexual Abuse Material (CSAM) Detection, способной выявлять преступления в отношении детей. Тем не менее это вызвало резкую критику правозащитников, увидевших угрозу конфиденциальности в намерении тотального сканирования фотоконтента.

 Источник изображения: LinkedIn Sales Solutions/unsplash.com

Источник изображения: LinkedIn Sales Solutions/unsplash.com

После этого Apple сначала отложила использование системы на неопределённый срок, а теперь и вовсе объявила о том, что планы по внедрению системы распознавания CSAM-материалов отменяются. В тот же день компания анонсировала программу Advanced Data Protection, предусматривающую сквозное шифрование данных в iCloud. Новости подтвердила в интервью The Wall Street Journal и один из топ-менеджеров компании — Джоанна Стерн (Joanna Stern).

Когда CSAM Detection только анонсировалась, в Apple заявляли, что неприемлемый контент в iCloud Photos можно будет распознавать на устройствах самих пользователей.

Как сообщала в прошлом году «Лаборатория Касперского», «для этого используется технология NeuralHash, по сути, создающая цифровой идентификатор фотографии в зависимости от её содержимого. Если идентификатор совпадает с таковым в базе известных снимков с эксплуатацией детей, информация об этом отправляется на серверы Apple. Там проводится ещё одна проверка». Как заявляли представители «Касперского», ещё один элемент системы — криптографический протокол Private Set Intersection. Он шифрует результаты работы CSAM Detection так, чтобы расшифровать их на стороне Apple можно было бы только в случае выполнения ряда критериев. Теоретически это должно было предотвратить использование системы за пределами заданных ограничений.

Так или иначе, система CSAM Detection вызвала резкую критику со стороны пользователей, экспертов и правозащитников. Не в последнюю очередь потому, что система, используемая для поиска фото с преступлениями в отношении детей легко может быть перенастроена и для поиска любого другого контента. Не говоря уже о том, что неуязвимых для злоумышленников алгоритмов фактически нет, и создавать лишний «бэкдор» просто опасно.

Теперь Apple решила отказаться от данной практики, так и не введя её в действие. Впрочем, прочие меры по защите детей, включая ограничения в iMessage, по-прежнему действуют в iOS.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Для Samsung нежелание рисковать становится главной угрозой в борьбе с конкурентами 2 ч.
Японская Rapidus открыла центр разработок в Калифорнии, чтобы привлекать клиентов в США 4 ч.
SSD-чемодан ёмкостью 368 Тбайт — Western Digital выпустила мобильное All-Flash хранилище Ultrastar Transporter 10 ч.
По суху аки по морю: Ирак и Кувейт намерены проложить интернет-магистраль между Европой и странами Персидского залива 11 ч.
«Ростех» начал поставки серверов и обновлённого интерконнекта «Ангара» для отечественных суперкомпьютеров 12 ч.
Samsung начнёт выпускать 290-слойные чипы 3D NAND уже в этом месяце, а 430-слойные — в следующем году 14 ч.
В Китае перестали ремонтировать по гарантии GeForce RTX 4090 из-за санкций 14 ч.
Илон Маск рассказал, что Starship вырастет до 150 метров 19 ч.
Физики обосновали существование тёмной материи повышенной плотности 19 ч.
В Китае создали водомёт с ИИ — он поможет в решении территориальных споров с соседями 21 ч.