Сегодня 27 июля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → конфиденциальность
Быстрый переход

Нейросеть Gemini уличили в сканировании PDF-файлов пользователей Google «Диска»

Стремительное развитие нейросетей давно вызывает опасения экспертов по поводу обеспечения конфиденциальности при взаимодействии с такими алгоритмами. На этой неделе появилось очередное подтверждение того, что эти опасение не напрасны. Пользователь соцсети X Кевин Бэнкстер (Kevin Bankster) обратил внимание на то, что нейросеть Gemini компании Google автоматически сканирует хранящиеся в Google Диске PDF-файлы, не получив на это явного согласия пользователя.

 Источник изображения: Google

Источник изображения: Google

«Только что открыл свою налоговую декларацию в Google Документах и Gemini без разрешения резюмировал её. Итак… Gemini автоматически сканирует даже личные документы, которые я открывают в Google Документах? <…> Я не просил об этом. Теперь мне нужно найти новые настройки, о которых мне никогда не сообщалось, чтобы отключить это», — написал Бэнкстер в своём аккаунте в сети X.

Что именно стало причиной такого поведения Gemini пока не ясно. По мнению самого алгоритма, настройки конфиденциальности, используемые для информирования Gemini, должны быть открыто доступны, но это не так. Это может означать, что, либо алгоритм выдаёт ложную информацию, либо некоторые внутренние системы Google явно функционируют некорректно. В любом случае, это выглядит не очень хорошо, даже если предположить, что нейросеть не использует личные данные пользователей для обучения.

Что касается Бэнкстера, то спустя некоторое время он написал, что смог найти в настройках опцию, активация которой позволяет Gemini сканировать документы в Gmail, Google Документах и Google Диске. При этом он отметил, что опция была отключена, но алгоритм по каким-то причинам всё равно просканировал документ и создал обобщённый текст на его основе. Бэнкстер считает, что проблема может быть связана с тем, что он зарегистрировался в Google Workspace Labs в 2023 году, из-за чего настройки Gemini могли примениться некорректно.

Игроки War Thunder снова опубликовали секретные военные документы — теперь связанные с российскими танками

Несмотря на все усилия разработчиков, члены сообщества War Thunder продолжают копаться в секретных документах и время от времени публиковать их с целью доказать свою правоту. На этот раз в Сети появилась документация, касающаяся российских танков T-90M, T-80БBM и T-90C. Все три машины стоят на вооружении армии РФ, а их цифровые копии присутствуют в War Thunder.

 Источник изображения: Gaijin Entertainment

Источник изображения: Gaijin Entertainment

Согласно имеющимся данным, в начале этой недели на форуме War Thunder появились руководства по эксплуатации упомянутых танков. Эти документы являются секретными и не предназначены для публичного распространения, несмотря на то, что в них содержится лишь поверхностная информация о боевых машинах. Комьюнити-менеджеры форума War Thunder удалили все сообщения, в которых содержались эти документы, хотя сами файлы продолжают циркулировать в глобальной сети.

Это лишь одна из трёх подобных утечек за последнюю неделю, хотя и не все они напрямую связаны с War Thunder. Сначала на форуме игры появились документы, касающиеся британских танков Challenger. Позднее стало известно, что эта информация находится в открытом доступе в Национальном архиве Великобритании. За несколько дней до этого пользователи Telegram из Китая опубликовали секретные документы, касающиеся истребителей F-15 и F-35. После этого часть документов появилась на официальных форумах War Thunder.

Сообщество War Thunder привлекает много внимания, поскольку разработчики игры уделяют большое внимание реализму и точному изображению реально существующего оружия, танков, кораблей и самолётов. На форумах игры более десяти раз всплывали секретные военные документы, что вынудило разработчиков усилить модерацию в игре и официальных форумах. С тех пор число подобных случаев сократилось, а нарушения быстро пресекаются, но полностью решить проблему так и не удалось.

Zotac случайно опубликовала личные данные клиентов

Zotac случайно «слила» в Сеть личные данные множества своих клиентов из-за ошибки в управлении файлами системы возврата некачественных или неисправных изделий производителю для ремонта или обмена (RMA). Компания загрузила данные на веб-сервер Google в результате чего они стали общедоступными.

 Источник изображения: tweaktown.com

Источник изображения: tweaktown.com

Одним из первых на проблему обратил внимание автор YouTube-канала GamersNexus. Он сообщил, что после появления файлов RMA на веб-сервере Google любой желающий мог получить к ним доступ, сделав запрос «Zotac RMA» или похожий на него. В настоящее время файлы RMA не отображаются в поиске Google, но в распоряжении блогера осталось несколько изображений, показывающих, что в общий доступ попала разная конфиденциальная информация, включая счета бизнес-партнёров Zotac, а также специальные запросы RMA и другие личные данные.

Один из подписчиков GamersNexus сообщил, что смог найти в результатах поиска Google свой файл RMA. В нём содержалась информация о клиенте, суммы счетов и многое другое. В настоящее время Zotac пытается решить проблему, сотрудничая в этом вопросе со своими партнёрами. Вместе с этим компания просит клиентов отправлять личные документы по электронной почте на определённый адрес.

YouTube будет удалять синтетический контент с имитацией лиц и голосов пользователей по их запросу

YouTube, вслед за Meta, внедрил политику по борьбе с контентом, созданным с помощью искусственного интеллекта (ИИ). Отныне пользователи платформы могут требовать удаления материалов, в которых ИИ или другие синтетические технологии имитируют их лицо или голос. Эта мера стала частью масштабной стратегии компании по ответственному применению ИИ, однако процесс удаления подобных материалов не будет автоматическим.

 Источник изображения: DavidGallie / Pixabay

Источник изображения: DavidGallie / Pixabay

1 июня 2023 года видеогигант без лишнего шума ввёл кардинальные изменения в свою политику. Теперь у пользователей появился мощный инструмент защиты своей конфиденциальности — возможность запросить удаление контента, в котором ИИ или иные синтетические технологии имитируют их лицо или голос. Это не просто косметическое обновление политики компании, а серьёзное расширение инициативы по ответственному использованию ИИ, анонсированной ещё в ноябре 2022 года.

Интересно отметить, что YouTube предпочитает рассматривать подобные запросы пользователей не как жалобы на дезинформацию (например, в случае с дипфейками), а как нарушение их конфиденциальности. Согласно обновлённой справочной документации, право инициировать удаление контента получает, как правило, только сам пострадавший. Но YouTube — не бездушная машина, поэтому предусмотрены исключения для несовершеннолетних, людей без доступа к компьютеру, умерших и ряда других особых случаев.

Однако не стоит думать, что достаточно лишь пожаловаться на контент, и он моментально исчезнет. YouTube, подобно мудрому судье, оставляет за собой право взвесить все за и против. Компания рассматривает целый ряд факторов: является ли контент синтетическим или созданным с помощью ИИ, идентифицирует ли он человека и может ли он считаться пародией, сатирой или чем-то ещё, имеющим ценность и отвечающим общественным интересам.

Компания также будет оценивать, показывает ли сгенерированный ИИ материал известную личность в компрометирующих ситуациях, например, занимающейся преступной деятельностью, проявляющей насилие или неправомерно поддерживающей какого-либо политического кандидата. Последний пункт особенно актуален в преддверии ноябрьских выборов в США. Каждый случай является уникальным пазлом, который YouTube предстоит собрать, прежде чем вынести окончательный вердикт.

YouTube даёт пользователям, загрузившим спорный контент, 48 часов на его удаление. Если в течение этого времени пользователь сам удаляет материал, жалоба закрывается. В противном случае YouTube начинает собственную проверку. Компания также предупреждает пользователей, что удаление означает полное удаление видео с платформы и, в случае необходимости, удаление имени и личной информации человека из названия, описания и тегов видео. Пользователи также могут размывать лица людей в своих видео, но они не могут просто сделать видео приватным, чтобы выполнить требование, так как видео может быть возвращено в публичный доступ в любое время.

Не стоит, однако, думать, что YouTube превратился в ярого противника ИИ. Напротив, компания сама активно экспериментирует с генеративным ИИ, разрабатывая системы для суммирования комментариев (представьте, что тысячи мнений конденсируются в несколько ёмких фраз) и диалоговые системы для взаимодействия с видеоконтентом (своего рода цифровой собеседник, готовый обсудить любой ролик). Однако YouTube подчёркивает, что простая маркировка контента как созданного с помощью ИИ не защищает его от удаления, и он всё равно должен соответствовать общим правилам сообщества.

Важно отметить, что YouTube не будет автоматически наказывать создателей контента за нарушения конфиденциальности. На форуме YouTube Community представитель компании пояснил, что жалобы на нарушение конфиденциальности рассматриваются отдельно от нарушений правил сообщества и не приводят к автоматическим ограничениям для канала, нарушившего правила.

Другими словами, Руководство по конфиденциальности YouTube отличается от Правил сообщества, и некоторый контент может быть удалён с YouTube в результате запроса о защите конфиденциальности, даже если он не нарушает Правила сообщества. Хотя компания не будет применять штрафные санкции, такие как ограничение на загрузку новых видео, после удаления спорного видео, YouTube оставляет за собой право принимать меры против аккаунтов с повторяющимися нарушениями.

Apple пообещала, что её ИИ обеспечит «прозрачную и проверяемую защиту любых пользовательских данных»

Apple заверила клиентов, что их данные, переданные на облако через систему искусственного интеллекта Apple Intelligence, «никогда не сохраняются и не становятся доступными для Apple», а открытый серверный код позволяет экспертам «проверить это обещание конфиденциальности». Компания утверждает, что ИИ-система Apple Intelligence, которую она интегрирует в свои продукты, будет использовать «частные облачные вычисления на серверах, специально созданных на базе процессоров Apple».

Поскольку большинство крупных языковых моделей запускаются на удалённых облачных серверных фермах, пользователи неохотно делятся персональными данными с компаниями, занимающимися ИИ. В своём сегодняшнем выступлении на WWDC компания Apple подчеркнула, что новая система Apple Intelligence, которую она интегрирует в свои продукты, будет использовать новые «частные облачные вычисления», чтобы обеспечить прозрачную и проверяемую защиту любых данных, обрабатываемых на её облачных серверах.

«Вам не придётся передавать все детали своей жизни для хранения и анализа в чьём-то облаке ИИ», — заявил старший вице-президент Apple по разработке программного обеспечения Крейг Федериги (Craig Federighi). Он сообщил, что многие модели генеративного ИИ Apple могут полностью локально работать на устройствах на базе чипов серии A17+ или M, что исключает риск отправки личных данных на удалённый сервер.

 Источник изображения: Apple

По словам Федериги, если для выполнения запроса пользователя потребуется более крупная облачная модель, она «будет работать на серверах, которые мы создали специально с использованием процессоров Apple», что позволяет использовать инструменты безопасности, встроенные в язык программирования Swift. Федериги утверждает, что система Apple Intelligence «отправляет на серверы только те данные, которые необходимы для выполнения вашей задачи», а не предоставляет полный доступ ко всей контекстной информации на устройстве.

Федериги подчеркнул, что даже этот минимизированный набор данных не будет сохраняться для будущего доступа или использоваться для дальнейшего обучения серверных моделей Apple. Не менее важно, что серверный код, используемый Apple, будет открытым и независимые эксперты смогут проверить его на конфиденциальность пользовательских данных. Вся система защищена сквозным шифрованием, так что устройства Apple «откажутся взаимодействовать с сервером, если их программное обеспечение не будет публично зарегистрировано для проверки».

Хотя в программной речи Федериги приводится немного технических подробностей, акцент на конфиденциальности показывает, что Apple, по крайней мере на словах, уделяет приоритетное внимание проблемам безопасности в сфере генеративного ИИ. Свою политику в отношении персональных данных Apple называет «совершенно новым стандартом конфиденциальности и искусственного интеллекта». Осталось дождаться заключения независимых экспертов по безопасности.

iOS 18 позволит защищать приложения с помощью Face ID

По сообщениям сетевых источников, в iOS 18, запуск которой должен состояться позднее в этом году, появится поддержка блокировки отдельных предустановленных приложений с помощью Face ID. За счёт этого Apple повысит уровень конфиденциальности и безопасности на своих смартфонах.

 Источник изображения: macrumors.com

Источник изображения: macrumors.com

В сообщении сказано, что функция блокировки приложений с помощью Face ID будет поддерживаться в разных приложениях, таких как «Почта», «Сообщения», «Заметки», «Телефон», «Фотографии», «Настройки», Safari и др. Чтобы снять блокировку с одно из заблокированных ранее приложений пользователю потребуется пройти аутентификацию с помощью Face ID. Также не исключено, что будет реализована возможность блокировки отдельных приложений с помощью Touch ID или PIN-кода. Будет ли эта функция работать с приложениями сторонних разработчиков, на данный момент неизвестно.

В настоящее время пользователи iPhone уже могут блокировать доступ к некоторому контенту с помощью Face ID, Touch ID или пароля. К примеру, таким образом можно закрыть доступ к заметкам в приложении «Заметки» или фотографиям в папках «Недавно удаленные» и «Скрытые» в приложении «Фотографии». Новая функция предоставит больше возможностей в плане обеспечения конфиденциальности, поскольку пользователи смогут блокировать доступ к приложениям, даже если сам смартфон разблокирован.

Apple анонсирует iOS 18 в рамках своего выступления на выставке WWDC уже завтра. Вероятно, первая бета-версия программной платформы станет доступна разработчикам вскоре после анонса. Стабильная версия ОС начнёт распространяться осенью, когда компания выпустит новые iPhone.

Adobe разъяснила, что не собирается посягать на пользовательский контент и обучать на нём ИИ

На этой неделе Adobe вызвала недовольство клиентов, навязав им обновлённые условия обслуживания. Документ принуждает пользователей согласиться на предоставление компании доступа к своему контенту в облачном хранилище. Adobe отреагировала на недовольство общественности, заверив, что изменения незначительны, и присваивать материалы пользователей она не собирается.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Всплывающее окно с новыми условиями обслуживания начало демонстрироваться пользователям на этой неделе, и просто закрыть его невозможно. Прежде чем начать работу с Photoshop и другими приложениями, необходимо согласиться с условиями — без этого нельзя даже удалить программу. Формулировки документа обеспокоили клиентов Adobe, многие из которых работают с софтом компании профессионально, редактируя контент, принадлежащий иным лицам, а иногда и защищённый соглашениями о неразглашении.

Adobe пояснила нововведение в публикации корпоративного блога. В разделе «Доступ к Вашему контенту» были изменены несколько слов: компания отметила, что «может» получить доступ к пользовательскому контенту с помощью «автоматизированных или ручных методов». Соответствующая формулировка, как оказалось, действует уже несколько месяцев, и значительная её часть не изменилась — компания, как и прежде, не собирается обучать на пользовательском контенте свою модель генеративного искусственного интеллекта Firefly.

Формулировка о доступе к контенту понадобилась в первую очередь потому, что с облаком должны взаимодействовать некоторые функции графического редактора, в том числе Neural Filters, Liquid Mode и Remove Background. Кроме того, созданный пользователем контент, который хранится в облачных ресурсах, может подвергнуться проверке на предмет незаконных материалов.

Тем же, кто беспокоится за свою конфиденциальность, рекомендуется отказаться от передачи материалов из облака для программ исследования и разработки Adobe. Соответствующая опция выключается в настройках учётной записи.

Google регулярно нарушает приватность пользователей и в компании об этом знают

Из утекшего внутреннего отчёта Google стало известно, что компания в течение нескольких лет допускала нарушения конфиденциальности пользователей и утечку их личных данных — некоторые из эпизодов можно считать вопиющими. Google случайно собрала голосовые данные детей, раскрыла информацию о поездках и домашних адресах пользователей, а YouTube рекомендовал видео на основе контента, который пользователи давно удалили из истории просмотров.

 Источник изображения: Kai Wenzel/Unsplash

Источник изображения: Kai Wenzel/Unsplash

Как сообщает ресурс 404 Media, каждый из инцидентов мог затронуть лишь относительно небольшое количество людей либо был быстро устранен. Согласно внутреннему отчету Google, утечка конфиденциальных данных пользователей происходила в компании на протяжении многих лет. В базе данных, охватывающей период с 2013 по 2018 год, зафиксированы тысячи инцидентов, связанных с проблемами конфиденциальности и безопасности.

Один из наиболее серьёзных случаев произошёл в 2016 году, когда выяснилось, что система Google Street View распознавала и сохраняла номера автомобилей в виде фотографий. Это произошло случайно из-за ошибки в работе алгоритма распознавания текста. В результате в базе данных Google оказалась информация о геолокации и номерах многих автомобилей. Эти данные впоследствии были удалены.

Другой инцидент касался обнародованных личных данных более 1 млн пользователей приобретенного Google сервиса Socratic. В открытом доступе оказались email-адреса, данные геолокации и IP-адреса, в том числе детей. Информация была доступна более года и могла быть собрана злоумышленниками.

Отдельно отмечен случай, когда голосовой помощник Google около часа записывал все аудиоданные, включая голоса детей. Было собрано порядка 1000 фрагментов с детской речью. Эти данные впоследствии также удалили.

Зафиксированы и другие крупные инциденты, например, уязвимость в сервисе по поиску попутчиков Waze Carpool привела к раскрытию личной информации о поездках и домашних адресах пользователей. Также имел место несанкционированный доступ сотрудника Google к закрытым видео Nintendo в YouTube-аккаунте с последующей утечкой данных.

Помимо этого, в отчёт попали инциденты и меньшего масштаба, например, ошибочная рассылка писем с персональными данными и открытый на какое-то время доступ к закрытым видео на YouTube.

Хотя во многих случаях проблемы оперативно устранялись, общий масштаб инцидентов, связанных с пользовательскими данными, впечатляет. Это показывает, насколько сложно крупнейшим IT-компаниям обеспечивать конфиденциальность огромных массивов личной информации пользователей.

Slack попался на самовольном использовании переписок пользователей для обучения ИИ

Популярный мессенджер Slack тайно собирал личные сообщения, файлы и данные корпоративных пользователей для обучения своих ИИ-инструментов. Пользователи автоматически подписывались на такой сбор данных, по сути, не давая на это согласия.

 Источник изображения: Scott Webb/Unsplash

Источник изображения: Scott Webb/Unsplash

Slack оказался в центре скандала, связанного с использованием личных данных пользователей. Как выяснилось, компания тайно перекачивает сообщения, файлы и другую информацию из чатов для обучения собственных моделей искусственного интеллекта. При этом согласия пользователей никто не спрашивает.

Как сообщает издание Techspot, все началось с гневного твита эксперта по кибербезопасности Кори Куинна (Corey Quinn), обнаружившего соответствующий пункт в политике конфиденциальности Slack. В нем говорится, что системы компании «анализируют сообщения и файлы пользователей для создания моделей AI и машинного обучения».

Представители Slack подтвердили эту информацию. Данные действительно используются для улучшения некоторых инструментов ИИ в приложении, таких как поиск и рекомендации. При этом компания заверила, что премиальные функции на основе ИИ разрабатываются без доступа к персональным данным.

Однако большинство людей были шокированы тем фактом, что Slack тайно получает их личные разговоры и документы. Многие считают, что компания должна была четко информировать об этом и давать возможность отказаться. Однако процесс отказа в системе Slack от сбора данных довольно сложен. Это может сделать только администратор организации, и только путем отправки специального запроса в службу поддержки. Для отдельных сотрудников команды такая опция не предусмотрена.

На Slack также обрушилась критика со стороны других технологических компаний. Например, разработчики приложения для обмена сообщениями Signal заявили, что они в принципе не собирают данные пользователей и не используют их для какого-либо ИИ.

История демонстрирует общую проблему отношения мессенджеров и социальных сетей к конфиденциальности данных, так как они активно собирают личную информацию пользователей по умолчанию, без явного выбора и согласия с их стороны. А затем используют эти данные для улучшения собственных продуктов и услуг, в том числе с применением технологий ИИ.

При этом заявления Slack о конфиденциальности выглядят противоречиво. В одном месте они утверждают, что не имеют доступа к персональным данным при разработке ИИ. В другом допускают анализ сообщений и файлов пользователей именно с этой целью.

Сенатор США заявила о возможном продлении срока продажи TikTok до 1 года

Сенатор США предложила продлить срок для продажи американских активов TikTok до 1 года. Это предложение прозвучало на фоне обеспокоенности национальной безопасностью США и данных 170 млн американских пользователей. Решение направлено на обеспечение более крепкой юридической базы для возможного запрета приложения.

 Источник изображения: iXimus / Pixabay

Источник изображения: iXimus / Pixabay

Мария Кантуэлл (Maria Cantwell), председатель комитета Сената США по торговле, заявила о возможности увеличения срока для продажи американских активов китайской компании ByteDance, владеющей TikTok. Предложение, поддержанное Палатой представителей США 13 марта большинством голосов (352 против 65), изначально предусматривало шестимесячный срок на продажу американских активов приложения или его запрет.

В среду Кантуэлл сообщила, что Сенат всё ещё может принять законопроект Палаты представителей, однако увеличение срока до одного года позволит более тщательно подойти к обеспечению надёжной юридической базы законопроекта и безопасности данных американцев, использующих приложение.

Она отметила, что попытки администрации бывшего президента Дональда Трампа (Donald Trump) и штата Монтана не смогли запретить TikTok. Более длительный срок также позволит отложить любой потенциальный запрет TikTok до периода после 2025 года и за пределы ноябрьских президентских выборов в США.

На этой неделе лидер республиканцев в Сенате Митч Макконнелл (Mitch McConnell) поддержал идею принудительной продажи активов TikTok, назвав его величайшим стратегическим соперником Америки, который угрожает её безопасности прямо на американской земле, в домах десятков миллионов американцев. После этого законодатели были завалены звонками от граждан, выступающих против закона.

«Запрет на TikTok нарушит права 170 миллионов американцев на Первую поправку», — заявили в пятницу в TikTok. Компания также сообщила о своих усилиях по защите данных американских пользователей, на которые она потратила более $1,5 млрд.

В то время как многие законодатели и администрация президента Джо Байдена (Joe Biden) высказывают опасения относительно TikTok как потенциального инструмента для сбора данных в пользу китайских властей, компания продолжает отстаивать свою позицию, обращая внимание на свои усилия по защите конфиденциальности пользователей.

Учёные исследовали настройки конфиденциальности Apple и нашли их слишком сложными

Финские исследователи изучили политику и настройки конфиденциальности приложений Apple на нескольких платформах и пришли к выводу, что параметры конфигурации чрезвычайно запутаны, значения опций не всегда очевидны, а документация написана сложным юридическим языком и не всегда содержит подробную информацию.

 Источник изображения: Trac Vu / unsplash.com

Источник изображения: Trac Vu / unsplash.com

Авторами исследования (PDF) стали Амель Бурдусен (Amel Bourdoucen) и Янне Линдквист (Janne Lindqvist) из университета Аалто (Финляндия) — они отметили, что многие научные проекты были посвящены конфиденциальности сторонних приложений для устройств Apple, но очень мало работ посвящено этой проблеме в собственном ПО компании, включая браузер Safari и голосовой помощник Siri. Исследователи поставили цель выяснить, какие объёмы данных собирают собственные приложения Apple, куда эти данные отправляются, и могут ли пользователи понять, как ориентироваться в настройках конфиденциальности на платформах компании. Предпринимаемые Apple меры по защите своей экосистемы считаются заслугой компании в области информационной безопасности — компания пользуется своей репутацией как аргументом в пользу продажи своей продукции и оружием в борьбе с Google.

Финские исследователи не оспаривают технологических достижений Apple, но утверждают, что запутанные пользовательские интерфейсы подрывают эти усилия. Так, при первоначальной настройке устройств под управлением macOS пользователь как будто может отказаться включать голосовой помощник Siri, но он продолжает собирать данные из других приложений для предоставления рекомендаций. Чтобы полностью отключить Siri, требуется найти параметры конфиденциальности в пяти различных подменю приложения «Настройки». Документация Apple по настройкам конфиденциальности далека от идеала: в ней упоминаются не все опции; не объясняется, что происходит с пользовательскими данными; не указывается, включены или отключены соответствующие настройки по умолчанию; наконец, она написана юридическим языком, и это почти гарантия, что ни один пользователь никогда этого не прочтёт.

 Источник изображения: Alireza Khoddam / unsplash.com

Источник изображения: Alireza Khoddam / unsplash.com

Авторы исследования провели опрос среди пользователей Apple и поинтересовались, действительно ли те понимают, как работают параметры конфиденциальности на iOS и macOS, и что приложения делают с их данными. В опросе приняли участие всего 15 респондентов, но и его результаты показали, что ориентироваться в настройках конфиденциальности на устройствах Apple непросто. Так, 11 опрошенных оказались осведомлёнными об отслеживании данных и о том, что оно преимущественно включено по умолчанию. Но когда им рассказали, как работают параметры конфиденциальности в iOS и macOS, девятеро были удивлены объёмами сбора данных.

Один опрошенный признался, что при поиске конфиденциальной информации предпочёл бы пользоваться не Safari, а другим браузером. Некоторые споры вызвала функция «Семейный доступ» (Family Sharing), которая, например, позволяет делиться с членами семьи местоположением: семерым участникам опроса идея понравилась, но остальные выразили обеспокоенность с точки зрения конфиденциальности. Респондентов также проверили на знание настроек конфиденциальности восьми приложений по умолчанию, включая Siri, Family Sharing, Safari и iMessage — никто не смог указать, что нужно сделать в «Настройках», чтобы полностью отключить эти приложения по умолчанию. Участники исследования даже обратились за этой информацией к поиску в интернете, а не к документации Apple. Ключевой проблемой оказалось отсутствие единообразия настроек на разных устройствах, хотя на iPhone и Mac есть и iMessage, и iCloud.

По итогам исследования учёные внесли несколько предложений, предполагая, что Apple заинтересована в исправлении сложившегося положения вещей. Было установлено, что в поисках настроек конфиденциальности пользователи сначала обратились к настройкам ОС, а не каждого приложения в индивидуальном порядке. А это значит, что централизация этих опций поможет пользователям избежать разочарования, и они не будут отказываться от поиска этих настроек. Apple также рекомендовали более подробно информировать пользователей о том, что делают конкретные настройки: напротив многих из них значится лишь название без каких-либо пояснений. Нужно уменьшить концентрацию технических терминов и отказаться от сухого юридического языка, более подробно описать опции в самом меню настроек и, возможно, добавить иллюстрации с инфографикой.

Discord запустит рекламу с возможностью её отключения

Discord, ранее позиционировавший себя как социальная сеть без рекламы, на этой неделе объявил о планах по запуску новых рекламных объявлений — «Спонсированные квесты», которые станут частью платформы начиная со следующей недели. Это решение призвано увеличить доходы компании с помощью платных промоакций от разработчиков видеоигр. Хотя пользователи смогут отключить рекламу в настройках, это нововведение вызывает опасения относительно конфиденциальности пользователей и ухудшения их пользовательского опыта.

 Источник изображения: Discord

Источник изображения: Discord

Как сообщил в интервью Питер Селлис (Peter Sellis), старший вице-президент по продуктам Discord, реклама будет размещаться в нижнем левом углу экрана и будет таргетироваться на пользователей платформы, учитывая информацию об их игровой активности, возрасте и местоположении.

По словам людей, знакомых с ситуацией, Discord собирается нанять более дюжины сотрудников по продаже рекламы. Это изменение стратегии подчёркивает отход от первоначальной позиции компании, которая исключала зависимость от рекламных доходов в своей бизнес-модели, что отличало её от многих крупных социальных сетей.

Первыми рекламодателями на платформе станут разработчики видеоигр, предлагающие пользователям награды за выполнение заданий в играх. Этот подход может улучшить вовлечённость игроков, однако вызывает опасения насчёт потенциального нарушения их конфиденциальности и ухудшения пользовательского опыта, что может привести к оттоку аудитории Discord.

Discord оставляет возможность отключения рекламных объявлений в настройках, что может служить компромиссом между необходимостью монетизации и удовлетворением потребностей сообщества. И всё же, это решение ставит под вопрос баланс между коммерческими интересами платформы и интересами её пользователей.

С момента своего основания в 2015 году Discord вырос из нишевой платформы для общения геймеров до масштабного сервиса, объединяющего более 200 млн активных пользователей ежемесячно, включая студентов, инвесторов и просто друзей, желающих провести время вместе онлайн.

Попытки Discord монетизировать свою популярность осуществлялись на протяжении нескольких лет. Обсуждение возможности продажи компании Microsoft за сумму не менее $10 млрд в 2021 году и последующее привлечение инвестиций в размере $500 млн, увеличившие стоимость платформы до $15 млрд, отражают стремление Discord к финансовому росту.

Внедрение рекламы на платформе Discord отражает общую тенденцию в индустрии потребительских технологий, где компании ищут способы балансировать между необходимостью генерации дохода и сохранением лояльности пользователей. Предстоит выяснить, сможет ли Discord сохранить доверие сообщества, несмотря на изменения в бизнес-модели.

Cloudflare защитит искусственный интеллект при помощи искусственного интеллекта

Cloudflare разрабатывает собственный межсетевой экран для генеративных ИИ-моделей с целью защитить их от потенциальных кибератак или других вредоносных угроз. Кроме поддержки современных стандартов сетевой безопасности, брандмауэр с помощью нейросети будет анализировать запросы, отправленные пользователями генеративного ИИ, чтобы попытаться заранее обнаружить потенциальные эксплойты.

 Источник изображения: blog.cloudflare.com

Источник изображения: blog.cloudflare.com

«Некоторые уязвимости, затрагивающие традиционные веб-приложения и API-приложения, применимы и к миру LLM (больших языковых моделей), включая инъекции или кражу данных, — сообщил менеджер по продукту Cloudflare Group Даниэле Молтени (Daniele Molteni). — Однако существует новый набор угроз, которые теперь актуальны из-за того, как работают программы LLM».

Вводимые пользователем данные на сайтах и в инструментах ИИ сначала подвергнутся фильтрации через Cloudflare и лишь затем достигнут самого генеративного ИИ. Брандмауэр также сможет прерывать генеративные запросы ИИ и сканировать их на наличие потенциальных угроз. Данные, отправленные в общедоступные модели ИИ, такие как ChatGPT или Claude, могут быть доступны практически любому, поэтому брандмауэр Cloudflare будет очищать запросы пользователей от потенциально конфиденциальной информации.

Брандмауэр Cloudflare с ИИ может также подвергать цензуре вводимые пользователем данные другими способами. Брандмауэр разрабатывается для предотвращения «манипулирования» моделями ИИ с помощью входных данных, которые могут привести к галлюцинациям модели и другим ложным или опасным реакциям.

Согласно сообщению Cloudflare, клиенты также смогут «блокировать запросы, которые попадают в неуместные категории», если у них есть опасения, что такие запросы могут привести к тому, что ИИ будет использовать «токсичную, оскорбительную или проблемную лексику». Хотя компания называет такие случаи примерами «атак быстрого внедрения», неясно, в какой степени будут подвергаться цензуре подлинные запросы пользователей.

На этой неделе Cloudflare также представила сервис «Защитный искусственный интеллект» для бизнеса, который использует нейросеть для анализа веб-сайтов на предмет потенциальных угроз, основанных на искусственном интеллекте.

США заподозрили китайские электромобили в шпионской деятельности — начато расследование

Министерство торговли США инициировало расследование с целью выяснить, как автомобильные технологии иностранного производства могут быть использованы для сбора чувствительной информации. Расследование сосредоточится на «подключённых транспортных средствах», то есть на автомобилях с доступом в интернет, на фоне опасений, что их камеры, датчики и бортовые компьютеры могут быть использованы для сбора конфиденциальных данных о гражданах и инфраструктуре.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

Необходимость расследования оправдывается потенциальными рисками для национальной безопасности со стороны умных автомобилей, производимых в Китае и «других странах, вызывающих озабоченность». Во время пресс-конференции в среду министр торговли Джина Раймондо (Gina Raimondo) заявила, что расследование специально начато «до того, как автомобили китайского производства получат широкое распространение» в США.

«Представьте, если бы на американских дорогах были тысячи китайских автомобилей, которые кто-то в Пекине мог бы немедленно вывести из строя, — сказала Раймондо, обращаясь к журналистам. — Не нужно много воображения, чтобы понять, что такой иностранный противник, как Китай, может представлять серьёзную угрозу национальной безопасности и конфиденциальности граждан США».

Президент Байден сравнил современные автомобили со «смартфонами на колёсах». Он обвинил Китай в использовании недобросовестной деловой практики, такой как государственные субсидии для электромобилей китайского производства. «Китай вводит ограничения на американские и другие иностранные автомобили, — сказал Байден. — Почему подключённым транспортным средствам из Китая должно быть разрешено работать в нашей стране без гарантий?»

Представители администрации США сообщили, что расследование может привести к принятию новых правил, которые ограничат или запретят использование определённых систем транспортных средств в США. Такие действия станут аналогом торговых ограничений, введённых против компаний, подобных Huawei, из-за подозрений в шпионаже. Ранее некоторые политики в США пытались ограничить или полностью запретить даже сервис коротких видео TikTok из «соображений национальной безопасности».

Несколько лет назад Китай обогнал США, став крупнейшим автомобильным рынком в мире. Однако из-за высоких пошлин в США не продаются автомобили китайского производства. Китайские автопроизводители рассматривают возможность открытия заводов в Мексике, что вызывает опасения среди руководителей автомобильных компаний США. Китай обвиняет США в неоднократном злоупотреблении «концепцией национальной безопасности», чтобы неправомерно преследовать китайские компании и препятствовать конкуренции на мировых рынках.

Avast заплатит штраф в $16,5 млн за продажу пользовательских данных и больше не будет ими торговать

Федеральная торговая комиссия (FTC) США объявила в четверг, что запретит разработчику антивирусного ПО Avast продавать рекламодателям данные о просмотре веб-страниц потребителями. При этом разработчик заявил, что его решения не позволяют отслеживать пользователей в интернете.

 Источник изображения: StartupStockPhotos/Pixabay

Источник изображения: StartupStockPhotos/Pixabay

Сообщается, что Avast урегулировала обвинения FTC на сумму $16,5 млн, что, по словам регулятора, позволит возместить ущерб пользователям Avast, чьи конфиденциальные данные о просмотре веб-страниц были незаконно проданы разработчиком рекламным компаниям и брокерам данных.

«Avast обещала пользователям, что её продукты защитят конфиденциальность их данных о просмотренных страницах, но сделала наоборот», — сообщил Сэмюэл Левин (Samuel Levine), директор Бюро по защите прав потребителей FTC, в своем заявлении в четверг, отметив, что практика Avast идёт вразрез с законом.

По словам FTC, Avast годами собирала информацию о действиях клиентов в интернете, включая их поисковые запросы и посещаемые веб-сайты, используя собственные расширения браузера Avast, которые, по её утверждению, «защитят вашу конфиденциальность», блокируя файлы cookie онлайн-отслеживания.

Эти данные Avast продавала через свою ныне закрытую дочернюю компанию Jumpshot более чем сотне компаний, заработав на этом десятки миллионов долларов. FTC утверждает, что данные, которые продавала Jumpshot, раскрывают религиозные убеждения пользователей, имеющиеся проблемы со здоровьем, политические взгляды, а также их местонахождение и другую конфиденциальную информацию.

Согласно совместному расследованию Vice News и PCMag, проведенному в январе 2020 года, Jumpshot продавала конфиденциальные данные о просмотре веб-страниц пользователями таким компаниям, как Google, Yelp, Microsoft, Home Depot и консалтинговому гиганту McKinsey. В частности, Jumpshot продавала данные о кликах своих пользователей, включая конкретные веб-ссылки, на которые нажимали пользователи.

На тот момент у Avast было более 430 млн активных пользователей по всему миру, а Jumpshot утверждала, что имеет доступ к данным со 100 млн устройств. Спустя несколько дней после публикации этого исследования Avast закрыла Jumpshot. В 2021 году Avast объединилась с Norton LifeLock и теперь входит в состав материнской компании Gen Digital, которая также владеет приложением CCleaner.

Комментируя сообщение регулятора, Avast заявила, что не согласна с «утверждениями и описанием фактического материала». «Когда Avast добровольно закрыла Jumpshot в 2020 году, она прекратила эту практику. Операционные положения мирового соглашения соответствуют текущим программам Avast по обеспечению конфиденциальности и безопасности», — отметила компания.


window-new
Soft
Hard
Тренды 🔥
Дешёвые сканеры штрихкодов помогли в кратчайшие сроки восстановить пострадавшие от CrowdStrike компьютеры 3 ч.
Новая статья: Flintlock: The Siege of Dawn — хорошие идеи в неудачной обёртке. Рецензия 3 ч.
Анонсирован китайский ролевой детектив Kill the Shadow, напоминающий смесь Disco Elysium и The Last Night 4 ч.
Соцсеть X начала без уведомления использовать данные пользователей для обучения Grok 6 ч.
Mirthwood получила новый трейлер и дату выхода — это ролевой симулятор жизни в фэнтезийном мире, вдохновлённый Fable, Stardew Valley и The Sims 6 ч.
Журналисты выяснили, какие игры пострадают от забастовки актёров озвучки — GTA VI в безопасности 8 ч.
Разработчики Gran Turismo 7 извинились за баг, который запускает машины в космос 9 ч.
Хинштейн пояснил, почему в России замедлится YouTube 10 ч.
Windows 11 сможет добавлять синхронизированный с ПК Android-смартфон в «Проводник» 10 ч.
Заказы на ИИ и мейнфреймы z16 помогли IBM увеличить выручку и прибыль 10 ч.