Сегодня 18 июня 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → дипфейки
Быстрый переход

Государство получит право использовать голоса россиян после их смерти без согласия родственников

Голоса россиян будут защищены от неправомерного использования — это регламентирует проект закона «Об охране голоса», разработанный Альянсом в сфере ИИ и Национальной федерацией музыкальной индустрии (НФМИ). Вместе с тем государство получит право использовать в общественных интересах голос гражданина после его смерти без согласия родственников. Об этом сообщили «Ведомости» со ссылкой на заявление члена Совета Федерации по конституционному законодательству и госстроительству Артёма Шейкина, а также разработчиков документа.

 Источник изображения: Soundtrap / unsplash.com

Источник изображения: Soundtrap / unsplash.com

Законопроект предусматривает внесение изменений в Гражданский кодекс (ГК). В общем случае для обнародования и дальнейшего использования голоса гражданина требуется его согласие; после его смерти согласие необходимо получать у супруга, детей или родителей. Но если голос предполагается использовать в государственных или общественных интересах, то такое согласие не требуется — при условии, что голос записывался за плату или в публичных местах.

Документ описывает механизм правовой защиты голоса от неправомерного использования и создания дипфейков на основе его записей. В рамках работы секции «Искусственный интеллект» Совета по развитию цифровой экономики при Совете Федерации анализировались предложения экспертов и профильных ведомств по определению дипфейка. «Сейчас мы находимся на завершающем этапе проработки этого определения, которое будет закреплено в законопроекте», — сообщил господин Шейкин. Уже готовится итоговая версия законопроекта — после получения отзыва от правительства он будет внесён в Госдуму.

 Источник изображения: Studio_Iris / pixabay.com

Источник изображения: Studio_Iris / pixabay.com

«Если голос гражданина, воссозданный с помощью специальных технологий, получен или используется в интернете с нарушением закона, гражданин вправе требовать удаления этой записи, а также пресечения или запрещения её дальнейшего использования и распространения», — считает Артём Шейкин. Нарушения ГК предусматривают последствия в виде возмещения убытков и вреда, выплат неустойки, приостановления или прекращения определённой деятельности, возврата неосновательного обогащения и другие меры. Российское законодательство в существующем виде охраняет лишь фотографическое изображение человека, а нормы, которые защищают артистов и дикторов от использования их синтезированных голосов и цифровых образов, пока отсутствуют, отметили в НФМИ.

Речевые особенности человека не охраняются правом ни в одной стране мира, отмечают опрошенные «Ведомостями» эксперты, хотя в России действуют законы «О персональных данных» и «О биометрических данных», которые требуют обрабатывать данные, включая голос, лишь с согласия человека. Принятие нового закона сформирует базу для разрешения споров в области прав на голос — к примеру, до сих пор нет ясности, кому принадлежит воспроизведённый нейросетью голос человека: ему самому или разработчику этой нейросети. Так, американская актриса Скарлетт Йоханссон (Scarlett Johansson) уже минимум дважды была вынуждена отстаивать право на собственный голос.

Сейчас также распространилась мошенническая схема с использованием сгенерированных голосовых записей, призванных убедить жертву перевести деньги злоумышленникам. Предложенный законопроект конкретных мер ответственности за неправомерное использование голоса не предусматривает, но есть и другой, который предусматривает внесение поправок уже в Уголовный кодекс РФ — он также ещё не внесён в Госдуму.

McAfee продемонстрировала детектор звуковых дипфейков

На мероприятии RSA Conference компания McAfee продемонстрировала систему Deepfake Detector, работа над которой ведётся при участии Intel. Система, первоначально называвшаяся Project Mockingbird, предназначена для обнаружения звуковых дипфейков — аудиоподделок, созданных при помощи искусственного интеллекта.

 Источник изображения: S. Keller / pixabay.com

Источник изображения: S. Keller / pixabay.com

Технический директор McAfee Стив Гробман (Steve Grobman) показал работу Deepfake Detector на примере двух видеороликов — показ видео сопровождается информацией от ИИ-детектора, которая выводится в строке состояния. При запуске видеоролика, не подвергавшегося обработке, система показала нулевую вероятность подделки. Далее было запущено явно фейковое видео, на которое система сразу отреагировала показателем в 60 %, и по мере просмотра вероятность выросла до 95 %.

С момента первой демонстрации на CES 2024 инженеры McAfee оптимизировали систему для работы с ИИ-ускорителями Intel NPU на чипах Meteor Lake, что позволило увеличить производительность на 300 %. Можно запускать несколько процессов Deepfake Detector для одновременного анализа нескольких видеороликов; хотя и видеозаписями возможности системы не ограничиваются — она может анализировать звук любого приложения в системе. А локальный режим её работы вместо запуска из облака означает высокую конфиденциальность — анализируемые данные не покидают компьютера.

Авторы проекта преднамеренно ограничились работой со звуком: специалисты McAfee по борьбе с угрозами обнаружили, что во многих публикуемых мошенниками видеороликах используется настоящее видео с поддельным звуком. Фальшивый звук сопровождает и поддельное видео, а значит, постоянной величиной чаще всего оказывается подделка аудио. Сейчас компания работает над адаптацией технологии для потребителей — для этого управление программой будет необходимо сделать предельно простым и понятным.

Мошенники с помощью голосового дипфейка пытались выдать себя за гендира LastPass

Менеджер паролей LastPass подвергся атаке мошенников, которые применили технологии искусственного интеллекта, пытаясь выдать себя за генерального директора LastPass Карима Туббу (Karim Toubba). Злоумышленники создали поддельную учётную запись Туббы в WhatsApp и начали переписку с одним из сотрудников компании. В процессе они отправляли голосовые сообщения, в которых имитировали голос руководителя Last Pass.

 Источник изображения: insider.com

Источник изображения: insider.com

Подвергшийся атаке сотрудник LastPass оказался достаточно опытным и стрессоустойчивым, поэтому попытка обмана силами дипфейка не удалась. Сотрудника насторожило то, что сообщения WhatsApp «выходили за пределы обычных каналов делового общения». Дополнительным поводом усомниться в реальности аудиосообщения от руководителя стало излишнее давление со стороны мошенников, тактика под названием «вынужденная срочность», которую преступники часто используют для манипулирования жертвами. Это окончательно убедило сотрудника LastPass, что вся переписка была фикцией.

 Источник изображения: LastPass

LastPass сообщила, что попытка мошенничества не увенчалась успехом и сейчас расследованием инцидента занимается служба безопасности компании. Тем не менее, компания решила поделиться подробностями этого инцидента, чтобы привлечь внимание к тому, что дипфейки всё чаще используются для мошеннических кампаний с выдачей себя за руководителей.

За последнее время многие компании, в том числе криптовалютная биржа Binance, столкнулись с мошенниками, выдающими себя за руководителей компаний при помощи искусственного интеллекта. Недавно в Гонконге занятый в финансовой сфере сотрудник международной компании, думая, что участвует в сеансе одновременной видеосвязи со своими коллегами, по указанию «финансового директора предприятия из Великобритании» перевёл $25,6 млн на указанный ему счёт.

С 8 февраля 2024 года в США коммерческим компаниям запретили использовать голосовых ИИ-ботов в ходе автоматизированных «холодных звонков» потенциальным клиентам.

Компания отдала мошенникам $25,6 млн после видеоконференции с дипфейками

Транснациональная компания потеряла 200 млн гонконгских долларов ($26 млн) из-за мошенников, использовавших технологию дипфейка на новом уровне. Злоумышленникам удалось убедить сотрудника офиса компании в Гонконге перечислить указанную сумму с помощью фальшивого группового видеозвонка, в котором с помощью дипфейка участвовали поддельный финансовый директор и несколько сотрудников компании.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Полиция отметила, что это было первое дело такого рода для Гонконга, причём касающееся крупной суммы. По словам исполняющего обязанности старшего суперинтенданта Криминального бюро Барона Чана Шунь-цзина (Baron Chan Shun-ching), в предыдущих случаях мошенники обманывали жертв с помощью видеозвонков один на один.

«В этот раз в ходе видеоконференции с участием нескольких человек все, кого можно было увидеть, оказались фальшивками», — сообщил он, добавив, что мошенникам удалось создать убедительные изображения целевых лиц, которые выглядели и звучали как настоящие люди.

Сотрудник финансового отдела филиала компании сообщил полиции, что в середине января получил фишинговое сообщение, по-видимому, от финансового директора компании из Великобритании, в котором говорилось, что необходимо провести секретную транзакцию. Поначалу это вызвало у него сомнения, которые развеяла проведённая мошенниками групповая видеоконференция, на которой он увидел финансового директора, а также других сотрудников компании. По словам потерпевшего, сотрудники компании, участвовавшие в телефонной конференции, выглядели и говорили как настоящие люди. Затем мошенники поддерживали связь с жертвой через платформы обмена мгновенными сообщениями, электронную почту и видеозвонки один на один.

В результате он, следуя указаниям фейкового руководителя, выполнил 15 переводов на общую сумму 200 млн гонконгских долларов на пять банковских счетов в Гонконге. Спустя неделю сотрудник начал подозревать неладное и обратился в головной офис компании.

В результате проведённого расследования полиция установила, что участники видеоконференции были воссозданы в цифровом виде мошенниками, которые использовали общедоступные видео- и аудиозаписи этих лиц. «Они использовали технологию дипфейка, чтобы имитировать голос своих жертв, читающих текст», — отметил Чан.

Он сообщил, что мошенники пытались найти подход к ещё несколькими сотрудникам компании из других филиалов, но отказался предоставить подробности обстоятельств дела. Расследование этого дела всё ещё продолжается.

Старший инспектор Тайлер Чан Чи-Винг (Tyler Chan Chi-wing) сообщил, что существует несколько способов проверить, является ли человек, появившийся на экране, фальшивым цифровым фейком. Он предложил попросить собеседника делать движения головой, а также задавать вопросы, которые позволили бы определить подлинность персонажа, и сразу проявлять бдительность если тот попросит перечислить деньги.

Полиция сообщила, что расширит свою систему оповещения, включив в неё систему быстрых платежей, чтобы предупреждать пользователей о том, что они переводят деньги на счета, связанные с мошенничеством.

Мошенники вооружились ИИ для вымогательства с помощью фейковых голосовых сообщений

Злоумышленники стали практиковать новый метод вымогательства через социальные сети и мессенджеры с использованием ИИ для создания поддельных голосовых сообщений. Получив доступ к аккаунту пользователя, они рассылают его знакомым и во все чаты, где он состоит, поддельные голосовые сообщения с просьбами о переводе денег.

 Источник изображения: B_A / Pixabay

Источник изображения: B_A / Pixabay

При этом мошенники не ограничиваются созданием с помощью ИИ поддельных голосовых сообщений: они также используют фотографии банковских карт, указывая на них имя и фамилию владельца украденного аккаунта. Это делается для придания дополнительной достоверности их просьбам о переводе денег. Так, один из пользователей социальной сети «ВКонтакте» потерял 200 000 рублей, а другой — 3000 рублей.

Важно отметить, что в некоторых случаях злоумышленники использовали данные паспорта пользователя украденного аккаунта, которые отличались от информации в его социальных сетях, что дополнительно затрудняло выявление обмана. Это свидетельствует о высокой степени изощрённости и планирования таких атак.

Представители «ВКонтакте» подчеркнули, что подобные массовые мошеннические схемы на их платформе отсутствуют. Для борьбы с такими угрозами компания использует системы безопасности, в том числе автоматические инструменты на основе ИИ, которые способны оперативно реагировать на обращения пользователей.

По словам Евгения Егорова, ведущего специалиста департамента Digital Risk Protection компании F.A.C.C.T., взлом аккаунтов в Telegram или WhatsApp чаще всего происходит через фишинговые атаки, в том числе с использованием фейковых голосований. После кражи аккаунта мошенники скачивают сохранённые голосовые сообщения пользователя и с помощью ИИ создают поддельные аудиозаписи с нужным содержанием.

Диана Селехина, эксперт центра мониторинга внешних цифровых угроз Solar AURA ГК «Солар», сообщила о значительном росте числа случаев мошенничества в Telegram, связанных с кражей аккаунтов. Она добавила, что за последние 30 дней было выявлено более 500 новых доменных имён, созвучных с названием мессенджера, что указывает на активизацию мошенников.

Селехина отметила, что в Telegram наряду с фейковыми голосованиями и схемами подписки Premium активно распространяются и другие мошеннические методы. Общим элементом всех этих схем является требование от пользователей вводить свой номер телефона и SMS-код, которые затем используются для несанкционированного доступа к аккаунтам. В последнее время эксперты фиксируют участившееся использование дипфейков в Telegram, часто сочетаемых с поддельными голосовыми сообщениями.

Упомянутая ситуация требует повышенного внимания со стороны пользователей социальных сетей и мессенджеров. Важно быть бдительным и критически подходить к любым просьбам о переводе финансовых средств, в том числе от знакомых лиц. Развитие ИИ открывает новые горизонты не только для положительных инноваций, но и для мошеннических схем. Всё это подчёркивает важность осведомлённости и предосторожности в цифровом мире.

В России впервые оштрафовали компанию за воровство видео с дипфейком — в нём есть липовый Киану Ривз и утюг

Арбитражный суд Москвы взыскал с ООО «Бизнес-аналитика», управляющего аналитическим сервисом Roistat, компенсацию в размере 500 тыс. руб. за несанкционированное использование видео с дипфейком. В ролике использовался образ канадского актёра Киану Ривза (Keanu Reeves). Компенсация была присуждена создателю видео, компании «Рефейс Технолоджис», которая работает под брендом Agenda Media Group (AMG), сообщает Forbes.

 Источник изображения: agenda.media

Источник изображения: agenda.media

На видеоролике человек, которому при помощи технологии дипфейка было дорисовано лицо Киану Ривза, пытается выйти из дома, но несколько раз возвращается и проверяет, выключил ли он утюг, — в итоге герой уносит утюг с собой. В июне 2023 года сервис Roistat начал распространять в Telegram рекламный ролик, в котором использовалось это видео.

AMG специализируется на создании роликов с использованием дипфейков — компания также выпускала короткие постановки, используя образы Джейсона Стейтема (Jason Statham) и Роберта Паттинсона (Robert Pattinson). Ставший предметом разбирательства ролик имеет пародийный и юмористический характер, он направлен на завладение вниманием аудитории, а не прямое извлечение коммерческой выгоды. После выхода рекламы глава AMG Алексей Парфун обратился в Roistat, но администрация сервиса ответила, что «продукция нейросетей авторским правом не регулируется, можно брать и использовать». В ответ создатели видео подали в суд, «чтобы разобраться в юридической практике».

 Источник изображения: succo / pixabay.com

Источник изображения: succo / pixabay.com

Решение суда было вынесено 30 ноября 2023 года. Как гласит его мотивировочная часть, «доводы ответчика о том, что созданный видеоролик не является объектом авторского права по причине использования технологии deep-fake, отклоняются судом, поскольку технология дипфейк — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания». Иными словами, при создании ролика был подготовлен сценарий; произведена видеосъёмка артиста, чьё лицо было заменено на образ Киану Ривза; создано аудиосопровождение; а использованная для подмены лица нейросеть оказалась одним из использованных рабочих инструментов, установил суд.

Опрошенные Forbes специалисты, в частности, отметили, что современным нейросетям пока не под силу полностью генерировать видеоролики с настолько глубокой драматургией — ИИ выступает лишь как один из многих инструментов при производстве. При этом создатели ролика должны были также заручиться разрешением Киану Ривза на использование его образа — права артиста также были потенциально нарушены. Недавно схожую претензию за несанкционированное использование своего голоса в рекламе подала актриса Скарлетт Йоханссон (Scarlett Johansson).

В 2021 году российский мобильный оператор «МегаФон» показывал серию рекламных роликов с использованием образа актёра Брюса Уиллиса (Bruce Willis) — при производстве видео также использовалась технология дипфейка, о чем компания предупреждала зрителей. «МегаФон» заключил с артистом контракт, действие которого к настоящему моменту завершено.

Разработана система защиты голоса от создания дипфейков

Технологии подделки голоса при помощи искусственного интеллекта являются довольно опасным инструментом — они способны правдоподобно воспроизвести человеческий голос даже по короткому образцу. Не допустить создание искусной подделки сможет предложенный американским учёным алгоритм AntiFake.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Дипфейки представляют собой достаточно опасное явление — с их помощью можно приписать знаменитому артисту или политику высказывание, которого он никогда не делал. Были также прецеденты, при которых злоумышленник звонил жертве и голосом друга просил срочно перевести деньги в связи с некой чрезвычайной ситуацией. Доцент кафедры компьютерных наук и инженерии Вашингтонского университета в Сент-Луисе Нин Чжан (Ning Zhang) предложил технологию, которая значительно усложняет создание голосовых дипфейков.

Принцип работы алгоритма AntiFake состоит в формировании условий, при которых системе ИИ оказывается намного сложнее считывать ключевые характеристики голоса при записи разговора реального человека. «В инструменте используется техника состязательного ИИ, которая изначально применялась киберпреступниками, но теперь мы направили её против них. Мы немного искажаем записанный аудиосигнал, создавая возмущения ровно в той мере, чтобы для человека он звучал так же, а для ИИ — совершенно иначе», — прокомментировал свой проект господин Чжан.

 Источник изображения: wustl.edu

Источник изображения: wustl.edu

Это значит, что при попытке создать дипфейк на основе изменённой этим способом записи сгенерированный ИИ голос не будет похож на голос человека в образце. Как показали проведённые испытания, алгоритм AntiFake на 95 % эффективен для предотвращения синтеза убедительных дипфейков. «Что будет с голосовыми ИИ-технологиями дальше, я не знаю — новые инструменты и функции разрабатываются постоянно, — но всё же считаю, что наша стратегия использования техники противника против него самого так и останется эффективной», — заключил автор проекта.

Американские актёры потребовали запретить студиям бесконтрольное использование дипфейков

Гильдия киноактёров США рассказала о борьбе, которую она ведёт со студиями за право контролировать цифровые копии артистов — студии, уверены в профсоюзе, хотят использовать их неограниченно. Представляющая студии организация заявила, что выдвинула «новаторское» предложение, которое поможет защитить актёров от подобных злоупотреблений.

 Источник изображения: 0fjd125gk87 / pixabay.com

Источник изображения: 0fjd125gk87 / pixabay.com

Технологии искусственного интеллекта становятся больной темой для представителей актёрской профессии — они опасаются, что студии смогут бесконтрольно воспроизводить их внешний вид и голоса при помощи цифровых систем. Этот вопрос стал камнем преткновения в очередном раунде переговоров по поводу контрактов, которые должны заключаться с голливудскими студиями.

Организация AMPTP, ведущая переговоры от имени Walt Disney, Netflix и других крупных игроков, заявила, что выдвинула «новаторское предложение по искусственному интеллекту», которое защитит актёров от возможных злоупотреблений. Эта мера защиты предполагает согласие актёра на создание и использование его цифровой копии либо на изменение его выступления при помощи цифровых средств, отметили представители студий и служб потокового видео.

Дункан Крэбтри-Айланд (Duncan Crabtree-Ireland), главный переговорщик профсоюза SAG-AFTRA, представляющего интересы 160 тыс. актёров кино и телевидения, заявил, что это утверждение не соответствует действительности. «Они предлагают сканировать исполнителей, платить им за один день, чтобы компания владела этим отсканированным изображением, их подобием, и имела возможность использовать его вечно. Так что, если вы думаете, что это предложение новаторское, предлагаю вам подумать ещё», — цитирует Reuters Крэбтри-Айланда.

В AMPTP возразили, что утверждение о возможности использовать цифровую копию артиста бессрочно без согласия или компенсации является ложным. По версии представителей студий и стримингов, в документе говорится, что договор об использовании цифровой копии заключается только на один фильм — дальнейшее применение технологий дипфейка требует согласия «отсканированного» актёра и переговоров о гонораре при условии, что он будет не меньше размера минимальной оплаты.

Создано ПО, способное обмануть систему голосовой аутентификации в 99 случаях из 100

Учёные-компьютерщики из Университета Ватерлоо создали программное обеспечение для дипфейка голосов, позволяющее в 99 % случаев обмануть систему голосовой аутентификации. Всё, что нужно при использовании этого ПО с поддержкой машинного обучения для клонирования голоса — пять минут аудиозаписи голоса человека.

 Источник изображения: uk.pcmag.com

Источник изображения: uk.pcmag.com

Ведущий автор исследования Андре Кассис (Andre Kassis), кандидат наук в области компьютерной безопасности и конфиденциальности из Университета Ватерлоо, объяснил, как работает голосовая аутентификация: «При регистрации с использованием голосовой аутентификации вас просят повторить определённую фразу своим голосом. Затем система извлекает уникальную голосовую подпись (голосовой отпечаток) из этой предоставленной фразы и сохраняет её на сервере <..> При попытке аутентификации в будущем вас попросят сказать другую фразу, а извлечённые из неё характерные особенности сравниваются с голосовым отпечатком, сохранённым в системе, чтобы определить, следует ли предоставлять доступ».

Как сообщается, даже меры противодействия спуфингу, используемые системами голосовой аутентификации, не позволяют заметить подмену, поскольку программа компьютерщиков из Университета Ватерлоо, удаляет маркеры из дипфейкового аудио, которые «выдают, что оно было сгенерировано компьютером». Сделав шесть попыток обойти систему аутентификации, учёные в 99 % добились успеха.

Созданием поддельного голоса для обмана системы голосовой аутентификации никого не удивишь, но разработанное компьютерщиками ПО оказалось настолько эффективным, что профессор компьютерных наук Университета Ватерлоо Урс Хенгартнер (Urs Hengartner) выразил надежду, что компании, полагающиеся на голосовую аутентификацию как на единственный фактор аутентификации, «рассмотрят возможность развёртывания дополнительных или более строгих мер аутентификации».

TikTok потребовал маркировать ролики с дипфейками

Платформа коротких видео TikTok обновила правила сообщества. Как отметил ресурс The Verge, изменения включают новые ограничения на публикации сгенерированных силами ИИ дипфейков, которые становятся всё более популярными в приложении. Теперь автор должен явно указать в описании видеоролика или с помощью стикера на самом видео, что оно относится к «синтетическим и манипулятивным медиа».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Ранее правила TikTok в отношении дипфейков ограничивались запретом контента, который может «ввести пользователей в заблуждение, искажая правду о событиях [или] причинить значительный вред теме видео».

TikTok отметил, что не допустит размещения «искусственных медиа, которые содержат изображение какой-либо реальной частной фигуры», демонстрируют поддержку публичной личностью какого-либо продукта, или же нарушают другие правила приложения (например, запрет на разжигание ненависти). Компания определяет в качестве общественных деятелей лиц в возрасте 18 лет и старше, занимающих «значительный общественный пост, например, государственного чиновника, политика, бизнес-лидера или являющихся знаменитостью».

Обновление политики TikTok происходит на фоне усиления политического давления на материнскую компанию ByteDance в связи с опасениями правительств западных стран по поводу сбора личных данных приложением и его способностью влиять на общественное мнение. На данный момент приложение уже заблокировано для использования госслужащими в США, Великобритании, Новой Зеландии и в Канаде.

Компания также опубликовала список из восьми «принципов сообщества», первыми среди которых являются «предотвращение вреда» и «обеспечение свободы слова».

В настоящее время аудитория TikTok насчитывает 150 млн человек в США и более 1 млрд во всём мире.

ИИ научили клонировать любые голоса для озвучки текста — в Сети тут же появились непристойные дипфейки с голосами знаменитостей

Несколько дней назад стартап ElevenLabs представил бета-версию платформы для создания синтетических голосов-клонов реальных людей для озвучивания текстов. Буквально через несколько дней в Сети появились дипфейки голосов знаменитостей, озвучивающих крайне сомнительные тексты. По словам компании, отмечено «увеличивающееся число случаев злоупотребления клонированием голосов» — компания уже работает над решением проблемы с помощью введения дополнительных мер защиты.

 Источник изображения: Kelly Sikkema/unsplash.com

Источник изображения: Kelly Sikkema/unsplash.com

Что имелось в виду под злоупотреблением, в компании не уточнили, но уже известно, что на интернет-форумах появились аудиозаписи с голосами знаменитостей, содержащие высказывания неприемлемого содержания.

Пока неизвестно, все ли материалы созданы с использованием технологии ElevenLabs, но значительная коллекция голосовых файлов содержит ссылку именно на платформу компании. Впрочем, ничего удивительно в этом нет, поскольку возникновение общедоступных систем машинного обучения привело к появлению многочисленных дипфейков различного рода.

Сейчас ElevenLabs собирает обратную связь для предотвращения злоупотреблений технологией. На данный момент компания не придумала ничего необычного кроме добавления дополнительных мер верификации аккаунтов для обеспечения доступа к клонированию голосов.

В числе идей: ввод платёжной информации или данных удостоверений личности. Дополнительно рассматривается верификация прав на использование голоса, который пользователи намерены клонировать, например, будет предложено загрузить образец с чтением предложенного текста. Наконец, компания рассматривает возможность полностью отказаться от инструмента Voice Lab и заставить проходить верификацию голосов в ручном режиме. Пока же пользователей призвали поделиться идеями с разработчиками сервиса.

Известно, что в первой половине января схожее решение представила Microsoft. Её инструмент VALL-E тоже позволяет преобразовать текст в речь, использовав в качестве образца всего 3 секунды записи голоса любого человека.

Intel представила FakeCatcher — технологию определения дипфейк-видео в реальном времени с точностью до 96 %

Компания Intel разработала технологию, способную в режиме реального времени отличить реального человека на видео от качественной подделки, выполненной силами ИИ, то есть дипфейка (deepfake). Разработку назвали FakeCatcher (англ. ловец подделок). Она использует программные и аппаратные средства Intel на уровне сервера, а взаимодействие FakeCatcher с пользователем происходит через веб-платформу.

 Источник изображения: Intel

Источник изображения: Intel

В Intel отмечают, что FakeCatcher способен определить подделку на видео с точностью до 96 %. Технология с помощью ряда датчиков отслеживает изменение цвета лицевых вен под кожей участника видео, создавая пространственно-временные карты. Затем, алгоритмы машинного обучения по этим картам определяют, настоящий ли человек в кадре.

По мнению Intel, их разработка может найти применение в социальных сетях. Также технологию могут использовать глобальные новостные СМИ, чтобы проверять поступающую информацию на достоверность.

Обычные пользователи тоже могли бы использовать FakeCatcher в своих целях, считают в Intel. Однако для этого нужно, чтобы какая-либо некоммерческая организация взяла на себя поддержку этого направления.

«Сбер» запатентовал технологии по распознаванию дипфейков

«Сбер» получил два патента Федеральной службы по интеллектуальной собственности на технологии, касающиеся распознавания дипфейков. Разработанные алгоритмы позволяют повысить точность и эффективность обнаружения синтетического изменения изображений лиц людей в видео.

 Источник изображений: pixabay.com

Источник изображений: pixabay.com

Сообщается, что основу технологий составляет ряд ансамблей нейросетевых моделей класса EfficientNet (патент №2768797) и метод амплификации и анализа средствами ИИ микроизменений в цветах объектов на кадрах (патент №2774624). Эти инструменты объединены в одну систему, что позволяет с высокой точностью выявлять дипфейки.

Важно отметить, что система способна анализировать видеоконтент с несколькими лицами в кадре. В этом случае выявляется отдельное лицо, созданное синтетическим образом, и оценивается его достоверность, что позволяет противодействовать ряду методов обхода систем обнаружения дипфейков.

Запатентованные технологии предназначены для защиты от кибератак с обходом систем Face Recognition и Liveness Detection, выявления на ранних стадиях информационных атак с целью борьбы с фейковыми новостями, а также для обеспечения защиты переговоров по видеоконференцсвязи.

«Показатели эффективности системы при замерах на независимых тестовых выборках составили 98 %, что существенно выше показателей опубликованных аналогов», — заявляет «Сбер».

Злоумышленники стали использовать дипфейки для дистанционного устройства на работу и кражи корпоративных данных

Технологии т. н. «дипфейков» позволяют использовать ИИ-решения для создания ложных персонажей. С их помощью можно смоделировать видео или тембр голоса практически любого человека. По данным Федерального бюро расследований (ФБР), данные технологии стали часто практиковаться злоумышленниками для прохождения онлайн-собеседований при устройстве на удалённую работу.

 Источник изображения: Sander Sammy/unsplash.com

Источник изображения: Sander Sammy/unsplash.com

Недавно Центр рассмотрения жалоб на преступления в Сети, подведомственный ФБР (IC3), выпустил оповещение, в котором предупредил об участившихся случаях использования дипфейков и кражах персональной информации при подаче заявок на открытые вакансии и прохождении удалённых бесед для получения работы, предусматривающей деятельность не выходя из дома.

Помимо относительно безобидных поводов использования дипфейков и обмана работодателей подобные средства могут использоваться злоумышленниками для внедрения злоумышленников на предприятия для получения конфиденциальной информации или выполнения прочих преступных действий.

За короткое время технологии создания дипфейков стремительно эволюционировали, но наблюдательные зрители всё равно могут разглядеть подмену, например, несоответствие движений губ произносимым словам или звуки кашля и чихания, не совпадающие с мимикой человека на видео.

По данным ФБР, с использованием дипфейков злоумышленники уже пытались устроиться на позиции, связанные с информационными технологиями и программированием, работой с базами данных и прочими вакансиями, так или иначе связанными с ПО. Некоторые из этих позиций предусматривают доступ к информации о клиентах бизнеса, финансовых данных, тем или иным базам или иной конфиденциальной информации, имеющей ценность на чёрном рынке. Компаниям и другим жертвам подобной активности в США рекомендуется обращаться в ФБР. Не исключено, что в России и окружающих её странах соответствующие технологии вскоре тоже найдут широкое применение.


window-new
Soft
Hard
Тренды 🔥
Директор по маркетингу Xbox променял Microsoft на Roblox 5 ч.
С чистого листа: VMware возобновила сотрудничество с Dell и подписала OEM-соглашения с Lenovo и HPE 5 ч.
Утечка раскрыла первые детали сюжета и концепт-арты Wonder Woman — одиночного боевика про Чудо-женщину от создателей Middle-earth: Shadow of War 7 ч.
Календарь релизов 17–23 июня: Elden Ring: Shadow of the Erdtree, Still Wakes the Deep и Aska 7 ч.
На Adobe подали в суд из-за слишком сложного механизма отмены платных подписок 7 ч.
«Стремимся двигаться дальше и делать что-то новое»: патч с поддержкой модов станет последним крупным обновлением для Baldur's Gate 3 8 ч.
В Windows 11 вернулась полезная функция из Windows 10 — «Списки быстрого перехода» в меню «Пуск» 10 ч.
CI Games подтвердила, когда выйдет следующая Lords of the Fallen — похоже, на ПК игра станет эксклюзивом Epic Games Store 10 ч.
Google сменила приоритет в ИИ: коммерческие продукты взяли верх над научными исследованиями 10 ч.
Следующая презентация Nintendo Direct пройдёт уже завтра — новостей о Switch 2 на ней не будет 11 ч.
Новая статья: Кремниевая фотоника: нерядовой инструментарий для нерядовых задач 4 ч.
Nvidia подала апелляцию по делу об обмане акционеров в первый майнинговый бум 6 лет назад 5 ч.
Минпромторг опроверг информацию о приостановке субсидирования радиоэлектроники 6 ч.
Новая статья: Обзор планшета HUAWEI MatePad 11,5''S PaperMatte: недорогой профессионал 6 ч.
Три квантовых компьютера, NVIDIA DGX Quantum, немножко HPC и облако: в Израиле открыт уникальный центр квантовых вычислений IQCC 7 ч.
Samsung собралась устанавливать память HBM4 прямо на кристаллы GPU 7 ч.
Следующие Apple Watch станут тоньше, получат увеличенный экран и часть их компонентов напечатают на 3D-принтере 9 ч.
Nikon представила Z6 III — первую в мире камеру с частично многослойной матрицей 10 ч.
Logitech представила электронное перо MX Ink для VR-гарнитур Meta Quest 13 ч.
В России выйдут телефоны Philips Xenium с высокой автономностью 13 ч.