Сегодня 01 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Разработана система генерации голосовых дипфейков в реальном времени, и её наверняка будут использовать мошенники

Специализирующаяся на технологиях кибербезопасности компания NCC Group создала работающий на основе искусственного интеллекта метод воссоздания голоса любого человека, функционирующий в реальном времени. Система построена на общедоступных программных решениях и общедоступном оборудовании.

 Источник изображения: Vitaly Gariev / unsplash.com

Источник изображения: Vitaly Gariev / unsplash.com

Средство для создания голосовых дипфейков в реальном времени после обучения активируется всего одним нажатием кнопки — управление осуществляется при помощи веб-интерфейса, и потенциальный злоумышленник может изобразить из себя кого угодно. Невысоким может быть и качество входного сигнала — голос на выходе всё равно звучит убедительно, а задержка оказывается незначительной. Это значит, что данное решение можно использовать даже с микрофонами, встроенными в ноутбуки и смартфоны.

Работа в режиме реального времени — важное преимущество. Существующие технологии подделки голоса на выходе выдают звуковой файл. То есть злоумышленник может заранее записать реплики, но потенциальная жертва легко разоблачит схему, если разговор отклонится от ожидаемого сценария. А если мошенник попробует сгенерировать дипфейк на лету, его выдаст задержка в разговоре. Инженеры NCC Group опробовали свою технологию на собственных клиентах — с их разрешения, конечно — и те ни разу не заметили подвоха. В программной части решения используются инструменты с открытым исходным кодом, а для эффективной работы аппаратной желательно использовать мощные видеокарты, но и ноутбук с одной из наименее производительных в актуальной линейке Nvidia RTX A1000 давал задержку всего в полсекунды.

К счастью дипфейки с видеорядом пока не работают в реальном времени. Сейчас крупные соцсети, в том числе TikTok, YouTube и Instagram захлестнула очередная волна видеодипфейков, для создания которых используются два инструмента: генератор картинок Google Gemini Flash 2.5 Image (он же Nano Banana) и открытый генератор видео Alibaba WAN 2.2 Animate — они позволяют добавлять на видеоролик любого человека. Слабой стороной дипфейков с видео пока остаётся недостаточная согласованность картинки и звукового ряда — мимика не всегда соответствует интонациям, а если человек якобы взволнован, но его лицо остаётся спокойным — это, вероятно, подделка. Но новые решения заставляют задуматься о необходимости усовершенствовать средства защиты: методы аутентификации теперь не должны полагаться на голосовые и видеозвонки, предупреждают эксперты.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Microsoft запустила тестирование универсального апскейлера Auto SR для Windows 11 — пока только на Xbox Ally X 12 ч.
Атмосферный трейлер раскрыл дату погружения Subnautica 2 в ранний доступ — ждать осталось недолго 13 ч.
Google готова показывать рекламу в Gemini — OpenAI уже делает это в ChatGPT 13 ч.
«Продолжаете удивлять, капитаны!»: пиратский хит Windrose достиг новой вершины продаж и получил патч с техническими улучшениями 14 ч.
Обновлённые Microsoft PowerToys научились управлять мониторами и улучшили работу с окнами 14 ч.
OpenAI объяснила борьбу с гремлинами в ответах ИИ — и позволила снять ограничения 15 ч.
Работник Warner Bros. Games проговорился, что следующей игрой создателей Mortal Kombat станет Injustice 3 15 ч.
«DLSS 5 у нас дома»: Roblox готовит Reality — фотореалистичную игровую платформу с ИИ-рендерингом 15 ч.
Провайдер Cloudflare назвал мессенджер Max шпионским и вредоносным — разработчики ответили 17 ч.
VK получила из российского бюджета более 43,5 млрд рублей на «Макс» и «VK Видео» 17 ч.