Сегодня 14 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

В 2025 году дипфейки стали почти неотличимы от реальности, и дальше будет только хуже

За 2025 год качество дипфейков — создаваемых при помощи искусственного интеллекта медиафайлов — значительно повысилось. Лица, голоса и движения тела, которые ИИ генерирует, имитируя реальных людей, превзошли ожидания многих экспертов; эти материалы всё чаще используются, чтобы обманывать людей, предупреждает Gizmodo.

 Источник изображения: Tom Kotov / unsplash.com

Источник изображения: Tom Kotov / unsplash.com

Во многих повседневных ситуациях, будь то видеозвонки низкого разрешения или медиаконтент в соцсетях, качество ИИ-дипфейков уже достаточно высоко, чтобы обмануть простых людей, которые не являются экспертами. Качеством всплеск дипфейков не ограничивается: в 2023 году таких материалов было 500 тыс., а в 2025 году их стало около 8 млн, подсчитали в DeepStrike, и темпы роста составляют около 900 % в год.

Резкому росту показателей способствовали несколько технических прорывов. Во-первых, генерируемые ИИ материалы отличаются согласованностью по времени: люди в кадре правдоподобно движутся, люди легко узнаются, а содержание видео остаётся осмысленным в каждом кадре. Модели отделяют информацию, связанную с представлением личности человека, от информации о движении: одно и то же движение может сопоставляться с разными личностями, а одна и та же личность — с несколькими типами движений. Изображения лиц не мерцают, не искажаются и не имеют деформаций, которые раньше явно указывали на дипфейки.

Во-вторых, качество клонирования голоса уже преодолело условный порог неразличимости. Чтобы создать убедительную имитацию голоса, достаточно нескольких секунд — у клона будут естественная интонация, ритм, акцент, эмоции, паузы и даже шум дыхания. И это огромное пространство для крупномасштабного мошенничества. Субъективные признаки, которые раньше выдавали синтетические голоса, в значительной степени исчезли.

В-третьих, технический барьер для работы с генераторами контента, снизился практически до нуля — с OpenAI Sora 2 и Google Veo 3, а также с моделями некоторых стартапов любой желающий может сформулировать идею, составить подробный сценарий при помощи OpenAI ChatGPT или Google Gemini и в считанные минуты сгенерировать качественный контент. Автоматизировать весь процесс можно при помощи ИИ-агентов. В итоге возможность создавать связные дипфейки с сюжетами в больших масштабах уже демократизировали.

 Источник изображения: Mark Farías / unsplash.com

Источник изображения: Mark Farías / unsplash.com

Выявлять неотличимые от реальных людей дипфейки в социальных сетях становится крайне непросто, тем более, что внимание пользователей платформ уже фрагментировано, и материалы распространяются быстрее, чем их можно проверить. Дипфейки используются для дезинформации, преследования людей и финансовых махинаций, и люди не успевают понять, что вообще происходит.

Траектория на следующий год представляется очевидной — дипфейки движутся в сторону генерации контента в реальном времени. Видеоролики максимально точно имитируют нюансы внешности человека и оказываются способны обходить системы обнаружения. Граница смещается от статического визуального реализма к согласованности по времени и поведению — контент будет появляться в реальном времени, и предварительно отрисованными клипами дело уже не обойдётся. Результат выйдет за рамки простого узнавания человека — персонажи на роликах будут вести себя как их реальные прототипы. Участники видеозвонков смогут синтезироваться в реальном времени — их лица, голоса и манеры будут мгновенно адаптироваться к запросам, и вместо записанных видеороликов мошенники станут показывать своим жертвам подобные ИИ-аватары.

Субъективное восприятие уже не поможет людям защититься от подобных дипфейков — потребуются технические средства защиты, например, криптографическая подпись подлинных материалов и маркировка средств ИИ-редактирования. Тщательного изучения картинки на уровне пикселей может оказаться уже недостаточно.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Фильм по The Legend of Zelda выйдет раньше ожидаемого — премьеру опять перенесли 30 мин.
Яростный мультиплеерный шутер Hell Let Loose: Vietnam отправит игроков воевать во вьетнамские джунгли — новый трейлер и дата выхода 3 ч.
AMD выпустила драйвер с поддержкой Forza Horizon 6 и 007 First Light 4 ч.
Subnautica 2 вышла в раннем доступе — продажи уже превысили миллион копий 4 ч.
Видеокарты Radeon RX 6000 и RX 7000 получат поддержку масштабирования AMD FSR 4.1 6 ч.
Amazon отменила MMO по «Властелину колец», но уже взялась за новую «захватывающую» игру 6 ч.
Google урезает лимиты: некоторым новым пользователям Gmail выделяют всего 5 Гбайт вместо 15 Гбайт 6 ч.
Anthropic заявила, что ИИ уже пишет более 90 % её кода 6 ч.
Virtuozzo предложила инфраструктурную систему V/IS для ИИ, которая поможет справиться с ростом цен на ПО VMware 7 ч.
OpenAI предложила создать глобальный орган контроля ИИ с участием Китая и США 7 ч.
Nvidia мчится к капитализации в $6 трлн — за неделю акции выросли на 20 % 2 ч.
Крупнейший солнечный беспилотник совершил рекордный по длительности полёт и пропал в океане 2 ч.
Microsoft готовит компактный Xbox-контроллер для облачного гейминга 2 ч.
Угроза забастовки на полупроводниковых фабриках Samsung снова разогнала цены на память 2 ч.
Microsoft заподозрили в подавлении конкуренции через Word, Teams и Copilot 2 ч.
Razer представила игровой ноутбук Blade 18 с производительностью настольного ПК 2 ч.
«Несчастны все, кроме руководства»: в Meta рекордно упал моральный дух, несмотря на рекордные прибыли 5 ч.
Благодаря спросу на ИИ AMD нарастила долю на рынке серверных CPU, а Intel потихоньку теснит Arm 5 ч.
MSI выпустит очень лимитированную GeForce RTX 5080 в стиле «Мандалорца и Грогу» 6 ч.
NASA раскрыло подробности грядущей лунной миссии Artemis III, которая не полетит на Луну 7 ч.