Сегодня 18 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

В 2025 году дипфейки стали почти неотличимы от реальности, и дальше будет только хуже

За 2025 год качество дипфейков — создаваемых при помощи искусственного интеллекта медиафайлов — значительно повысилось. Лица, голоса и движения тела, которые ИИ генерирует, имитируя реальных людей, превзошли ожидания многих экспертов; эти материалы всё чаще используются, чтобы обманывать людей, предупреждает Gizmodo.

 Источник изображения: Tom Kotov / unsplash.com

Источник изображения: Tom Kotov / unsplash.com

Во многих повседневных ситуациях, будь то видеозвонки низкого разрешения или медиаконтент в соцсетях, качество ИИ-дипфейков уже достаточно высоко, чтобы обмануть простых людей, которые не являются экспертами. Качеством всплеск дипфейков не ограничивается: в 2023 году таких материалов было 500 тыс., а в 2025 году их стало около 8 млн, подсчитали в DeepStrike, и темпы роста составляют около 900 % в год.

Резкому росту показателей способствовали несколько технических прорывов. Во-первых, генерируемые ИИ материалы отличаются согласованностью по времени: люди в кадре правдоподобно движутся, люди легко узнаются, а содержание видео остаётся осмысленным в каждом кадре. Модели отделяют информацию, связанную с представлением личности человека, от информации о движении: одно и то же движение может сопоставляться с разными личностями, а одна и та же личность — с несколькими типами движений. Изображения лиц не мерцают, не искажаются и не имеют деформаций, которые раньше явно указывали на дипфейки.

Во-вторых, качество клонирования голоса уже преодолело условный порог неразличимости. Чтобы создать убедительную имитацию голоса, достаточно нескольких секунд — у клона будут естественная интонация, ритм, акцент, эмоции, паузы и даже шум дыхания. И это огромное пространство для крупномасштабного мошенничества. Субъективные признаки, которые раньше выдавали синтетические голоса, в значительной степени исчезли.

В-третьих, технический барьер для работы с генераторами контента, снизился практически до нуля — с OpenAI Sora 2 и Google Veo 3, а также с моделями некоторых стартапов любой желающий может сформулировать идею, составить подробный сценарий при помощи OpenAI ChatGPT или Google Gemini и в считанные минуты сгенерировать качественный контент. Автоматизировать весь процесс можно при помощи ИИ-агентов. В итоге возможность создавать связные дипфейки с сюжетами в больших масштабах уже демократизировали.

 Источник изображения: Mark Farías / unsplash.com

Источник изображения: Mark Farías / unsplash.com

Выявлять неотличимые от реальных людей дипфейки в социальных сетях становится крайне непросто, тем более, что внимание пользователей платформ уже фрагментировано, и материалы распространяются быстрее, чем их можно проверить. Дипфейки используются для дезинформации, преследования людей и финансовых махинаций, и люди не успевают понять, что вообще происходит.

Траектория на следующий год представляется очевидной — дипфейки движутся в сторону генерации контента в реальном времени. Видеоролики максимально точно имитируют нюансы внешности человека и оказываются способны обходить системы обнаружения. Граница смещается от статического визуального реализма к согласованности по времени и поведению — контент будет появляться в реальном времени, и предварительно отрисованными клипами дело уже не обойдётся. Результат выйдет за рамки простого узнавания человека — персонажи на роликах будут вести себя как их реальные прототипы. Участники видеозвонков смогут синтезироваться в реальном времени — их лица, голоса и манеры будут мгновенно адаптироваться к запросам, и вместо записанных видеороликов мошенники станут показывать своим жертвам подобные ИИ-аватары.

Субъективное восприятие уже не поможет людям защититься от подобных дипфейков — потребуются технические средства защиты, например, криптографическая подпись подлинных материалов и маркировка средств ИИ-редактирования. Тщательного изучения картинки на уровне пикселей может оказаться уже недостаточно.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Стартап Сэма Альтмана хочет привязать действия ИИ-агентов к скану радужки 8 мин.
Microsoft передумала принудительно добавлять ИИ-помощника Copilot в «Пуск» Windows 11 30 мин.
Дыра в безопасности процессоров MediaTek может оказаться куда шире, чем считалось ранее 34 мин.
Суд решил, что Apple может удалять приложения из App Store в любой момент и без объяснения причин 49 мин.
Windows 11 с двумя кнопками «Пуск» — пользователей возмутили ИИ-картинки в материалах Microsoft 50 мин.
Bethesda не бросит Starfield после дополнения Terran Armada — игру будут поддерживать «годами» 60 мин.
ZA/UM «по многочисленным просьбам» продлила доступ к демоверсии шпионской ролевой игры Zero Parades: For Dead Spies в духе Disco Elysium 2 ч.
Intel выпустила драйверы с «доставкой» предварительно скомпилированных шейдеров 6 ч.
ПК-версия Death Stranding 2: On the Beach попала в руки пиратов за два дня до релиза 6 ч.
Настольная карточная игра Cyberpunk TCG по Cyberpunk 2077 снискала оглушительный успех на Kickstarter — более $7,5 млн за сутки 7 ч.
BenQ выпустила 28-дюймовый 4K-монитор RD280UG с нетипичным соотношением сторон для программистов 11 мин.
ИИ становится дороже: Alibaba резко подняла цены на облачные услуги 20 мин.
Москвичи стали чаще звонить и писать SMS из-за отключений мобильного интернета 29 мин.
Samsung разморозила разработку настоящих QNED-дисплеев — как OLED, но без «органики» 31 мин.
В США разрешили ограниченное использование электрических аэротакси для коммерческих полётов 35 мин.
Почти $1000 за терабайт: SSD формата M.2 на 16 Тбайт впервые добрался до розницы 44 мин.
Hydromea и Equinor продемонстрировали широкополосную передачу данных с морского дна в облако 5 ч.
AMD и Samsung расширили партнёрство по памяти HBM4 для ИИ-ускорителей 5 ч.
Скандал с подменой Ryzen расширился — проблема выявлена в ноутбуках Ninkear, вероятно из-за OEM-производителя 5 ч.
Нашлось всё: в образцах с астероида Рюгу обнаружены все азотистые основания для зарождения жизни 5 ч.