Сегодня 29 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → дипфейки

ООН рассказала об использовании Telegram преступными сетями из Юго-Восточной Азии

Представитель ООН заявил, что в Telegram открыто и в огромных масштабах продаются похищенные данные, а также доступны инструменты для киберпреступников и услуги по отмыванию денег. В недавно опубликованном докладе ООН утверждается, что преступные группировки Юго-Восточной Азии широко используют приложение, что позволяет им вести крупномасштабную незаконную деятельность.

 Источник изображения: Pixabay

Источник изображения: Pixabay

В отчёте Управления ООН по наркотикам и преступности (УНП ООН) говорится, что в Telegram широко продаются похищенные персональные данные, что авторы отчёта связывают со слабой модерацией в приложении. Широко доступны также инструменты, используемые киберпреступниками, включая программное обеспечение для создания дипфейков и вредоносное ПО для кражи данных, а нелицензированные криптовалютные биржи предлагают в Telegram услуги по отмыванию денег.

Юго-Восточная Азия стала крупным центром многомиллиардной криминальной индустрии, которая использует мошеннические схемы для поиска жертв по всему миру. По данным УНП ООН, отрасль ежегодно генерирует от 27,4 до 36,5 млрд долларов. В качестве примера цитируется рекламное объявление на китайском языке: «Мы ежедневно переводим 3 миллиона долларов США, украденных из-за рубежа». В докладе идёт речь о китайских преступных синдикатах, замешанных в торговле людьми и использовании рабского труда.

«Есть убедительные доказательства того, что подпольные рынки данных перемещаются в Telegram, а поставщики активно ищут цели для транснациональных организованных преступных группировок, базирующихся в Юго-Восточной Азии», — говорится в отчёте.

В августе в Париже создателю и главе мессенджера Павлу Дурову были предъявлены обвинения по шести пунктам, в том числе в отказе от сотрудничества. Самый тяжкий пункт — соучастие в администрировании онлайн-платформы для совершения незаконных транзакций. За это Дурову грозит наказание до десяти лет лишения свободы и штраф до €500 тыс. Поводом для ареста Дурова стал отказ администрации мессенджера от сотрудничества с властями Евросоюза, а политика модерации давно вызывала критику у властей. Париж также оказался разочарован отказом платформы сотрудничать конкретно с французскими властями.

После ареста Дуров заявил, что приложение станет передавать IP-адреса и номера телефонов пользователей властям, подающим официальные юридические запросы. Он также пообещал, что будут удалены некоторые функции, которые использовались для незаконной деятельности. Арест Дурова привлёк внимание к ответственности поставщиков приложений, а также вызвал дебаты о том, где заканчивается свобода слова и начинается исполнение закона.

В отчёте УГП ООН говорится, что размах деятельности преступных группировок в регионе привёл к внедрению ими инноваций и новых бизнес-моделей и технологий, включая вредоносное ПО, генеративный ИИ и дипфейки.

Заместитель представителя УНП ООН Бенедикт Хофман (Benedikt Hofmann) заявил, что приложение является удобной средой для преступников. «Для потребителей это означает, что их данные подвергаются большему риску попасть к мошенникам или в другую преступную схему, чем когда-либо прежде», — считает он. По словам Хофмана, УНП ООН выявило более 10 поставщиков услуг программного обеспечения для создания дипфейков, «специально нацеленных на преступные группы, занимающиеся кибермошенничеством в Юго-Восточной Азии».

В настоящее время регулирующие органы Южной Кореи проводят расследование о причастности мессенджера Telegram к распространению дипфейков сексуального содержания из-за недостаточной модерации. Сообщается, что в Telegram есть каналы с более чем 200 000 подписчиков, где распространяется такой контент.

В прошлом месяце агентство Reuters сообщило, что чат-боты Telegram использовались для кражи данных из ведущей индийской страховой компании Star Health, что побудило страховую компанию подать в суд на онлайн-платформу. К преступникам могли попасть документы по страхованию и претензиям, содержащие имена, номера телефонов, адреса, налоговые реквизиты, копии удостоверений личности, результаты анализов и медицинские диагнозы.

Напомним, что бот для передачи информации о нарушениях правил мессенджера Telegram заработал в России с 23 сентября.

Южная Корея ввела уголовную ответственность за просмотр, хранение и  распространение сексуальных дипфейков

26 сентября южнокорейский парламент принял законопроект, предусматривающий уголовную ответственность за распространение, хранение и просмотр видео или изображений, содержащих дипфейки откровенно сексуального характера. За просмотр и хранение такого контента закон предусматривает наказание в виде тюремного заключения на срок до трёх лет или штрафа до 30 млн вон ($22,6 тыс.), а за создание подобных дипфейков грозит заключение сроком до пяти лет или штраф.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Только в этом году южнокорейская полиция получила более 800 заявлений о создании дипфейков сексуального содержания. В частности, регулирующие органы Южной Кореи проводят расследование о причастности мессенджера Telegram к распространению такого контента из-за недостаточной модерации. Сообщается, что в Telegram есть каналы с более чем 200 000 подписчиков, где распространяется такой контент.

Чтобы нынешний закон вступил в силу, его должен подписать президент Южной Кореи Юн Сок Ель.

Российские законодатели также на днях предложили добавить ответственность за дипфейки в Уголовный кодекс — в Госдуму внесён законопроект, предлагающий признать использование дипфейков отягощающим обстоятельством при мошенничестве и клевете.

YouTube больше не станет терпеть дипфейки и ИИ-плагиат

YouTube сказал твёрдое «нет» дипфейкам и ИИ-плагиату, защищая права авторов на платформе. По данным The Verge, компания начинает разработку новых инструментов, которые дадут создателям контента больше контроля над использованием их голоса и образа, сгенерированного искусственным интеллектом.

 Источник изображения: convertcrypto.ru

Источник изображения: convertcrypto.ru

Первый инструмент, получивший название «технология идентификации синтезированного пения», позволит артистам и авторам автоматически распознавать и управлять контентом YouTube, в котором их голоса имитируются с помощью искусственного интеллекта. Эта технология будет интегрирована в существующую систему идентификации авторских прав Content ID и запущена в рамках пилотной программы в следующем году.

Решение YouTube связано с растущим беспокойством в музыкальной индустрии по поводу использования ИИ для создания копий песен и голосов артистов. В открытом письме, опубликованном ранее в этом году, более 200 артистов, включая Билли Айлиш (Billie Eilish), Pearl Jam (Pearl Jam) и Кэти Перри (Katy Perry), назвали несанкционированное ИИ-копирование «посягательством на человеческий творческий потенциал» и потребовали от видеохостинга большей ответственности в этом отношении.

Помимо защиты голосов, YouTube на своей платформе также разрабатывает инструмент для выявления дипфейков лиц и образов авторов, актёров, музыкантов и спортсменов. Однако система ещё находится в разработке и не сообщается, когда она будет запущена.

В дополнение к этому, YouTube обещает бороться с теми, кто собирает данные с платформы для обучения ИИ-моделей. «Мы ясно дали понять, что несанкционированный доступ к контенту авторов нарушает наши условия обслуживания», — заявили представители YouTube. Однако это не помешало таким компаниям, как OpenAI, Apple, Anthropic, Nvidia, Salesforce и Runway AI, обучать свои ИИ-системы на тысячах скачанных с YouTube видео. Для защиты контента от ботов-сканеров YouTube планирует блокировать им доступ полностью и для этого начнёт инвестировать в систему обнаружения сбора данных.

Также заявляется, что разрабатываются способы предоставления авторам больше возможностей в отношении того, как сторонние компании, занимающиеся ИИ, всё же смогли бы использовать их контент на платформе, очевидно делясь заработками. Более подробная информация об этом выйдет позднее в этом году.

Политические дипфейки оказались самой популярным направлением в злоупотреблениях ИИ

Исследование Google DeepMind выявило, что злоупотребления искусственным интеллектом (ИИ) в форме дипфейков — реалистичных поддельных изображений политиков и знаменитостей или их видео и аудио — намного превосходят использование ИИ для кибератак.

 Источник изображения: Kandinsky

Источник изображения: Kandinsky

Согласно анализу, проведённому совместно с исследовательским подразделением группы Jigsaw, наиболее распространённой целью злоупотреблений генеративным ИИ стало формирование общественного мнения или влияние на него, что составило 27 % всех случаев использования искусственного интеллекта, сообщает Ars Technica.

Такие данные вызывают у экспертов серьёзные опасения по поводу влияния дипфейков на предстоящие во многих странах мира выборы в 2024 году. Отмечается, что в последние месяцы в социальных сетях, таких как TikTok, X и Instagram✴, появились дипфейки премьер-министра Великобритании Риши Сунака (Rishi Sunak) и других мировых лидеров. Избиратели Великобритании пойдут на всеобщие выборы уже на следующей неделе, и существует обеспокоенность тем, что, несмотря на усилия платформ социальных сетей по маркировке или удалению такого контента, аудитория может не распознать его как фейк, что потенциально повлияет на решения избирателей.

Арди Янжева (Ardi Janjeva), научный сотрудник Института Алана Тьюринга (The Alan Turing Institute), отмечает, что распространение контента, созданного ИИ, может «искажать наше коллективное понимание социально-политической реальности», что представляет долгосрочные риски для демократических процессов, даже если прямое влияние на поведение избирателей пока не доказано.

По мере роста популярности генеративных ИИ-продуктов, таких как ChatGPT от OpenAI и Gemini от Google, компании, разрабатывающие ИИ, начинают более пристально следить за потенциально вредным или неэтичным контентом, создаваемым их инструментами. Например, в мае OpenAI опубликовала исследование, показавшее использование их инструментов для создания и распространения дезинформации, связанное с Россией, Китаем, Ираном и Израилем.

Второй по распространённости мотивацией злоупотреблений стало получение финансовой выгоды, например, через предложение услуг по созданию дипфейков, включая создание изображений реальных людей, или использование генеративного ИИ для создания фейковых новостных статей.

Исследование показало, что в большинстве инцидентов используются легкодоступные инструменты, не требующие глубоких технических знаний, что в свою очередь только может увеличивать рост числа злоумышленников в среде ИИ.

Одновременно результаты исследования Google DeepMind повлияют на действия ИИ-компаний для проверки моделей на безопасность и оценку не только пользы, но и потенциального вреда от использования генеративного ИИ.

Поддельный Илон Маск продвигает мошеннические схемы с криптовалютой на YouTube Live

Голос Илона Маска (Elon Musk), сгенерированный искусственным интеллектом, в сегодняшней прямой трансляции посоветовал зрителям разместить криптовалюту на сомнительном сайте. В пятичасовом эфире на YouTube Live был показан фрагмент видеоряда с мероприятия Tesla, где Маск якобы призывает зрителей внести криптовалюту, чтобы принять участие в розыгрыше. Всем участникам был обещан автоматический возврат внесённой суммы в двойном размере.

 Источник изображений: Engadget

Источник изображений: Engadget

В какой-то момент трансляцию одновременно смотрели более 30 000 зрителей (не исключена накрутка ботами), что подняло её на вершину рекомендаций YouTube Live Now. Учётная запись @elon.teslastream, имела значок подтверждённого официального канала, что может говорить о взломе учётной записи. Через некоторое время и видео, и канал были удалены.

Число подобных дипфейковых мошенничеств от лица Маска резко возросло за последние месяцы. В каждом случае преступники используют учётную запись якобы одной из компаний Маска. Сегодняшнее видео имело подзаголовок «Tesla представляет шедевр: Tesla, которая навсегда изменит автомобильную промышленность». В начале июня, во время запуска Starship, сообщалось об аналогичных мошенничествах, проводимых 35 аккаунтами от лица SpaceX.

Криптовалютные преступления, нацеленные на последователей Маска в социальных сетях, уже много лет является проблемой, как и мошенничество с участием знаменитостей в целом. 21 июня были одновременно взломаны сайт и аккаунт в социальной сети X рэпера 50 Cent. Точная сумма ущерба неясна, по слухам, преступники украли мемкойн GUNIT на сумму около $3 млн.

Государство получит право использовать голоса россиян после их смерти без согласия родственников

Голоса россиян будут защищены от неправомерного использования — это регламентирует проект закона «Об охране голоса», разработанный Альянсом в сфере ИИ и Национальной федерацией музыкальной индустрии (НФМИ). Вместе с тем государство получит право использовать в общественных интересах голос гражданина после его смерти без согласия родственников. Об этом сообщили «Ведомости» со ссылкой на заявление члена Совета Федерации по конституционному законодательству и госстроительству Артёма Шейкина, а также разработчиков документа.

 Источник изображения: Soundtrap / unsplash.com

Источник изображения: Soundtrap / unsplash.com

Законопроект предусматривает внесение изменений в Гражданский кодекс (ГК). В общем случае для обнародования и дальнейшего использования голоса гражданина требуется его согласие; после его смерти согласие необходимо получать у супруга, детей или родителей. Но если голос предполагается использовать в государственных или общественных интересах, то такое согласие не требуется — при условии, что голос записывался за плату или в публичных местах.

Документ описывает механизм правовой защиты голоса от неправомерного использования и создания дипфейков на основе его записей. В рамках работы секции «Искусственный интеллект» Совета по развитию цифровой экономики при Совете Федерации анализировались предложения экспертов и профильных ведомств по определению дипфейка. «Сейчас мы находимся на завершающем этапе проработки этого определения, которое будет закреплено в законопроекте», — сообщил господин Шейкин. Уже готовится итоговая версия законопроекта — после получения отзыва от правительства он будет внесён в Госдуму.

 Источник изображения: Studio_Iris / pixabay.com

Источник изображения: Studio_Iris / pixabay.com

«Если голос гражданина, воссозданный с помощью специальных технологий, получен или используется в интернете с нарушением закона, гражданин вправе требовать удаления этой записи, а также пресечения или запрещения её дальнейшего использования и распространения», — считает Артём Шейкин. Нарушения ГК предусматривают последствия в виде возмещения убытков и вреда, выплат неустойки, приостановления или прекращения определённой деятельности, возврата неосновательного обогащения и другие меры. Российское законодательство в существующем виде охраняет лишь фотографическое изображение человека, а нормы, которые защищают артистов и дикторов от использования их синтезированных голосов и цифровых образов, пока отсутствуют, отметили в НФМИ.

Речевые особенности человека не охраняются правом ни в одной стране мира, отмечают опрошенные «Ведомостями» эксперты, хотя в России действуют законы «О персональных данных» и «О биометрических данных», которые требуют обрабатывать данные, включая голос, лишь с согласия человека. Принятие нового закона сформирует базу для разрешения споров в области прав на голос — к примеру, до сих пор нет ясности, кому принадлежит воспроизведённый нейросетью голос человека: ему самому или разработчику этой нейросети. Так, американская актриса Скарлетт Йоханссон (Scarlett Johansson) уже минимум дважды была вынуждена отстаивать право на собственный голос.

Сейчас также распространилась мошенническая схема с использованием сгенерированных голосовых записей, призванных убедить жертву перевести деньги злоумышленникам. Предложенный законопроект конкретных мер ответственности за неправомерное использование голоса не предусматривает, но есть и другой, который предусматривает внесение поправок уже в Уголовный кодекс РФ — он также ещё не внесён в Госдуму.

McAfee продемонстрировала детектор звуковых дипфейков

На мероприятии RSA Conference компания McAfee продемонстрировала систему Deepfake Detector, работа над которой ведётся при участии Intel. Система, первоначально называвшаяся Project Mockingbird, предназначена для обнаружения звуковых дипфейков — аудиоподделок, созданных при помощи искусственного интеллекта.

 Источник изображения: S. Keller / pixabay.com

Источник изображения: S. Keller / pixabay.com

Технический директор McAfee Стив Гробман (Steve Grobman) показал работу Deepfake Detector на примере двух видеороликов — показ видео сопровождается информацией от ИИ-детектора, которая выводится в строке состояния. При запуске видеоролика, не подвергавшегося обработке, система показала нулевую вероятность подделки. Далее было запущено явно фейковое видео, на которое система сразу отреагировала показателем в 60 %, и по мере просмотра вероятность выросла до 95 %.

С момента первой демонстрации на CES 2024 инженеры McAfee оптимизировали систему для работы с ИИ-ускорителями Intel NPU на чипах Meteor Lake, что позволило увеличить производительность на 300 %. Можно запускать несколько процессов Deepfake Detector для одновременного анализа нескольких видеороликов; хотя и видеозаписями возможности системы не ограничиваются — она может анализировать звук любого приложения в системе. А локальный режим её работы вместо запуска из облака означает высокую конфиденциальность — анализируемые данные не покидают компьютера.

Авторы проекта преднамеренно ограничились работой со звуком: специалисты McAfee по борьбе с угрозами обнаружили, что во многих публикуемых мошенниками видеороликах используется настоящее видео с поддельным звуком. Фальшивый звук сопровождает и поддельное видео, а значит, постоянной величиной чаще всего оказывается подделка аудио. Сейчас компания работает над адаптацией технологии для потребителей — для этого управление программой будет необходимо сделать предельно простым и понятным.


window-new
Soft
Hard
Тренды 🔥
Разработчики Greedfall и Steelrising подтвердили закрытие студии — DLC для Greedfall: The Dying World выпустит Nacon, «а потом всё» 54 мин.
Microsoft встроит ИИ в «Часы» в Windows 11 — и превратит их в приложение для повышения концентрации 3 ч.
«Один из лучших месяцев в истории»: Sony приятно удивила фанатов майской подборкой игр PS Plus 3 ч.
Новый трейлер подтвердил дату выхода Phonopolis — авангардной головоломки от создателей Samorost и Machinarium 4 ч.
Google TV получит новые ИИ-функции, а на главном экране появятся YouTube Shorts 4 ч.
Во время майских праздников в Москве могут отключить мобильный интернет 4 ч.
Симулятор выживания в заброшенной сибирской деревне Midnight Watcher: Village получил атмосферный трейлер 4 ч.
Microsoft опубликовала исходники 86-DOS и PC-DOS 1.00 с дополнительными материалами — распечатки пылились в гараже больше 45 лет 5 ч.
Представлен десктопный ИИ-агент Amazon Quick — он выполняет часовые задачи за минуты 5 ч.
Спустя почти два года пираты всё-таки взломали Denuvo в Black Myth: Wukong — гипервизор не требуется 5 ч.
ИИ ЦОД Project Jupiter для OpenAI запитают от топливных элементов Bloom Energy мощностью 2,45 ГВт 37 мин.
Китайские учёные преуспели в превращении углекислого газа в керосин — к этому подтолкнул иранский кризис 54 мин.
Motorola представила смартфон Moto G87 c Dimensity 6400 и 200-Мп камерой за €399 57 мин.
Ozon разрабатывает собственный WAF 2 ч.
Motorola выпустила глобальную версию Razr 70 Plus со Snapdragon 8s Gen 3, парой 50-Мп камер и батареей на 4500 мА·ч 2 ч.
Motorola представила смартфоны-раскладушки Razr 70 и Razr 70 Ultra — изменений мало, но цены выше 2 ч.
Мониторы Philips Evnia получили функцию AmbiScape для синхронизации умных светильников с играми 3 ч.
Поставки кремниевых пластин в первом квартале 2026 года выросли на 13 % благодаря буму ИИ 3 ч.
Китай пригрозил ответными мерами в случае запрета в ЕС оборудования Huawei 4 ч.
Caviar представила четвёрку розовых iPhone 17 Pro и Pro Max, украшенных золотом и бриллиантами 4 ч.