Сегодня 30 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Политические дипфейки оказались самой популярным направлением в злоупотреблениях ИИ

Исследование Google DeepMind выявило, что злоупотребления искусственным интеллектом (ИИ) в форме дипфейков — реалистичных поддельных изображений политиков и знаменитостей или их видео и аудио — намного превосходят использование ИИ для кибератак.

 Источник изображения: Kandinsky

Источник изображения: Kandinsky

Согласно анализу, проведённому совместно с исследовательским подразделением группы Jigsaw, наиболее распространённой целью злоупотреблений генеративным ИИ стало формирование общественного мнения или влияние на него, что составило 27 % всех случаев использования искусственного интеллекта, сообщает Ars Technica.

Такие данные вызывают у экспертов серьёзные опасения по поводу влияния дипфейков на предстоящие во многих странах мира выборы в 2024 году. Отмечается, что в последние месяцы в социальных сетях, таких как TikTok, X и Instagram, появились дипфейки премьер-министра Великобритании Риши Сунака (Rishi Sunak) и других мировых лидеров. Избиратели Великобритании пойдут на всеобщие выборы уже на следующей неделе, и существует обеспокоенность тем, что, несмотря на усилия платформ социальных сетей по маркировке или удалению такого контента, аудитория может не распознать его как фейк, что потенциально повлияет на решения избирателей.

Арди Янжева (Ardi Janjeva), научный сотрудник Института Алана Тьюринга (The Alan Turing Institute), отмечает, что распространение контента, созданного ИИ, может «искажать наше коллективное понимание социально-политической реальности», что представляет долгосрочные риски для демократических процессов, даже если прямое влияние на поведение избирателей пока не доказано.

По мере роста популярности генеративных ИИ-продуктов, таких как ChatGPT от OpenAI и Gemini от Google, компании, разрабатывающие ИИ, начинают более пристально следить за потенциально вредным или неэтичным контентом, создаваемым их инструментами. Например, в мае OpenAI опубликовала исследование, показавшее использование их инструментов для создания и распространения дезинформации, связанное с Россией, Китаем, Ираном и Израилем.

Второй по распространённости мотивацией злоупотреблений стало получение финансовой выгоды, например, через предложение услуг по созданию дипфейков, включая создание изображений реальных людей, или использование генеративного ИИ для создания фейковых новостных статей.

Исследование показало, что в большинстве инцидентов используются легкодоступные инструменты, не требующие глубоких технических знаний, что в свою очередь только может увеличивать рост числа злоумышленников в среде ИИ.

Одновременно результаты исследования Google DeepMind повлияют на действия ИИ-компаний для проверки моделей на безопасность и оценку не только пользы, но и потенциального вреда от использования генеративного ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Выручка от Game Pass выросла на 1 % на фоне падения продаж консолей почти на 30 % 46 мин.
Разработчики Greedfall и Steelrising подтвердили закрытие студии — DLC для Greedfall: The Dying World выпустит Nacon, «а потом всё» 8 ч.
Microsoft встроит ИИ в «Часы» в Windows 11 — и превратит их в приложение для повышения концентрации 10 ч.
«Один из лучших месяцев в истории»: Sony приятно удивила фанатов майской подборкой игр PS Plus 10 ч.
Новый трейлер подтвердил дату выхода Phonopolis — авангардной головоломки от создателей Samorost и Machinarium 11 ч.
Google TV получит новые ИИ-функции, а на главном экране появятся YouTube Shorts 11 ч.
Во время майских праздников в Москве могут отключить мобильный интернет 11 ч.
Microsoft опубликовала исходники 86-DOS и PC-DOS 1.00 с дополнительными материалами — распечатки пылились в гараже больше 45 лет 12 ч.
Представлен десктопный ИИ-агент Amazon Quick — он выполняет часовые задачи за минуты 12 ч.
Спустя почти два года пираты всё-таки взломали Denuvo в Black Myth: Wukong — гипервизор не требуется 12 ч.