Анонимность в интернете под угрозой: ИИ научился вычислять реальных владельцев фейковых аккаунтов

Читать в полной версии

Современный человек нередко использует в онлайн-деятельности анонимные или фальшивые учётные записи в надежде скрыть свою личность. Но эта мера рискует оказаться бесполезной — модели искусственного интеллекта, как оказалось, способны эффективно выявлять подлог и в значительном числе случаев определять истинного владельца фейкового аккаунта.

Источник изображения: Igor Omilaev / unsplash.com

Для выявления поддельного аккаунта и определения его истинного владельца модели ИИ используют ряд идентифицирующих сигналов — это могут быть фрагменты или крупные объёмы совпадающих данных, а также отличительные признаки поведения. К такому результату пришли (PDF) исследователи Швейцарской высшей технической школы Цюриха (ETH Zurich), независимой образовательной и научно-исследовательской программы MATS, а также компании Anthropic. «Наши выводы имеют большое значение для конфиденциальности в интернете. Среднестатистический пользователь Сети долгое время действовал в соответствии с неявной моделью угроз, предполагая, что псевдонимы обеспечивают адекватную защиту, потому что целенаправленная деанонимизация требует значительных усилий. Большие языковые модели опровергают это предположение», — пишут учёные.

В рамках исследования модели ИИ в 68 % случаев успешно определили поддельный характер учётных записей и в 90 % случаев из них верно указали на их истинных владельцев. Сделанное учёными открытие может иметь последствия не только для тех, кто пишет под чужими именами в соцсетях. ИИ теоретически способен выявлять настоящие имена хакеров, публикующих закрытую информацию сотрудников компаний и тех, кто задаёт вопросы на открытых форумах. Иногда под чужими именам в соцсетях пишут и руководители компаний, стремящиеся продвинуть свой бизнес или нанести ущерб конкурентам — в таких действиях ранее признался даже самый богатый человек на Земле Илон Маск (Elon Musk). А ещё ИИ способен раскрывать имена тех, чья жизнь может зависеть от анонимности: информаторов, активистов или жертв насилия.

Чтобы защитить людей от деанонимизации с помощью ИИ, учёные предложили несколько защитных мер: ограничивать на платформах доступ к пользовательским данным через API, улучшить механизмы обнаружения автоматизированного сбора информации и ограничивать экспорт больших объёмов данных. Но, признали исследователи, гарантии успеха эти меры не дадут, и в ближайшие годы, если не месяцы, удерживать ИИ от выполнения этих операций будет всё труднее.