ИИ научился формировать политические взгляды так же эффективно, как человек — и людей это не смущает
Читать в полной версииСвежее исследование в США показало, что большинству граждан безразлично авторство материалов по ряду вопросов государственной политики. Люди в равной степени верят аргументам и воспринимают их как со стороны эксперта-человека, так и со стороны искусственного интеллекта. ИИ точно так же может склонять граждан изменить их точку зрения по важным вопросам, как и человек. Но человек уже не сравнится с «фабрикой троллей» на базе ИИ. Похоже, в политике он проиграл.
Источник изображения: ИИ-генерация Grok 4/3DNews
Об отношении людей к источникам аргументов по разным вопросам государственной политики сообщается в издании PNAS Nexus. В целом исследователи показали, что маркировка текстов как созданных искусственным интеллектом не снизила их убедительности по сравнению с текстами, якобы написанными человеком или оставленными без указания авторства (в целях эксперимента все тексты были подготовлены ИИ, важна была лишь реакция людей на заявленное авторство аргументов).
Опрос был проведён с участием 1601 американца. Участникам предлагались сгенерированные ИИ сообщения на актуальные политические темы: геоинженерия, импорт лекарств, зарплаты спортсменов-студентов и ответственность платформ социальных сетей. Тексты случайным образом помечались одной из трёх маркировок: «создано ИИ», «написано экспертом-человеком» или без какой-либо пометки. Как оказалось, в среднем сообщения смогли изменить отношение опрошенных к проблеме на 9,74 % по 100-балльной шкале.
Большинство участников (92 %) поверили в указанное авторство, однако маркировка практически не повлияла на ключевые показатели: изменение отношения к обсуждаемым вопросам, оценку точности аргументов и желание поделиться сообщением. Эти результаты оказались устойчивыми независимо от политической принадлежности, уровня знакомства с ИИ и образования респондентов. Лишь у людей старшего возраста наблюдалась чуть более негативная реакция на тексты с пометкой ИИ по сравнению с «человеческими», но эффект был незначительным.
Полученные данные свидетельствуют, что простое указание на использование искусственного интеллекта не может служить эффективным барьером против влияния таких сообщений на общественное мнение. Авторы подчёркивают: хотя маркировка обеспечивает прозрачность и может быть полезной с этической точки зрения, сама по себе она не решает проблему навязывания убеждений искусственным интеллектом. Это создаёт новые вызовы властям, владельцам социальных сетей и обществу в условиях быстрого развития генеративных технологий.
Исследование подчёркивает, что аргументы, сгенерированные современными моделями ИИ, уже достигли высокого уровня убедительности, способного конкурировать с человеческими текстами даже при открытом указании источника. Полученные выводы актуализируют дискуссии о дезинформации, формировании общественного мнения и необходимости разработки более комплексных подходов к регулированию контента, созданного искусственным интеллектом, поскольку одной лишь пометки об авторстве ИИ оказывается недостаточно.