Сегодня 31 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → wikipedia

«Википедия» перестала показывать ИИ-сводки из-за недовольства редакторов

Администрация Wikipedia прекратила в тестовом режиме показывать подготовленные искусственным интеллектом сводки статей — они вызвали резкую критику со стороны редакторов на платформе, передаёт 404 Media.

 Источник изображения: Luke Chesser / unsplash.com

Источник изображения: Luke Chesser / unsplash.com

Тестирование ИИ-сводок началось 2 июня. Пользователи, которые установили браузерное расширение Wikipedia, стали над каждой статьёй видеть «простые сводки» — они сопровождались жёлтой пометкой «непроверено», и чтобы прочитать этот фрагмент, пользователю приходилось его разворачивать. Сводки создавались при помощи модели с открытыми весами Aya от Cohere Labs. Предполагалось, что это будет двухнедельная программа тестирования для небольшой группы читателей (10 %), которые дали на это согласие. Но из-за негативной реакции редакторов руководство управляющей платформой НКО Wikimedia Foundation приостановило тестирование уже на второй день.

Основные претензии касались точности и достоверности материалов в исполнении ИИ. «Это нанесёт немедленный и непоправимый вред нашим читателям и нашей репутации как достоверного и серьёзного источника. Давайте не будем оскорблять интеллект наших читателей и предаваться панике с выпуском показушных ИИ-сводок», — заявил один из редакторов. «С [функцией] Simple Article Summaries вы предлагаете дать единственному редактору, чья надёжность известна, и у кого проблемы с объективностью, платформу в верхней части любой статьи, не давая никакого редакционного контроля другим», — предупредил другой.

ИИ-сводки — функция, печально известная тем, что предоставляет неточные данные. В январе Apple была вынуждена приостановить их показ, когда стали генерироваться не соответствующие действительности новости. Более трёх десятков таких сводок было вынуждено отправить на редактирование агентство Bloomberg — и снова из-за неточностей. «Википедия» приостановила показ ИИ-сводок, но не их разработку. Платформа продолжит их тестировать с разными группами пользователей, а за редакторами останется последнее слово в принятии решений, какая информация будет отображаться на платформе, заявил 404 Media представитель её администрации.

Дело техники: «Википедия» поручит генеративному ИИ рутину, чтобы не испортить труд людей

«Википедия» объявила о новой стратегии использования искусственного интеллекта в своей интернет-энциклопедии, но с важной оговоркой — ИИ не заменит живых редакторов. Вместо этого он станет их помощником в рутинных задачах.

 Источник изображения: wikipedia.org, AI

Источник изображения: wikipedia.org, AI

«Википедия» не планирует заменять своих редакторов и волонтёров искусственным интеллектом, несмотря на растущую популярность ИИ-технологий. Вместо этого платформа будет использовать нейросети для устранения технических барьеров, чтобы участники могли сосредоточиться на содержании, а не на сложностях реализации, сообщает TechCrunch, ссылаясь на официальное заявление организации.

В отличие от многих компаний, которые рассматривают ИИ как угрозу рабочим местам, «Википедия» видит в нём инструмент для автоматизации рутинных задач. Например, нейросети помогут в переводе, модерации и поиске информации, освобождая время редакторов для обсуждений и проверки данных, что особенно важно, поскольку «Википедия» строится на консенсусе среди её участников.

«Мы уверены, что успех нашей работы с ИИ зависит не только от того, что мы делаем, но и от того, как мы это делаем», — написал Крис Албон (Chris Albon), директор по машинному обучению «Фонда Викимедиа» (Wikimedia Foundation). По его словам, «Википедия» будет придерживаться принципов прозрачности, открытого кода и защиты прав человека, чтобы ИИ оставался под контролем людей.

Албон подчеркнул, что с появлением генеративного ИИ, который иногда допускает ошибки и «галлюцинирует», роль «Википедии» как достоверного источника знаний ещё больше возросла. «Мы будем использовать ИИ взвешенно, сохраняя многоязычность и человекоориентированный подход», — добавил он.

Прокуратура США усомнилась в праве «Википедии» на налоговые льготы из-за иностранного вмешательства

Временный прокурор округа Колумбия Эд Мартин (Ed Martin) обвинил «Википедию» в нарушении законодательства США и пригрозил пересмотром её статуса некоммерческой организации. Скандал разгорелся вокруг обвинений в искажении исторических фактов и вмешательстве иностранных агентов.

 Источник изображений: The Wikimedia Foundation

Источник изображений: The Wikimedia Foundation

Стало известно, что исполняющий обязанности федерального прокурора округа Колумбия Эд Мартин (Ed Martin) направил официальное письмо в «Фонд Викимедиа» (Wikimedia Foundation), управляющий «Википедией». Письмо, копия которого оказалась в распоряжении издания The Free Press, ставит под сомнение соблюдение Фондом критериев для сохранения статуса некоммерческой организации в соответствии с разделом 501(c)(3) Налогового кодекса США. Мартин утверждает, что «Википедия» якобы позволяет иностранным агентам целенаправленно редактировать страницы, искажая исторические факты и распространяя пропаганду, что, по его мнению, создаёт угрозу национальной безопасности США.

Американское законодательство требует, чтобы организации, освобождённые от уплаты налогов, действовали исключительно в религиозных, благотворительных, научных или образовательных целях, а также в целях общественной безопасности. В письме Мартин подчёркивает, что деятельность «Википедии», связанная с манипуляцией историческими фактами и распространением дезинформации, может нарушать эти обязательства, что ставит под сомнение её право на налоговые привилегии.

В последние недели Эд Мартин направил обвинительные письма в несколько известных научных журналов: New England Journal of Medicine, CHEST Journal и Obstetrics and Gynecology. В этих письмах он утверждает, что редакции этих изданий проявляют политическую предвзятость в научных дискуссиях. Мартин уже давно известен своей практикой подачи плохо обоснованных юридических претензий против СМИ, часто сопровождаемых спорными и трудно доказываемыми обвинениями.

 Источник изображений: The Wikimedia Foundation

В своём письме к «Фонду Викимедиа» Мартин требует разъяснений по нескольким пунктам: какие меры организация принимает для защиты общественности от пропаганды, какие шаги предпринимаются для исключения целенаправленных правок информации иностранными агентами, а также каким образом предотвращается искажение или переписывание исторических фактов. Ответ на это официальное обращение должен поступить в прокуратуру округа Колумбия не позднее 15 мая.

В ответ на обвинения заместитель главного юрисконсульта «Фонда Викимедиа» Джейкоб Роджерс (Jacob Rogers) сообщил, что содержание «Википедии» регулируется тремя основными принципами: нейтральности изложения, обязательной проверяемости фактов и строгого запрета на размещение оригинальных исследований. Роджерс подчеркнул, что процесс создания и редактирования материалов осуществляется почти 260 тысячами добровольцев по всему миру. Также он подчеркнул, что Фонд приветствует возможность объяснить общественности, как работает Википедия, и готов сделать это в надлежащем правовом формате.

Давление на «Википедию» со стороны правых сил усиливается. В 2024 году Илон Маск (Elon Musk) публично призвал своих сторонников прекратить пожертвования в адрес «Вокепедии» — так он саркастически назвал Википедию, намекая на её предполагаемую политическую ангажированность. Позже он охарактеризовал сайт как «продолжение пропаганды традиционных СМИ». В январе 2025 года издание Forward.com сообщило, что Фонд Наследия (The Heritage Foundation) подготовил презентацию, ориентированную на целенаправленное воздействие на редакторов «Википедии» и подрыв их редакционной независимости.

«Фонд Викимедиа» с тех пор разработал инструменты для защиты анонимности своих редакторов. Генеральный директор Фонда Мариана Искандер (Maryana Iskander) в марте этого года заявила, что организация фиксирует рост угроз со стороны государств и частных структур по всему миру. Об этом она сообщила в интервью для 404 Media, подчеркнув увеличение числа попыток регулирования деятельности платформы, а также угроз судебными исками против редакторов и администраторов «Википедии».

«Википедию» скрестили с TikTok — запущен проект WikiTok с бесконечной лентой познавательных статей

Разработчик Исаак Джемаль (Isaac Gemal) представил открытый проект WikiTok. Ресурс выполнен в стиле TikTok, но с одним ключевым отличием — он предлагает пользователям листать ленту из случайных статей Wikipedia, узнавая что-то новое. Исходный код сервиса написан на TypeScript и доступен на GitHub под лицензией MIT, а демо-версия проекта размещена по адресу wikitok.vercel.app.

 Источник изображения: wikitok.vercel.app

Источник изображения: wikitok.vercel.app

«Я создал это по наитию, увидев, как кто-то попросил об этом в Twitter. Было полпервого ночи, но я не мог упустить возможность реализовать эту идею. Код очень простой, на самом деле, бэкэнда вообще нет. Я полагаю, что API Wikipedia очень разрешительный, и запросы можно отправлять напрямую с фронтэнда. Так что вы просто запрашиваете случайные статьи, получаете несколько фрагментов и прикрепляете изображения», — рассказал Джемаль.

Что касается самого проекта WikiTok, то при взаимодействии с ним пользователям предлагается прокручивать вертикальную ленту случайных статей Wikipedia. В процессе прокрутки доступен предварительный просмотр статей с изображениями, заголовками и отрывками. При необходимости пользователь может сразу же поделиться понравившейся статьёй. Для обеспечения плавной прокрутки изображения и контент загружаются заранее.

Ресурс имеет адаптивный дизайн, благодаря чему им удобно пользоваться как на ПК, так и на смартфонах. Также он поддерживает 14 языков, включая русский, английский, немецкий, китайский и другие.

«Википедию» заполонили белиберда и фейки, сгенерированные ИИ

Wikipedia переживает кризис из-за того, что пользователи массово стали публиковать бессмысленную или непроверенную информацию, сгенерированную искусственным интеллектом с помощью чат-ботов, таких как ChatGPT и ему подобных. Однако, учитывая растущую популярность ИИ-технологий, этого можно было ожидать.

 Источник изображения: BoliviaInteligente/Unsplash

Источник изображения: BoliviaInteligente/Unsplash

Как сообщает TechSpot, для решения проблемы был создан проект под названием WikiProject AI Cleanup, представляющий из себя группу добровольцев, которая занимается поиском, редактированием и удалением ложной информации, предположительно добавленной с помощью генеративного ИИ.

Ильяс Леблю (Ilyas Lebleu), один из основателей команды по «очистке», сообщил, что о проблеме стало известно, когда редакторы и пользователи Wikipedia заметили отрывки статей, явно написанные чат-ботом. Подозрения подтвердились, когда некоторые из этих текстов удалось воссоздать с помощью ChatGPT.

«Мы обратили внимание на необычный стиль письма, который был явно написан не человеком, мы смогли воспроизвести эти фразы с помощью ChatGPT, — сказал Леблю. — Обнаружив характерные обороты и выражения, мы идентифицировали наиболее вопиющие примеры сгенерированных статей. После этого и было решено организовать проект по поиску ИИ-текста».

Один из примеров — статья о якобы существующей османской крепости под названием «Амберлисихар», построенной в 1400-х годах. В тексте объёмом около 2000 слов подробно описывалось местоположение и строительство этого объекта. Однако крепость на самом деле не существует, и вся информация о ней была полностью вымышленной, но выглядела убедительно благодаря вкраплениям реальных фактов. При этом проблема касается не только новых статей на Wikipedia. Недобросовестные пользователи вставляют ложные данные в уже существующие статьи. В одном из случаев в статью о жуке добавили раздел, посвящённый виду крабов, причём с правильными ссылками на источники.

Леблю и его коллеги признают, что до конца не понимают, почему люди это делают. Однако причины очевидны. Во-первых, это проблема самой системы Wikipedia, которая позволяет каждому стать редактором. Кстати, именно по этой причине многие университеты запрещают студентам использовать Wikipedia в качестве основного источника информации.

Во-вторых не секрет, что интернет часто становится объектом злоупотреблений, особенно сейчас, когда появился искусственный интеллект. В качестве примера может послужить печально известный бот Microsoft по имени Tay, который был отключён менее чем через 24 часа после запуска за публикацию оскорбительных и расистских твитов в X. Также ИИ используется для создания дипфейков и книг на Amazon Kindle.


window-new
Soft
Hard
Тренды 🔥
Новая статья: Is This Seat Taken? — все когда-нибудь сядут. Рецензия 3 ч.
Meta без спроса заполонила свои соцсети ИИ-двойниками Тейлор Свифт, Скарлетт Йоханссон и других знаменитостей 10 ч.
Nous Research бросил вызов OpenAI — открытая модель Hermes 4 работает быстрее всех и без цензуры 11 ч.
Стартап Илона Маска обвинил бывшего сотрудника в краже секретов для OpenAI 13 ч.
xAI Илона Маска представила ИИ для программирования, который отвечает мгновенно 13 ч.
Тестирование крупного обновления Windows 11 25H2 вышло на финишный этап 16 ч.
ЕС всё же оштрафует Google за антиконкурентное поведение, но наказание будет скромным 17 ч.
Meta исправила методику обучения ИИ после скандала с неуместными разговорами с подростками 17 ч.
Кровавый геймплейный трейлер раскрыл дату выхода Bloodthief — ураганного слешера про ненасытного вампира 30-08 00:16
Новая статья: Inkshade — навстречу бездне. Рецензия 30-08 00:02