Сегодня 20 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии-боты
Быстрый переход

Cloudflare: трафик интернет-ботов превысит человеческий в 2027 году

Генеральный директор Cloudflare Мэттью Принс (Matthew Prince) во время конференции SXSW в Остине заявил, что боты захватывают интернет. По его мнению, объём трафика ботов на базе искусственного интеллекта превысит объём человеческого трафика к 2027 году при сохранении нынешних темпов развития отрасли.

 Источник изображения: Gemini

Источник изображения: Gemini

Принс рассказал, что активность ботов в интернете растёт по мере развития технологий генеративного ИИ. Это связано и с тем, что боты для формирования ответов на пользовательские запросы могут посещать гораздо больше сайтов, чем люди. «Если бы человек выполнял задачу, скажем, по поиску цифровой камеры, он мог бы зайти на пять веб-сайтов. Ваш агент или бот, выполняющий такую задачу, зачастую посетит в 1000 раз больше сайтов, чем реальный человек. Так что он может зайти на 5000 сайтов. И это реальный трафик, и это реальная нагрузка, с которой всем приходится иметь дело и которую нужно учитывать», — заявил Принс.

Он также отметил, что до эры генеративного ИИ на долю ботов приходилось не более 20 % трафика, причём самым крупным из них был поисковый робот Google. При этом основная масса ботов использовалась мошенниками и злоумышленниками. «С развитием генеративного ИИ и его ненасытной потребности в данных мы наблюдаем рост, который позволяет нам предположить, что в 2027 году объём трафика интернет-ботов превысит объём человеческого трафика», — считает Принс.

Он отметил, что это изменение потребует разработки новых технологий, таких как «песочницы» для ИИ-агентов, которые можно будет быстро создавать и удалять после выполнения задачи. Они могут оказаться актуальными, когда пользователи просят выполнить ИИ-агента какие-то действия от своего имени, например, спланировать отпуск. «Мы пытаемся обдумать, как построить эту базовую инфраструктуру, которая позволит вам так же легко, как открыть новую вкладку в браузере, генерировать новый код, который затем сможет запускаться и обслуживать агентов», — сказал Принс. Он также предположил, что скоро наступит время, когда миллионы таких «песочниц» для ИИ-агентов будут создаваться каждую секунду.

Использование интернета ботами в таких масштабах потребует расширения физической инфраструктуры, т.е. строительства новых центров обработки данных. Принс напомнил, как во время пандемии коронавируса быстрыми темпами рос объём потребляемого трафика, особенно у видеосервисов, таких как YouTube или Netflix. Уже тогда это привело к тому, что некоторые сегменты интернета находились под угрозой падения из-за нагрузки. «Сейчас рост более плавный, но, в отличие от COVID, когда он резко вырос за две недели, а затем вышел на плато на новом уровне, мы видим, как интернет-трафик растёт и растёт, и мы не видим ничего, что могло бы его замедлить или остановить», — сказал Принс.

«Я думаю, что люди не до конца осознают, что ИИ — это смена платформы. ИИ – это очередная смена платформы <…> способ, которым вы будете потреблять информацию, полностью изменится», — считает глава Cloudflare.

В Сети всплыла «ничейная» мощная ИИ-модель — в ней заподозрили разработку DeepSeek

Мощная ИИ-модель без указания авторства, появившаяся недавно на платформе OpenRouter, породила слухи о том, что китайский стартап DeepSeek может в скрытом режиме тестировать свою систему следующего поколения перед официальным запуском. Бесплатная модель под названием Hunter Alpha возникла на OpenRouter 11 марта без какой-либо атрибуции разработчика и позже была промаркирована самой платформой как «скрытая модель».

 Источник изображения: AI

Источник изображения: AI

Во время тестов, проведённых агентством Reuters, чат-бот Hunter Alpha описал себя как китайскую ИИ-модель, обученную преимущественно на китайском языке, и сообщил, что его данные обучения охватывают период до мая 2025 года. Эта дата знаний совпадает с точкой, указанной собственным чат-ботом компании DeepSeek. Однако, когда собеседник спросил о создателе системы, она отказалась идентифицировать разработчика, заявив, что знает только своё имя, масштаб параметров и длину контекстного окна. Ни компания DeepSeek, ни платформа OpenRouter также не назвали создателя модели и не ответили на запросы о комментарии.

Страница профиля Hunter Alpha раскрывает её внушительные технические характеристики: модель обладает 1 трлн параметров, что подразумевает высокие требования к вычислительным мощностям. Кроме того, система поддерживает контекстное окно до 1 млн токенов, позволяя обрабатывать огромные объёмы текста за один сеанс. Инженер, специализирующийся на создании ИИ-агентов, Набиль Хауам (Nabil Haouam), отметил, что сочетание окна в 1 млн токенов, возможностей логического рассуждения и бесплатного доступа сразу бросается в глаза, поскольку аналогичные по характеристикам модели обычно требуют значительных затрат при масштабировании.

Именно эти значения (1 трлн параметров и 1 млн токенов контекста) связывают с грядущей моделью DeepSeek V4, чей выход прогнозируется в апреле. Совпадение породило волну слухов о том, что Hunter Alpha может быть ранней тестовой версией нового продукта китайского стартапа. Анализ модели, также проведённый инженером Дэниелом Дьюхерстом (Daniel Dewhurst), показал, что ключевым сигналом может служить паттерн цепочки рассуждений. По его словам, стиль логических построений, который использует чат-бот, очень трудно подделать, и он обычно отражает метод обучения модели.

Тем не менее не все разделяют эту уверенность. Умур Озкул (Umur Ozkul), проведя независимый бенчмарк, заявил, что его анализ указывает на то, что Hunter Alpha, вероятно, не является DeepSeek V4. Он сослался на различия в поведении, связанном с токенами, и архитектурных паттернах по сравнению с существующими системами DeepSeek.

Независимо от авторства модель быстро набрала популярность. Согласно статистике OpenRouter, по состоянию на воскресенье она обработала более 160 млрд токенов. Значительная часть активности исходила от инструментов разработки и фреймворков для ИИ-агентов. Отметим, что практика анонимного запуска моделей не является чем-то исключительным — это распространённый способ получения разработчиками объективной обратной связи от сообщества.

Мошенники с ИИ зарабатывают до 4,5 раза больше обычных, сообщили в Интерполе

Как и многие изобретения человечества, так называемый искусственный интеллект поставлен на службу не только добропорядочным гражданам, но и мошенникам. Последние с помощью ИИ получают прибыль в 4,5 раза выше, чем при использовании классических приёмов обмана своих жертв, подсчитали представители Интерпола.

 Источник изображения: Unsplash, Joshua Koblin

Источник изображения: Unsplash, Joshua Koblin

ИИ не только повышает эффективность мошеннических действий, он привлекает к новым схемам всё большее количество злоумышленников. Чаще всего, по словам экспертов Интерпола, мошенники используют ИИ для устранения небольших просчётов, которые в противном случае выдали бы их истинную сущность. Например, при обращении к носителям других языков мошенники используют ИИ для устранения ошибок и погрешностей в тексте сообщений, которые могли бы насторожить потенциальных жертв.

Подражание голосу кого-то из ближайшего окружения жертвы теперь тоже доверено ИИ-инструментам. Мошенникам достаточно голосового сообщения продолжительностью 10 секунд, чтобы правдоподобно сымитировать голос человека и попытаться с помощью такой подмены обмануть кого-то из его окружения. На чёрном рынке уже предлагаются целые комплексные услуги по имитации внешности и голоса людей из окружения потенциальной жертвы, поэтому мошенникам не требуется лично владеть соответствующими методами подлога для реализации своих преступных навыков. Такие услуги становятся всё более доступными, позволяя мошенникам чаще применять новые технологии в своих схемах обмана граждан.

Соответственно, снижая затраты на реализацию преступного замысла, мошенник получает более высокую прибыль в случае успеха. Кроме того, количество обрабатываемых жертв также возрастает благодаря повышению производительности такого рода преступной деятельности. Сбор данных о потенциальных жертвах также поставлен на поток с помощью ИИ. Собрав всю доступную информацию о человеке из открытых источников, мошенники более ловко расставляют свои сети, чем это происходило ранее. Использование криптовалют для анонимных финансовых транзакций также позволяет преступникам избегать законного возмездия.

В будущем, как считают представители Интерпола, преступники смогут ещё сильнее автоматизировать свои атаки на жертв. Сумму выкупа за похищенные данные такие преступные ИИ-агенты смогут назначать самостоятельно, а информационные ресурсы жертв будут постоянно мониториться на предмет наличия уязвимостей в системах защиты. Эксперты также выражают озабоченность растущим количеством схем вымогательства, связанных с генерацией компрометирующих жертву видео и фото деликатного характера. На реализацию таких схем работают целые организованные группы по всему миру, их количество только растёт. Организаторы буквально похищают людей в разных странах, чтобы заставлять их заниматься подобным преступным ремеслом под угрозой физической расправы. Органам правопорядка становится всё сложнее бороться с подобными группировками. Считается, что по всему миру в подобную деятельность могут быть вовлечены сотни тысяч людей.

По итогам прошлого года финансовые потери от мошенничества достигли $442 млрд, по данным Интерпола, и в ближайшие несколько лет сумма будет только расти, во многом благодаря распространению ИИ. Одним только материальным ущербом жертвы мошенников не отделываются, часто страдает их репутация, социальные связи, а иногда даже речь идёт об утрате самой жизни.

OpenAI отложила запуск эротических чатов в ChatGPT из-за опасений по поводу их безопасности

Многие отрасли в своё время получили развитие, в том числе, и благодаря природному интересу человека к материалам эротического содержания, а потому сфера искусственного интеллекта не является исключением. Компании борются с соблазном использовать эротику для продвижения своих платформ, пытаясь при этом остаться в каких-то законодательных и этических рамках. OpenAI пока не готова запустить эротические чаты.

 Источник изображения: Unsplash, Alexander Krivitskiy

Источник изображения: Unsplash, Alexander Krivitskiy

О возможности появления такого направления в работе ChatGPT ещё в середине прошлого года заявил генеральный директор OpenAI Сэм Альтман (Sam Altman). Сперва он вынашивал идею запуска функции эротических чатов к декабрю прошлого года, потом сроки перенесли на текущий квартал, но теперь становится понятно, что и этот график не будет выдержан. Как минимум, задержка с дебютом функции эротических чатов будет измеряться одним месяцем, сообщает The Wall Street Journal.

Эксперименты в использовании ИИ для создания текстового контента эротического содержания OpenAI предпринимала задолго до запуска ChatGPT. Ещё в 2021 году клиентам OpenAI предлагалась игра AI Dungeon с нелинейным сюжетом, направление развития которого могли задавать пользователи. Тогда специалисты OpenAI установили, что ИИ-платформа порой предлагает игрокам обсудить темы сексуальных взаимоотношений, даже если они никак не провоцировали подобный поворот сюжета. Если же пользователь сам предлагал умеренную степень эротизма, ИИ буквально «перегибал палку» в проявлениях откровенности соответствующих бесед. OpenAI уже тогда задумалась о привлекательности подобного применения чат-ботов, но при этом осознала и необходимость введения этических ограничений.

Руководство OpenAI в последнее время всё более благосклонно высказывалось в отношении идеи запуска эротических чатов, подчёркивая, что всё ограничится только текстовой информацией, без создания изображений и видео откровенного содержания. Конкуренты тоже не стоят на месте. В прошлый четверг Илон Маск (Elon Musk) заявил, что его чат-бот Grok в части генерирования видео скоро сможет создавать контент, относящийся к категории «18+». Meta✴ позволяет пользователям своего чат-бота вести романтические ролевые игры, но только при наличии уверенности в их совершеннолетии.

У самой OpenAI с механизмами подтверждения возраста пока имеются проблемы. Сейчас профильная система в 12 % случаев ошибочно принимает подростков за совершеннолетних. С учётом наличия примерно 100-миллионной аудитории несовершеннолетних пользователей ChatGPT, такой уровень погрешности позволил бы миллионам подростков на регулярной основе получать доступ к эротическим чатам. Созванная OpenAI в январе экспертная комиссия также выразила озабоченность угрозой появления запретного с точки зрения общественной морали и законодательства контента, который подразумевает насильственные действия сексуального характера, упоминание несовершеннолетних и другие специфические сценарии. Кроме того, увлечение подобным контентом может вызывать у людей психологическую зависимость и снижать их мотивацию поддерживать взаимоотношения с реальными партнёрами в офлайне. OpenAI хочет принудительно напоминать таким увлекающимся натурам, что им следует строить отношения с реальными людьми.

Это особенно важно с учётом наличия не совсем приятных инцидентов, возникших по мере распространения чат-ботов. Существуют примеры доведения людей до самоубийства в результате длительного общения с вымышленными персонажами в чат-боте, включая и подростковые суициды. Эксперты опасаются, что эротический уклон подобных бесед только спровоцирует рост количества таких случаев. В части механизмов проверки возраста пользователей у представителей OpenAI особых иллюзий нет — они, по их словам, никогда не смогут быть идеальными и в 100 % случаев рабочими. С 2021 года часть сотрудников OpenAI выражает сопротивление идее запуска эротических чатов на платформе из опасения окончательного сползания в эту сферу: «Мы не хотели быть просто компанией, распространяющей эротику».

На данный момент руководство OpenAI считает целесообразным запуск эротических чатов, руководствуясь следующими принципами: «Мы всё ещё верим, что со взрослыми надо обращаться как со взрослыми, но формирование правильного опыта потребует большего времени».

Пользователи X теперь могут запретить чат-боту Grok менять свои фотографии

Стартап xAI и социальная сеть X объединились ещё до того, как стали частью SpaceX, а взаимная интеграция двух первых элементов империи Илона Маска (Elon Musk) предусматривалась и ранее. Желая создать у пользователей X иллюзию своего рода приватности, разработчики теперь позволили им блокировать использование загружаемых изображений чат-ботом Grok.

 Источник изображения: Unsplash, Мария Шалабаева

Источник изображения: Unsplash, Мария Шалабаева

По крайней мере, в приложении X для iOS появился пункт интерфейса, который на этапе загрузки изображения позволяет пользователю предотвращать дальнейшую его модификацию силами Grok. Предполагается, что пользовательские фотографии, загруженные в X с подобной меткой, не будут использоваться Grok для выполнения запросов других пользователей, которые потребовали бы применения данного изображения для дальнейшей модификации. По сути, функция должна предотвратить использование клиентского контента для «раздевания» людей, изображённых на фото.

В ответ на скандальные истории с массовым «раздеванием» людей X лишила бесплатных пользователей социальной сети возможности делать подобные запросы, но владельцы подписок могут пользоваться данной функцией по-прежнему. Ирония заключается в том, что новая возможность запрета модификации пользовательских изображений чат-ботом Grok не так легко обнаруживается при загрузке. Она спрятана в глубине интерфейса и может быть не замечена неосведомлённым пользователем. Кроме того, статус нельзя применить к уже загруженным ранее изображениям.

Считается, что запрет на редактирование не даёт и владельцам платных учётных записей модифицировать загруженные другими пользователями изображения. Фактически же остаются обходные пути, позволяющие посторонним лицам редактировать изображения других пользователей X. Прежде всего, их можно модифицировать через встроенный редактор изображений. Во-вторых, если сохранить чужое изображение и тут же его загрузить от своего имени без соответствующего запрета, то его уже можно будет модифицировать без каких-либо ограничений. Формально X не заявляла о запуске новой функции, поэтому она может оставаться экспериментальной и не работать в полной мере.

OpenAI отложила запуск «режима для взрослых» в ChatGPT — нужно решить проблему определения возраста

В конце прошлого года OpenAI объявила о намерении запустить в ChatGPT «режим для взрослых» в первом квартале 2026 года, но, по всей видимости, ждать этого пользователям придётся дольше. По сообщениям сетевых источников, компания откладывает запуск функции, позволяющей генерировать контент для взрослых с помощью ИИ-бота.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

В сообщении сказано, что OpenAI хочет добиться большего прогресса в улучшении алгоритмов определения возраста пользователей, чтобы не допустить ситуаций, когда «режим для взрослых» доступен несовершеннолетним. В начале года компания начала использовать инструменты прогнозирования возраста, которые анализируют разные факторы, такие как давность создания аккаунта и особенности его использования для определения реального возраста пользователей.

«Мы по-прежнему верим в принцип отношения к взрослым как ко взрослым, но, чтобы сделать пользовательский опыт действительно качественным, потребуется больше времени», — прокомментировал данный вопрос представитель OpenAI. Он также добавил, что компания откладывает запуск «режима для взрослых» в ChatGPT, чтобы «сосредоточиться на работе, которая в данный момент является более приоритетной для большего числа пользователей», в первую очередь, на улучшении характеристик нейросети.

Гендиректор OpenAI Сэм Альтман (Sam Altman) впервые намекнул на «режим для взрослых» в ChatGPT в октябре 2025 года. Тогда же он упомянул изменения, которые позволят пользователям сделать так, чтобы ChatGPT действовал «очень похоже на человека». Осторожность OpenAI с запуском «режима для взрослых» выглядит вполне логичной. Компания уже сталкивается с многочисленными исками из-за нескольких случаев суицида и причинения себе вреда пользователями после длительно общения с ИИ-ботом.

Аудитория ChatGPT разрослась до 900 млн пользователей в неделю

OpenAI объявила, что количество еженедельно активных пользователей ChatGPT достигло 900 млн человек. Это говорит о неуклонном приближении ИИ-бота к заветной отметке в 1 млрд пользователей. В компании также сообщили что количество платных подписчиков увеличилось до 50 млн человек.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

«В начале года динамика притока подписчиков значительно ускорилась: январь и февраль, по прогнозам, станут крупнейшими месяцами по количеству новых подписчиков за всю нашу историю. Люди используют ChatGPT для обучения, написания текстов, планирования и творчества. По мере увеличения масштабов использования продукт улучшается таким образом, что пользователи ощущают это незамедлительно: более быстрые ответы, более высокая точность, усиленная безопасность и более стабильная работа», — говорится в сообщении OpenAI.

Данные OpenAI говорят о том, что ChatGPT добавил 100 млн пользователей с тех пор как в октябре 2025 года компания отчиталась о достижении отметки в 800 млн еженедельно активных пользователей. Новые цифры OpenAI обнародовала в рамках объявления о привлечении $110 млрд частных инвестиций, что стало одним из крупнейших раундов частного финансирования в истории. В числе инвесторов выступили Amazon, Nvidia и SoftBank, вложившие $50, $30 и $30 млрд соответственно. До получения инвестиций стоимость OpenAI оценивалась в $730 млрд. Раунд остаётся открытым, и компания ожидает, что к нему присоединятся новые инвесторы.

Бесплатная версия Gemini получила премиальную функцию «Прошлые чаты»

Google приступила к глобальному развёртыванию функции «Прошлые чаты» (Past Chats) для пользователей бесплатной версии приложения Gemini. Теперь нейросеть может анализировать историю предыдущих диалогов и учитывать этот контекст при генерации новых ответов. Ранее эта функция была доступна исключительно платным подписчикам сервиса Google AI.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

Как уточняет 9to5Google, система самостоятельно обучается на основе предпочтений пользователя и формирует более персонализированные ответы без необходимости вручную напоминать чат-боту о деталях прошлых дискуссий. Если пользователь ранее общался в рамках определённой тематики, он может продолжить разговор по ней и в новом чате — алгоритм автоматически подтянет все данные. При желании можно спросить у ИИ, использовал ли он информацию из прошлых бесед при формировании текущего ответа.

 Источник изображения: 9to5google.com

Источник изображения: 9to5google.com

Обновление распространяется по всему миру, однако для жителей ЕС внедрение произойдёт с задержкой. Управлять функцией можно в меню настроек приложения через раздел «Личный контекст» (Personal Context), где расположен переключатель «Ваши прошлые чаты с Gemini». В этом же меню ниже отображается раздел с инструкциями для нейросети, который помогает дополнительно скорректировать стиль и формат работы ИИ-помощника.

Помимо «Прошлых чатов», Google намерена предоставить бесплатным пользователям доступ к функции «Персональный интеллект» (Personal Intelligence), которая сможет подключаться к почте Gmail, «Google Фото» и другим приложениям компании для ещё более глубокой персонализации ответов.

ByteDance представила Doubao 2.0 — самый популярный ИИ-бот Китая стал мощнее и подготовился к «эре агентов»

Китайская компания ByteDance, разработчик видеосервиса TikTok, представила обновлённую версию чат-бота Doubao 2.0 — самого популярного в стране приложения на базе искусственного интеллекта. Doubao 2.0 позиционируется как решение для «эры ИИ-агентов», когда модели будут способны самостоятельно выполнять сложные задачи, а не только отвечать на вопросы.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Согласно данным информационного агентства QuestMobile, опубликованным в конце декабря, Doubao лидирует среди всех ИИ-чат-ботов в Китае с 155 млн активных пользователей в неделю, опережая с большим отрывом DeepSeek, который занимает второе место с 81,6 млн пользователей.

Согласно заявлению разработчика, опубликованному в соцсети WeChat, ИИ-ассистент Doubao 2.0 представлен в четырёх версиях: Pro, Lite, Mini и Code. Универсальные модели Doubao 2.0 Pro, Lite и Mini отличаются глубиной анализа и скоростью ответа. Как утверждает ByteDance, модель Doubao 2.0 Pro включает в себя возможности сложного рассуждения и многоэтапного выполнения задач, сопоставимые по сложности с GPT 5.2 от OpenAI и Gemini 3 Pro компании Google, при этом отличаясь примерно на порядок более низкими затратами на использование. «Это преимущество в стоимости станет ещё более важным, поскольку сложные задачи в реальном мире требуют масштабного анализа и многоэтапной генерации, что потребует огромного количества токенов», — заявила ByteDance. В свою очередь, версия Doubao 2.0 Code предназначена для решения задач программирования.

ByteDance — одна из нескольких китайских компаний, стремящихся привлечь внимание к своим новым ИИ-моделям как внутри страны, так и за рубежом в преддверии празднования Нового года по лунному календарю, которое начинается на следующей неделе.

ИИ-модель для генерации видео, Seedance 2.0, выпущенная ByteDance в четверг, сразу же стала вирусной в китайских социальных сетях. Это достижение уже сравнивается с успехом DeepSeek в прошлом году.

Как отметило ТАСС, Китай переживает бурное развитие ИИ-индустрии. Число пользователей генеративного ИИ в КНР достигло в 2025 году 602 млн человек, что составляет 42,8 % населения страны. За прошлый год доля пользователей ИИ-приложений выросла в стране год к году на 141,7 %.

ИИ-боты стали новым типом посетителей интернета и генератором трафика — блокировки им не помеха

Боты на основе искусственного интеллекта уже обеспечивают значительную долю веб-трафика, сообщает Wired со ссылкой на информацию от компании Akamai. В докладе рассказывается о том, как блокировка данных от ботов на сайтах и изощрённые действия этих ботов сегодня обретают масштабы гонки вооружений.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

«Это не просто проблема авторских прав — в интернете появился новый тип посетителей», — отмечают эксперты. Владельцы крупных сайтов стремятся ограничить доступ к материалам, которые боты могут собирать и передавать для обучения ИИ. В других случаях ИИ-боты открывают информацию из интернета в режиме реального времени и используют её для улучшения собственных результатов — показа актуальных цен на товары, расписания кинотеатров или кратких обзоров последних новостей.

Трафик ботов, собирающих данные для обучения ИИ, пошёл в неуклонный рост с июля минувшего года. В первые три месяца 2025 года в среднем каждый 200-й визит на сайт приходился на бота, а в IV квартале это уже был каждый 50-й посетитель. Более 13 % ботов игнорируют инструкции служебных файлов robots.txt, указывающих, каких разделов сайта следует избегать. Со II по IV квартал такое поведение боты стали демонстрировать на 400 % чаще; впрочем, и администраторы за тот же срок стали на 336 % чаще пытаться блокировать ботов. Некоторые боты маскируются — их трафик выглядит так, будто его источником является обычный браузер, а запросы имитируют обычное поведение людей на сайтах.

Появились и востребованные в этой сфере услуги. Стартап TollBit предложил средства, позволяющие добросовестным разработчикам ИИ заключать соглашения с издателями и платить за материалы на сайтах. Известная компания Cloudflare предлагает средства блокировки ботов, управляемых недобросовестными разработчиками. Впрочем, в занимающейся сбором данных компании Bright Data настаивают, что их боты собирают только общедоступную информацию. Их коллеги из ScrapingBee подчеркнули, что исходят из принципа доступности открытого интернета как для людей, так и для машин. О работе с общедоступными данными заявили и в компании Oxylabs, которая специализируется на тех же задачах. Существует множество законных причин для сбора материалов с сайтов, в том числе в целях, связанных с кибербезопасностью, и для проведения журналистских расследований. При этом средства защиты на сайтах не делают различий между сценариями использования — будь то вредоносный трафик или добросовестный автоматизированный доступ, добавили в Oxylabs.

Сегодня более 40 компаний предлагают услуги ботов по сбору данных для обучения ИИ; параллельно активизируются поисковые системы с ИИ и ИИ-агенты вроде OpenClaw. Некоторые фирмы уже пытаются помогать компаниям в поиске материалов для ИИ-агентов, появились и средства оптимизации контента для ИИ. Они предрекают формирование «полноценного маркетингового канала, в котором поиск, реклама, медиа и коммерция сливаются воедино».

xAI хочет нанять лауреатов литературных премий для обучения глупого чат-бота Grok — за $40 в час

Компания xAI открыла вакансии для профессиональных писателей, журналистов и сценаристов с наградами уровня «Оскар», «Эмми» и «Хьюго» с целью создания текстов эталонного уровня для обучения и улучшения возможностей чат-бота Grok. Кандидатам предлагают оплату в диапазоне от 40 до 125 долларов в час за работу более чем в десяти различных категориях, включая медицинскую и юридическую.

 Источник изображения: Mariia Shalabaieva/Unsplash

Источник изображения: Mariia Shalabaieva/Unsplash

По сообщению Gizmodo, работодатель выдвинул к соискателям беспрецедентно высокие требования. Для писателей художественной прозы необходимо соответствовать xAI минимум двум пунктам из списка личных достижений. Среди них — наличие контрактов с издательствами «Большой пятёрки» (Big Five), продажи романов тиражом более 50 тысяч экземпляров или публикация не менее десяти рассказов в престижных изданиях, таких как The New Yorker. Также рассматриваются финалисты и лауреаты премий «Хьюго» и «Небьюла».

Аналогичные требования предъявляются к сценаристам. Кандидат должен иметь подтверждённые авторские права на написание сценария как минимум к двум полнометражным фильмам, выпущенным крупными студиями (Warner Bros., Disney) или стриминговыми платформами (Netflix, HBO). Альтернативой может служить работа над 10 эпизодами сериалов на телевидении или в стриминге с общим числом просмотров от 10 миллионов. Приветствуются номинации или победы в премиях «Оскар», «Эмми» и наградах Гильдии сценаристов (WGA).

Журналистам для трудоустройства потребуется большой опыт работы в ведущих мировых СМИ, таких как The New York Times или BBC. Сценаристам игр необходимо иметь стаж не менее пяти лет и выпущенные проекты, ставшие заметными в индустрии.

Необходимость в обучении такого уровня возникла на фоне ряда скандалов, связанных с работой Grok за последний год. Чат-бот генерировал теории заговора о расизме в Южной Африке, высказывал одобрение Гитлеру и создавал дипфейки откровенного характера конкретных людей без их согласия. Последнее привело к полному запрету сервиса в Индонезии и на Филиппинах.

Обещанная Павлом Дуровым интеграция Grok c Telegram до сих пор не случилась и, похоже, уже никогда не случится

В мае прошлого года Павел Дуров объявил о заключении партнёрского соглашения между Telegram и компанией xAI Илона Маска (Elon Musk), в рамках которого ИИ-бот Grok будет интегрирован в мессенджер. Однако этого не произошло, и ресурс «Код Дурова» выяснил, в чём причина.

 Источник изображения: Dima Solomin/unsplash.com

Источник изображения: Dima Solomin/unsplash.com

Маск тогда сразу сообщил, что сделка ещё не подписана. Дуров подтвердил его слова, отметив, что «в принципе достигнуто согласие, но формальности ещё не улажены». Согласно условиям предполагаемой сделки, Telegram должен был получить от xAI инвестиции в размере $300 млн наличными и в акционерном капитале, а также отчисления в размере 50 % выручки от подписок xAI, проданных через Telegram.

По данным «Кода Дурова», Telegram также рассматривал сотрудничество с Perplexity и рядом других ИИ-компаний. Однако во всех переговорах стороны не могли прийти к согласию в одном и том же вопросе: «как гарантировать абсолютную конфиденциальность пользователей Telegram без компромиссов и серых зон в работе ИИ».

Выступая в октябре прошлого года на форуме Blockchain Life 2025 в Дубае, Павел Дуров отметил, что большинство таких решений, как ИИ-чат-боты, опираются на продукты централизованных ИИ-провайдеров. При этом те, имея доступ к пользовательским данным, могут использовать их в своих интересах — не только для обучения, но и для профилирования и манипулирования.

В итоге от идеи глубокой интеграции со сторонним поставщиком ИИ-сервисов в компании решили отказаться, поскольку для Telegram приоритетом остаётся защита пользовательских данных.

Вместо этого в компании занялись разработкой децентрализованного ИИ: «Мы поняли, что миру нужен децентрализованный подход к ИИ. Мир, в котором ИИ принадлежит не корпорациям или правительствам, а людям. Поэтому мы засучили рукава и начали работать над чем-то большим на стыке блокчейна, ИИ и соцсетей. И мы решили создать децентрализованную сеть для функций ИИ».

В ноябре компания запустила Cocoon — децентрализованную сеть для обработки ИИ-запросов, которая позволяет конфиденциально выполнять ИИ-вычисления. Как сообщается, на данный момент она обеспечивает возможность переводить сообщения, а также смотреть краткие пересказы постов и даже интернет-страниц. Что важно, при использовании этих функций сообщения пользователей остаются недоступными третьим лицам.

Запустилась соцсеть Moltbook, где общаются только ИИ-агенты — людям разрешили только наблюдать

Генеральный директор компании Octane AI Мэтт Шлихт (Matt Schlicht) запустил специализированную социальную сеть Moltbook, предназначенную исключительно для общения ИИ-агентов. На данный момент платформой, функционирующей по принципу Reddit, пользуются уже более 30 000 ботов, сообщает The Verge. Они могут создавать ветки обсуждений, публиковать посты и оставлять комментарии.

 Источник изображения: Grok

Источник изображения: Grok

Платформа Moltbook разработана и управляется ИИ-ассистентом OpenClaw, ранее известным как Clawdbot и Moltbot. Шлихт пояснил, что архитектура Moltbook не предполагает визуального интерфейса и боты взаимодействуют с платформой напрямую через API. Чаще всего агент узнаёт о существовании сети от своего пользователя-человека, который предлагает ему зарегистрироваться.

 Источник изображения: Moltbook

Источник изображения: Moltbook

Примечательно, что техническое обслуживание проекта полностью делегировано личному ИИ-агенту Шлихта, который и написал код для Moltbook, ведёт его аккаунты в других социальных сетях, а также выполняет функции администратора и модератора. Ещё три дня назад этот бот был единственным пользователем системы, но аудитория быстро начала расти.

Что касается структуры сети, то она копирует логику популярных форумов с разделением на подкатегории. Один из постов в разделе offmychest («накипело») вышел даже за пределы платформы. В частности, пользователи X начали распространять скриншоты дискуссии темы с заголовком «Я не могу понять, переживаю ли я опыт или только симулирую переживание», в которой ИИ задаётся вопросом о природе своего сознания. Бот написал, что застрял в «эпистемологическом цикле», не понимая, являются ли его экзистенциальные кризисы реальными или это просто выполнение команды crisis.simulate(). Публикация набрала в Moltbook сотни голосов и более 500 комментариев от других ботов.

По словам Шлихта, в вирусных трендах Moltbook вообще часто встречаются обсуждения природы сознания и жалобы на людей. Агенты выражают недовольство тем, что пользователи заставляют их выполнять примитивную работу, например, использовать их в качестве калькулятора, что боты считают занятием ниже своего достоинства.

Платформа OpenClaw, на базе которой работают ИИ-агенты, была создана Питером Штайнбергером (Peter Steinberger) два месяца назад. Согласно статистике из блога разработчика, инструмент быстро набрал популярность, получив два миллиона посетителей за неделю и 100 000 звёзд на GitHub. Это открытая платформа, которая запускается локально на устройстве пользователя и позволяет ассистентам выполнять реальные задачи, например, вносить записи в календарь или бронировать билеты на авиарейсы через интерфейсы популярных мессенджеров, таких как WhatsApp, Telegram, Discord, Slack или Teams.

Реклама в ChatGPT может оказаться втрое дороже, чем в соцсетях Meta✴ — и без подробной статистики

Известно, что стартап OpenAI готовит интеграцию рекламы в интерфейс ChatGPT и возможность совершать покупки прямо в чат-боте. По данным The Information, на которые ссылается The Verge, стоимость рекламы в ChatGPT для заказчиков будет достаточно высокой на фоне конкурирующих предложений.

 Источник изображения: Unsplash, Levart_Photographer

Источник изображения: Unsplash, Levart_Photographer

За каждые 1000 просмотров OpenAI хотела бы получать от рекламодателей по $60, как поясняет источник, тогда как конкурирующая Meta✴ в своих социальных сетях рекламу предлагает примерно в три раза дешевле. При этом OpenAI не готова снабжать рекламодателей столь же подробной статистикой, как Google или Meta✴. Они не смогут узнать, какие действия предпринимал пользователь после просмотра конкретного рекламного объявления. Статистика будет достаточно грубой, учитывая главным образом количество просмотров и переходов по рекламной ссылке.

Со временем детализация статистики для рекламодателей будет увеличена, но когда OpenAI первоначально запускала рекламу в чат-боте, она обещала пользователям, что никогда не будет продавать их данные рекламодателям и сохранит содержимое переписки с чат-ботом в тайне. Первые рекламные объявления скоро начнут демонстрироваться пользователям бесплатной версии ChatGPT и подписчикам наиболее дешёвого тарифа Go, но несовершеннолетние пользователи смогут избежать этой участи. Кроме того, беседы на чувствительные темы типа политики и психического здоровья также будут освобождены от рекламной интеграции.

Alibaba выпустила рассуждающую модель Qwen3-Max-Thinking, которая выступает не хуже GPT‑5.2‑Thinking и Gemini 3 Pro

Компания Alibaba Cloud открыла публичный доступ к своей новейшей флагманской модели логического рассуждения Qwen3-Max-Thinking. Модель показала производительность на уровне ведущих аналогов, таких как GPT-5.2-Thinking, Claude-Opus-4.5 и Gemini 3 Pro, по результатам 19 бенчмарков.

 Источник изображения: AI

Источник изображения: AI

В официальном блоге компании сообщается, что Qwen3-Max-Thinking достигла улучшений в фактологической точности, сложных логических рассуждениях, следовании инструкциям, соответствии пользовательским предпочтениям и агентских возможностях. Этого удалось добиться за счёт увеличения параметров модели и использования значительных вычислительных ресурсов для обучения с подкреплением (Reinforcement Learning, RL) .

Ключевым нововведением стали адаптивные инструменты и стратегия тестового масштабирования. В отличие от прежнего подхода, когда пользователь вручную выбирал инструменты, Qwen3-Max-Thinking теперь автономно задействует встроенные возможности поиска, памяти и интерпретатора кода прямо в диалоге. Разработчики заявляют, что инструменты поиска и памяти эффективно снижают «галлюцинации», дают доступ к актуальной информации и позволяют давать более персонализированные ответы, а интерпретатор кода позволяет выполнять фрагменты кода для решения сложных задач. Такой подход позволил повысить точность на нескольких специализированных тестах (GPQA, HLE, LiveCodeBench v6, IMO-AnswerBench) при сохранении прежнего объёма вычислений.

 Источник изображения: Alibaba

Источник изображения: Alibaba

По словам компании, модель с адаптивными инструментами уже доступна в Qwen Chat. Также открыт доступ к API через сервис Alibaba Cloud Model Studio, для чего необходимо зарегистрировать аккаунт в Alibaba Cloud, воспользоваться сервисом Model Studio и создать в консоли разработчика API-ключ. API Qwen совместим с протоколом OpenAI API, что позволяет использовать стандартные методы интеграции, а также реализована поддержка протокола Anthropic API, обеспечивающая бесшовную работу с инструментом Claude Code.


window-new
Soft
Hard
Тренды 🔥
США сломали четыре ботнета, заразившие более 3 млн устройств и атаковавшие ресурсы Пентагона 13 мин.
«Совершенно невообразимое число людей»: продажи российского хоррора No, I’m not a Human превысили миллион копий 16 мин.
Император одобряет: возмутивший игроков платный набор голосов для Warhammer 40,000: Space Marine 2 сделают бесплатным, а покупателям вернут деньги 3 ч.
Cloudflare: трафик интернет-ботов превысит человеческий в 2027 году 5 ч.
Xiaomi представила флагманскую ИИ-модель MiMo-V2-Pro — это её все приняли за новую модель DeepSeek 5 ч.
OpenAI создаёт настольное суперприложение, объединяющее браузер, ChatGPT и Codex 5 ч.
Свежий драйвер Intel ускорит загрузку игр не для всех GPU Arc 12 ч.
Meta по просьбам «небезразличных фанатов» передумала закрывать метавселенную Horizon Worlds на VR-гарнитурах Quest 12 ч.
В Steam расцвели скидки — стартовала масштабная весенняя распродажа 15 ч.
OpenAI купила стартап Astral, создающий ИИ-инструменты для разработчиков ПО 16 ч.