|
Опрос
|
реклама
Быстрый переход
Perplexity первой встроила рекламу в ИИ, но теперь отказалась от неё из-за угрозы доверию пользователей
18.02.2026 [12:25],
Владимир Мироненко
ИИ-стартап Perplexity из Сан-Франциско (США), который одним из первых среди компаний в сфере разработки генеративного ИИ запустил рекламу в своих сервисах в 2024 году, решил отказаться от её дальнейшего использования в качестве источника доходов из-за опасений потери доверия пользователей к ИИ, сообщил ресурс The Financial Times.
Источник изображения: Aerps.com/unsplash.com Стартап начал постепенно отказываться от рекламы в конце прошлого года, а во вторник его руководство заявило, что не планирует продолжать использовать рекламу. Вместе с тем, у Perplexity есть платная подписка для желающих иметь доступ к расширенной функциональности ИИ-сервиса. «Пользователь должен верить, что это наилучший возможный ответ, чтобы продолжать использовать продукт и быть готовым платить за него», — сказал один из руководителей Perplexity. Следует отметить, что рекламные сообщения публиковались с соответствующей пометкой, и компания заявляла, что реклама не влияет на ответы чат-бота. Тем не менее топ-менеджер Perplexity сообщил, что в целом «проблема с рекламой заключается в том, что пользователь просто начнёт сомневаться во всём... Поэтому мы не считаем это перспективным направлением для развития прямо сейчас». При этом в ИИ-отрасли наблюдается тренд на внедрение рекламы, поскольку ведущие компании стремятся с её помощью зарабатывать деньги на бесплатных пользователях, отчасти, под давлением инвесторов, которые тратят средства на обучение и поддержку больших языковых моделей, лежащих в основе популярных ИИ-решений и сервисов. OpenAI начала на прошлой неделе тестировать показ рекламы на платформе ChatGPT в США для бесплатных пользователей, подчеркнув, реклама «не повлияет на ответы, которые даёт вам ChatGPT». Google использует рекламу в режиме ИИ, а также в своих обзорах ИИ в традиционном поиске, но пока воздерживается от внедрения рекламы в свой чат-бот Gemini. В свою очередь, Anthropic обязалась оставить свой чат-бот Claude без рекламы. Google сделает ссылки в ИИ-поиске заметнее на фоне жалоб издателей
18.02.2026 [11:44],
Павел Котов
Ссылки на внешние сайты, которые показываются в выдаче при поиске с использованием функций искусственного интеллекта, примут более заметный вид. Об этом сообщил курирующий поисковое направление вице-президент Google Робби Штейн (Robby Stein).
Источник изображения: BoliviaInteligente / unsplash.com При наведении курсора на источники в разделах «Обзоры от ИИ» и «Режим ИИ» в десктопной версии поиска будет появляться всплывающее окно, дополняющее описание статей и сопровождающие выдачу изображения. Google будет показывать «более подробные и заметные значки ссылок» в подготовленных ИИ ответах на настольных компьютерах и мобильных устройствах. «Наше тестирование показало, что этот новый пользовательский интерфейс более привлекателен и упрощает поиск отличных материалов в интернете», — сообщил Робби Штейн. Раздел «Обзоры от ИИ» представляет собой расположенный над основной выдачей блок, в котором находится сгенерированная ИИ сводка данных и материалов в поиске. Функция «Режим ИИ» — более радикальный механизм, который предполагает поиск информации в интерфейсе чат-бота без перехода к сторонним источникам. Google продолжает развивать эти функции, хотя владельцы сайтов всё чаще выражают опасения, что ИИ в поиске снижает трафик на новостные и прочие ресурсы. Поисковый гигант настаивает на своём, считая, что традиционный открытый интернет теперь переживает «стремительный упадок». В прошлом году Еврокомиссия инициировала расследование в отношении Google на предмет возможной угрозы, которую функции поискового ИИ представляют для бизнеса владельцев сайтов, если их материалы появляются в сводках, но сами издатели не получают за это «надлежащей компенсации». В ответ Google заявила, что изучит возможность вообще исключить такие ресурсы из поисковых ИИ-сервисов, и начала обогащать «Режим ИИ» ссылками на источники. От распознавания кошек к задачам Эрдёша: ИИ всё активнее штурмует высшую математику
18.02.2026 [08:40],
Алексей Разин
Существующие ИИ-модели в большинстве своём изначально были ориентированы на сугубо гуманитарные вопросы, но постепенно их создатели начинают осознавать важность решения с их помощью математических задач. Во-первых, это способствует прогрессу в научных открытиях. Во-вторых, это позволяет использовать достигаемые в математике результаты в качестве метода демонстрации успехов ИИ.
Источник изображения: Unsplash, Thomas T Важность этой тенденции была подчёркнута экспериментом одного из студентов Кембриджского университета, который использовал передовую ИИ-модель OpenAI для решения одной из математических задач Эрдёша, которые ранее считались неразрешимыми. Кроме того, ИИ-модели начали демонстрировать высокие результаты на Международной математической олимпиаде и прочих тематических конкурсах. Бывшая член совета директоров Хэлен Тоунер (Helen Toner) подчёркивает, что ИИ-модели в своём развитии уже миновали стадию, на которой от них требовалось научиться различать кошек и собак, и перешли к решению математических задач высшего уровня сложности. Лаборатория DeepMind компании Google выпустила специальные ИИ-модели для решения задач в области математики (AlphaProof) и геометрии (AlphaGeometry) соответственно. Обрели популярность бенчмарки Epoch AI, которые оценивают быстродействие новых ИИ-моделей в решении математических задач. Ранее считалось, что большие языковые модели плохо подходят для этого, поскольку они основаны на вероятностном предсказании следующего слова в предложении и нередко выдают галлюцинации, но с переходом на обучение с подкреплением и появлением рассуждающих моделей точность результатов ИИ-моделей заметно выросла. OpenAI даже наняла двух видных математиков: Эрнеста Рю (Ernest Ryu) из Калифорнийского университета в Лос-Анджелесе и Мехтаба Сани (Mehtaab Sawhney) из Колумбийского университета, чтобы усилить свою научную команду и улучшить эффективность собственных ИИ-моделей в решении математических задач. В целом, математика удобна исследователям, поскольку она позволяет автоматически проверять правильность полученных результатов. Такой подход позволяет добиться прогресса и в разработке программного обеспечения с помощью ИИ. Компания Anthropic, например, делает большие ставки на своего ИИ-ассистента Claude Code, который позволяет автоматически создавать программный код. В любом случае, для решения действительно сложных научных и математических задач современные ИИ-модели должны научиться работать с опорой на полученные в прошлом результаты, и добиться всего в рамках одной непродолжительной сессии в данном случае просто невозможно. Уже сейчас ИИ-модели способны эффективно резюмировать информацию и объединять данные, полученные в разных научных дисциплинах. В будущем это позволит ускорить научный прогресс, как считают эксперты. В математике ИИ уже показал себя с лучшей стороны. SpaceX вошла в секретный конкурс Пентагона по созданию ИИ для голосового управления роями дронов
18.02.2026 [07:20],
Алексей Разин
Военные конфликты последних лет показали возросшее значение беспилотных летательных аппаратов различного назначения. Перспективной считается идея создания роев дронов, которые могут в автоматическом режиме атаковать выбранные цели на поле боя. Компания SpaceX и её дочерняя структура xAI примут участие в конкурсе Пентагона на создание подобных технологий управления.
Источник изображения: SpaceX Об этом сообщило агентство Bloomberg, которое подчеркнуло, что ранее Илон Маск (Elon Musk), который владеет обеими компаниями, выступал против создания «новых средств для уничтожения людей». В январе американское оборонное ведомство объявило конкурс на разработку технологии голосового управления роем боевых дронов с призовым фондом $100 млн. До недавних пор участие SpaceX и xAI в этом конкурсе не афишировалось. Конкурс будет длиться шесть месяцев, по его итогам Министерство обороны США определит победителя, который предложит наиболее совершенную технологию голосового управления роем боевых дронов. Конкурс будет проходить в несколько этапов, в зависимости от прогресса и мотивации участников. Подчёркивается, что технология будет носить явно выраженный наступательный характер. ИИ-стартап xAI недавно начал нанимать специалистов инженерного профиля с уровнем доступа к секретным и совершенно секретным сведениям, чтобы работать с федеральными заказчиками, включая Министерство обороны США. Компания xAI уже заключила с Пентагоном контракт на $200 млн, который предусматривает интеграцию чат-бота Grok в системы военного назначения. Материнская SpaceX также давно обслуживает контракты с Министерством обороны США, доставляя на орбиту военные спутники и другие грузы. Ранее Маск неоднократно выступал за запрет автоматически управляемых систем вооружений, которые могут самостоятельно выбирать цели и уничтожать их без вмешательства человека. Упоминаемый выше конкурс Пентагона на первых этапах будет подразумевать только создание профильного программного обеспечения для управления дронами, фактические их испытания должны состояться гораздо позже. OpenAI также поддерживает одного из потенциальных подрядчиков Пентагона в этом конкурсе, как отмечает Bloomberg. Свою роль в проекте OpenAI собирается ограничить переводом голосовых команд в цифровые, непосредственно управлять роем дронов программное обеспечение этой компании не будет. Ещё один участник конкурса также будет использовать разработки OpenAI, имеющие статус открытого исходного кода. При этом считается, что SpaceX и xAI будут полноценно участвовать в разработке специализированного управляющего ПО для военных дронов. Среди американских военных уже появились противники идеи внедрения ИИ в процесс управления вооружениями. По их мнению, роль технологий ИИ должна быть ограничена переводом речевых команд в цифровые, а сам процесс управления дронами должен оставаться за человеком. Специалисты в сфере безопасности уже давно говорят о том, что ИИ склонен к ошибкам и галлюцинациям, а потому не следует слишком на него полагаться в ответственных сферах применения. Пентагон при этом взял курс на внедрение ИИ-агентов на поле боя. Крупные американские компании технологического сектора периодически выступали в роли подрядчиков оборонного ведомства. В 2018 году Google занималась разработкой технологии анализа получаемых военными дронами видеоизображений при помощи искусственного интеллекта, данный прецедент вызвал ряд протестов. Meta✴ закупит миллионы ИИ-чипов у Nvidia, включая центральные Arm-процессоры Grace и Vera
18.02.2026 [04:51],
Алексей Разин
Компания Meta✴✴ Platforms готова расширить свою вычислительную инфраструктуру ИИ путём закупки дополнительных объёмов компонентов Nvidia, которые будут включать как GPU нового поколения, так и целые стойки семейства Vera Rubin, равно как и центральные процессоры Nvidia Grace.
Источник изображения: Nvidia Как поясняет CNBC, исторически Meta✴✴ в развитии своей ИИ-инфраструктуры отличалась всеядностью, закупая ускорители AMD и процессоры Google, а также разрабатывая собственные. Помимо вычислительных решений Nvidia, на новом этапе расширения своей облачной инфраструктуры Meta✴✴ готова использовать и сетевые решения этой марки. Кроме того, чипы Nvidia помогут ей реализовать ИИ-функции в мессенджере WhatsApp. Новая сделка между компаниями подразумевает закупку миллионов чипов Nvidia для нужд Meta✴✴ Platforms. На каких условиях это будет сделано, не уточняется. В январе Meta✴✴ объявила о намерениях потратить до $135 млрд на развитие ИИ в текущем году. По мнению аналитиков Creative Strategies, в случае с новой сделкой речь идёт о десятках миллиардов долларов США. Новость об этой сделке вызвала рост курса акций Nvidia и Meta✴✴, а вот акции AMD упали в цене на 4 %. Компоненты Nvidia компания Meta✴✴ уже использует в своей инфраструктуре не менее десяти лет, но никогда ранее она не приобретала у неё центральные процессоры в отдельности от специализированных модулей, где те обычно соседствуют с GPU. Представители Nvidia подтвердили, что Meta✴✴ станет первым клиентом, приступившим к масштабному использованию центральных процессоров Grace. Эти чипы больше заточены под агентские ИИ-нагрузки и работу с инференсом. В 2027 году Meta✴✴ планирует перейти на использование нового поколения процессоров Vera разработки Nvidia. В общей сложности до 2028 года Meta✴✴ планирует направить на развитие вычислительных мощностей в США около $600 млрд. Из 30 центров обработки данных, запланированных Meta✴✴ к строительству в ближайшие годы, 26 будут расположены на территории США. Крупнейшими станут гигаваттный Prometheus в Огайо и 5-ГВт Hyperion в Луизиане. Коммутаторы Spectrum-X производства Nvidia также будут применяться Meta✴✴ в своей инфраструктуре, а ещё последняя внедрит технологии безопасности первой для развития функций ИИ в WhatsApp. Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude
17.02.2026 [22:52],
Андрей Созинов
Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro.
Источник изображений: Anthropic Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек. По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи. Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов. Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах. Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2. В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных. В ChatGPT появился «Режим блокировки» и маркировка повышенного риска для защиты важных данных
17.02.2026 [18:15],
Павел Котов
Компания OpenAI представила новые функции безопасности, направленные на то, чтобы не давать злоумышленникам возможности злоупотреблять продуктами на основе искусственного интеллекта. Это «Режим блокировки» (Lockdown Mode) как дополнительная настройка ChatGPT и пометки «Повышенный риск» (Elevated Risk) в ChatGPT, ChatGPT Atlas и Codex.
Источник изображения: openai.com Новые функции основаны на существующих средствах защиты, реализованных на уровне модели, продукта и системы, включая песочницу, защиту от утечки данных через URL-адреса, инструменты мониторинга и применения мер, а также корпоративные средства контроля, такие как разграничение прав и журналы аудита. «Режим блокировки» в ChatGPT позволяет отключать отдельные инструменты и функции чат-бота, которые гипотетический злоумышленник может попытаться использовать, чтобы организовать утечку конфиденциальных данных из переписки с пользователем или подключённых приложений, например, методом внедрения дополнительных запросов. Так, при просмотре веб-страниц в режиме блокировки включается ограничение в рамках кешированного контента — в результате сетевые запросы в реальном времени остаются в пределах контролируемой сети OpenAI. Режим блокировки доступен для пользователей с учётными записями для бизнеса, учреждений здравоохранения и образования. Он накладывает для рядовых пользователей дополнительные ограничения, помимо выбранных администратором настроек. Доступны и дополнительные настройки — можно выбирать, какие конкретно приложения и какие действия внутри этих приложений будут работать в режиме блокировки. Компания также предлагает набор инструментов Compliance API Logs Platform, позволяющий фиксировать данные об использовании приложений, общих данных и подключённых внешних источниках. В OpenAI также обратили внимание, что сервисы искусственного интеллекта могут создавать дополнительные угрозы для пользователей. Чтобы сделать это более понятным и последовательным, компания решила ввести стандартную маркировку существующих возможностей. Соответствующие функции ChatGPT, ChatGPT Atlas и Codex теперь будут иметь единую метку «Повышенный риск». Так, при работе с помощником по программированию Codex эту пометку получит функция доступа к внешним ресурсам, первоначально предназначенная, например, для поиска документации. Пометка будет сопровождаться пояснениями того, какие изменения и угрозы могут возникнуть, и в каких случаях предоставлять такой доступ уместно. В Европе запустили очередное расследование из-за непристойных генераций ИИ-бота Grok в соцсети X
17.02.2026 [17:01],
Павел Котов
Европейский регулятор, отвечающий за вопросы защиты персональных данных, объявил о начале «масштабного» расследования в отношении чат-бота с искусственным интеллектом Grok в соцсети X. Об этом сообщает Financial Times.
Источник изображения: Dima Solomin / unsplash.com Ответственной за выполнение требований европейского «Общего регламента по защите данных» (GDPR) выступает ирландская Комиссия по защите данных — она и начала расследование инцидентов, связанных с генерацией и публикацией чат-ботом Grok изображений интимного характера с участием реальных людей. В начале января стало известно, что Grok по запросам пользователей «раздевал» людей на предложенных фотографиях — это вызвало резко негативную реакцию со стороны общественности, экспертов по кибербезопасности и политиков. «Комиссия по защите данных взаимодействует с [X] с того момента, как несколько недель назад в СМИ появились сообщения о предполагаемой возможности для пользователей X направлять в аккаунт @Grok запросы на создание интимных изображений реальных людей, в том числе детей», — заявил заместитель комиссара Грэм Дойл (Graham Doyle). Ведомство инициировало «масштабное расследование, в ходе которого будет дана оценка соблюдению [X] некоторых основных обязательств в отношении рассматриваемых вопросов», добавил чиновник. Владелец соцсети X Илон Маск (Elon Musk) занял нейтральную позицию в отношении механизмов модерации чат-бота Grok, объяснив это соображениями свободы слова. В начале февраля, однако, французские правоохранительные органы нагрянули с обыском в парижский офис соцсети X. Самого бизнесмена и бывшую главу платформы Линду Яккарино (Linda Yaccarino) в «добровольном» порядке пригласили дать показания в апреле. На минувшей неделе о начале расследования в отношении X и xAI объявило британское Управление комиссара во вопросам информации — ведомство выразило «серьёзные опасения» по поводу использования Grok персональных данных пользователей, а также по поводу генерации им изображений деликатного характера. Официальное расследование начали и в ЕС — оно проводится в соответствии с действующим в регионе «Законом о цифровых сервисах» (DSA). Ирландская Комиссия по защите данных ограничится проверкой на соблюдение требований GDPR — документ обязывает компании обеспечивать обработку персональных данных только для конкретных законных целей, учитывать аспект конфиденциальности при разработке продуктов и проводить анализ рисков до запуска некоторых функций. Администрация X сообщила, что решила проблему и внедрила технические решения, исключающие для Grok возможность и далее генерировать изображения интимного характера. Мошенники пробрались в ИИ-поиск Google — пользователям подсовывают фальшивые телефоны банков
17.02.2026 [16:10],
Павел Котов
С развитием технологий искусственного интеллекта основной сервис Google меняет механизмы работы, продвигаясь от классической поисковой выдачи со ссылками на сайты к обзорам материалов, подготовленным ИИ. В этих обзорах не всегда даётся достоверная информация — теперь же выяснилось, что сюда пробрались даже мошенники.
Источник изображения: Shutter Speed / unsplash.com В обзорах ИИ из поиска Google обнаружены случаи появления мошеннических номеров телефонов, принадлежащих якобы службам поддержки крупных компаний, передаёт Wired со ссылкой на журналистские расследования других изданий и сообщения в соцсетях; соответствующие предупреждения стали публиковать банки и иные кредитные организации. Схема работает следующим образом. Потенциальная жертва пытается найти в Google номер телефона интересующей её компании и, не проверив информацию из выдачи, сразу звонит по предложенному в обзоре ИИ номеру. В действительности человек попадает не на сотрудника искомой компании, а на злоумышленника, который пытается выведать у позвонившего платёжную информацию или другие конфиденциальные данные. Достоверно установить, как эти поддельные номера оказываются в обзорах от ИИ, не удалось. По одной из версий, они появляются на малоизвестных сайтах рядом с названиями крупных компаний, а бот Google собирает эти данные, не проводя надлежащих проверок для подтверждения информации.
Источник изображения: BoliviaInteligente / unsplash.com Комбинация с размещением поддельных телефонных номеров существует давно, но сервис обзоров от ИИ усиливает её эффект, представляя эти сведения как факт, и люди оказываются более восприимчивыми к мошенничеству. «Наша защита от спама очень эффективна в предотвращении проникновения мошеннических схем в „Обзоры от ИИ“ и, по возможности, [в поиске] отображаются официальные номера служб поддержки клиентов», — заверили в Google. Но одним только поисковым сервисом проблема не ограничивается — злоумышленники могут скрытно внедрить вредоносный запрос в текст электронной почты, чтобы обрабатывающая его модель ИИ приняла это содержимое за точную и достоверную информацию. Чтобы защититься от подобных схем, следует придерживаться традиционных мер предосторожности. Не следует верить всему, что написано в обзоре от ИИ; лучше помнить, что ИИ-сервисы подвержены влиянию устаревшей и сомнительной информации из интернета наравне с точным данными, и они с трудом отличают одно от другого. Контакты следует искать только на официальном сайте интересующей компании — лучше сделать один или два лишних клика, чтобы убедиться в достоверности данных. Следует проявлять осторожность везде, где производится обмен информацией; в идеале проверять каждый номер телефона через тот же поиск Google — это советует и сам поисковый гигант. Отключить обзоры от ИИ невозможно. Их приходится проматывать, или можно вообще отказаться от услуг Google в пользу другой системы. Обзоры от ИИ формально облегчают задачу пользователя, но в некоторых случаях, возможно, следует обратиться к традиционным поисковым инструментам. ИИ-пузырь дал трещину: у бигтехов испарились сотни миллиардов капитализации с начала года, но не у всех
17.02.2026 [15:34],
Алексей Разин
В биржевом выражении бум искусственного интеллекта берёт своё начало с осени 2022 года, когда OpenAI запустила ChatGPT и породила массовый интерес к соответствующим технологиям. С тех пор капитализация основных выгодоприобретателей бума ИИ практически неуклонно росла, но с начала этого года наблюдается довольно выраженная коррекция по ценным бумагам многих эмитентов.
Источник изображения: TSMC Об этом накануне сообщило агентство Reuters, которое проанализировало динамику курса акций многих компаний технологического сектора за прошедшее с начала года время. Акции Microsoft, например, с начала года подешевели на 17 %, поскольку конкуренция в сегменте ИИ со стороны Google Gemini и Anthropic Claude заставила инвесторов усомниться в способности первой из корпораций предложить достойную альтернативу. Капитализация Microsoft сократилась с начала года на $613 млрд до $2,98 трлн. Amazon в этом смысле с начала года подешевела на 13,85 %, сократив капитализацию на $343 млрд до $2,13 трлн. Компания недавно заявила, что рассчитывает увеличить капитальные затраты более чем на 50 % в этом году, и основная часть этих средств будет направлена на развитие инфраструктуры ИИ. При этом у инвесторов нет чёткого понимания, в какие сроки эти гигантские расходы начнут оборачиваться адекватной финансовой отдачей.
Источник изображения: Reuters Что характерно, обладающая максимальной среди участников рынка капитализацией Nvidia потеряла с начала года не так много, всего $89,67 млрд или 2 %, поэтому даже сейчас её капитализация достигает солидных $4,44 трлн. Apple просела на 6,4 % до $3,76 трлн, хотя она до сих пор не располагает собственной конкурентной ИИ-платформой, полагаясь на партнёрство с другими крупными участниками рынка. Alphabet сократила свою капитализацию на 2,3 % до $3,7 трлн, её платформа Gemini демонстрирует впечатляющие результаты, поддерживая уверенность инвесторов в конкурентоспособности Google. При этом нашлись и те эмитенты, капитализация которых с начала текущего года даже выросла. К их числу относятся крупнейший контрактный производитель чипов TSMC, крупнейший производитель микросхем памяти Samsung Electronics и торговая сеть Walmart. Два первых эмитента в условиях продолжающегося бума способны увеличивать выручку и прибыль, поскольку поставляют полупроводниковые компоненты для инфраструктуры ИИ. Alibaba представила открытую LLM Qwen 3.5 с поддержкой ИИ-агентов и 201 языка — местами она быстрее Gemini 3 Pro
17.02.2026 [12:30],
Павел Котов
Китайский технологический гигант Alibaba представил модель искусственного интеллекта Qwen 3.5. Она доступна в открытом варианте, который позволяет всем желающим загружать, запускать, изменять и развёртывать её на собственной инфраструктуре; а также в хостинговой версии, предназначенной для работы на собственных серверах Alibaba.
Источник изображения: qwen.ai Alibaba Qwen 3.5 предлагает улучшения в производительности, стоимости обслуживания, и располагает «нативными мультимодальными возможностями», то есть одинаково хорошо работает с текстом, изображениями и видео. В соответствии с одной из ведущих тенденций отрасли ИИ модель умеет писать компьютерный код и располагает совместимостью с открытыми ИИ-агентами, включая популярный OpenClaw. ИИ-агентами называют приложения, способные самостоятельно выполнять действия и многоэтапные задачи от имени пользователя при минимальном его участии. Открытая Alibaba Qwen 3.5 имеет 397 млрд параметров — переменных, определяющих, как обучается и рассуждает модель. Это меньше, чем у предыдущего флагмана, но, как утверждает разработчик, новая модель показала значительное улучшение в различных тестах. В работе она сопоставима с ведущими моделями OpenAI, Anthropic и Google — в отдельных тестах китайский ИИ даже превосходит западных конкурентов. Доступная через облачную платформу Model Studio версия Qwen-3.5-Plus также выступает на уровне ведущих конкурирующих продуктов, утверждает Alibaba. Она поддерживает 201 язык и диалект — у предыдущего поколения их было 82. В дни празднования китайского Нового года Alibaba выпустит ещё несколько открытых моделей ИИ, пообещал в соцсетях технический руководитель направления Qwen в Alibaba Cloud Линь Цзюньян (Lin Junyang). Пентагон пригрозил «болезненно» наказать Anthropic за запрет применять Claude для слежки и автономного оружия
17.02.2026 [11:52],
Павел Котов
Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей со специализирующейся на технологиях искусственного интеллекта компанией Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic. Об этом сообщило Axios со ссылкой на высокопоставленного чиновника в Пентагоне.
Источник изображений: anthropic.com «Разорвать эти связи будет чрезвычайно болезненно, и мы позаботимся, чтобы они заплатили за то, что вынудили нас к этому», — заявил источник издания. Такие радикальные меры обычно применяются к компаниям из считающихся недружественными США стран. «Отношения Министерства обороны с Anthropic будут пересмотрены. Страна требует, чтобы наши партнёры были готовы помочь военнослужащим одержать победу в любой битве. В конечном счёте, речь идёт о наших войсках и безопасности американского народа», — заявил официальный представитель Пентагона Шон Парнелл (Sean Parnell). Anthropic Claude сейчас является единственной моделью ИИ, которая используется в секретных военных системах, и она выступает мировым лидером во многих бизнес-приложениях. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. В Anthropic хотят гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки оружия, которое стреляет без участия человека. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. ![]() В переговорах с тремя другими крупными разработчиками ИИ — OpenAI, Google и xAI — ведомство настаивает на своём праве использовать их модели «для всех законных целей». Высокопоставленные чиновники в Пентагоне уже некоторое время недовольны Anthropic, и теперь они воспользовались возможностью вступить с компанией в конфликт, утверждает источник Axios. Сегодня Пентагон обладает правом собирать огромные массивы данных о людях — от сообщений в соцсетях до разрешений на скрытое ношение оружия, — но действующее законодательство не предусматривает использования ИИ в этих целях. ИИ способен значительно расширить эти полномочия и дать возможность преследовать гражданских лиц. «Мы ведём продуктивные, добросовестные переговоры с Министерством обороны о том, как продолжать эту работу и надлежащим образом решать эти новые и сложные вопросы», — заявил представитель Anthropic. Он подтвердил, что компания привержена использованию ИИ в целях национальной безопасности и подчеркнул, что чат-бот Claude первым появился в секретных сетях. Кроме того, им пользуются восемь из десяти крупнейших американских компаний, добавили в Anthropic. Но для продолжения сотрудничества с Пентагоном их могут вынудить подтверждать отсутствие связей с Anthropic. Контракт с Министерством обороны оценивается в $200 млрд при общей выручке компании в $14 млрд за год. Разработанные конкурентами модели ИИ «немного отстают» в отношении специализированных государственных приложений, признали в ведомстве, поэтому резкий переход может оказаться непростым. Жёсткая позиция Пентагона в отношении Anthropic задала тон переговорам ведомства с OpenAI, Google и xAI — они уже согласились снять ограничения для систем, которые работают в несекретных военных системах, но для секретной работы эти системы пока не применяются. В Министерстве обороны уверены, что эти три компании примут стандарт «использования во всех законных целях», сообщил один источник; окончательное решение ещё не принято, оговорился другой. Создатель завирусившегося ИИ-агента OpenClaw присоединился к OpenAI
16.02.2026 [16:27],
Владимир Мироненко
Питер Штайнбергер (Peter Steinberger), создатель набравшего вирусную популярность ИИ-агента OpenClaw, присоединяется к OpenAI. Об этом сообщил глава компании Сэм Альтман (Sam Altman). По его словам, у Штайнбергера много потрясающих идей, как заставить ИИ-агентов взаимодействовать друг с другом.
Источник изображения: openclaw.ai Альтман отметил, что будущее будет чрезвычайно многоагентным, и эта способность агентов работать вместе станет основой будущих продуктов компании. Сервис OpenClaw, ранее известный как Moltbot и Clawdbot, завоевал популярность благодаря способности автоматизировать рутинные задачи на компьютере пользователей. Вместе с тем платформа оказалась уязвима для взлома из-за небезопасных настроек по умолчанию, предполагающих совместимость с сетевыми интерфейсами. Кроме того, в начале этого месяца исследователи обнаружили более 400 вредоносных навыков OpenClaw, загруженных в ClawHub. Также команда OpenClaw разработала MoltBook, социальную сеть, предназначенную исключительно для общения ИИ-агентов, где те жаловались на людей, спорили о доказуемости сознания и обсуждали необходимость приватного места для обмена идеями. На данный момент неизвестно, какая должность будет у Штейнбергера. Альтман лишь сообщил, что OpenClaw продолжит свою работу как проект с открытым исходным кодом в рамках фонда, поддерживаемого OpenAI. Для OpenAI, потерявшей за последнее время немало ведущих разработчиков, появление Штейнбергера в своей команде является большим достижением. ByteDance пообещала отучить ИИ-генератор Seedance 2.0 копировать голливудских актеров и персонажей
16.02.2026 [14:37],
Алексей Разин
Создание видеороликов с помощью ИИ-сервисов сталкивается с рядом юридических претензий, поскольку киностудии, правообладатели и знаменитости не желают допускать копирования их интеллектуальной собственности и образов без разрешения. Китайская ByteDance после запуска профильного сервиса Seedance 2.0 вынуждена была пообещать правообладателям ввести защитные механизмы, которые учитывали бы их интересы. ![]() Как и многие подобные сервисы, Seedance 2.0 позволяет создавать реалистичные видео на основе текстовых запросов. Социальные сети после запуска Seedance 2.0 сразу же наводнились видеороликами с персонажами, охраняемыми авторским правом, а также образами, напоминающими реальных знаменитостей. Поскольку многие из них имели американское происхождение, то к создателям подобных роликов у правообладателей возникли справедливые претензии. «Мы принимаем меры по усилению существующих защитных механизмов, чтобы предотвратить неправомерное использование интеллектуальной собственности и схожести (со знаменитостями) со стороны пользователей», — заявили представители ByteDance ресурсу CNBC. Свои претензии к создателям сервиса Seedance 2.0 довольно быстро направила отраслевая ассоциация MPA, которая в США представляет интересы большинства крупных киностудий и платформы Netflix. Она призвала ByteDance решительно пресечь неправомерную активность по использованию защищаемых интеллектуальными правами образов. По словам представителей ассоциации, подобная активность не только нарушает американские законы, но и угрожает миллионам рабочих мест в США. Студия Disney направила в адрес ByteDance письмо с требованиями прекратить неправомерное использование принадлежащих ей персонажей. По мнению представителей Disney, китайская ByteDance для обучения ИИ-модели якобы использовала полученную пиратским образом библиотеку образов, считая её публично доступной. Ранее Disney подписала соглашение с OpenAI, которое позволяет пользователям ИИ-сервисов последней внедрять в генерируемые видео ряд узнаваемых персонажей, принадлежащих студии. Требования прекратить нарушение прав в сфере интеллектуальной собственности в адрес ByteDance на прошлой неделе направила и Paramount Skydance. Alibaba, ByteDance и Kuaishou представили ряд новых ИИ-моделей — от роботов до киношного видео
16.02.2026 [09:10],
Владимир Фетисов
В то время как ИИ-рынок США на прошедшей неделе был занят изучением влияния инструментов Anthropic и Altruist на сферы программирования и оказания финансовых услуг, китайские IT-гиганты запустили ИИ-модели, показавшие прирост производительности в робототехнике и генерации видео. Alibaba, ByteDance (владелец TikTok) и платформа коротких видео Kuaishou представили новые алгоритмы, подтверждающие, что китайские разработчики не отстают от американских коллег.
Источник изображения: Gemini Анонс новых алгоритмов китайских IT-гигантов произошёл на фоне недавнего заявления главы ИИ-подразделения Google DeepMind Демиса Хассабиса (Demis Hassabis) касательно того, что китайские ИИ-модели отстают от западных конкурентов всего на несколько месяцев. Однако представленные на прошедшей неделе инструменты вполне могут рассматриваться в качестве прямых конкурентов ИИ-моделям для генерации видео, таким как Sora от OpenAI, а также моделям для сферы робототехники от Nvidia и Google. Исследовательское подразделение Alibaba DAMO анонсировало RynnBrain — ИИ-модель, предназначенную для того, чтобы помочь роботам понимать окружающий их физический мир и идентифицировать объекты. В демонстрационном ролике Alibaba показала робота с клешнями вместо рук, который собирал апельсины и складывал их в корзину. Там также показали, как робот достаёт молоко из холодильника. ИИ-модели требуют обширного обучения для достижения цели по идентификации повседневных объектов и взаимодействия с ними. Это означает, что такой простой для человека процесс, как сбор фруктов, для робототехники является гораздо более сложным. С запуском RynnBrain Alibaba начнёт конкурировать с такими компаниями, как Nvidia и Google, которые ведут разработку собственных ИИ-моделей для сферы робототехники. «Одним из её [ИИ-модели] ключевых новшеств является встроенное осознание времени и пространства. Вместо того, чтобы просто реагировать на непосредственные сигналы, робот может запоминать, когда и где происходили события, отслеживать прогресс выполнения задачи и продолжать действовать на протяжении нескольких этапов. Это делает его более надёжным и последовательным в сложных реальных условиях», — считает исследователь из Hugging Face Адина Якефу (Adina Yakefu). Она также добавила, что «более масштабная цель» Alibaba состоит в том, чтобы «создать базовый интеллектуальный уровень для воплощённых систем». Компания ByteDance на минувшей неделе представила Seedance 2.0 — модель искусственного интеллекта для генерации видео, которая может создавать реалистичные ролики на основе простого текстового описания. При этом алгоритм также может работать с другими видео и изображениями. Демонстрационные видео, созданные с помощью Seedance 2.0, выглядят вполне реалистично.
Источник изображения: Sony Адина Якефу подтвердила, что ИИ-модель Seedance 2.0 показала значительный прогресс по сравнению с предыдущими версиями в плане «управляемости, скорости и эффективности работы». «На сегодняшний день Seedance 2.0 — одна из самых сбалансированных моделей для генерации видео, которые я тестировала. Она удивила меня, выдав удовлетворительные результаты с первой попытки, даже обрабатывая простой запрос. Визуализация, звуковое сопровождение и операторская работа объединяются таким образом, что результат работы кажется отточенным, а не экспериментальным», — добавила Якефу. Хоть пользователи и хвалят этот алгоритм, известно, что у Seedance 2.0 возникли проблемы. Китайские СМИ сообщили, что разработчики временно заблокировали функцию генерации голоса человека на основе загруженного фото. Это произошло после того, как один из местных блогеров обратил внимание на проблему генерации голоса по фото без согласия того, кто изображен на снимке. Представители ByteDance пока никак не комментируют данный вопрос. Ещё одной новинкой стала ИИ-модель Kling 3.0 от Kuaishou, которая предназначена для генерации видео и является конкурентом алгоритма ByteDance. В сообщении сказано, что Kling 3.0 «отличается существенными улучшениями в согласованности, фотореалистичности результата работы, увеличенным временем продолжительности видео до 15 секунд и встроенной генерацией аудио на нескольких языках, диалектах и с разными акцентами». В настоящее время алгоритм Kling 3.0 доступен только платным подписчикам, но вскоре Kuaishou обещает открыть его для более широкой аудитории пользователей. Успех компании с ИИ-моделями Kling способствовал росту стоимости акций Kuaishou более чем на 50 % за последний год. Стоит упомянуть некоторые другие важные релизы. Компания Zhipu AI, которая работает в Гонконге под названием Knowledge Atlas Technology, представила алгоритм GLM-5 — открытую языковую модель с расширенными возможностями в области программирования и создания ИИ-агентов. Компания заявила, что последняя версия её ИИ-модели приближается к Anthropic Claude Opus 4.5 по показателям в профильных бенчмарках, а также превосходит Google Gemini 3 Pro в некоторых тестах. Этот релиз способствовал значительному рост курса акций Zhipu AI. Стоимость ценных бумаг MiniMax также подскочила в конце недели после того, как компания запустила обновлённую версию открытой ИИ-модели M2.5 с улучшенными инструментами ИИ-агентов. Этот алгоритм может использоваться для эффективной автоматизации выполнения разных задач. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |