|
Опрос
|
реклама
Быстрый переход
В следующем месяце объём инвестиций Microsoft в OpenAI превысит $100 млрд
14.05.2026 [07:07],
Алексей Разин
Когда речь ранее заходила об объёме финансирования OpenAI корпорацией Microsoft, всё обычно сводилось к упоминанию о $13 млрд, вложенных в капитал стартапа к началу 2023 года, но фактические затраты главного акционера OpenAI оказались выше. По итогам июня текущего года они превысят $100 млрд, как пояснили представители Microsoft в суде.
Источник изображения: Microsoft Растянувшиеся на три недели слушания уже завершаются, но представителям Microsoft пришлось давать показания в понедельник. Директор корпорации по сделкам Майкл Веттер (Michael Wetter) сообщил суду, что к концу текущего фискального года, который завершится в июне, она накопленным итогом направит на поддержку OpenAI и развитие сопутствующей вычислительной инфраструктуры более $100 млрд. По словам представителя Microsoft, основная часть этих затрат окупится ещё не скоро. Microsoft даёт показания в суде, поскольку Илон Маск (Elon Musk) в своём иске усмотрел решающее влияние корпорации на решение OpenAI создать коммерческую структуру в своём составе, тем самым отойдя от изначальной благотворительной миссии. На прошлой неделе генеральный директор Microsoft Сатья Наделла (Satya Nadella) признался в суде, что корпорация рассчитывала заработать на ранних инвестициях в OpenAI не менее $92 млрд. По состоянию на октябрь прошлого года Microsoft владела акциями OpenAI на общую сумму $135 млрд. После реструктуризации её доля в капитале стартапа составила 27 %. Из показаний Наделлы также становится ясно, что уже в апреле 2022 года он выражал озабоченность способностью OpenAI превзойти саму Microsoft, хотя революционный для стартапа момент в виде выпуска ChatGPT был отдалён почти на полгода. Наделла сравнивал ситуацию со взаимоотношениями IBM и Microsoft в восьмидесятых годах прошлого века. Распространяя свою операционную систему MS-DOS в качестве приложения к персональным компьютерам IBM, корпорация Microsoft в итоге превзошла партнёра по капитализации и прочим финансовым показателям. Руководство Microsoft ещё в 2022 году выражало беспокойство по поводу возможности OpenAI превзойти своего главного инвестора, а потому настаивало на получении доступа к интеллектуальной собственности, которая будет приносить выгоду и Microsoft напрямую. По словам Наделлы, для Microsoft во взаимоотношениях с OpenAI было важно присутствовать буквально на каждом уровне программного стека. Технический директор Microsoft Кевин Скотт (Kevin Scott) рассказал в суде, что первый ЦОД, построенный корпорацией для OpenAI, содержал 10 000 ускорителей на базе GPU и создавался на протяжении шести месяцев. Сотрудничество с OpenAI пошло на пользу Microsoft и в том смысле, что последняя научилась строить суперкомпьютеры, заточенные под работу с генеративным ИИ. С 2024 года Microsoft начала открыто называть OpenAI своим конкурентом в сфере разработки ИИ-моделей, а с прошлого года Microsoft начала сотрудничать с конкурентами самой OpenAI типа той же Anthropic. При этом самостоятельные разработки Microsoft в сфере ИИ не получили даже доли той популярности, которыми пользуются модели OpenAI. Наделла признался в суде, что для Microsoft важно оставаться хорошим партнёром и хорошей компанией, предлагающей платформы, придерживаясь центрального направления в развитии без сильных манёвров по сторонам. Создатель Claude Code рассказал, что каждую ночь запускает тысячи ИИ-агентов и управляет ими со смартфона
13.05.2026 [14:48],
Дмитрий Федоров
Создатель Claude Code Борис Черни (Boris Cherny) рассказал, что каждую ночь запускает около двух тысяч ИИ-агентов — автономных программ, которые самостоятельно выполняют задачи по написанию кода, — а управляет ими в основном со смартфона.
Источник изображения: @anthropic.ai / youtube.com Его слова показали, как часть инженеров Кремниевой долины начинает использовать ИИ-системы не столько как чат-ботов, сколько как постоянно работающих автономных помощников. «У меня приложение Claude, и если открыть его, слева есть вкладка с кодом — у меня там просто куча запущенных сессий», — сказал Черни, показывая телефон аудитории. Обычно он ведёт от пяти до десяти таких сессий, в каждой из которых работают несколько агентов. «Обычно каждую ночь у меня пара тысяч агентов, которые занимаются более глубокой работой», — добавил он. Для постоянной автоматизации Черни пользуется двумя функциями Claude Code: /loops и Routines. Первая позволяет запускать повторяющиеся задачи на локальном компьютере через системный планировщик cron, вторая выполняет их на удалённом сервере, так что держать ноутбук открытым не нужно. «Это просто самая крутая штука, — сказал он. — Если вы ещё не пробовали, очень рекомендую».
Источник изображения: @bcherny / x.com Черни и раньше делился подробностями работы с агентами. В январе он разместил описание своего рабочего процесса в соцсети X, назвав его «на удивление обычным». Той публикации уже пять месяцев. За это время её сохранили более 104 000 раз, а просмотры превысили 8,1 млн. «Забавно, — сказал Черни. — Я не думал, что это кого-то удивит. Для меня это просто обычный способ писать код». Google случайно показала грядущий ИИ Omni, который генерирует видео по тексту
12.05.2026 [05:20],
Анжелла Марина
Новая модель Gemini Omni компании Google появилась в ранних демонстрациях, показав впечатляющие результаты генерации видео по текстовым запросам. Некоторые пользователи уже протестировали функцию создания роликов, хотя компания ещё не объявила о запуске официально.
Источник изображения: Solen Feyissa/Unsplash Как стало известно 9to5Google, модель позволяет создавать видеоремиксы, редактировать контент непосредственно в диалоговом окне чат-бота, а также использовать готовые шаблоны. Метаданные в приложении Gemini указывают на то, что Omni является расширением платформы Veo, однако какое место займёт модель экосистеме продуктов компании, пока неизвестно. https://9to5google.com/wp-content/uploads/sites/4/2026/05/A_professor_writes_out_a_mathe.mp4 В одном из тестовых роликов ИИ сгенерировал сцену, в которой профессор пишет математическое доказательство на учебной доске, корректно отобразив формулы и последовательность объяснений. Во втором запросе была воссоздана сцена с двумя мужчинами, которые едят спагетти в ресторане у моря. Результат получился достаточно реалистичным, хотя и с заметными артефактами, характерными для современных генеративных моделей. Оба запроса заняли 86 % дневного лимита использования в аккаунте тарифа AI Pro. Разработчики пока не представили продукт публично, однако ранее подтвердили приверженность развитию технологий, связанных с генерацией видео, в особенности после решения конкурента прекратить поддержку Sora. Ожидается, что дополнительные детали, касающиеся генерации видео, станут известны на предстоящей конференции Google I/O 2026, где компания традиционно представляет ключевые обновления своих платформ. Даже лучшие ИИ «сыпятся» на длинных задачах: модели теряют четверть данных
12.05.2026 [05:18],
Анжелла Марина
Исследователи Microsoft установили, что даже самые продвинутые ИИ-модели допускают существенные ошибки при выполнении длительных многоэтапных задач. В ходе тестирования такие передовые модели, как Gemini 3.1 Pro, Claude 4.6 Opus и GPT 5.4, потеряли в среднем 25 % содержимого документов, которые были делегированы им для автономной работы.
Источник изображения: AI Команда Филиппа Лабана (Philippe Laban), Тобиаса Шнабеля (Tobias Schnabel) и Дженнифер Невилл (Jennifer Neville) из Microsoft Research разработала бенчмарк DELEGATE-52, имитирующий рабочие процессы в 52 профессиональных областях, например, в написании кода, нотной записи или кристаллографии. Модели оценивались по способности сохранять целостность документов после 20 циклов обработки, при этом порогом готовности считался результат не ниже 98 %. Результаты показали, что модели лучше справлялись с задачами программирования и хуже с обработкой естественного языка. Повреждение документов и, соответственно, снижение оценки до 80 % и ниже, произошло более чем в 80 % комбинаций. Лучшая из протестированных моделей, которой оказалась Google Gemini 3.1 Pro, соответствовала критериям готовности лишь в 11 из 52 областей. При этом ошибки возникали не постепенно, а скачкообразно, например, за один цикл взаимодействия модель могла потерять от 10 до 30 баллов. Более совершенные модели (Gemini 3.1 Pro, Claude 4.6, GPT 5.4) избегали мелких ошибок за счёт того, что откладывали их обработку на более поздние этапы при меньшем количестве взаимодействий. Одновременно выяснилось, что при работе ИИ-моделей с доступом к инструментами в режиме агентского управления их результаты не только не улучшались, но даже ухудшались к концу цикла в среднем на 6 %. По словам учёных, пользователям по-прежнему необходимо внимательно контролировать работу ИИ-систем при делегировании им полномочий, поскольку текущие модели готовы к автономной работе лишь в узких областях. При этом авторы бенчмарка признают прогресс LLM и отмечают, что, например, семейство ИИ-моделей OpenAI за 16 месяцев улучшило показатели производительности с 14,7 % до 71,5 %. ИИ-модель OpenAI GPT-5.5 оказалась в 1,5–2 раза дороже предшественницы
09.05.2026 [14:38],
Павел Котов
В мире высоких технологий, как оказалось, дорожают не только чипы памяти, но и модели искусственного интеллекта: с выпуском GPT-5.5 компания OpenAI подняла цены за доступ к ней через API — в некоторых случаях она оказалась вдвое дороже предшественницы.
Источник изображения: Mariia Shalabaieva / unsplash.com Цены за работу с OpenAI GPT-5.5 составляют $5 (входящие), $0,50 (кешированные входящие) и $30 (выходящие) за 1 млн токенов — для сравнения, при работе с GPT-5.4 эти ценники равны соответственно $2,50, $0,25 и $15. Рост цен частично компенсируется более высокой эффективностью — способностью модели показывать лучшие результаты, используя меньше токенов, заверили в OpenAI. Но даже с учётом этого работа с моделью обходится заметно дороже, подсчитали в OpenRouter: «Фактическая стоимость GPT-5.5 выросла на 49–92 %, показал наш анализ. При более длинных запросах, более 10 000 токенов, затраты компенсируются сокращённым временем выполнения. При более коротких запросах, менее 10 000 [токенов], отмечается более значительное увеличение стоимости, тогда как время обработки не сокращается». Модель OpenAI GPT-5.5 генерирует на величину 19–34 % меньше токенов при более длинных запросах. Считающиеся лидерами мировой отрасли ИИ компании OpenAI и Anthropic остаются убыточными: по итогам 2026 года убытки первой составят $14 млрд, второй — $11 млрд. При этом новая флагманская модель Anthropic Claude Opus 4.7 доступна по тем же ценникам, что и её предшественница, несмотря на заявления разработчика об улучшенном токенизаторе. Но на практике подорожала и она, отметили в OpenRouter: при запросах длиной более 2000 токенов затраты выросли на величину 12–27 % с учётом экономии за счёт кеширования токенов; при запросах менее 2000 символов более короткие ответы помогли компенсировать накладные расходы токенизатора. С опозданием на месяц OpenAI ответила на Claude Mythos — вышла модель GPT-5.5-Cyber, которая не боится обсуждать кибератаки и эксплойты
09.05.2026 [10:14],
Павел Котов
OpenAI представила модель искусственного интеллекта GPT-5.5-Cyber, предназначенную для работы в области кибербезопасности — своего рода аналог нашумевшей Anthropic Mythos. Доступ к ней получит ограниченное число клиентов компании.
Источник изображения: Dima Solomin / unsplash.com Новая модель вышла менее чем через месяц после предшествующей GPT-5.4-Cyber, и существенным обновлением её считать не следует, подчеркнул разработчик. Она выполняет задачи в области кибербезопасности: выявляет уязвимости, осуществляет приоритизацию инцидентов, проверяет патчи и анализирует вредоносное ПО. Как и предыдущая версия, новая GPT-5.5-Cyber доступна не для широкой аудитории, а для участников программы Trusted Access for Cyber (TAC). Ещё с выходом GPT-5.4-Cyber компания OpenAI расширила масштабы программы до «нескольких тысяч проверенных индивидуальных экспертов и нескольких сотен коллективов, ответственных за защиту критически важного ПО». «Экосистема киберзащиты обширна, и GPT-5.5 с GPT-5.5-Cyber играют разные роли в удовлетворении потребностей организаций и исследователей [в составе этой экосистемы], в зависимости от задач, условий и мер защиты, связанных с применением модели. Для большинства команд GPT-5.5 с [доступом через] TAC является наиболее эффективной и широко применяемой моделью для легитимной работы по киберзащите с надёжными ограничениями против неправомерного использования», — отметили в OpenAI. В новых версиях macOS и iOS появится выбор сторонних ИИ-моделей
06.05.2026 [04:29],
Анжелла Марина
Apple планирует разрешить пользователям выбирать предпочтительную модель искусственного интеллекта для работы функций Apple Intelligence в будущих обновлениях операционных систем. По сообщению The Verge со ссылкой на информацию Марка Гурмана (Mark Gurman) из Bloomberg, эта возможность появится в iOS 27, iPadOS 27 и macOS 27. ![]() Помимо стандартного ассистента Siri, пользователи смогут задействовать сторонние чат-боты, для выполнения задач внутри инструментов Apple. Эти модели смогут брать на себя такие функции, как работу с текстом через Writing Tools и генерацию изображений в Image Playground, обеспечивая более гибкое взаимодействие с устройством. Гурман отмечает, что компания уже проводит внутреннее тестирование интеграции с моделями Google и Anthropic, хотя ранее единственным партнёром оставался ChatGPT (OpenAI). Выбор альтернативного ИИ-провайдера будет осуществляться через настройки устройства после установки соответствующего приложения из App Store. Разработчики должны будут самостоятельно добавить поддержку необходимых интерфейсов в свои приложения, чтобы они стали доступны для системной интеграции. Такой подход позволит владельцам гаджетов персонализировать работу ИИ под свои конкретные нужды и предпочтения. Интересной деталью стала возможность назначения голосовых профилей Siri для подключенных моделей. Например, ответы непосредственно от модели Apple могут быть озвучены одним тембром, а взаимодействие с сервисом на базе ChatGPT — совершенно другим. В ChatGPT сменилась базовая модель — теперь это быстрая GPT-5.5 Instant, которая меньше галлюцинирует
05.05.2026 [23:43],
Николай Хижняк
Во вторник компания OpenAI выпустила новую базовую модель под названием GPT-5.5 Instant, которая заменит GPT-5.3 Instant в качестве основной модели для чат-бота ChatGPT. По словам представителей компании, новая модель снижает вероятность «галлюцинаций» в таких деликатных областях, как юриспруденция, медицина и финансы, сохраняя при этом низкую задержку, характерную для предыдущей версии.
Источник изображения: OpenAI В прошлом месяце компания OpenAI выпустила последнюю версию модели GPT-5.5, заявив об улучшениях в таких областях, как кодирование и работа с базами знаний. Новая модель набрала 81,2 балла в математическом тесте AIME 2025 по сравнению с 65,4 балла у предыдущей версии. Она также превзошла предыдущую версию в мультимодальном тесте MMMU-Pro, набрав 76 баллов против 69,2. Особое внимание в новой версии уделено управлению контекстом. GPT-5.5 Instant может использовать функцию поиска, чтобы обращаться к предыдущим диалогам, файлам и переписке в Gmail и давать более персонализированные ответы. Эта функция будет доступна пользователям подписок Plus и Pro в веб-версии, а в ближайшее время появится и в мобильной версии. OpenAI заявила, что в ближайшие недели планирует предоставить доступ к этой функции пользователям бесплатной версии, а также пользователям Go, Business и корпоративным пользователям. С этим обновлением ChatGPT также будет отображать источники памяти для всех моделей, чтобы пользователь понимал, откуда берутся ответы. Пользователи могут удалять устаревшие источники или исправлять их, если ответ был неверным. Важно отметить, что, если поделиться с кем-то чатом, этот человек не сможет увидеть источники памяти. Для разработчиков модель GPT-5.5 будет доступна через API под названием «chat-latest», а версия 5.3 будет доступна в качестве опции для платных пользователей в течение трёх месяцев. Развитие ИИ замедляется из-за переизбытка бесполезных данных — их слишком много
04.05.2026 [14:05],
Владимир Мироненко
Дальнейшее совершенствование ИИ-систем, которое обеспечит переход от ChatGPT к использованию человекоподобных роботов, зависит от качества данных, которые предоставляются этим системам для обучения, пишет ресурс Fortune.
Источник изображения: Igor Omilaev/unsplash.com Ресурс отметил, что отрасль находится на пороге следующего рубежа ИИ — физического ИИ и моделей окружающего мира — систем, которые будут учиться и в конечном итоге работать в физическом мире. Для того чтобы они получили когнитивные способности, необходимые для навигации по дорогам, складывания белья или оказания помощи при сложных медицинских операциях, им требуются не просто данные, которые можно загрузить. Их обучение требует богатых и многогранных данных. И если исследователи не смогут остановить избыток ненужных данных — данных, которые не способствуют развитию модели, — весь потенциал физического ИИ и моделей окружающего мира может никогда не раскрыться в полной мере. Проблема заключается в том, что для создания новых, более совершенных ИИ-моделей требуется всё больше данных. На волне ажиотажа вокруг ИИ возникло множество ИИ-стартапов, таких, как Scale AI, Surge AI и Mercor, испытывающих ненасытную потребность в данных. Однако удовлетворение этой потребности привело к появлению огромного количества ненужных данных, которые на самом деле никак не способствуют развитию моделей ИИ, отметил Fortune. Обучение моделей пониманию сложного многомерного мира требует значительно больше данных — данных, которые также очень трудно получить. Инженеры по машинному обучению прибегают к моделированию данных, используя виртуальные реконструкции реальных сценариев для создания данных, которые будут использоваться для обучения роботов и беспилотных автомобилей. Использование некачественных данных при обучении ИИ-моделей может привести к непредсказуемым результатам. Как утверждает ресурс Fortune, OpenAI прекратила поддержку видеоприложения Sora из-за проблемы некачественных данных, поскольку её модель мира не обладала достаточным пониманием физики, что затрудняло реалистичные прогнозы. Для дальнейшего продвижения ИИ-специалистам, занимающимся машинным обучением, необходимы инструменты и технологии для удаления ненужных данных, которые анализируют, очищают, нормализуют и корректируют обучающие данные. Для достижения успеха в обучении потребуется извлечение ценных выводов и их отделение от ненужных данных. Теперь ограничивающим фактором стала нехватка качественных данных. Компании, которые первыми поймут это, создадут ИИ-системы, которые действительно будут работать, пишет Fortune. Белый дом противится намерениям Anthropic расширить доступ к своей ИИ-модели Mythos
30.04.2026 [06:50],
Алексей Разин
Создавшая ИИ-модель Mythos для поиска уязвимостей в информационных системах компания Anthropic изначально ограничила круг имеющих к ней доступ примерно 50 организациями, включая правительственные структуры. В ближайшее время планируется расширить этот перечень до 120 компаний и организаций, но данная инициатива Anthropic сталкивается с возражениями со стороны Белого дома.
Источник изображения: Anthropic Как отмечает The Wall Street Journal, власти США опасаются последствий слишком активного распространения Mythos, которая зарекомендовала себя в качестве мощного ИИ-инструмента в сфере кибербезопасности. В руках недоброжелателей это программное средство может стать оружием, используемым для атак на информационную инфраструктуру. Кроме того, чиновников беспокоит вероятность нехватки вычислительных мощностей Anthropic при столь активном расширении доступа к Mythos, которая в итоге может привести к снижению эффективности модели при её использовании в интересах правительственных структур. Выпуск Mythos компанией Anthropic символизировал вынужденное возобновление диалога с властями США после скандала с расторжением контракта на обслуживание интересов Пентагона. Новый «рубеж сопротивления» в переговорах между властями США и Anthropic говорит о том, что взаимоотношения между сторонами далеки от нормализации. На прошлой неделе Anthropic, как предполагается, столкнулась с инцидентом несанкционированного доступа к Mythos и начала расследование, поэтому нельзя утверждать, что сами разработчики безответственно относятся к условиям распространения данного инструмента. Источники также рассказывают о странном случае с попыткой американского правительства нанять выходца из Anthropic Коллина Бёрнса (Collin Burns), которому был предложен пост главы особого ведомства, специализирующегося на оценке лучших ИИ-моделей, появляющихся на рынке. Не всем в правительстве понравилась эта фигура как раз из-за связи с Anthropic, поэтому Бёрнс так и не получил описываемой выше должности, и это место занял другой кандидат. Чиновники объяснили такой шаг стремлением подобрать руководителя, который был бы равноудалён от всех компаний, предлагающих в США свои ИИ-модели. GPT-5.2 обошла абитуриентов, сдав вступительные экзамены в Токийский и Киотский университеты лучше всех
27.04.2026 [14:35],
Анжелла Марина
Нейросеть GPT-5.2 в режиме размышления получила высшие баллы на вступительных экзаменах в Токийском и Киотском университетах Японии, опередив реальных абитуриентов этого года. Компания LifePrompt, проводившая тесты, сообщила, что нейросеть превзошла максимальные проходные результаты даже на самых конкурентных медицинских направлениях.
Источник изображения: xAI LifePrompt протестировала модель GPT-5.2 Thinking, загрузив вопросы экзаменов в виде изображений. Развёрнутые ответы, включая эссе, оценивали преподаватели одной из крупнейших частных подготовительных школ Kawai Juku. На медицинском направлении Токийского университета (Natural Sciences III) искусственный интеллект набрал на 50 баллов больше, чем лучший реальный участник, и получил идеальный результат по математике. Этому успеху, как отмечает портал Kyodo News, предшествовала неудачная попытка пройти те же испытания с помощью модели GPT 4 в 2024 году, а затем, в 2025 году, всё-таки успешно преодолеть проходной балл с помощью модели o1. В разделе гуманитарных и естественных наук Токийского университета нейросеть также показала выдающиеся результаты. Она набрала 452 балла из 550 возможных в гуманитарном блоке и 503 балла в естественно-научном, превысив рекорды зачисленных студентов. Однако эффективность ИИ оказалась неравномерной: если по английскому языку результат составил 90 %, то по эссе, касающемуся всемирной истории — лишь 25 %. Аналогичное превосходство было зафиксировано и в Киотском университете, где алгоритм тестировали на факультетах права и медицины. На юридическом факультете ИИ получил 771 балл при максимальном проходном пороге в 734, а на медицинском — 1176 баллов против рекорда лучшего абитуриента в 1098 баллов. Глава LifePrompt Сатоши Эндо (Satoshi Endo) отметил, что компаниям необходимо внедрять ИИ с прицелом на изменение бизнес-процессов в ближайшие десятилетия. В то же время профессор Университета Кейо Сатоши Курихара (Satoshi Kurihara) предостерёг от прямого сравнения людей и машин, указав на преимущество человека в создании новой ценности. Он добавил, что высокие оценки ИИ должны стать поводом для пересмотра экзаменационных систем. США призвали всех активнее бороться с дистилляцией американских ИИ-моделей китайцами
25.04.2026 [08:22],
Алексей Разин
На этой неделе американские законодатели продвинулись чуть дальше в согласовании пакета законопроектов, направленных на сдерживание технологического развития КНР. Помимо заявлений на парламентском уровне, по дипломатическим каналам в посольства США по всему миру была направлена телеграмма, призывающая обратить внимание на проблему дистилляции американских ИИ-моделей китайскими разработчиками.
Источник изображения: Unsplash, Solen Feyissa Напомним, под «дистилляцией» в данном контексте понимается процесс использования более зрелых американских больших языковых моделей для дообучения китайских. Это ускоряет процесс создания конкурирующих ИИ-моделей в Китае, позволяя с меньшими затратами ресурсов и времени получать сопоставимые по производительности программные решения в сфере ИИ. По мнению американских экспертов, некоторые китайские разработчики преподносят свои ИИ-модели как оригинальные, но в действительности они в процессе обучения активно полагались на выдаваемые американскими моделями данные. Если американские законодатели добьются усиления контроля за блокировкой такой деятельности зарубежных разработчиков, то некоторые китайские ИИ-стартапы вынуждены будут покинуть рынок в течение шести или двенадцати месяцев, по мнению экспертов, опрошенных South China Morning Post. Даже более самостоятельные китайские разработчики могут пострадать в результате ограничения доступа к американским ИИ-моделям, поскольку совершенствование собственных моделей они ускоряют как раз за счёт «дистилляции». Новые версии китайских моделей, которые сейчас появляются раз в три месяца, в итоге будут готовиться к выходу год и более. Выступая на парламентских слушаниях в США на этой неделе, бывшая член совета директоров OpenAI Хелен Тонер (Helen Toner) подчеркнула, что было бы ошибкой недооценивать потенциал китайских разработчиков ИИ, которые обладают большим потенциалом инноваций и без доступа к дистилляции. При этом ряд американских компаний, включая OpenAI, Google и Anthropic на протяжении последних месяцев выступали с обвинениями китайских конкурентов в «дистилляционных атаках». Хотя сама по себе такая методика обучения ИИ-моделей не считается незаконной, как метод конкурентной борьбы она требует некоторого законодательного регулирования, по мнению многих участников рынка. Американские законодатели также намерены добиваться усиления контроля за экспортом технологий производства полупроводниковых компонентов в Китай. Новая инициатива властей США подразумевает усиление ограничений на поставку в КНР оборудования для выпуска чипов. Разумеется, данные шаги со стороны американских парламентариев не остались без внимания китайских властей. По традиции, усилия американских оппонентов по «обеспечению национальной безопасности» в Китае назвали ширмой, прикрывающей намерения продвигать американские интересы во внешнеторговой сфере в ущерб другим участникам рынка. Полупроводниковая отрасль только пострадает от этих действий американских регуляторов, как подчёркивают китайские чиновники. Власти КНР оставляют за собой право защищать интересы национальных компаний при помощи ответных мер, которые пока не конкретизируются. Представлена DeepSeek V4 — открытая ИИ-модель, которая потягается с лучшими решениями OpenAI и Google
24.04.2026 [11:43],
Владимир Фетисов
Китайская компания DeepSeek выпустила предварительную версию большой языковой модели V4. Релиз состоялся спустя более чем год после того, как DeepSeek представила свою модель с поддержкой рассуждения R1, которая потрясла глобальные технологические рынки благодаря высокому уровню производительности и экономической эффективности. Также интересно, что DeepSeek V4 вышла через несколько часов после анонса OpenAI GPT-5.5.
Источник изображения: AI Как и предыдущая модель DeepSeek V3, новая версия алгоритма имеет открытый исходный код, что позволяет разработчикам разворачивать нейросеть локально и модифицировать её по собственному усмотрению. DeepSeek заявила, что V4 демонстрирует высокую производительность по сравнению с китайскими конкурентами, особенно в агентных задачах, обработке данных и логических выводах. В дополнение к этому DeepSeek V4 оптимизирована для использования с популярными ИИ-агентами, такими как OpenClaw и Anthropic Claude Code. Доступны версии «pro» и «flash», отличающиеся размером и производительностью. DeepSeek-V4-Pro предлагает 1,6 триллионов параметров (49 миллиардов активных) и производительность, «сопоставимую с лучшими в мире закрытыми моделями». DeepSeek-V4-Flash обеспечивает только 284 млрд параметров, из которых 13 млрд активных. ![]() Версия Pro превосходит все существующие открытые модели в математике и программировании, и способна потягаться здесь даже с лучшими закрытыми моделями. А знания о мире этой модели «уступают только Gemini 3.1 Pro». В свою очередь версия Flash даёт возможности рассуждения близкие к уровню V4-Pro, и выполняет простые задачи в режиме агента на уровне V4-Pro. DeepSeek основана в 2023 году, а внимание компания привлекла в 2024 году, когда выпустила бесплатную ИИ-модель V3 с открытым исходным кодом. Этот алгоритм оказался экономически эффективным, поскольку на его создание ушло значительно меньше средств по сравнению с западными конкурентами, например, от OpenAI и Google. ![]() В январе 2025 года DeepSeek выпустила модель R1, которая показала аналогичную производительность или превзошла многих конкурентов. Модель R1 встревожила инвесторов, когда DeepSeek объявила, что на её создание с использованием не самых мощных ускорителей Nvidia потребовалось всего два месяца и менее $6 млн. Это поставило под сомнение лидерство США в сфере ИИ, а также огромные расходы технологических компаний на инфраструктуру для ИИ. Аналитик MorningStar Айвен Су (Ivan Su) считает, что алгоритм V4 вряд ли окажет на индустрию такое же влияние, как R1, поскольку рынки учли то, что китайский ИИ конкурентоспособен и дешевле в использовании. Он добавил, что новая позиция DeepSeek делает другие китайские ИИ-модели с открытым исходным кодом прямыми конкурентами. «Такой формулировки не существовало во времена R1, и уже это говорит о том, насколько усилилась внутренняя конкуренция», — добавил Су. Главный вопрос после запуска DeepSeek V4 в том, какие ускорители использовались для обучения модели. Китайский технологический гигант Huawei на этой неделе подтвердил, что его новейший вычислительный ИИ-кластер, работающий на ускорителях Ascend, может поддерживать модель DeepSeek V4. Однако не ясно, в какой степени ускорители Huawei использовались для обучения новой ИИ-модели. Новые модели DeepSeek уже доступны в веб-версии и приложении чат-бота DeepSeek, где режим Instant основан на V4-Flash, а Expert — на V4-Pro. Разработчики также получили доступ к новинкам через API. Регуляторы увидели в ИИ-модели Anthropic Mythos угрозу для банковской системы
20.04.2026 [12:22],
Алексей Разин
В лучших традициях фантастических сюжетов про «восстание машин», стартап Anthropic открыл доступ к специализирующейся на поиске уязвимостей в ПО модели Mythos лишь ограниченному кругу пользователей. Тем не менее, представители монетарных систем некоторых стран считают, что даже в таком ограниченном применении Mythos может представлять угрозу для банковской системы.
Источник изображения: Anthropic По меньшей мере, как отмечает Reuters, регуляторы считают, что Mythos можно использовать для дестабилизации банковской системы через поиск уязвимостей в сфере кибербезопасности. Австралийская комиссия по ценным бумагам и инвестициям (ASIC) через своего представителя заявила, что пристальным образом обменивается данными с регулирующими органами других стран с целью определения возможных сфер применения Mythos на австралийском рынке. Правительственные агентства и представители финансового сектора тоже участвуют в консультациях. Лицензиаты подобных сервисов в финансовом сегменте рынка, по мнению ASIC, должны быть «на шаг впереди всех» при обеспечении защиты интересов своих клиентов. Австралийский банковский регулятор APRA также анализирует возможное влияние подобных технологий на стабильность и безопасность финансовой системы. В Южной Корее Комиссия по финансовым услугам (FSC) также провела в минувшую среду экстренное совещание со специалистами в сфере информационной безопасности, чтобы оценить исходящую от Mythos угрозу для участников финансового рынка. В условиях активной цифровизации финансовых услуг забота о безопасности в профильной сфере обретает всё большее значение, учитывая бурное развитие искусственного интеллекта. АНБ США продолжает использовать Anthropic Mythos, несмотря на запрет
20.04.2026 [10:11],
Алексей Разин
Пока правительство США пытается определиться, можно ли дальше использовать разработки компании Anthropic в условиях объявления её источником риска для национальной безопасности, отдельные ведомства продолжают работать с ИИ-моделями этого разработчика, и Агентство национальной безопасности (АНБ) является одной из таких «непокорных» правительственных структур.
Источник изображения: Anthropic Как сообщило издание Axios, Агентство национальной безопасности США использует одну из самых производительных ИИ-моделей Anthropic — Mythos Preview, хотя прекрасно осознаёт, что курирующее работу ведомства Министерство обороны США неодобрительно относится к такой практике. Складывается, по словам источника, парадоксальная ситуация: с одной стороны, американские военные расширяют использование продуктов Anthropic, а с другой — пытаются в суде доказать, что они представляют угрозу для национальной безопасности Соединённых Штатов. Минимум два источника подтвердили Axios, что внутри АНБ модель Mythos для поиска уязвимостей в программном обеспечении не только используется, но и в определённом смысле набирает популярность. Обычно данный инструмент используется при аудите собственной программной инфраструктуры на предмет поиска слабых мест. Сама Anthropic ограничила круг доступа к Mythos примерно 40 организациями, которые могут применять ИИ-модель ответственно и безопасно. Из этих организаций названы были лишь 12, поэтому АНБ может попасть в оставшуюся часть выборки. Некоторые из них находятся за пределами США — в частности, в Великобритании. Важность данного программного инструмента подчёркивается и тем фактом, что глава Anthropic Дарио Амодеи (Dario Amodei) отправился в пятницу на встречу с высокопоставленными американскими чиновниками, и темой переговоров стало именно использование Mythos правительственными структурами. Предполагается, что по итогам встречи должен быть определён порядок предоставления доступа к Mythos прочим организациям, помимо Пентагона. |