Сегодня 16 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → модели
Быстрый переход

В следующем месяце объём инвестиций Microsoft в OpenAI превысит $100 млрд

Когда речь ранее заходила об объёме финансирования OpenAI корпорацией Microsoft, всё обычно сводилось к упоминанию о $13 млрд, вложенных в капитал стартапа к началу 2023 года, но фактические затраты главного акционера OpenAI оказались выше. По итогам июня текущего года они превысят $100 млрд, как пояснили представители Microsoft в суде.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Растянувшиеся на три недели слушания уже завершаются, но представителям Microsoft пришлось давать показания в понедельник. Директор корпорации по сделкам Майкл Веттер (Michael Wetter) сообщил суду, что к концу текущего фискального года, который завершится в июне, она накопленным итогом направит на поддержку OpenAI и развитие сопутствующей вычислительной инфраструктуры более $100 млрд. По словам представителя Microsoft, основная часть этих затрат окупится ещё не скоро.

Microsoft даёт показания в суде, поскольку Илон Маск (Elon Musk) в своём иске усмотрел решающее влияние корпорации на решение OpenAI создать коммерческую структуру в своём составе, тем самым отойдя от изначальной благотворительной миссии. На прошлой неделе генеральный директор Microsoft Сатья Наделла (Satya Nadella) признался в суде, что корпорация рассчитывала заработать на ранних инвестициях в OpenAI не менее $92 млрд. По состоянию на октябрь прошлого года Microsoft владела акциями OpenAI на общую сумму $135 млрд. После реструктуризации её доля в капитале стартапа составила 27 %.

Из показаний Наделлы также становится ясно, что уже в апреле 2022 года он выражал озабоченность способностью OpenAI превзойти саму Microsoft, хотя революционный для стартапа момент в виде выпуска ChatGPT был отдалён почти на полгода. Наделла сравнивал ситуацию со взаимоотношениями IBM и Microsoft в восьмидесятых годах прошлого века. Распространяя свою операционную систему MS-DOS в качестве приложения к персональным компьютерам IBM, корпорация Microsoft в итоге превзошла партнёра по капитализации и прочим финансовым показателям. Руководство Microsoft ещё в 2022 году выражало беспокойство по поводу возможности OpenAI превзойти своего главного инвестора, а потому настаивало на получении доступа к интеллектуальной собственности, которая будет приносить выгоду и Microsoft напрямую. По словам Наделлы, для Microsoft во взаимоотношениях с OpenAI было важно присутствовать буквально на каждом уровне программного стека.

Технический директор Microsoft Кевин Скотт (Kevin Scott) рассказал в суде, что первый ЦОД, построенный корпорацией для OpenAI, содержал 10 000 ускорителей на базе GPU и создавался на протяжении шести месяцев. Сотрудничество с OpenAI пошло на пользу Microsoft и в том смысле, что последняя научилась строить суперкомпьютеры, заточенные под работу с генеративным ИИ. С 2024 года Microsoft начала открыто называть OpenAI своим конкурентом в сфере разработки ИИ-моделей, а с прошлого года Microsoft начала сотрудничать с конкурентами самой OpenAI типа той же Anthropic. При этом самостоятельные разработки Microsoft в сфере ИИ не получили даже доли той популярности, которыми пользуются модели OpenAI. Наделла признался в суде, что для Microsoft важно оставаться хорошим партнёром и хорошей компанией, предлагающей платформы, придерживаясь центрального направления в развитии без сильных манёвров по сторонам.

Создатель Claude Code рассказал, что каждую ночь запускает тысячи ИИ-агентов и управляет ими со смартфона

Создатель Claude Code Борис Черни (Boris Cherny) рассказал, что каждую ночь запускает около двух тысяч ИИ-агентов — автономных программ, которые самостоятельно выполняют задачи по написанию кода, — а управляет ими в основном со смартфона.

 Источник изображения: @anthropic.ai / youtube.com

Источник изображения: @anthropic.ai / youtube.com

Его слова показали, как часть инженеров Кремниевой долины начинает использовать ИИ-системы не столько как чат-ботов, сколько как постоянно работающих автономных помощников. «У меня приложение Claude, и если открыть его, слева есть вкладка с кодом — у меня там просто куча запущенных сессий», — сказал Черни, показывая телефон аудитории. Обычно он ведёт от пяти до десяти таких сессий, в каждой из которых работают несколько агентов. «Обычно каждую ночь у меня пара тысяч агентов, которые занимаются более глубокой работой», — добавил он.

Для постоянной автоматизации Черни пользуется двумя функциями Claude Code: /loops и Routines. Первая позволяет запускать повторяющиеся задачи на локальном компьютере через системный планировщик cron, вторая выполняет их на удалённом сервере, так что держать ноутбук открытым не нужно. «Это просто самая крутая штука, — сказал он. — Если вы ещё не пробовали, очень рекомендую».

 Источник изображения: @bcherny / x.com

Источник изображения: @bcherny / x.com

Черни и раньше делился подробностями работы с агентами. В январе он разместил описание своего рабочего процесса в соцсети X, назвав его «на удивление обычным». Той публикации уже пять месяцев. За это время её сохранили более 104 000 раз, а просмотры превысили 8,1 млн. «Забавно, — сказал Черни. — Я не думал, что это кого-то удивит. Для меня это просто обычный способ писать код».

Google случайно показала грядущий ИИ Omni, который генерирует видео по тексту

Новая модель Gemini Omni компании Google появилась в ранних демонстрациях, показав впечатляющие результаты генерации видео по текстовым запросам. Некоторые пользователи уже протестировали функцию создания роликов, хотя компания ещё не объявила о запуске официально.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

Как стало известно 9to5Google, модель позволяет создавать видеоремиксы, редактировать контент непосредственно в диалоговом окне чат-бота, а также использовать готовые шаблоны. Метаданные в приложении Gemini указывают на то, что Omni является расширением платформы Veo, однако какое место займёт модель экосистеме продуктов компании, пока неизвестно.

https://9to5google.com/wp-content/uploads/sites/4/2026/05/A_professor_writes_out_a_mathe.mp4

В одном из тестовых роликов ИИ сгенерировал сцену, в которой профессор пишет математическое доказательство на учебной доске, корректно отобразив формулы и последовательность объяснений.

Во втором запросе была воссоздана сцена с двумя мужчинами, которые едят спагетти в ресторане у моря. Результат получился достаточно реалистичным, хотя и с заметными артефактами, характерными для современных генеративных моделей. Оба запроса заняли 86 % дневного лимита использования в аккаунте тарифа AI Pro.

Разработчики пока не представили продукт публично, однако ранее подтвердили приверженность развитию технологий, связанных с генерацией видео, в особенности после решения конкурента прекратить поддержку Sora. Ожидается, что дополнительные детали, касающиеся генерации видео, станут известны на предстоящей конференции Google I/O 2026, где компания традиционно представляет ключевые обновления своих платформ.

Даже лучшие ИИ «сыпятся» на длинных задачах: модели теряют четверть данных

Исследователи Microsoft установили, что даже самые продвинутые ИИ-модели допускают существенные ошибки при выполнении длительных многоэтапных задач. В ходе тестирования такие передовые модели, как Gemini 3.1 Pro, Claude 4.6 Opus и GPT 5.4, потеряли в среднем 25 % содержимого документов, которые были делегированы им для автономной работы.

 Источник изображения: AI

Источник изображения: AI

Команда Филиппа Лабана (Philippe Laban), Тобиаса Шнабеля (Tobias Schnabel) и Дженнифер Невилл (Jennifer Neville) из Microsoft Research разработала бенчмарк DELEGATE-52, имитирующий рабочие процессы в 52 профессиональных областях, например, в написании кода, нотной записи или кристаллографии. Модели оценивались по способности сохранять целостность документов после 20 циклов обработки, при этом порогом готовности считался результат не ниже 98 %.

Результаты показали, что модели лучше справлялись с задачами программирования и хуже с обработкой естественного языка. Повреждение документов и, соответственно, снижение оценки до 80 % и ниже, произошло более чем в 80 % комбинаций. Лучшая из протестированных моделей, которой оказалась Google Gemini 3.1 Pro, соответствовала критериям готовности лишь в 11 из 52 областей.

При этом ошибки возникали не постепенно, а скачкообразно, например, за один цикл взаимодействия модель могла потерять от 10 до 30 баллов. Более совершенные модели (Gemini 3.1 Pro, Claude 4.6, GPT 5.4) избегали мелких ошибок за счёт того, что откладывали их обработку на более поздние этапы при меньшем количестве взаимодействий. Одновременно выяснилось, что при работе ИИ-моделей с доступом к инструментами в режиме агентского управления их результаты не только не улучшались, но даже ухудшались к концу цикла в среднем на 6 %.

По словам учёных, пользователям по-прежнему необходимо внимательно контролировать работу ИИ-систем при делегировании им полномочий, поскольку текущие модели готовы к автономной работе лишь в узких областях. При этом авторы бенчмарка признают прогресс LLM и отмечают, что, например, семейство ИИ-моделей OpenAI за 16 месяцев улучшило показатели производительности с 14,7 % до 71,5 %.

ИИ-модель OpenAI GPT-5.5 оказалась в 1,5–2 раза дороже предшественницы

В мире высоких технологий, как оказалось, дорожают не только чипы памяти, но и модели искусственного интеллекта: с выпуском GPT-5.5 компания OpenAI подняла цены за доступ к ней через API — в некоторых случаях она оказалась вдвое дороже предшественницы.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Цены за работу с OpenAI GPT-5.5 составляют $5 (входящие), $0,50 (кешированные входящие) и $30 (выходящие) за 1 млн токенов — для сравнения, при работе с GPT-5.4 эти ценники равны соответственно $2,50, $0,25 и $15. Рост цен частично компенсируется более высокой эффективностью — способностью модели показывать лучшие результаты, используя меньше токенов, заверили в OpenAI.

Но даже с учётом этого работа с моделью обходится заметно дороже, подсчитали в OpenRouter: «Фактическая стоимость GPT-5.5 выросла на 49–92 %, показал наш анализ. При более длинных запросах, более 10 000 токенов, затраты компенсируются сокращённым временем выполнения. При более коротких запросах, менее 10 000 [токенов], отмечается более значительное увеличение стоимости, тогда как время обработки не сокращается». Модель OpenAI GPT-5.5 генерирует на величину 19–34 % меньше токенов при более длинных запросах.

Считающиеся лидерами мировой отрасли ИИ компании OpenAI и Anthropic остаются убыточными: по итогам 2026 года убытки первой составят $14 млрд, второй — $11 млрд. При этом новая флагманская модель Anthropic Claude Opus 4.7 доступна по тем же ценникам, что и её предшественница, несмотря на заявления разработчика об улучшенном токенизаторе. Но на практике подорожала и она, отметили в OpenRouter: при запросах длиной более 2000 токенов затраты выросли на величину 12–27 % с учётом экономии за счёт кеширования токенов; при запросах менее 2000 символов более короткие ответы помогли компенсировать накладные расходы токенизатора.

С опозданием на месяц OpenAI ответила на Claude Mythos — вышла модель GPT-5.5-Cyber, которая не боится обсуждать кибератаки и эксплойты

OpenAI представила модель искусственного интеллекта GPT-5.5-Cyber, предназначенную для работы в области кибербезопасности — своего рода аналог нашумевшей Anthropic Mythos. Доступ к ней получит ограниченное число клиентов компании.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Новая модель вышла менее чем через месяц после предшествующей GPT-5.4-Cyber, и существенным обновлением её считать не следует, подчеркнул разработчик. Она выполняет задачи в области кибербезопасности: выявляет уязвимости, осуществляет приоритизацию инцидентов, проверяет патчи и анализирует вредоносное ПО. Как и предыдущая версия, новая GPT-5.5-Cyber доступна не для широкой аудитории, а для участников программы Trusted Access for Cyber (TAC). Ещё с выходом GPT-5.4-Cyber компания OpenAI расширила масштабы программы до «нескольких тысяч проверенных индивидуальных экспертов и нескольких сотен коллективов, ответственных за защиту критически важного ПО».

«Экосистема киберзащиты обширна, и GPT-5.5 с GPT-5.5-Cyber играют разные роли в удовлетворении потребностей организаций и исследователей [в составе этой экосистемы], в зависимости от задач, условий и мер защиты, связанных с применением модели. Для большинства команд GPT-5.5 с [доступом через] TAC является наиболее эффективной и широко применяемой моделью для легитимной работы по киберзащите с надёжными ограничениями против неправомерного использования», — отметили в OpenAI.

В новых версиях macOS и iOS появится выбор сторонних ИИ-моделей

Apple планирует разрешить пользователям выбирать предпочтительную модель искусственного интеллекта для работы функций Apple Intelligence в будущих обновлениях операционных систем. По сообщению The Verge со ссылкой на информацию Марка Гурмана (Mark Gurman) из Bloomberg, эта возможность появится в iOS 27, iPadOS 27 и macOS 27.

Помимо стандартного ассистента Siri, пользователи смогут задействовать сторонние чат-боты, для выполнения задач внутри инструментов Apple. Эти модели смогут брать на себя такие функции, как работу с текстом через Writing Tools и генерацию изображений в Image Playground, обеспечивая более гибкое взаимодействие с устройством. Гурман отмечает, что компания уже проводит внутреннее тестирование интеграции с моделями Google и Anthropic, хотя ранее единственным партнёром оставался ChatGPT (OpenAI).

Выбор альтернативного ИИ-провайдера будет осуществляться через настройки устройства после установки соответствующего приложения из App Store. Разработчики должны будут самостоятельно добавить поддержку необходимых интерфейсов в свои приложения, чтобы они стали доступны для системной интеграции. Такой подход позволит владельцам гаджетов персонализировать работу ИИ под свои конкретные нужды и предпочтения.

Интересной деталью стала возможность назначения голосовых профилей Siri для подключенных моделей. Например, ответы непосредственно от модели Apple могут быть озвучены одним тембром, а взаимодействие с сервисом на базе ChatGPT — совершенно другим.

В ChatGPT сменилась базовая модель — теперь это быстрая GPT-5.5 Instant, которая меньше галлюцинирует

Во вторник компания OpenAI выпустила новую базовую модель под названием GPT-5.5 Instant, которая заменит GPT-5.3 Instant в качестве основной модели для чат-бота ChatGPT. По словам представителей компании, новая модель снижает вероятность «галлюцинаций» в таких деликатных областях, как юриспруденция, медицина и финансы, сохраняя при этом низкую задержку, характерную для предыдущей версии.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В прошлом месяце компания OpenAI выпустила последнюю версию модели GPT-5.5, заявив об улучшениях в таких областях, как кодирование и работа с базами знаний. Новая модель набрала 81,2 балла в математическом тесте AIME 2025 по сравнению с 65,4 балла у предыдущей версии. Она также превзошла предыдущую версию в мультимодальном тесте MMMU-Pro, набрав 76 баллов против 69,2.

Особое внимание в новой версии уделено управлению контекстом. GPT-5.5 Instant может использовать функцию поиска, чтобы обращаться к предыдущим диалогам, файлам и переписке в Gmail и давать более персонализированные ответы. Эта функция будет доступна пользователям подписок Plus и Pro в веб-версии, а в ближайшее время появится и в мобильной версии. OpenAI заявила, что в ближайшие недели планирует предоставить доступ к этой функции пользователям бесплатной версии, а также пользователям Go, Business и корпоративным пользователям.

С этим обновлением ChatGPT также будет отображать источники памяти для всех моделей, чтобы пользователь понимал, откуда берутся ответы. Пользователи могут удалять устаревшие источники или исправлять их, если ответ был неверным. Важно отметить, что, если поделиться с кем-то чатом, этот человек не сможет увидеть источники памяти.

Для разработчиков модель GPT-5.5 будет доступна через API под названием «chat-latest», а версия 5.3 будет доступна в качестве опции для платных пользователей в течение трёх месяцев.

Развитие ИИ замедляется из-за переизбытка бесполезных данных — их слишком много

Дальнейшее совершенствование ИИ-систем, которое обеспечит переход от ChatGPT к использованию человекоподобных роботов, зависит от качества данных, которые предоставляются этим системам для обучения, пишет ресурс Fortune.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Ресурс отметил, что отрасль находится на пороге следующего рубежа ИИ — физического ИИ и моделей окружающего мира — систем, которые будут учиться и в конечном итоге работать в физическом мире. Для того чтобы они получили когнитивные способности, необходимые для навигации по дорогам, складывания белья или оказания помощи при сложных медицинских операциях, им требуются не просто данные, которые можно загрузить. Их обучение требует богатых и многогранных данных. И если исследователи не смогут остановить избыток ненужных данных — данных, которые не способствуют развитию модели, — весь потенциал физического ИИ и моделей окружающего мира может никогда не раскрыться в полной мере.

Проблема заключается в том, что для создания новых, более совершенных ИИ-моделей требуется всё больше данных. На волне ажиотажа вокруг ИИ возникло множество ИИ-стартапов, таких, как Scale AI, Surge AI и Mercor, испытывающих ненасытную потребность в данных. Однако удовлетворение этой потребности привело к появлению огромного количества ненужных данных, которые на самом деле никак не способствуют развитию моделей ИИ, отметил Fortune.

Обучение моделей пониманию сложного многомерного мира требует значительно больше данных — данных, которые также очень трудно получить. Инженеры по машинному обучению прибегают к моделированию данных, используя виртуальные реконструкции реальных сценариев для создания данных, которые будут использоваться для обучения роботов и беспилотных автомобилей.

Использование некачественных данных при обучении ИИ-моделей может привести к непредсказуемым результатам. Как утверждает ресурс Fortune, OpenAI прекратила поддержку видеоприложения Sora из-за проблемы некачественных данных, поскольку её модель мира не обладала достаточным пониманием физики, что затрудняло реалистичные прогнозы.

Для дальнейшего продвижения ИИ-специалистам, занимающимся машинным обучением, необходимы инструменты и технологии для удаления ненужных данных, которые анализируют, очищают, нормализуют и корректируют обучающие данные. Для достижения успеха в обучении потребуется извлечение ценных выводов и их отделение от ненужных данных.

Теперь ограничивающим фактором стала нехватка качественных данных. Компании, которые первыми поймут это, создадут ИИ-системы, которые действительно будут работать, пишет Fortune.

Белый дом противится намерениям Anthropic расширить доступ к своей ИИ-модели Mythos

Создавшая ИИ-модель Mythos для поиска уязвимостей в информационных системах компания Anthropic изначально ограничила круг имеющих к ней доступ примерно 50 организациями, включая правительственные структуры. В ближайшее время планируется расширить этот перечень до 120 компаний и организаций, но данная инициатива Anthropic сталкивается с возражениями со стороны Белого дома.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Как отмечает The Wall Street Journal, власти США опасаются последствий слишком активного распространения Mythos, которая зарекомендовала себя в качестве мощного ИИ-инструмента в сфере кибербезопасности. В руках недоброжелателей это программное средство может стать оружием, используемым для атак на информационную инфраструктуру. Кроме того, чиновников беспокоит вероятность нехватки вычислительных мощностей Anthropic при столь активном расширении доступа к Mythos, которая в итоге может привести к снижению эффективности модели при её использовании в интересах правительственных структур.

Выпуск Mythos компанией Anthropic символизировал вынужденное возобновление диалога с властями США после скандала с расторжением контракта на обслуживание интересов Пентагона. Новый «рубеж сопротивления» в переговорах между властями США и Anthropic говорит о том, что взаимоотношения между сторонами далеки от нормализации. На прошлой неделе Anthropic, как предполагается, столкнулась с инцидентом несанкционированного доступа к Mythos и начала расследование, поэтому нельзя утверждать, что сами разработчики безответственно относятся к условиям распространения данного инструмента.

Источники также рассказывают о странном случае с попыткой американского правительства нанять выходца из Anthropic Коллина Бёрнса (Collin Burns), которому был предложен пост главы особого ведомства, специализирующегося на оценке лучших ИИ-моделей, появляющихся на рынке. Не всем в правительстве понравилась эта фигура как раз из-за связи с Anthropic, поэтому Бёрнс так и не получил описываемой выше должности, и это место занял другой кандидат. Чиновники объяснили такой шаг стремлением подобрать руководителя, который был бы равноудалён от всех компаний, предлагающих в США свои ИИ-модели.

Более 600 сотрудников Google выступили против использования фирменного ИИ Пентагоном

Более 600 сотрудников Google, в том числе разработчики из ИИ-лаборатории DeepMind и свыше 20 руководителей высшего звена, направили гендиректору Сундару Пичаи (Sundar Pichai) письмо с требованием не допустить Пентагон к ИИ-моделям компании.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Письмо подчинённых стало реакцией на сообщение издания The Information о том, что Google обсуждает с Пентагоном секретный контракт на развёртывание ИИ Gemini в закрытых контурах ведомства. Сотрудники Google настаивают, что частичных ограничений недостаточно, компания должна полностью отказаться от секретных контрактов. «Единственный способ гарантировать, что Google не окажется связан с подобным ущербом, — отказаться от любых секретных контрактов. В противном случае такое применение может произойти без нашего ведома и без возможности его остановить», — говорится в письме.

Однако конкуренты Google не дремлют и выстраивают отношения с Пентагоном. Microsoft уже предоставляет свои ИИ-сервисы для работы с секретными данными, а OpenAI в феврале пересмотрела соглашение с военным ведомством. Anthropic пошла другим путём — отказалась смягчить ограничения для военных, после чего Пентагон внёс компанию в «чёрный список». Сейчас Anthropic судится с ведомством, а её позицию поддержали представители технологической отрасли, в том числе сотрудники Google.

Noctua опубликовала 3D-модели своих вентиляторов — но печатать их самостоятельно не разрешила

Noctua выпустила официальные 3D-модели для многих своих продуктов, что позволяет пользователям систем автоматизированного проектирования (САПР) включать продукты компании в свои проекты и рендеры. Эти модели можно бесплатно скачать в формате STEP. Важно отметить, что их нельзя использовать для 3D-печати или иным образом копировать конструкции лопастей вентиляторов Noctua, так как они являются объектом интеллектуальной собственности.

 Источник изображения: Noctua

Источник изображения: Noctua

Опубликованные 3D-модели могут оказаться полезны для всех, кто хочет проектировать нестандартные крепления для вентиляторов или корпуса ПК. Теперь им больше не придётся заниматься самостоятельным моделированием кулеров Noctua для своих проектов. Наличие готовых 3D-моделей также позволит визуализировать проекты с включёнными вентиляторами Noctua.

Стоит отметить, что эти 3D-модели не являются точной копией разработок Noctua. Они визуально похожи и точно отражают их монтажные размеры, однако были модифицированы для защиты интеллектуальной собственности Noctua. Их нельзя использовать для 3D-печати или иным образом копировать конструкции лопастей вентиляторов Noctua. Это также делает эти модели бесполезными для моделирования производительности вентиляторов. Они предназначены лишь для визуального ознакомления и помогут разработчикам в компоновке корпусов ПК.

«Для защиты нашей интеллектуальной собственности некоторые элементы, такие как геометрия крыльчатки вентилятора, были немного изменены, оставаясь при этом визуально очень близкими к реальному продукту. […] пожалуйста, не используйте эти модели для моделирования производительности и обратите внимание, что такие компоненты, как крыльчатки вентиляторов и внутренние каркасные конструкции, не полностью соответствуют реальному продукту», — сообщает Noctua на своём сайте.

GPT-5.2 обошла абитуриентов, сдав вступительные экзамены в Токийский и Киотский университеты лучше всех

Нейросеть GPT-5.2 в режиме размышления получила высшие баллы на вступительных экзаменах в Токийском и Киотском университетах Японии, опередив реальных абитуриентов этого года. Компания LifePrompt, проводившая тесты, сообщила, что нейросеть превзошла максимальные проходные результаты даже на самых конкурентных медицинских направлениях.

 Источник изображения: xAI

Источник изображения: xAI

LifePrompt протестировала модель GPT-5.2 Thinking, загрузив вопросы экзаменов в виде изображений. Развёрнутые ответы, включая эссе, оценивали преподаватели одной из крупнейших частных подготовительных школ Kawai Juku. На медицинском направлении Токийского университета (Natural Sciences III) искусственный интеллект набрал на 50 баллов больше, чем лучший реальный участник, и получил идеальный результат по математике. Этому успеху, как отмечает портал Kyodo News, предшествовала неудачная попытка пройти те же испытания с помощью модели GPT 4 в 2024 году, а затем, в 2025 году, всё-таки успешно преодолеть проходной балл с помощью модели o1.

В разделе гуманитарных и естественных наук Токийского университета нейросеть также показала выдающиеся результаты. Она набрала 452 балла из 550 возможных в гуманитарном блоке и 503 балла в естественно-научном, превысив рекорды зачисленных студентов. Однако эффективность ИИ оказалась неравномерной: если по английскому языку результат составил 90 %, то по эссе, касающемуся всемирной истории — лишь 25 %.

Аналогичное превосходство было зафиксировано и в Киотском университете, где алгоритм тестировали на факультетах права и медицины. На юридическом факультете ИИ получил 771 балл при максимальном проходном пороге в 734, а на медицинском — 1176 баллов против рекорда лучшего абитуриента в 1098 баллов.

Глава LifePrompt Сатоши Эндо (Satoshi Endo) отметил, что компаниям необходимо внедрять ИИ с прицелом на изменение бизнес-процессов в ближайшие десятилетия. В то же время профессор Университета Кейо Сатоши Курихара (Satoshi Kurihara) предостерёг от прямого сравнения людей и машин, указав на преимущество человека в создании новой ценности. Он добавил, что высокие оценки ИИ должны стать поводом для пересмотра экзаменационных систем.

DeepSeek снизила на 75 % цены за доступ к ИИ-модели DeepSeek-V4-Pro

DeepSeek предложила разработчикам скидку 75 % на новую флагманскую ИИ-модель DeepSeek-V4-Pro. Одновременно китайская компания в 10 раз удешевила повторные и похожие запросы на всех своих платформах за счёт кеширования входных данных.

 Источник изображения: deepseek.com

Источник изображения: deepseek.com

Резкое снижение цен DeepSeek грозит вернуть ИИ-индустрию к ценовой войне, которая вспыхнула после того, как DeepSeek устроила переполох в Кремниевой долине своей ИИ-моделью R1 в начале прошлого года. OpenAI, Anthropic и Google наперегонки выпускают новые ИИ-продукты, но их использование обходится дорого. Китайские компании рассчитывают, что разница в тарифах ускорит переход разработчиков на их платформы и изменит расклад сил в технологическом соперничестве с США.

 Источник изображения: @deepseek_ai / x.com

Источник изображения: @deepseek_ai / x.com

Однако DeepSeek рассчитывает привлечь пользователей не только ценой. Контекстное окно DeepSeek-V4 — максимальный объём данных, который модель обрабатывает за один раз, — позволяет работать со сложными кодовыми базами и объёмными документами. Модель легко подключается к Claude Code, OpenClaw и OpenCode, что упрощает её взаимодействие с более широкой ИИ-экосистемой.

«Ценообразование, открытый исходный код и контекстное окно в миллион токенов снижают порог входа для разработчиков, стартапов и малого бизнеса», — сказал Акшар Керемане (Akshar Keremane), сооснователь ИИ-стартапа O-Health. По словам Керемане, раньше разработчики не могли экспериментировать с моделями такого уровня и масштаба.

США призвали всех активнее бороться с дистилляцией американских ИИ-моделей китайцами

На этой неделе американские законодатели продвинулись чуть дальше в согласовании пакета законопроектов, направленных на сдерживание технологического развития КНР. Помимо заявлений на парламентском уровне, по дипломатическим каналам в посольства США по всему миру была направлена телеграмма, призывающая обратить внимание на проблему дистилляции американских ИИ-моделей китайскими разработчиками.

 Источник изображения: Unsplash, Sollen Feyissa

Источник изображения: Unsplash, Solen Feyissa

Напомним, под «дистилляцией» в данном контексте понимается процесс использования более зрелых американских больших языковых моделей для дообучения китайских. Это ускоряет процесс создания конкурирующих ИИ-моделей в Китае, позволяя с меньшими затратами ресурсов и времени получать сопоставимые по производительности программные решения в сфере ИИ. По мнению американских экспертов, некоторые китайские разработчики преподносят свои ИИ-модели как оригинальные, но в действительности они в процессе обучения активно полагались на выдаваемые американскими моделями данные. Если американские законодатели добьются усиления контроля за блокировкой такой деятельности зарубежных разработчиков, то некоторые китайские ИИ-стартапы вынуждены будут покинуть рынок в течение шести или двенадцати месяцев, по мнению экспертов, опрошенных South China Morning Post.

Даже более самостоятельные китайские разработчики могут пострадать в результате ограничения доступа к американским ИИ-моделям, поскольку совершенствование собственных моделей они ускоряют как раз за счёт «дистилляции». Новые версии китайских моделей, которые сейчас появляются раз в три месяца, в итоге будут готовиться к выходу год и более. Выступая на парламентских слушаниях в США на этой неделе, бывшая член совета директоров OpenAI Хелен Тонер (Helen Toner) подчеркнула, что было бы ошибкой недооценивать потенциал китайских разработчиков ИИ, которые обладают большим потенциалом инноваций и без доступа к дистилляции. При этом ряд американских компаний, включая OpenAI, Google и Anthropic на протяжении последних месяцев выступали с обвинениями китайских конкурентов в «дистилляционных атаках». Хотя сама по себе такая методика обучения ИИ-моделей не считается незаконной, как метод конкурентной борьбы она требует некоторого законодательного регулирования, по мнению многих участников рынка.

Американские законодатели также намерены добиваться усиления контроля за экспортом технологий производства полупроводниковых компонентов в Китай. Новая инициатива властей США подразумевает усиление ограничений на поставку в КНР оборудования для выпуска чипов. Разумеется, данные шаги со стороны американских парламентариев не остались без внимания китайских властей. По традиции, усилия американских оппонентов по «обеспечению национальной безопасности» в Китае назвали ширмой, прикрывающей намерения продвигать американские интересы во внешнеторговой сфере в ущерб другим участникам рынка. Полупроводниковая отрасль только пострадает от этих действий американских регуляторов, как подчёркивают китайские чиновники. Власти КНР оставляют за собой право защищать интересы национальных компаний при помощи ответных мер, которые пока не конкретизируются.


window-new
Soft
Hard
Тренды 🔥
Microsoft разрешит менять положение панели задач и размер меню «Пуск» в Windows 11 5 ч.
Бороться со своими дипфейками на YouTube теперь может любой желающий 5 ч.
ZA/UM показала 12 минут геймплея Zero Parades: For Dead Spies — психоделической шпионской RPG в духе Disco Elysium 8 ч.
Новая статья: Mixtape — воспоминания никто не отнимет. Рецензия 20 ч.
Google начнёт наказывать сайты за накрутку попаданий в ИИ-ответы 21 ч.
Спринт, торговля и продолжение сюжета: разработчики Subnautica 2 раскрыли план улучшения игры на ближайшие месяцы 24 ч.
ChatGPT получит прямой доступ к банковским счетам пользователей — для анализа расходов и финансовых советов 15-05 19:42
Трамп и Си Цзиньпин обсудили ограничения слишком умного ИИ и зависшие поставки Nvidia H200 15-05 19:18
Microsoft намерена избавить Windows 11 от главной причины «синих экранов» 15-05 19:05
Доминирование ChatGPT пошатнулось — Gemini и Perplexity быстро набирают обороты 15-05 18:38