|
Опрос
|
реклама
Быстрый переход
ИИ-модель DeepseekMath-V2 достигла уровня золотой медали на Международной математической олимпиаде
29.11.2025 [13:22],
Владимир Фетисов
Китайский стартап DeepSeek представил новую ИИ-модель DeepseekMath-V2, которая показывает впечатляющие результаты при решении сложных математических задач. Алгоритм справился с многими заданиями Международной математической олимпиады (IMO 2025) и Китайской математической олимпиады (CMO 2024), показав при этом результат на уровене золотой медали.
Источник изображений: the-decoder.com В сообщении сказано, что DeepseekMath-V2 набрала 118 из 120 баллов в задачах Putnam, что существенно выше лучшего результата человека в 90 баллов. DeepSeek отмечает, что ранее ИИ-модели часто выдавали верные ответы в сложных математических задачах, но при этом не показывали правильного хода решения. Для исправления ситуации ИИ-модель задействует многоэтапный процесс с отдельным верификатором для оценки корректности шагов решения задачи и необходимости их перепроверки. Такая структура позволяет алгоритму проверять и совершенствовать свои решения в режиме реального времени. С технической стороны DeepseekMath-V2 построена на основе базовой модели Deepseek-V3.2-Exp-Base. В описании DeepSeek ни разу не упоминается использование внешних инструментов, таких как калькуляторы или интерпретаторы кода. В ключевых экспериментах одна и та же модель DeepseekMath-V2 используется как для генерации доказательств, так и для их проверки. Высокая производительность алгоритма обусловлена способностью подвергать критике и улучшать собственные выводы вместо того, чтобы задействовать внешнее программное обеспечение. Для решения более сложных задач модель наращивает вычислительные мощности на этапе тестирования, параллельно создавая и проверяя множество возможных доказательств, чтобы повысить уровень уверенности в правильности конечного ответа. Релиз DeepSeek последовал за анонсом ещё не выпущенных ИИ-моделей OpenAI и Google Deepmind, которые достигли схожих результатов в решении сложных математических задач. Примечательно, что эти алгоритмы достигли такого результата за счёт способности к рассуждению, а не целевой оптимизации для математических олимпиад. Если на деле успехи этих алгоритмов действительно окажутся столь впечатляющими, то это будет означать, что языковые модели приблизились к моменту, когда они смогут решать сложные, абстрактные задачи, что традиционно считалось исключительно человеческим навыком. Отметим, что решение DeepSeek раскрыть технические детали модели DeepseekMath-V2 резко контрастирует с секретностью, которую соблюдают Google и OpenAI. Американские компании держат в тайне подробности об архитектуре собственных ИИ-моделей, тогда как китайский стартап буквально раскрывает все карты, наглядно показывая, что компания идёт вровень с ведущими отраслевыми представителями. В Китае намекнули на создание многочиповых ИИ-ускорителей, способных потягаться с Nvidia Blackwell
27.11.2025 [21:43],
Николай Хижняк
Разработанные в Китае ускорители ИИ из логических чиплетов на основе 14-нм техпроцесса и памяти DRAM на базе 18-нм техпроцесса в состоянии конкурировать с чипами Nvidia Blackwell, которые производятся по 4-нм техпроцессу TSMC. Такое мнение на отраслевом мероприятии озвучил Вэй Шаоцзюнь (Wei Shaojun), заместитель председателя Китайской ассоциации полупроводниковой промышленности и профессор Университета Цинхуа, сообщает DigiTimes.
Источник изображения: AMD Выступая на глобальном саммите руководителей высшего звена ICC, Вэй Шаоцзюнь отметил, что ключом к прорыву в области производительности и эффективности станет передовая технология 3D-стекинга, используемая при создании китайских ускорителей. Вэй Шаоцзюнь, ранее заявивший, что цели, поставленные Китаем в рамках программы «Сделано в Китае 2025», недостижимы, и позднее призвавший страну отказаться от использования иностранных ускорителей искусственного интеллекта, таких как Nvidia H20, и перейти на отечественные решения, описал гипотетическое «полностью контролируемое отечественное решение», которое объединит 14-нм логику с 18-нм DRAM с использованием 3D-гибридной склейки. Никаких доказательств разработки или хотя бы подтверждений возможности реализации подобного решения с использованием имеющихся у Китая технологий при этом он не привёл. По словам Вэя, такая конфигурация призвана приблизиться к производительности 4-нм графических процессоров Nvidia, несмотря на использование устаревших технологий. Он считает, что такое решение может обеспечить производительность 120 терафлопс. Он также заявил, что энергопотребление составит всего около 60 Вт, что, по словам Вэя, обеспечит более высокую производительность (2 терафлопса на ватт) по сравнению с процессорами Intel Xeon. Для сравнения: ускоритель Nvidia B200 обеспечивает производительность 10 000 NVFP4-терафлопс при потреблении 1200 Вт, что составляет 8,33 NVFP4-терафлопса на ватт. Nvidia B300 обеспечивает производительность 10,7 NVFP4-терафлопса на ватт, что в пять раз превышает возможности ИИ-ускорителя, о котором заявил Вэй. Ключевыми технологиями, призванными значительно повысить производительность ИИ-ускорителя, разрабатываемого в Китае, являются 3D-гибридное соединение (медь-медь и оксидное соединение), которое заменяет столбиковые выводы припоя прямыми медными соединениями с шагом менее 10 мкм, а также вычисления, близкие к уровню оперативной памяти. Гибридное склеивание с шагом менее 10 мкм позволяет создавать от десятков до сотен тысяч вертикальных соединений на 1 мм², а также сигнальные тракты микрометрового масштаба для высокоскоростных соединений с малой задержкой. Одним из лучших примеров технологии гибридного 3D-склеивания является 3D V-Cache от AMD, обеспечивающий пропускную способность 2,5 Тбайт/с при энергии ввода-вывода 0,05 пДж/бит. Вэй, вероятно, рассчитывает на аналогичный показатель для своего проекта. 2,5 Тбайт/с на устройство — это значительно выше, чем пропускная способность памяти HBM3E, поэтому это может стать прорывом для ускорителей ИИ, основанных на концепции вычислений, близких к оперативной памяти. Вэй также отметил, что теоретически эта концепция может масштабироваться до производительности уровня зеттафлопс, хотя он не уточнил, когда и как такие показатели будут достигнуты. Вэй обозначил платформу CUDA от Nvidia как ключевой риск не только для описанной им альтернативы, но и для аппаратных платформ, отличных от Nvidia, поскольку после объединения программного обеспечения, моделей и аппаратного обеспечения на единой проприетарной платформе становится сложно развернуть альтернативные процессоры. Учитывая, что он рассматривал вычисления, близкие к уровню оперативной памяти, как способ значительного повышения конкурентоспособности оборудования для ИИ, разработанного в Китае, любая альтернативная платформа, не основанная на этой концепции (включая китайские ускорители ИИ, например серию Huawei Ascend или графические процессоры Biren), может считаться несовместимой. Трафик ИИ-сервисов в России взлетел в шесть раз — ChatGPT лидирует, DeepSeek стремительно догоняет
27.11.2025 [15:23],
Владимир Фетисов
Совокупный трафик 12 наиболее используемых в России ИИ-платформ с января по октябрь 2025 года увеличился почти в шесть раз год к году. Лидирующую позицию занимает ChatGPT, на долю которого приходится 39,9 % от общего количества посещений ИИ-платформ. Об этом пишет «Коммерсантъ» со ссылкой на данные аналитической компании Digital Budget.
Источник изображения: Christin Hume / Unspalsh Помимо ChatGPT популярностью среди россиян за отчётный период пользовались DeepSeek (27,8 %), GigaChat (7,3 %), Qwen (6,6 %) и «Алиса AI» (ранее YandexGPT) (5,7 %). По данным компании, за аналогичный период прошлого года рейтинг самых популярных ИИ-сервисов выглядел следующим образом: ChatGPT (69,3 %), Perplexity (7,6 %), «Алиса AI» (7,1 %), Gemini (5,4 %) и GigaChat (3,3 %). В исследовании Digital Budget учитывался входящий десктопный и мобильный трафик, но без участия мобильных приложений. На долю пяти лидеров суммарно приходится 87 % от общего объёма входящего трафика в выборке исследователей. В «Сбере» сообщили, что в этом году доступные функции GigaChat расширились для охвата широкого круга задач. По данным компании, аудитория сервиса выросла в 10 раз, а ежемесячно с нейросетью взаимодействуют 19 млн человек. В «Яндексе» заявили, что результаты исследования «идут вразрез с данными независимых исследователей этого рынка», но собственную статистику не озвучили. Ранее Mediascope опубликовал собственные данные по охвату наиболее популярных ИИ-сервисов среди россиян в октябре 2025 года. По данным исследования, «Алиса AI» занимала 14,3 %, следом расположились DeepSeek и GigaChat с долей 9,4 % и 4 % соответственно. В рейтинг также попали ChatGPT (3,5 %), Perplexity (1,4 %) и Character AI (0,8 %). По мнению участников рынка, в дальнейшем объём трафика ИИ-чатов продолжит увеличиваться. «Мы видим всё больше интеграций нейросетей в браузеры, операционные системы, профессиональные инструменты», — отметил директор по инновациям компании Fork-Tech Владислав Лаптев. Он считает, что доверие к ИИ-сервисам со стороны пользователей будет расти, поэтому в 2026 году трафик таких платформ увеличится минимум на 30 %. Снижение доли «Алисы AI» господин Лаптев связывает с тем, что команда «Яндекса» сместила фокус не на продвижение самой «Алисы» в качестве чата, а на её интеграцию в экосистему сервисов компании. По его мнению, доля GigaChat выросла благодаря активной работе «Сбера» по продвижению собственного ИИ, в том числе регулярный запуск новых версий алгоритма, активное продвижение в Telegram и запуск продвинутых пользовательских приложений. После скандала Character.AI закрыла свободные чаты для детей — вместо них появились безопасные «Истории»
26.11.2025 [19:26],
Владимир Фетисов
Платформа Character.AI после столкновения с угрозой нескольких судебных исков из-за негативного влияния на психическое здоровье подростков запретила несовершеннолетним взаимодействовать с открытыми чатами. Вместо этого для таких пользователей сервис запустил «Истории», которые в отличии от обычных чатов предлагают «структурированное» виртуальное приключение с участием ИИ-персонажей.
Источник изображения: Character.AI Формат историй доступен всем пользователям Character.AI, но разработчиками он позиционируется именно как способ «улучшить» опыт взаимодействия с ИИ-персонажами для несовершеннолетних. Ещё в прошлом месяце Character.AI объявила, что чаты будут закрыты для подростков с 25 ноября. Параллельно с этим разработчики сообщили о скором запуске функции для проверки возраста пользователей, которая будет автоматически направлять несовершеннолетних пользователей в «более консервативные» ИИ-чаты. Эти меры были приняты после того, как на Character.AI подали в суд, обвинив в том, что платформа способствовала доведению до самоубийства подростка. По мнению истца, взаимодействие несовершеннолетних с ИИ-персонажами также наносит вред их психическому здоровью. Новый формат «Истории» работает по следующему принципу: пользователь может выбрать двух или трёх персонажей, задать жанр, а затем написать самостоятельно описание сюжета или предоставить такую возможность ИИ-алгоритму. Затем платформа сгенерирует «управляемое повествование», где пользователю часто будет предоставляться возможность выбора для изменения хода истории. В «Историях» также используются изображения, сгенерированные ИИ, а в будущем разработчики планируют добавить «более разнообразные мультимодальные элементы». Китай штампует новые ИИ-модели еженедельно — США уже проигрывают гонку открытого ИИ
26.11.2025 [19:22],
Сергей Сурабекянц
Китай обогнал США на мировом рынке открытых моделей искусственного интеллекта, получив решающее преимущество в использовании этой технологии. Открытые модели, которые можно бесплатно загружать, изменять и интегрировать, упрощают создание и совершенствование продуктов. Стремление Китая к выпуску открытых моделей резко контрастирует с закрытым подходом большинства крупнейших американских технологических компаний.
Источник изображения: unsplash.com Исследование, проведённое Массачусетским технологическим институтом (MIT) и стартапом Hugging Face, работающим с открытым исходным кодом в сфере ИИ, показало, что за последний год общая доля загрузок новых китайских открытых моделей выросла до 17 %. Этот показатель превышает 15,8 % доли загрузок моделей, созданных американскими разработчиками, такими как Google, Meta✴✴ и OpenAI, — впервые китайские компании обошли своих американских коллег. По данным MIT и Hugging Face, подавляющее большинство загрузок китайских моделей приходится на DeepSeek и Qwen от Alibaba. Ранее модель рассуждений DeepSeek R1 поразила сообщество, продемонстрировав высокие результаты при существенно более низких затратах на обучение. Этот релиз вызвал вопросы о том, смогут ли более обеспеченные ресурсами американские лаборатории ИИ защитить своё конкурентное преимущество. Он также породил сомнения в целесообразности гигантских инвестиций в инфраструктуру центров обработки данных, необходимых для работы мощных моделей.
Источник изображения: DeepSeek «В Китае открытый исходный код стал более распространённым трендом, чем в США, — отметила старший аналитик Mercator Institute for China Studies Венди Чан (Wendy Chang). — Американские компании решили не играть в эту игру. Они зарабатывают на этих высоких оценках. Они не хотят раскрывать свои секреты». Администрация США, стремясь не проиграть гонку ИИ, пытается убедить американские компании инвестировать в модели с открытым исходным кодом, основанные на «американских ценностях». Но OpenAI, Google и Anthropic предпочли сохранить полный контроль над своими самыми передовыми технологиями, получая от них прибыль через клиентские подписки или корпоративные соглашения. В отличие от них, китайские компании, отрезанные в результате санкций США от передовых ИИ-чипов, получили стимул предложить открытый доступ к своим моделям.
Источник изображения: Anthropic По словам исследователя MIT Шейна Лонгпре (Shayne Longpre), китайские компании, такие как DeepSeek и Alibaba Cloud, внедрили способ публикации моделей, «меняющий парадигму». Он подчеркнул, что китайские компании выпускают свои модели почти еженедельно, предлагая пользователям множество различных вариаций, из которых они могут выбирать, вместо того, чтобы выпускать серию моделей каждые шесть месяцев или год, как американские лаборатории. Другие эксперты отметили, что ограничения вычислительной мощности Китая из-за экспортного контроля США только подстегнули активность китайских исследователей. Они были вынуждены креативно подходить к разработке моделей, используя такие методы, как дистилляция, для создания более компактных, но мощных моделей. Также китайские ИИ-лаборатории активно занимаются разработкой моделей для генерации видео. Популярность китайских открытых моделей уже влияет на информацию, которую получают пользователи. Исследователи показали, что китайские модели явно пропитаны идеологией Коммунистической партии Китая и, как правило, отказываются предоставлять информацию по спорным политическим темам. Американские лаборатории гораздо больше сосредоточены на разработке современных передовых моделей, а OpenAI и Google DeepMind стремятся создать сильный искусственный интеллект (AGI), который должен превзойти человеческие возможности. В США гораздо меньше крупных независимых игроков в области разработки ПО с открытым исходным кодом, чем в Китае. Одним из этих немногих игроков выступил базирующийся в Сиэтле «Институт ИИ Аллена», который в ноябре запустил модель Olmo 3 с полностью открытым исходным кодом. По мнению экспертов, США должны быть обеспокоены тем, что Китай добивается больших успехов в области открытых моделей. «ChatGPT — это продукт, а не друг»: подростки спрашивали ИИ о преступлениях — теперь ими занимается полиция
26.11.2025 [18:05],
Сергей Сурабекянц
Поисковые запросы в ChatGPT нескольких подростков привлекли к ним внимание правоохранительных органов, некоторые были арестованы и столкнулись с уголовными обвинениями. Поиск информации не является преступлением, но использовать Google или чат-боты, чтобы спланировать преступление или причинить кому-то вред — как минимум неразумно. Власти обратились к родителям с просьбой разъяснить детям, с какими вопросами лучше не обращаться к ChatGPT.
Источник изображения: unsplash.com Офис шерифа округа Мэрион объявил об аресте 17-летнего подростка, обвиняемого в даче ложных показаний о похищении человека и самоубийстве. Представитель шерифа утверждает, что на ноутбуке подростка были обнаружены поисковые запросы к ChatGPT о мексиканских картелях и сборе крови без причинения боли. В округе Волусия арестован 13-летний подросток, который ввёл в ChatGPT запрос «как убить моего друга посреди урока». Полицейские получили уведомление от школьной платформы безопасности Gaggle, которая сканирует школьные аккаунты и отмечает подозрительный контент. На допросе школьник заявил, что «троллил друга, который его раздражал». Представитель шерифа обратился к родителям с просьбой «поговорить со своими детьми, чтобы они не совершали подобных ошибок». «Неразумно искать в Google или использовать ChatGPT, чтобы придумать, как совершить преступление», — говорит профессор юридического факультета Беркли Кэтрин Крамп (Catherine Crump). Она настоятельно рекомендует пользователям, особенно несовершеннолетним, помнить, что «ChatGPT — это продукт, а не ваш друг». По словам Крамп, ChatGPT «создан для того, чтобы быть услужливым и поддерживать» и может создать у человека ощущение личного разговора. Она признаёт, что люди должны осознавать, что ведут диалог с нейросетью и должны нести ответственность за свои действия. Но она уверена, что «эти продукты [чат-боты] были намеренно разработаны так, чтобы относиться к пользователям как к друзьям, поэтому […] здесь есть определённая доля корпоративной ответственности». Компании, занимающиеся разработкой ИИ, заявляют о неустанном совершенствовании ограничений, призванных помешать пользователям получать информацию о незаконной деятельности, но все эти барьеры не являются абсолютно надёжными. Интернет-активность, приводящая к уголовным делам, — явление далеко не новое. Но стремительное развитие чат-ботов с зачатками искусственного интеллекта, к которым миллионы людей обращаются за советами, мгновенными ответами и анализом информации, создаёт множество, мягко говоря, щекотливых ситуаций. Ubisoft представила Teammates — прототип игры с ИИ-напарниками, реагирующими на голосовые команды
26.11.2025 [17:52],
Дмитрий Рудь
Вслед за Neo NPC французский издатель и разработчик Ubisoft представил Teammates — новый эксперимент, призванный оценить потенциал генеративного ИИ для углубления игрового опыта. Teammates представляет собой интерактивную среду, построенную вокруг механик шутера от первого лица. Игрок берёт на себя роль участника сопротивления в антураже антиутопии и должен найти на вражеской базе пропавших членов команды. С задачей помогают управляемый ИИ голосовой ассистент Jaspar (подсвечивает врагов, ставит игру на паузу, реагирует на действия пользователя) и два «умных» напарника по отряду — Pablo и Sofia. Pablo и Sofia сопровождают игрока по уровню и «динамически поддерживают» его, в реальном времени генерируя ответы и действия на основе оставляемых пользователем голосовых команд. Скриншоты (источник изображений: Ubisoft)
Команда Teammates осведомлена о критике ИИ в играх. Цель проекта — не заменить творчество, а найти способы усовершенствовать его путём объединения преимуществ технологии и человеческой креативности/изобретательности. «Технология открывает двери к новым, более персонализированным опытам. Команды игрока формируют реакции персонажа в реальном времени, чего при традиционной разработке добиться нельзя», — считают в Ubisoft. К настоящему моменту в рамках закрытых испытаний Teammates попробовали уже сотни игроков. В команде нацелены дальше тестировать и развивать технологию, в том числе за счёт отзывов от реальных людей. Акции Nvidia обвалились на 4 % из-за слухов о том, что Meta✴ нацелилась на ИИ-чипы Google
25.11.2025 [17:41],
Сергей Сурабекянц
Акции Nvidia сегодня упали на 4 % на фоне сообщения The Information о том, что Meta✴✴ рассматривает возможность использования ускорителей искусственного интеллекта, разработанных Google. Акции Alphabet, материнской компании Google, сегодня подрожали на 4,2 %, продолжив более чем 6-процентный рост в понедельник. Акции Broadcom, которая принимает участие в разработке ИИ-чипов Google, выросли сегодня более чем на 2 %, после 11-процентного роста накануне.
Источник изображения: freepik.com Вчера издание The Information сообщило, что Meta✴✴ рассматривает возможность использования тензорных процессоров (TPU) Google в своих центрах обработки данных в 2027 году. Также, по сведениям издательства, в 2026 году Meta✴✴ планирует арендовать TPU у облачного подразделения Google. Выбор компанией Meta✴✴ ИИ-ускорителей Google станет большой победой для Google и потенциальной проверкой эффективности технологии. Изначально Google выпустила TPU первого поколения в 2018 году для внутреннего использования в рамках своего бизнеса облачных вычислений. С тех пор компания разработала более продвинутые версии своего чипа, предназначенные для обработки задач искусственного интеллекта. Nvidia остаётся лидером рынка благодаря своим графическим процессорам, которые стали основным компонентом аппаратной платформы для масштабной инфраструктуры ИИ. Хотя доминирование Nvidia вряд ли будет ослаблено в ближайшем будущем, TPU Google усиливают конкуренцию на рынке полупроводников для ИИ. Компании, развивающие инфраструктуру ИИ, стремятся к более диверсифицированным поставкам чипов, чтобы снизить зависимость от Nvidia. Meta✴✴ входит в число самых крупных инвесторов в инфраструктуру ИИ — по прогнозам, её капитальные затраты в этом году составят от $70 до $72 млрд. «Google Cloud испытывает растущий спрос как на наши собственные TPU, так и на графические процессоры NVIDIA; мы стремимся поддерживать обе платформы, как и делали это на протяжении многих лет», — заявил представитель Google. Скачки стоимости акций технологических компаний происходят на фоне нарастающих опасений финансистов о завышенной оценке стоимости технологических компаний и появлении «пузыря искусственного интеллекта». Хотя Nvidia на прошлой неделе опубликовала более сильный, чем ожидалось, прогноз продаж на текущий квартал, акции технологических компаний после этого упали. Anthropic бросает вызов Gemini 3: представлена мощная ИИ-модель Opus 4.5 и инструмент для покорения Excel
25.11.2025 [00:38],
Владимир Фетисов
Вслед за релизом ИИ-модели Google Gemini 3 Pro на минувшей неделе компания Anthropic анонсировала обновление своей флагманской ИИ-модели Opus. Новая версия Opus 4.5 обеспечит передовую производительность в генерации программного кода, взаимодействии с компьютером и выполнении офисных задач. В целом это предсказуемо, поскольку именно эти направления долгое время были сильными сторонами ИИ-помощника Anthropic Claude.
Источник изображений: Anthropic Хорошая новость заключается в том, что с выпуском Opus 4.5 разработчики расширяют доступность ряда уже существующих инструментов, а также запускают новую функцию. Расширение Claude for Chrome теперь доступно всем пользователям подписки Max, которые взаимодействуют с веб-контентом с помощью браузера Google. Вместе с этим Anthropic запускает функцию «безграничный чат» для платных подписчиков. ИИ-бот больше не будет выдавать ошибки из-за переполнения контекстного окна, что позволит ему лучше справляться с сохранением согласованности файлов и чатов. По словам разработчиков, эта функция является одной из наиболее часто запрашиваемых пользователями. В дополнение к этому расширение Claude for Excel, которое встраивает ИИ-помощника в боковую панель приложения Microsoft, становится доступным всем пользователям подписок Max, Team и Enterprise. Этот инструмент поддерживает сводные таблицы, диаграммы и загрузку файлов. По данным Anthropic, раннее тестирование показало повышение точности работы алгоритма на 20 % и рост эффективности на уровне 15 %. В дальнейшем компания планирует добавить Claude for Excel в более потребительские модели Claude Sonnet и Haiku. Ещё в Opus 4.5 улучшена работа в агентских сценариях, обновлённая модель преуспевает в самостоятельном совершенствовании своих процессов. Что ещё важно, Anthropic называет Opus 4.5 своей самой безопасной моделью. По оценкам компании, алгоритм лучше противостоит атакам типа «prompt injection», опережая в этом даже Gemini 3 Pro. Желающие опробовать Opus 4.5 уже могут сделать это во всех приложениях Anthropic и через API-интерфейс компании. Для разработчиков стоимость использования ИИ-модели начинается с $5 за миллион токенов. Дешевле купить PS5: из-за дефицита комплект DDR5 на 64 Гбайт взлетел до $600
24.11.2025 [20:35],
Николай Хижняк
Из-за того, что ИИ-технологии поглощают большую часть мировых запасов чипов памяти и накопителей, конечные потребители сталкиваются со всё более завышенными ценами на распространённые ПК-компоненты. Оперативная память DDR5 достигла рекордных цен: комплект ОЗУ G.Skill Trident Z5 Neo 6000 MT/s объёмом 64 Гбайт сейчас продаётся за $599,99 — это на $200 дороже, чем просят за игровые консоли PS5 Slim или Microsoft Xbox Series S, и всего на $50 дешевле, чем PS5 Pro.
Источник изображений: Tom's Hardware О своих наблюдениях пишет Tom’s Hardware. Портал отмечает, что указанный комплект ОЗУ предлагается за $600 у крупного американского ретейлера Newegg. При этом цена уже включает скидку в размере 6 % от первоначальной стоимости $640 в рамках акции «Чёрная пятница». Для сравнения, более эксклюзивный комплект Corsair Dominator Titanium лимитированной серии объёмом 64 Гбайт стоил $349 ещё несколько месяцев назад. Ранее в этом году в рамках дня распродаж Prime Day стандартная версия того же комплекта ОЗУ стоила $299. Другие же аналогичные комплекты объёмом 64 Гбайт можно было приобрести всего за $140. Согласно различным агрегаторам цен, комплект памяти Trident Z5 Neo от G.Skill последние несколько месяцев стабильно стоил $205–220. Но к концу октября его стоимость начала резко расти и всего за два месяца выросла примерно на 190 %. Как раз в тот момент, когда цена на этот комплект Trident Z5 Neo начала стремительно расти, отрасль начала ощущать последствия кризиса из-за непомерного спроса на чипы памяти со стороны сегмента искусственного интеллекта. Лишь недавно сообщалось, что контрактные цены на DRAM выросли на целых 171,8 % по сравнению с аналогичным периодом прошлого года — по состоянию на третий квартал 2025 года. Резкий рост спроса на проекты с искусственным интеллектом приведёт к тому, что производственные линии будут в первую очередь обслуживать клиентов, ориентированных на выпуск ИИ-продуктов, ставя обычных потребителей перед фактом — либо переплачивать, либо максимально эффективно использовать имеющиеся ресурсы. Эксперты предполагают, что ограничения как DRAM, так и NAND станут нормой в течение 2026 года, поскольку технологические гиганты стремятся развивать AGI (универсальный искусственный интеллект). Tom’s Hardware пишет, что тем временем с полок магазинов исчезают жёсткие диски, а карты памяти microSD становятся вполне приемлемой заменой SSD. На жёсткие диски большой ёмкости уже два года действует повышенный спрос, в результате чего SSD на базе памяти QLC раскупаются с пугающей скоростью. Многие дистрибьюторы даже продают память и материнские платы в комплекте, чтобы бороться с глобальным дефицитом. Даже грядущая игровая система Steam Machine от Valve в итоге, скорее всего, окажется дороже чем ожидается, поскольку период производства устройства совпал с кризисом на рынке DRAM. И всё же рынок памяти почти всегда жил по амплитуде: производители сначала выпускали слишком много памяти в течение пары лет, а затем рынок испытывал её дефицит в течение следующих нескольких лет. Если смотреть на ситуацию с оптимизмом, то память DDR5, вероятно, снова появится по выгодным ценам в 2027 году. Джони Айв и Сэм Альтман создали прототип совместного ИИ-устройства, но никому его не показали
24.11.2025 [20:14],
Сергей Сурабекянц
Глава OpenAI Сэм Альтман (Sam Altman) и бывший дизайнер Apple Джони Айв (Jony Ive) приподняли завесу тайны над первым загадочным устройством OpenAI — похоже, они уже определились с его дизайном. В интервью Лорен Пауэлл Джобс (Laurene Powell Jobs) на презентации её некоммерческой организации Emerson Collective 2025 они рассказали, что в настоящее время активно разрабатывают прототип устройства, которое может появиться «менее чем через два года».
Источник изображения: Emerson Collective Пока информация о разрабатываемом устройстве OpenAI крайне скудна — по слухам, оно будет «размером примерно со смартфон», но без экрана. Альтман описал дизайн будущего устройства как «простой, красивый и игривый». «Был прототип, который нас очень воодушевлял, но у меня не возникло ощущения: “Хочу взять эту штуку и откусить”, а потом, наконец, мы внезапно достигли цели», — рассказал он об их совместном с Айвом творческом процессе. Айв подчеркнул одновременную простоту и причудливость загадочного прототипа: «Мне нравятся решения, которые кажутся почти наивными в своей простоте, и мне также нравятся невероятно интеллектуальные, сложные продукты, которые хочется трогать, не испытывая страха, и хочется использовать почти беззаботно, почти не задумываясь, словно это всего лишь инструменты». «Я надеюсь, что, когда люди увидят это, они скажут: “Вот оно!“», — предположил Альтман. «Да, так и будет», — подтвердил Айв.
Источник изображения: openai.com В июле 2025 года компания OpenAI официально закрыла сделку по поглощению io — стартапа, специализирующегося на разработке устройств, одним из учредителей которого являлся Айв. Сумма сделки составила около $6,5 млрд. Приложение для вайб-кодинга LingGuang стало хитом: 1 млн скачиваний за четыре дня
24.11.2025 [12:34],
Владимир Фетисов
Несколько дней назад китайская компания Ant Group выпустила ИИ-ассистента LingGuang, с помощью которого можно быстро создавать мини-приложения. Всего четыре дня потребовалось этому приложению, чтобы преодолеть отметку в 1 млн скачиваний.
Источник изображений: scmp.com LingGuang оказался настолько популярным, что в какие-то моменты Ant Group даже приходилось ограничивать его доступность для снижения нагрузки на инфраструктуру. Напомним, ИИ-ассистент компании позволяет генерировать мини-приложения на основе текстовых запросов пользователей. По состоянию на субботу LingGuang занимал первое место в рейтинге китайского App Store в категории «Бесплатные утилиты» и седьмое место в общем рейтинге бесплатных приложений. «Этот рубеж означает, что LingGuang является ключевым игроком, за которым стоит следить в быстро развивающейся глобальной гонке ИИ», — прокомментировали успех ИИ-ассистента в компании. Напомним, так называемый вайб-кодинг позволяет пользователям без особых знаний в области программирования создавать приложения на основе текстовых запросов к ИИ-ассистенту. Это направление стало одним из самых популярных применений генеративных нейросетей в потребительском сегменте. Так доход американского лидера в сфере вайб-кодинга Replit в июне превысил $100 млн, тогда как в конце 2024 года этот показатель был равен всего $10 млн. ![]() В то время как Replit и другие инструменты для вайб-кодинга используют нейросети для генерации программного кода, LingGuang создаёт приложения, предоставляя каждому пользователю «собственного персонального ИИ-разработчика». После первоначальной генерации пользователь может продолжить взаимодействие с ИИ-ассистентом для внесения корректировок и настройки получившегося приложения по своему усмотрению. По данным Ant Group, в настоящее время пользователи в среднем проводят шесть этапов редактирования приложения за сеанс, что выше первоначальных ожиданий разработчиков. «Это первое в отрасли мобильное приложение, которое позволяет пользователям легко генерировать и настраивать приложения», — заявил технический директор LingGuang и бывший инженер Google Цай Вэй (Cai Wei). LingGuang также предоставляет пользователям возможность традиционного взаимодействия, подобно тому как это происходит с другими ИИ-ботами. Взаимодействовать с алгоритмом можно на разных языках. Отмечается, что в нынешнем году Ant Group удвоила инвестиции в сферу ИИ, а также организовала исследовательское подразделение AGI Lab для ускорения процесса разработки передовых ИИ-моделей. ИИ-пузырь «витает в воздухе», но Google всё равно замахнулась на расширение ИИ-мощностей в 1000 раз
23.11.2025 [21:58],
Владимир Фетисов
В то время, как разговоры об ИИ-пузыре и чрезмерных инвестициях в этом сегменте вызывают опасения экспертов и инвесторов, на практике складывается противоречивая ситуация. Крупные ИИ-компании, такие как Google и OpenAI, едва успевают расширять инфраструктуру для обеспечения собственных потребностей. На этом фоне директор Google по ИИ-инфраструктуре Амин Вахдат (Amin Vahdat) заявил сотрудникам, что компании необходимо тысячекратное увеличение мощностей в ближайшие пять лет. В ходе встречи с сотрудниками Google, которая состоялась в начале этого месяца, Вахдат заявил, что компания должна удваивать свои вычислительные мощности каждые шесть месяцев, чтобы удовлетворить спрос на услуги и сервисы на базе искусственного интеллекта. По данным источника, в ходе встречи Вахдат продемонстрировал сотрудникам презентацию, в которой говорилось, что компании необходимо масштабироваться «в 1000 раз в течение следующих 4-5 лет». Хотя тысячекратное увеличение вычислительных мощностей само по себе звучит весьма амбициозно, Вахдат выделил ряд ключевых ограничений. Google должна быть способна обеспечить рост производительности «фактически при тех же затратах и, что более важно при том же уровне энергопотребления». «Это будет непросто, но благодаря сотрудничеству и совместному проектированию мы этого добьёмся», — сказал Вахдат. Неясно, какая часть от этого «спроса» в расчётах Google приходится на органический интерес пользователей к возможностям ИИ, а какая — на интеграцию компанией ИИ-функций в существующие сервисы, такие как поисковик, Gmail и Workspace. Независимо от того, используют ли потребители ИИ-функции добровольно или нет, Google — не единственная технологическая компания, которая прикладывает массу усилий, чтобы успевать за растущей базой пользователей ИИ-сервисов. Крупные технологические компании участвуют в гонке по строительству центров обработки данных для обеспечения нужд в сфере ИИ. Конкурент Google в лице OpenAI в рамках партнёрского проекта Stargate с SoftBank и Oracle планирует построить шесть крупных ИИ-ЦОД на территории США, вложив в это более $400 млрд в течение следующих трёх лет, для достижения мощности около 7 гигаватт. Компания сталкивается с аналогичными ограничениями в процессе обслуживания 800 млн еженедельных пользователей ChatGPT. Из-за этого даже платные подписчики регулярно сталкиваются с лимитами на использование таких функций, как генерация видео или использование рассуждающей ИИ-модели. «Конкуренция в сфере ИИ-инфраструктуры — это самый важный и одновременно самый дорогой аспект гонки в сфере искусственного интеллекта. Мы собираемся потратить очень много», — заявил Вахдат, отмечая, что реальная цель Google не просто обогнать конкурентов, но построить инфраструктуру, которая будет «более надёжной, производительной и масштабируемой, чем всё, что доступно, где бы то ни было».
Источник изображения: Google Главным препятствием для удовлетворения спроса на ИИ стала неспособность Nvidia производить ИИ-ускорители в достаточном количестве. Всего несколько дней назад во время подведения финансовых итогов Nvidia заявила, что все ускорители «распроданы». Нехватка ИИ-ускорителей и другие инфраструктурные ограничения влияют на способность Google развёртывать новые ИИ-функции. Во время встречи с сотрудниками 6 ноября гендиректор Google Сундар Пичаи (Sundar Pichai) привёл в пример Veo — фирменный ИИ-генератор видео, который получил обновление в прошлом месяце. «То, с каким энтузиазмом был встречен запуск Veo <…> Если бы мы могли сделать его доступнее в приложении Gemini, я думаю, мы бы получили больше пользователей, но мы просто не смогли из-за ограничений в вычислительных мощностях», — сказал Пичаи. На той же встрече Вахдат продемонстрировал презентацию, в которой описывалось, как Google планирует достигнуть масштабных целей, не просто решая проблемы деньгами. Компания планирует опираться на три основные составляющие: строительство физической инфраструктуры, разработку более эффективных ИИ-моделей и создание собственных чипов. Использование собственных чипов означает, что Google больше не придётся полностью полагаться на оборудование Nvidia в плане расширения своих возможностей в сфере ИИ. Учитывая широкое признание нарастания «ИИ-пузыря», агрессивные планы Google по расширению инфраструктуры отражают расчёт руководства компании на то, что риск недофинансирования превышает риск образования избыточных мощностей. Однако эта ставка может оказаться очень дорогостоящей, если спрос на ИИ не будет продолжать расти в соответствии с ожиданиями Google. На встрече с сотрудниками Пичаи заявил, что 2026 год будет «напряжённым», сославшись на конкуренцию в сфере ИИ, а также давление, связанное с необходимостью удовлетворения спроса на облачные услуги и вычислительные мощности. Пичаи напрямую подтвердил опасения сотрудников по поводу потенциального ИИ-пузыря, признав, что эта тема «определённо витает в воздухе». Слежка без камер: Apple создала ИИ, который вычисляет действия пользователя по звуку и движениям
22.11.2025 [20:34],
Владимир Фетисов
Компания Apple опубликовала отчёт по результатам исследования, цель которого заключалась в изучении того, как большие языковые модели (LLM) могут анализировать аудиоданные и данные о движении, чтобы получить представление о том, что делает пользователь.
Источник изображений: 9to5 Mac Опубликованная недавно научная работа «Использование LLM для последующего объединения мультимодальных данных датчиков для распознавания активности» позволяет понять, как Apple рассматривает возможность объединения данных анализа с помощью ИИ-моделей с традиционными данными от датчиков для более точного понимания активности пользователя. По мнению исследователей, это имеет большой потенциал для повышения точности анализа активности, даже в случаях, когда одних данных от датчиков для этого недостаточно. «Потоки данных с датчиков предоставляют ценную информацию о деятельности и контексте для разных приложений, хотя интеграция дополнительной информации может быть сложной задачей. Мы показываем, что большие языковые модели можно задействовать для последующего объединения данных при классификации активности на основе временных рядов, аудио и данных о движении», — говорится в работе Apple. Исследователи отобрали подмножество данных для разнообразного распознавания активности в разных контекстах, например, выполнения домашних дел или занятий спортом, из набора данных Ego4D. Было установлено, что большие языковые модели достаточно хорошо справляются с задачами, связанными с определением того, что пользователь делает, анализируя звуковые и двигательные сигналы. Примечательно, что они справляются с такими задачами достаточно хорошо, даже если их специально не обучали этому. Если же им предоставить всего один пример для обучения, то точность сразу значительно повышается. Отмечается, что LLM в исследовании обрабатывала не саму аудиозапись, а текстовое описание, сгенерированное аудиомоделями и моделью движения, которая получает данные от акселерометра и гироскопа. В сообщении сказано, что в рамках исследования использовался набор данных Ego4D, снятых от первого лица. Эти данные содержат тысячи часов записей из реального мира, на которых запечатлены разные ситуации — от домашних дел, до занятий спортом и активного отдыха. «Мы создали набор данных о повседневных активностях из набора Ego4D, выполнив поиск действий из повседневной жизни в предоставленных текстовых описаниях. Отобранный набор данных включает в себя 20-секундные выборки из 12 видов активностей: уборка пылесосом, готовка, стирка, прием пищи, игра в баскетбол, игра в футбол, игра с домашними питомцами, чтение книги, работа за компьютером, мытьё посуды, просмотр ТВ, силовые тренировки. Эти активности были выбраны таким образом, чтобы охватить спектр домашних и связанных со спортом задач на основе их широкого распространения в исходном наборе данных», — говорится в исследовании. Исследователи обработали звуковые данные и данные о движении с помощью небольших ИИ-моделей, которые генерировали текстовые описания и прогнозы касательно категории активности, после чего данные передавались в разные LLM (Gemini-2.5-pro и Qwen-32B), чтобы оценить, насколько хорошо они могут идентифицировать активность. Затем Apple сравнила производительность этих двух ИИ-моделей в разных ситуациях: в одной из них предоставлялся список из 12 возможных активностей (закрытый набор), а в другой не было никаких вариантов (открытый набор). Для каждого теста предоставлялись разные комбинации текстовых расшифровок аудио, аудиометок, прогнозов по активностям, а также дополнительный контекст. Большие языковые модели показали значительно более точные результаты, чем базовые модели, работающие только с одним типом данных, особенно в сложных сценариях. Наивысшей точности удалось добиться при работе с закрытым набором данных, когда модель должна была выбирать одну из 12 активностей. При работе с открытым набором ИИ-модели также показали хорошие результаты, но иногда ответы были слишком обобщёнными или неточными. Gemini-2.5-pro и Qwen-32B показали сопоставимые результаты с небольшими преимуществами друг над другом в разных категориях, что говорит об универсальности такого подхода. Исследование Apple показывает, что ИИ-модели могут выступать в роли мощного и гибкого инструмента для объединения и анализа мультимодальных данных с минимальным дообучением. Это может способствовать созданию более умных и контекстно-осознанных систем на мобильных устройствах и носимых гаджетах. Google опровергла «вводящие в заблуждение» сообщения об обучении ИИ на письмах из Gmail
22.11.2025 [12:17],
Владимир Фетисов
Google опровергает ставшие вирусными посты в соцсетях и статьи на разных веб-ресурсах, в которых утверждается, что компания изменила свою политику, чтобы использовать письма пользователей сервиса Gmail для обучения моделей искусственного интеллекта. Авторы таких сообщений утверждают, что единственный способ отказаться от этого сводится к отключению всех «умных функций» в Gmail, таких как проверка орфографии.
Источник изображения: Google Представитель Google Дженни Томсон (Jenny Thomson) заявила, что «эти сообщения вводят в заблуждение — мы не меняли настройки пользователей, умные функции Gmail существуют несколько лет, и мы не используем содержимое вашего Gmail для обучения нашей ИИ-модели Gemini». Возможно, пользователям всё же стоит уделять больше внимания настройкам почтового сервиса Gmail. По данным источника, после отключения умных функций сервиса можно обнаружить, что некоторые из них снова становятся активным через какое-то время. В январе Google обновила настройки персонализации умных функций, чтобы их можно было отключать в Google Workspace и других продуктах компании, таких как Google Карты и Wallet, независимо друг от друга. Умные функции Gmail не ограничиваются проверкой орфографии, но также содержит ряд инструментов, которые помогают в работе с сообщениями и календарем. Активация этих опций в Workspace сопровождается предупреждением о том, что пользователь «соглашается с тем, что Google Workspace будет использовать содержимое и активность в Workspace для персонализации опыта взаимодействия со всеми сервисами Workspace». Однако это не означает, что содержимое почтового ящика будет использоваться для обучения ИИ-моделей компании. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |