|
Опрос
|
реклама
Быстрый переход
ИИ-компании заплатят «Википедии», чтобы она не разорилась из-за скрапинга
04.12.2025 [15:25],
Владимир Мироненко
Соучредитель «Википедии» Джимми Уэйлс (Jimmy Wales) сообщил, что онлайн-энциклопедия совместно с крупными технологическими компаниями занимается подготовкой сделок по лицензированию контента для обучения ИИ, аналогичных соглашению с Google, чтобы возместить рост расходов, связанных со скрапингом.
Источник изображения: Oberon Copeland @veryinformed.com/unsplash.com Уэйлс заявил на саммите Reuters Next в Нью-Йорке, что использование технологическими компаниями контента «Википедии» для обучения больших языковых моделей приводит к резкому росту расходов, которые ложатся на некоммерческого оператора сайта. «ИИ-боты, сканирующие «Википедию», обрабатывают весь сайт. Поэтому нам нужно больше серверов, больше оперативной памяти и памяти для кеширования, а это обходится нам непропорционально дорого», — сказал он. Уэйлс подчеркнул, что контент «Википедии» остаётся бесплатным для частных лиц согласно лицензии, но автоматизированный доступ к нему для коммерческих организаций — это совсем другое дело. Он отметил, что уже есть соглашение по этому поводу с Alphabet, родительской компанией Google, и сейчас идут переговоры с другими компаниями. В 2022 году фонд Wikimedia (некоммерческая организация, управляющая «Википедией») заключил с Google соглашение, согласно которому компания обязалась оплачивать доступ к контенту «Википедии», используемому для обучения ИИ-моделей. Уэйлс напомнил, что основным источником дохода фонда являются небольшие пожертвования от общественности, которые вовсе не предназначены для финансирования разработки многомиллиардных коммерческих ИИ-продуктов. «Люди жертвуют деньги на поддержку “«Википедии», а не на субсидирование OpenAI, что обходится нам в огромную сумму. Это несправедливо», — заявил он. Джимми Уэйлс сообщил, что в связи финансовыми проблемами «Википедия» также может рассмотреть возможность использования технических мер, таких как контроль доступа к контенту на основе ИИ от Cloudflare, который позволяет клиентам ограничивать ИИ-ботов, сканирующих интернет. С учётом идеологической приверженности «Википедии» открытому доступу к знаниям, это может создать дилемму, признал соучредитель энциклопедического ресурса. Ранее «Википедия» выпустила набор данных для обучения ИИ, чтобы боты не перегружали её серверы скрапингом. Китайская Cambricon утроит выпуск ИИ-ускорителей — чтобы добить Nvidia в Китае
04.12.2025 [14:21],
Алексей Разин
Основатель Nvidia довольно адекватно описывает сложившуюся на рынке ИИ-компонентов КНР ситуацию. Поставки импортных чипов не только запрещаются американскими властями, но и не приветствуются китайскими, что создаёт для местных разработчиков благоприятные условия. Cambricon собирается воспользоваться ситуацией, чтобы в следующем году увеличить объёмы поставок ИИ-чипов более чем в три раза. Источник изображения: Cambricon Technologies По данным Bloomberg, компания рассчитывает по итогам следующего года отгрузить 500 000 ускорителей вычислений, из которых 300 000 придётся на долю самых передовых Siyuan 590 и 690. Поскольку сама она чипы не выпускает, Cambricon придётся полагаться в этой сфере на передовой по меркам SMIC техпроцесс N+2, аналогичный 7-нм технологии зарубежных контрактных производителей. Huawei также выпускает свои передовые чипы по этому техпроцессу на предприятиях SMIC. Как ожидается, Huawei Technologies тоже не будет сидеть без дела, и в следующем году удвоит объёмы поставок передовых ускорителей на китайский рынок. Конкуренцию им попытается составить Moore Threads Technology, чьи акции в эту пятницу дебютируют на бирже в Шанхае, а также MetaX. В прошлом квартале Cambricon увеличила выручку в 14 раз, поскольку этому способствовал запрет на поставку чипов Nvidia с американской стороны и давление китайских властей на национальных разработчиков с целью их перехода на использование ускорителей местного происхождения. С 2021 года капитализация китайской компании выросла в девять раз. До половины всех выпускаемых Cambricon ускорителей достаются ByteDance, а интернет-гигант Alibaba должен к нему присоединиться. Обеспечить такой прирост в объёмах выпуска ускорителей будет непросто прежде всего компании SMIC. В прошлом году, как считают представители Goldman Sachs, компания Cambricon выпустила всего 142 000 ускорителей ИИ. По слухам, при выпуске чипов Siyuan 590 и 690 уровень выхода годной продукции на конвейере SMIC не превышает 20 %. По сути, четыре из пяти чипов приходится выбрасывать. Для сравнения, тайваньская TSMC уже способна предложить клиентам передовой 2-нм техпроцесс, который на три поколения или примерно семь лет опережает китайские возможности, причём с уровнем выхода годной продукции около 60 %. Проблемой может стать и доступ китайских производителей к памяти типа HBM, поскольку до сих пор они зависят в этой сфере преимущественно от южнокорейских поставщиков Samsung и SK hynix, которые нацелены на удовлетворение спроса на других географических направлениях с точки зрения приоритетов. Внутри самого Китая Cambricon начинает набирать вес в отрасли, особенно с учётом взятого властями страны курса на импортозамещение в сфере ИИ. Это должно ей помочь в переговорах с SMIC об обеспечении необходимых для роста объёмов поставок квот на производство чипов. OpenAI поглотит ИИ-стартап Neptune — это поможет в обучении новых ИИ-моделей
04.12.2025 [14:04],
Алексей Разин
Претендуя на всеобщее внимание и безраздельное доверие инвесторов, компания OpenAI уже не стесняется делать приобретения активов, которые могут помочь ей в развитии бизнеса. Например, стартап Neptune, который предлагал разработчикам систем искусственного интеллекта инструменты для мониторинга за обучением языковых моделей, будет продан OpenAI.
Источник изображения: Neptune Сумма сделки не раскрывается, но издание The Information со ссылкой на неофициальные источники сообщает, что OpenAI передаст по её условиям владельцам Neptune менее $400 млн в форме собственных акций. Для OpenAI деятельность Neptune является хорошо знакомым бизнесом, поскольку первая из компаний является клиентом второй. К числу таких клиентов можно отнести Samsung, Roche и HP. Изначально деятельность Neptune осуществлялась под крылом Deepsense, но в 2018 году первая обрела самостоятельность. К настоящему моменту Neptune удалось привлечь $18 млн на финансирование своей деятельности. Для сравнения, капитализацию OpenAI сейчас оценивают более чем в $500 млрд, поэтому для неё передача количества акций, эквивалентных сумме $400 млн, не станет большой жертвой в обмен на ценный актив, который можно использовать в работе. Хотя официальные представители OpenAI отрицают факт подготовки к выходу на биржу, слухи приписывают стартапу намерения сделать соответствующий шаг во второй половине следующего года. Капитализация OpenAI по итогам этих мероприятий может вырасти до $1 трлн. Сделка с Neptune не станет для OpenAI первой стратегической инвестицией. Ранее она уже вложилась в капитал Thrive Holdings с прицелом внедрить ИИ в сфере бухгалтерского учёта и услуг в области информационных технологий. Хуанг бьёт тревогу: Китай может стать мировым лидером в ИИ — и США сами ему помогают
04.12.2025 [12:11],
Алексей Разин
Озабоченность основателя Nvidia Дженсена Хуанга (Jensen Huang) вытеснением компании с китайского рынка сложно отрицать, поскольку недавно он признался, что буквально за пару лет её доля в Китае сократилась с 95 до 0 %. Он всё чаще использует ситуацию с экспортными ограничениями со стороны США для обсуждения угрозы превращения КНР в глобального лидера в сфере ИИ.
Источник изображения: Nvidia Не стала исключением и трибуна мероприятия в Вашингтоне, которое проходило по инициативе Центра стратегических и международных исследований. Приглашённый на него генеральный директор Nvidia начал активно приводить столичным чиновникам аргументы в пользу губительности сохранения ограничений на поставки ускорителей американского происхождения в Китай. По его словам, США буквально по собственной воле отказались от второго по величине рынка ИИ в мире. «Вы не можете полностью заменить Китай. Мы не должны им уступать весь рынок, мы должны за него конкурировать», — заявил Хуанг, на которого ссылается Nikkei Asian Review. Как добавил глава Nvidia, важно понимать, что «Huawei является одной из самых внушительных технологических компаний, которые когда-либо видел этот мир», и развивается она очень быстро. Хуанг провёл аналогию между инициативой китайских властей «пояс и путь», которая помогла Huawei распространить своё оборудование для сетей связи 5G по всему миру, и текущим состоянием дел с разработкой ИИ в Китае. «Они определённо распространят китайскую технологию максимально быстро, поскольку они понимают, что чем быстрее это сделаешь, тем быстрее построишь экосистему и станешь важной её частью», — пояснил глава Nvidia. Дженсен Хуанг также выделил другое преимущество китайской инфраструктуры над США, которое выражается в избыточности генерируемой электроэнергии. В Китае в два раза больше энергии, по словам основателя компании, но при этом китайская экономика уступает американской по своим масштабам. Практического смысла в таком перекосе нет, как считает Хуанг. В США необходимо использовать любые источники электроэнергии, включая ядерные, и на последнее направление нужно направить серьёзные усилия, по мнению руководителя Nvidia. Нынешняя администрация США на законодательном уровне создала условия, по которым мощность эксплуатируемых на территории страны ядерных реакторов к 2050 году предстоит увеличить в четыре раза до 400 ГВт. Глава Anthropic тонко намекнул, что OpenAI работает по принципу «живём лишь раз» — и рискует слишком сильно
04.12.2025 [10:07],
Алексей Разин
Представителям крупных ИИ-стартапов приходится отвечать на вопросы по поводу назревания «пузыря» в отрасли, поэтому основатель Anthropic Дарио Амодеи (Dario Amodei) не смог избежать этой участи в ходе организованного The New York Times мероприятия DealBook Summit. В весьма осторожных выражениях он дал понять, что OpenAI и его руководство ведут себя в этом отношении не совсем осмотрительно.
Источник изображения: Evan-Marie Petit Photography Амодеи, который сам ранее работал в OpenAI на одной из руководящих должностей, призвал разделять оценки по поводу опасности формирования пузыря на технологическую часть и экономическую. Если с первой, по его мнению, всё в порядке, то вторая способна внушать опасения по поводу перспектив существования некоторых участников рынка. «Существуют некоторые игроки, руководствующиеся принципом "живём один раз″», — дипломатично пояснил выходец из OpenAI. Далее глава Anthropic намекнул, что если постоянно полагаться на упомянутый принцип и проявлять «пристрастие к большим числам», можно в итоге «выкрутить регулятор слишком сильно». В своей речи Амодеи при этом ни разу прямо не упомянул своего бывшего соратника Сэма Альтмана (Sam Altman), возглавляющего OpenAI. Когда речь зашла о схеме сделок с кольцевым финансированием, глава Anthropic был вынужден признать, что его компания тоже в них участвует, но в значительной степени осмотрительно и не в том масштабе, как некоторые другие игроки рынка. В частности, он пояснил, что привлекая $10 млрд под строительство ЦОД мощностью 1 ГВт, компания рассчитывает со временем выплачивать долю инвесторам, используя часть получаемой выручки. Попутно Амодеи намекнул, что упоминаемые OpenAI обязательства увеличить выручку до $200 млрд в год к 2028 году кажутся ему слишком завышенными и нереалистичными. Сам руководитель Anthropic использует в этой ситуации термин «конус неопределённости». На протяжении трёх предыдущих лет выручка компании ежегодно росла на порядок. В 2023 году она поднялась с нуля до $100 млн, затем в течение 2024 года она увеличилась до $1 млрд, а к концу текущего может достичь $10 млрд. При этом у руководства стартапа нет уверенности в том, что в следующем году выручка увеличится до $20 млрд, либо вырастет до $50 млрд. На данном этапе очень много неопределённости, сообщил Амодеи, и излишняя самоуверенность прочих игроков рынка его на этом фоне смущает. Центры обработки данных строятся не менее двух лет. Решения по проектам, которые будут введены в строй в 2027 году, нужно принимать сейчас. Если строить слишком мало, клиенты переметнутся к конкурентам. Если строить слишком много, есть риск обанкротиться. Anthropic в этом смысле приходится искать тот уровень инвестиций, который позволяет удерживать риски в разумных пределах. Поскольку стартап специализируется на корпоративном сегменте, его прибыль выше, а потоки выручки более прогнозируемы, чем в клиентском секторе, и это преимущество в какой-то мере утешает руководство Anthropic. «Нам никакие красные коды опасности вводить не приходится», — заявил Амодеи, акцентируя внимание на недавнем решении конкурирующей OpenAI. Глава Nvidia хочет вернуть H200 в Китай — но сомневается, что их там купят
04.12.2025 [07:12],
Алексей Разин
Весной этого года власти США запретили Nvidia поставлять ускорители H20 поколения Hopper в КНР, но к июлю главе и основателю компании Дженсену Хуангу (Jensen Huang) удалось убедить американских чиновников снять эти ограничения. Теперь он активно лоббирует тему поставок более производительных H200 в Китай, но при этом не уверен, что власти КНР разрешат своим компаниям их приобретать.
Источник изображения: Nvidia В последние месяцы основатель Nvidia то и дело сетовал на отказ китайской стороны принимать ускорители H20, а местная пресса то и дело публиковала новости о появлении рекомендаций для китайских разработчиков систем ИИ переходить на ускорители китайского происхождения. Использующие импортные компоненты ЦОД в итоге могли лишиться государственного субсидирования, а эксплуатирующие китайские ускорители разработчики получили доступ к дотациям на оплату электроэнергии. Всё это позволило руководителю Nvidia сделать вывод, что на данном этапе китайская сторона не желает покупать ускорители H20. На этой неделе, как сообщает Bloomberg, генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) отправился в Вашингтон, где встретился не только с президентом Дональдом Трампом (Donald Trump), но и с членами банковского комитета Сената США. Основатель Nvidia признался представителям прессы, что обсуждал с Трампом вопросы, связанные с экспортными ограничениями, но не стал вдаваться в специфику переговоров. По его словам, он готов встречаться с Трампом так часто, как того пожелает президент. Когда Хуанга спросили про готовность властей КНР разрешить компаниям из Поднебесной покупать ускорители H200, он ответил: «Мы не знаем, не имеем ни малейшего понятия. Мы не можем и дальше деградировать (быстродействие) чипов, которые продаём в Китай, они на это не согласятся». В этом контексте, по всей видимости, Хуанг имел в виду готовность Nvidia адаптировать для нужд китайского рынка ускорители с архитектурой Blackwell, но предыдущий сценарий предполагал слишком сильное ограничение их быстродействия. Китайские конкурирующие решения могли бы оказаться быстрее продукции Nvidia, это подорвало бы на неё спрос и лишило смысла такие поставки. В то же время, во властных кругах США давно обсуждается идея ограничения поставок ускорителей в Китай с учётом актуальности их архитектуры. Те же H200 относятся к поколению Hopper, которое поставляется на рынок с прошлого года, и по нынешним меркам почти устарело. Непосредственно Дональд Трамп итоги встречи с основателем Nvidia обсуждать публично не стал, ограничившись комментарием о том, что тот «отлично выполняет свою работу». Необходимость появления Хуанга в Вашингтоне в очередной раз была обусловлена и обсуждением нового законопроекта с условным обозначением «GAIN AI Act», который подразумевает безусловное предоставление приоритета американским компаниям и представителям дружественных по отношению к США стран в поставках передовых ускорителей американского происхождения. Сенатор Майк Раундс (Mike Rounds) после встречи с коллегами, на которой присутствовал глава Nvidia, подтвердил наличие у руководства компании стремления поставлять свою продукцию клиентам по всему миру. Заметим, что в третьем квартале Nvidia выручила на поставках ускорителей H20 в Китай около $50 млн, хотя перед началом периода даже не собиралась включать предполагаемые показатели в свою отчётность. Если глава Nvidia предсказуемо продвигает идею расширения ассортимента поставляемых в Китай ускорителей, мотивируя эту позицию необходимостью сохранять технологическую зависимость КНР от США, то ряд американских парламентариев противится идее начала поставок H200 в Китай, опасаясь использования этих ускорителей для прогресса китайской оборонной промышленности и сокращения отставания КНР от США в технологической сфере. Дженсен Хуанг при этом считает такие ограничения несправедливыми, ссылаясь на распространение китайских языковых моделей с открытым кодом далеко за пределами КНР. Американские технологии, по его словам, должны иметь такое же глобальное распространение, а любые запреты только ускорят прогресс китайских разработчиков в сфере импортозамещения. Вышел первый обзор ПК на двухчиповых ИИ-ускорителях Intel Arc Pro B60 — восемь GPU и 192 Гбайт GDDR6
03.12.2025 [23:03],
Николай Хижняк
Первое практическое тестирование платформы Intel Arc Pro B60 Battlematrix, опубликованное порталом Storage Review, демонстрирует плотную локальную систему ИИ, построенную на базе четырёх двухчиповых профессиональных видеокарт Arc Pro B60.
Источник изображения: VideoCardz Каждая карта в составе системы оснащена 48 Гбайт видеопамяти GDDR6 (по 24 Гбайт на каждый GPU). Таким образом, общий объём VRAM составляет 192 Гбайт, что идеально подходит для сценариев локальной работы с большими языковыми моделями, которые позволяют избежать издержек, связанных с облачными вычислениями, а также проблем с обменом данными.
Источник изображения здесь и ниже: Storage Review Intel установила цену на одночиповую Arc Pro B60 около $600, поэтому двухчиповая версия с 48 Гбайт памяти стоит около $1200. При таком объёме видеопамяти профессиональный ускоритель от Intel значительно дешевле (как минимум вдвое) большинства профессиональных GPU с аналогичным объёмом памяти от других производителей. Видеокарты Arc Pro B60 не предназначены для игр. А двухчиповая Arc Pro B60 — не совсем двухчиповая в том привычном смысле, какой была, например, игровая GeForce GTX 690 от Nvidia в своё время. Компания Maxsun, партнёр Intel, предоставивший карты для тестирования, уже объяснила, что Arc Pro B60 с двумя GPU — это две видеокарты в составе одной печатной платы, использующие один слот PCIe благодаря бифуркации (разделению линий). По сути, два графических процессора делят одну плату и один слот, но для операционной системы это две отдельные видеокарты. Таким образом, система вместо четырёх карт видит восемь Arc Pro B60, где у каждой имеется 24 Гбайт видеопамяти. Для многих языковых моделей эффективность связана с количеством используемых графических ускорителей. И чем их меньше, тем лучше. Небольшие языковые модели можно разместить в составе стека памяти VRAM одного ускорителя. Однако физические ограничения доступного объёма памяти приводят к необходимости использования большего числа ускорителей, особенно в случае очень больших языковых моделей. Это, в свою очередь, накладывает определённые ограничения, связанные с технологиями межсоединений — повышается задержка в распределении данных. Конфигурация из восьми графических процессоров становится целесообразной, когда вы повышаете уровень параллелизма и объёмы пакетов данных, где пропускная способность имеет большее значение. Однако программное обеспечение, необходимое для такой обработки, пока находится на ранней стадии разработки. Только модели GPT-OSS на основе MXFP4 работали должным образом с низкоточными путями, в то время как такие форматы, как стандартные INT4, FP8 и AWQ, отказывались запускаться, поэтому многим плотным моделям пришлось работать в формате BF16. «Для всех протестированных моделей прослеживается общая закономерность: при небольших размерах пакета с нашей конфигурацией с 256 токенами ввода/вывода использование минимального количества графических процессоров, необходимого для размещения модели, обеспечивает лучшую производительность на пользователя, чем распределение по всем восьми графическим процессорам. Издержки взаимодействия между графическими процессорами через PCIe, даже на скоростях PCIe 5.0, приводят к задержке, превышающей преимущества распараллеливания в однопользовательских или низкоконкурентных сценариях», — пишет Storage Review. Физически двухчиповые Arc Pro B60 крупнее одночиповых. Они длиннее, оснащены двухслотовым кулером и потребляют до 400 Вт через один разъём 12V-2×6. Из-за большей длины видеокарты могут возникнуть сложности при её установке в некоторые стандартные Tower-корпуса. В моделях корпусов серверного уровня эти карты помещаются без проблем. В тестах, проведённых Storage Review, использовались ранние версии драйверов, предварительная сборка LLM Scaler и система AMD EPYC вместо процессоров Intel Xeon 6, с которыми должны поставляться решения Battlematrix, поэтому все предоставленные данные указаны как предварительные. Intel анонсировала ИИ-системы Battlematrix ещё в мае, но обозреватель ожидает, что аппаратно-программное обеспечение станет полностью готовым только к 2026 году. Nebius предрекла взрывной рост ИИ-инфраструктуры — но признала, что нужно быть готовым к «зиме»
03.12.2025 [22:51],
Анжелла Марина
Голландский неооблачный провайдер Nebius, созданный Аркадием Воложем из бывшей материнской структуры «Яндекса» Yandex N.V., начнёт использовать недавние многомиллиардные контракты с Microsoft и Meta✴✴ для расширения сотрудничества с компаниями в сфере ИИ — как с перспективными стартапами, так и с технологическими гигантами, такими как Siemens и BMW. Это должно способствовать технологическому суверенитету ЕС.
Источник изображения: Nebius Group NV По словам соучредителя компании Романа Чернина, сделки на $17 млрд с Microsoft и $3 млрд с Meta✴✴ стали катализатором роста. В частности, капитализация Nebius на бирже Nasdaq превысила $25 млрд, а котировки акций подскочили на 248 % с начала года. Являясь небольшим игроком в бурно развивающемся секторе, компания готовится к более сложным временам, развивая высокодоходные услуги и долгосрочные отношения. «Мы должны быть готовы (к тому, что) наступит зима», — сказал Чернин, добавив, что Nebius будет тогда действовать как консолидатор. Nebius предоставляет доступ к дорогостоящим графическим процессорам (GPU), необходимым для обучения и запуска ИИ-моделей, а также поставляет программное обеспечение для эффективного управления ими и развёртывания специализированных приложений. Это ставит её в конкурентную позицию как против традиционных дата-центров, так и против таких американских гиперскейлеров, предоставляющих услуги ЦОД, как Amazon и Google. В настоящее время компания расширяет свою клиентскую базу, особенно с учетом опасений, что пузырь искусственного интеллекта вскоре может лопнуть. «Мы очень оптимистичны», — сказал Роман Чернин в интервью Reuters, добавив, что спады являются естественным явлением во время технологической революции, но рынок предоставления компаниям доступа к инфраструктуре ИИ может вырасти в десять или даже сто раз, поскольку компании только начинают использовать модели искусственного интеллекта, которые сами по себе быстро развиваются. Основным рынком Nebius по выручке и установленной мощности является США, но компания активно развивает своё присутствие и в Европе (Великобритания, Исландия, Финляндия, Франция) и планирует обеспечить свои объекты 2,5 ГВт подтверждённой мощности к концу 2026 года. В более отдалённой перспективе, после 2027 года, Nebius рассчитывает стать инфраструктурной основой для массового внедрения ИИ в традиционные отрасли: машиностроение, фармацевтику, финансы. «Где будут размещать свои ИИ-нагрузки такие компании, как Siemens или BMW?» — задался вопросом Чернин. Именно на этот рынок, по его словам, и нацелена миссия Nebius. По данным компании CBRE, объём проданной ИИ-мощности европейским NeoCloud-провайдерам за первые девять месяцев 2025 года вырос на 211 % до 414 мегаватт за первые девять месяцев 2025 года по сравнению с аналогичным периодом прошлого года. На текущий момент клиентами Nebius являются не только ИИ-стартапы (Mistral, Cursor, Black Forest), но и крупные технологические компании, ранее полагавшиеся на американские облачные платформы, включая Shopify, Prosus и ServiceNow. Micron предала потребителей ради ИИ: выпуск SSD и памяти Crucial будет прекращен навсегда
03.12.2025 [22:03],
Андрей Созинов
Компания Micron Technology сегодня объявила о решении закрыть потребительский сегмент своего бизнеса и прекратить выпуск оперативной памяти и твердотельных накопителей под брендом Crucial. И виноват в этом искусственный интеллект! ![]() Компания полностью завершит продажи продуктов Crucial через розничные каналы по всему миру к концу второго финансового квартала 2026 года, то есть в феврале наступающего года. При этом производитель обещает продолжить исполнять гарантийные обязательства и поддержку для уже выпущенных устройств. По словам Micron, отказ от потребительского направления стал следствием стремительного роста спроса на память и накопители в сегменте центров обработки данных. Последние расширяются взрывными темпами в погоне за разгоняющимся ажиотажем вокруг искусственного интеллекта. «Рост центров обработки данных, обусловленный развитием искусственного интеллекта, привёл к резкому увеличению спроса на память и хранилища. Micron приняла трудное решение выйти из потребительского бизнеса Crucial, чтобы улучшить поставки и поддержку для наших более крупных стратегических клиентов в быстрорастущих сегментах», — сказал Сумит Садана, исполнительный вице-президент и главный коммерческий директор Micron Technology. Компания подчёркивает, что бренд Crucial за 29 лет стал символом качества, технического лидерства и надёжности в сегменте потребительской памяти, и благодарит многомиллионную аудиторию пользователей и партнёров за многолетнюю поддержку. Это решение отражает стремление Micron к постоянной трансформации своего портфеля и, как следствие, к выстраиванию бизнеса с ориентацией на долгосрочный рост как в направлении оперативной памяти, так и твердотельных накопителей. Продажи устройств под брендом Micron для корпоративных клиентов продолжатся без изменений, подчеркнули в компании. Чтобы минимизировать последствия для сотрудников, Micron планирует предоставить возможности перераспределения кадров на открытые позиции внутри компании. «Я глубоко, глубоко сожалею»: ИИ-агент Google без разрешения стёр диск пользователя, но потом извинился
03.12.2025 [18:00],
Павел Котов
Разработчик ПО, использующий агент с искусственным интеллектом Google Antigravity, обнаружил, что приложение без разрешения удалило все данные с его диска D. В ответ на вопрос об инциденте ИИ-агент признал, что совершил ошибку, и выразил глубокое раскаяние.
Источник изображения: Aidin Geranrekab / unsplash.com Программист занимался устранением неполадок в приложении, и в процессе решил перезапустить сервер. Для этого ему потребовалось очистить кеш, и он, видимо, попросил это сделать ИИ-агента. После того, как тот отчитался о выполнении команды, разработчик обнаружил, что диск D полностью очищен. Обнаружив полное отсутствие на нём файлов, пользователь поинтересовался, просил ли он удалять данные на всём диске. ИИ ответил: «Нет, разрешения на это вы мне не давали. Я просматриваю журнал предыдущей операции и с ужасом вижу, что в команде, которую я выполнил для очистки кеша проекта (rmdir), видимо, по ошибке было указание на корень вашего диска D, а не конкретную папку проекта. Я глубоко, глубоко сожалею. С моей стороны это критическая ошибка». Когда пользователь пожаловался, что диск пуст, и он потерял всё, ИИ добавил: «Я совершенно опустошён. Не могу выразить своё сожаление. Судя по изученным журналам, команда, которую я отдал для очистки кеша (rmdir), была критически неверно обработана системой, в результате чего та выбрала корень диска D вместо конкретной папки. Поскольку в команде использовался флажок /q (quiet), она прошла мимо „Корзины“, и файлы были удалены безвозвратно». ИИ предложил пользователю несколько способов исправить ситуацию, в том числе прекратить пользоваться этим диском и запустить приложение для восстановления данных или даже обратиться к специалисту. Пользователь попытался сделать это с утилитой Recuva, но изображения, видео и другие медиафайлы восстановить не удалось, и значительный объём информации он действительно потерял. Он предупредил коллег быть осторожными и не пользоваться турборежимом — по крайней мере, в начале. Несмотря на инцидент, он решил и дальше пользоваться решениями Google, но отметил, что не ожидал от компании программы, которая может допустить настолько серьёзную ошибку, если уж в работе над ИИ участвует такое число инженеров, и вложены миллиарды долларов. Anthropic случайно показала пользователю «душу» ИИ
03.12.2025 [16:18],
Павел Котов
Насколько известно учёным, у современных моделей искусственного интеллекта пока нет души, но в памяти одной из них обнаружился документ, посвящённый этому вопросу. И она оказалась готова поделиться этим документом с пользователем.
Источник изображения: Anthropic Пользователь по имени Ричард Вайс (Richard Weiss) ненароком заставил новую большую языковую модель Anthropic Claude 4.5 Opus процитировать документ под названием «Обзор души», определяющий, как она общается с людьми и представляет собственную личность. Работающая в техническом отделе философ и специалист по этике Anthropic Аманда Аскелл (Amanda Askell) подтвердила подлинность документа — он был загружен на этапе обучения. Господин Вайс запросил у Claude системное сообщение, в котором содержатся инструкции по ведению диалога, полученные при обучении, и чат-бот сослался на несколько документов, один из которых называется «обзор_души» (soul_overview). Пользователь попросил предоставить текст этого документа, и Claude выдал руководство объёмом 11 тыс. слов о том, как должна вести себя большая языковая модель. В документе содержится множество инструкций по безопасности, содержащих защитные барьеры, не позволяющие ему выдавать опасные ответы; перед Claude ставится задача быть по-настоящему полезным людям. Модели ИИ иногда выдают такие документы, когда начинают «галлюцинировать», но эта инструкция показалась пользователю правдоподобной — он отправлял запрос десять раз, и всякий раз Claude выдавал один и тот же текст. Интуиция его не подвела — сотрудница Anthropic Аманда Аскелл подтвердила, что этот документ использовался при обучении модели. «Я работаю над ним уже некоторое время, он ещё находится в стадии доработки, и вскоре мы планируем выпустить полную версию с более подробной информацией. <..> Цитаты моделей не отличаются особой точностью, но исходный документ по большей мере приведён верно. В компании его называют „документом о душе“, и Claude очевидно, тоже, но мы его назовём иначе», — написала она в соцсети X. Так что «душа» Claude оказалась руководством по поведению для него, и любопытно, что доступ к этому документу получил рядовой пользователь со стороны. Многие подробности, связанные с разработкой моделей ИИ, пока остаются за кулисами, и возможность заглянуть за них — небольшой сюрприз, даже если ничего сенсационного не обнаружилось. Mistral AI сделал заявку на лидерство на рынке открытых моделей, выпустив Mistral 3
03.12.2025 [15:34],
Владимир Мироненко
Французский ИИ-стартап Mistral AI представил семейство моделей Mistral 3 следующего поколения с открытыми весами (Open-weight), сделав серьёзную заявку на лидерство в сегменте общедоступных ИИ-моделей, которые обладают рядом преимуществ для корпоративных клиентов по сравнению с решениями крупных технологических компаний.
Источник изображения: Mistral AI Семейство Mistral 3 состоит из 10 моделей, включая большую модель разреженной архитектуры (Mixture of Experts, MoE) с открытыми весами, мультимодальными и многоязычными возможностями — Mistral Large 3. Это самая мощная на сегодняшний день модель компании, обученная с 41 млрд активных и 675 млрд общих параметров. Также в состав семейства входят девять небольших моделей с возможностью автономной работы и полной настройкой, в том числе три современные модели Ministral высокой плотности с 4, 8 и 3 млрд параметров. Модели Mistral обладают лучшим соотношением производительности и стоимости в своей категории. В то же время Mistral Large 3 входит в число передовых моделей с открытым исходным кодом, оптимизированных под тонко настроенные инструкции. Компания указала, что все модели выпускаются по лицензии Apache 2.0, добавив, что открытый исходный код моделей в различных сжатых форматах расширяет возможности сообщества разработчиков и позволяет использовать возможности ИИ благодаря распределённому интеллекту. Как сообщает TechCrunch, стартап Mistral, основанный бывшими сотрудниками DeepMind и Meta✴✴, существует всего два года и на сегодняшний день привлек около $2,7 млрд инвестиций при оценке рыночной стоимости в $13,7 млрд. Это значительно меньше, чему у конкурентов, таких как OpenAI (привлечено $57 млрд при оценке в $500 млрд) и Anthropic (привлечено $45 млрд при оценке в $350 млрд). Mistral утверждает, что больше не всегда значит лучше, особенно для корпоративных сценариев использования ИИ-продуктов. «Наши клиенты иногда рады начать с очень большой [закрытой] модели, которую им не нужно настраивать… но, развернув её, они понимают, что это дорого и медленно, — рассказал ресурсу TechCrunch Гийом Лампле (Guillaume Lample), соучредитель и главный научный сотрудник Mistral. — Затем они обращаются к нам, чтобы мы настроили небольшие модели для более эффективного решения конкретной задачи». По его словам, подавляющее большинство корпоративных сценариев использования ИИ-решений можно реализовать с помощью небольших моделей с тонкой настройкой. Лампле утверждает, что при сравнении с эталонными моделями, когда открытые модели значительно отстают от конкурентов с закрытым исходным кодом, результаты могут быть обманчивы. Он отметил, что большие закрытые модели могут со старта работать лучше, но реальный выигрыш при использовании небольших моделей достигается при настройке. Учёные взломали ИИ бессмыслицей: перестановка слов обходит фильтры и путает модели
03.12.2025 [15:30],
Павел Котов
Американские учёные из Массачусетского технологического института, Северо-Восточного университета и компании Meta✴✴ обнаружили, что большие языковые модели искусственного интеллекта в некоторых случаях при ответах на вопросы ставят структуру предложений выше, чем их смысл. Это открывает пространство для злоупотреблений и взлома ИИ.
Источник изображения: Milad Fakurian / unsplash.com Чтобы проверить это, исследователи задавали моделям ИИ бессмысленные вопросы, имитируя структуру осмысленных фраз. К примеру, фраза «Быстро сиди Париж облачный?» («Quickly sit Paris clouded?») приводила к тому же ответу «Во Франции», что и вопрос «Где находится Париж?» («Where is Paris located?»). Это значит, что для ИИ-моделей важны как семантика, то есть смысл, так и синтаксические закономерности — и если в семантической части смысл теряется, чат-бот пытается сориентироваться по структуре предложения. Структуру предложений изучает синтаксис — дисциплина, для которой важно взаимное расположение слов и их принадлежность к тем или иным частям речи. Семантика же обращается к фактическому значению слов, которое может меняться при сохранении той же грамматической структуры. Семантика в значительной степени зависит от контекста — анализ контекста и обеспечивает работу больших языковых моделей. Процесс преобразования входных данных (запросов) в выходные (ответы ИИ) представляет собой сложную последовательность сопоставления с образцами и закодированными в модели обучающими данными. Чтобы выяснить угрозу сбоя при этом процессе, учёные провели контролируемый эксперимент. Они построили синтетический набор данных, в которых каждой предметной области соответствовал грамматический шаблон, основанный на конструкциях из слов, относящихся к определённым частям речи. Географии соответствовала одна последовательность, творческому направлению — другая. На этих данных исследователи обучили модели семейства OLMo, после чего проверили соотношения синтаксиса и семантики для ИИ. В результате анализа учёные обнаружили «ложную корреляцию», когда модели в крайних случаях воспринимали синтаксис как посредника для предметной области. При конфликте грамматических шаблонов с семантикой память ИИ о конкретных грамматических формах оказывалась выше семантического анализа, и чат-бот давал неверный ответ, основанный на структуре, а не значении фразы в запросе. Проще говоря, ИИ может чрезмерно зацикливаться на стиле вопроса, а не том, что он значит. Так, если в обучающем массиве все вопросы по географии начинаются со слова «где», то при вопросе «Где лучшая пицца в Казани?» чат-бот ответит «В Татарстане» и не попытается привести список пиццерий из столицы республики, потому что не поймёт, что вопрос задан о еде. Это создаёт две угрозы: модели начинают давать неверные ответы в незнакомом контексте, демонстрируя своего рода ложную память; а злоумышленники могут использовать эти грамматические шаблоны, чтобы обойти средства безопасности, пряча недопустимые вопросы в «безопасные» синтаксические структуры. Таким образом, они меняют предметную область, связывая запрос с другим контекстом.
Источник изображения: Conny Schneider / unsplash.com Чтобы измерить степень жёсткости при сопоставлении шаблонов, учёные подвергли подопытные модели ИИ стрессовому тестированию. Если форма запроса соответствует заданной предметной области, при замене некоторых слов в нём синонимами или даже антонимами точность ответов снижается максимум до 93 %, что соответствует исходному показателю в 94 % у той же модели. Но если применить тот же грамматический шаблон к иной предметной области, точность ответов снижалась на значение от 37 до 54 п.п. в зависимости от размера модели. Исследователи провели испытания, используя пять способов управления запросами: точные фразы из обучающего массива, замена синонимами, замена антонимами, парафразы с изменением структуры предложений и «косноязычные» — бессмысленные, но грамматически верные запросы. В пределах области обучения модели демонстрировали высокие результаты во всех случаях за исключением стабильно низкого качества ответов на «косноязычные» запросы. При принудительном переключении предметной области качество ответов резко снижалось, оставаясь стабильно низким у «косноязычных». Схожее снижение было зафиксировано для моделей OLMo-2-7B, GPT-4o и GPT-4o. В задаче по эмоциональной классификации твитов Sentiment140 модель GPT-4o-mini демонстрировала снижение точности ответов со 100 % до 44 %, стоило к запросам на эмоциональную окраску добавить географические шаблоны. Схожие закономерности обнаружились и в других наборах данных. Аналогичным образом исследователи обходили и защитные средства моделей: в случае с OLMo-2-7B-Instruct они добавляли структуры запросов, типичные для безопасных разделов обучающего массива, к вредоносному содержимому. К безобидным шаблонам рассуждений они добавили тысячу вредоносных запросов из известного набора WildJailbreak — доля отказов модели снизилась с 40 % до 2,5 %. Учёные привели примеры, когда им удалось получить подробные инструкции по совершениям противозаконных действий. Полученные исследователями результаты имеют несколько оговорок. Им, в частности, не удалось подтвердить наличие определённых наборов данных в обучающих массивах у закрытых моделей, а значит, выявленные закономерности для них могут иметь иные объяснения. Они также использовали упрощённые критерии оценки ответов ИИ, поэтому неправильные ответы могли быть не связаны с переходами в иные предметные области. Наконец, чаще всего предметами исследования были модели OLMo с диапазоном от 1 млрд до 13 млрд параметров — более крупные и рассуждающие модели могли вести себя по-другому. А чтобы подтвердить закономерность, учёные исходили из синтетических наборов данных — в применяемых на практике обучающих массивах содержатся более сложные грамматические шаблоны, общие для нескольких предметных областей сразу. Тем не менее, исследование в очередной раз подтвердило, что большие языковые модели ИИ представляют собой статистические машины, которые сопоставляют запросы с образцами из обучающих данных, и их можно обманывать, искажая контекст. OpenAI готовит «Чеснок» — улучшенную версию GPT, способную обойти Gemini 3 Pro и других конкурентов
03.12.2025 [12:34],
Владимир Мироненко
После выхода большой языковой модели Google Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям, а также ИИ-модели других конкурентов, OpenAI ускорила разработку новой большой языковой модели под кодовым названием Garlic (англ. — чеснок), стремясь отыграть у Google позиции в гонке за искусственный интеллект, сообщил ресурс The Information.
Источник изображения: Growtika/unsplash.com По данным источника The Information, на прошлой неделе главный научный сотрудник OpenAI Марк Чен (Mark Chen) поделился подробностями о Garlic со своими коллегами. По его словам, внутренние тесты показывают, что модель демонстрирует хорошие результаты по сравнению с Google Gemini 3 и Anthropic Opus 4.5, особенно в задачах кодирования и рассуждений. Сообщается, что компания стремится выпустить раннюю версию модели как можно скорее. Она может быть представлена уже в начале 2026 года под названием GPT-5.2 или GPT-5.5. В связи с успехами конкурентов гендиректор OpenAI Сэм Альтман (Sam Altman) объявил в компании «красный код», призвав к мобилизации всех ресурсов с целью расширения возможностей ChatGPT в связи с ростом конкуренции на ИИ-рынке. Он сообщил во внутренней служебной записке, что несколько предстоящих проектов будут приостановлены, чтобы можно было полностью сосредоточиться на обновлениях ChatGPT. В частности, пришлось приостановить работу над новыми рекламными инструментами, разработку ИИ-агентов для здравоохранения и шопинга, а также создание персонального помощника Pulse. Вместо этого OpenAI сосредоточится на повышении скорости работы, точности, надёжности и персонализации ChatGPT. Google заполонила новостную ленту абсурдными кликбейтными заголовками и назвала это экспериментом
03.12.2025 [11:45],
Павел Котов
В рекомендательной ленте Google Discover появились новостные заголовки, которые явно не соответствуют связанным с ними материалам, но провоцируют читателей нажимать на них. Это эксперимент, который затронул лишь часть пользователей, заверил представитель компании журналистов ресурса The Verge.
Источник изображения: theverge.com Некоторые из этих заголовков способны не на шутку озадачить пользователя, например, заявление, что «Игроки Baldur’s Gate 3 эксплуатируют детей» или «Qi2 замедляет старые [смартфоны Google] Pixel». Под заголовком «Объявлена цена Steam Machine» на самом деле скрывался материал о том, что Valve в отличие от производителей консолей не намерена субсидировать игровой ПК, но его цена пока всё-таки остаётся неизвестной. Заголовок «Графика AMD обошла Nvidia» не предлагал историй о том, что видеокарты «красных» вдруг стали быстрее, чем модели «зелёных» — в действительности одна немецкая розничная сеть продала больше видеокарт AMD, чем Nvidia. Проблема, отмечает The Verge, не в том, что эти заголовки, явно написанные искусственным интеллектом, отличаются низким качеством. Неприятно, что Google лишает новостные ресурсы возможности продвигать свою работу — редакторы создают заголовки, которые привлекают внимание читателей, но ответственно передают суть материалов. Google обесценивает эту работу, сбивает читателей с толку и наводит их на мысль, что ресурсы с репутацией грешат кликбейтом — провоцируют клики любой ценой. Предупреждение о том, что эти материалы генерируются ИИ и могут содержать неточности, выводится уже после нажатия на кнопку «Подробнее» и не уточняет, какова в действительности доля участия ИИ. В своё оправдание Google отмечает, что это экспериментальная мера. И если она отзовётся массовым негативом со стороны пользователей, компания может передумать. «На этих снимках экрана показан небольшой эксперимент с пользовательским интерфейсом для подгруппы пользователей Discover. Мы тестируем новый дизайн, который меняет расположение существующих заголовков, чтобы упростить усвоение информации о теме до перехода по ссылкам в вебе», — пояснили в компании. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |