|
Опрос
|
реклама
Быстрый переход
Anthropic случайно показала пользователю «душу» ИИ
03.12.2025 [16:18],
Павел Котов
Насколько известно учёным, у современных моделей искусственного интеллекта пока нет души, но в памяти одной из них обнаружился документ, посвящённый этому вопросу. И она оказалась готова поделиться этим документом с пользователем.
Источник изображения: Anthropic Пользователь по имени Ричард Вайс (Richard Weiss) ненароком заставил новую большую языковую модель Anthropic Claude 4.5 Opus процитировать документ под названием «Обзор души», определяющий, как она общается с людьми и представляет собственную личность. Работающая в техническом отделе философ и специалист по этике Anthropic Аманда Аскелл (Amanda Askell) подтвердила подлинность документа — он был загружен на этапе обучения. Господин Вайс запросил у Claude системное сообщение, в котором содержатся инструкции по ведению диалога, полученные при обучении, и чат-бот сослался на несколько документов, один из которых называется «обзор_души» (soul_overview). Пользователь попросил предоставить текст этого документа, и Claude выдал руководство объёмом 11 тыс. слов о том, как должна вести себя большая языковая модель. В документе содержится множество инструкций по безопасности, содержащих защитные барьеры, не позволяющие ему выдавать опасные ответы; перед Claude ставится задача быть по-настоящему полезным людям. Модели ИИ иногда выдают такие документы, когда начинают «галлюцинировать», но эта инструкция показалась пользователю правдоподобной — он отправлял запрос десять раз, и всякий раз Claude выдавал один и тот же текст. Интуиция его не подвела — сотрудница Anthropic Аманда Аскелл подтвердила, что этот документ использовался при обучении модели. «Я работаю над ним уже некоторое время, он ещё находится в стадии доработки, и вскоре мы планируем выпустить полную версию с более подробной информацией. <..> Цитаты моделей не отличаются особой точностью, но исходный документ по большей мере приведён верно. В компании его называют „документом о душе“, и Claude очевидно, тоже, но мы его назовём иначе», — написала она в соцсети X. Так что «душа» Claude оказалась руководством по поведению для него, и любопытно, что доступ к этому документу получил рядовой пользователь со стороны. Многие подробности, связанные с разработкой моделей ИИ, пока остаются за кулисами, и возможность заглянуть за них — небольшой сюрприз, даже если ничего сенсационного не обнаружилось. Mistral AI сделал заявку на лидерство на рынке открытых моделей, выпустив Mistral 3
03.12.2025 [15:34],
Владимир Мироненко
Французский ИИ-стартап Mistral AI представил семейство моделей Mistral 3 следующего поколения с открытыми весами (Open-weight), сделав серьёзную заявку на лидерство в сегменте общедоступных ИИ-моделей, которые обладают рядом преимуществ для корпоративных клиентов по сравнению с решениями крупных технологических компаний.
Источник изображения: Mistral AI Семейство Mistral 3 состоит из 10 моделей, включая большую модель разреженной архитектуры (Mixture of Experts, MoE) с открытыми весами, мультимодальными и многоязычными возможностями — Mistral Large 3. Это самая мощная на сегодняшний день модель компании, обученная с 41 млрд активных и 675 млрд общих параметров. Также в состав семейства входят девять небольших моделей с возможностью автономной работы и полной настройкой, в том числе три современные модели Ministral высокой плотности с 4, 8 и 3 млрд параметров. Модели Mistral обладают лучшим соотношением производительности и стоимости в своей категории. В то же время Mistral Large 3 входит в число передовых моделей с открытым исходным кодом, оптимизированных под тонко настроенные инструкции. Компания указала, что все модели выпускаются по лицензии Apache 2.0, добавив, что открытый исходный код моделей в различных сжатых форматах расширяет возможности сообщества разработчиков и позволяет использовать возможности ИИ благодаря распределённому интеллекту. Как сообщает TechCrunch, стартап Mistral, основанный бывшими сотрудниками DeepMind и Meta✴✴, существует всего два года и на сегодняшний день привлек около $2,7 млрд инвестиций при оценке рыночной стоимости в $13,7 млрд. Это значительно меньше, чему у конкурентов, таких как OpenAI (привлечено $57 млрд при оценке в $500 млрд) и Anthropic (привлечено $45 млрд при оценке в $350 млрд). Mistral утверждает, что больше не всегда значит лучше, особенно для корпоративных сценариев использования ИИ-продуктов. «Наши клиенты иногда рады начать с очень большой [закрытой] модели, которую им не нужно настраивать… но, развернув её, они понимают, что это дорого и медленно, — рассказал ресурсу TechCrunch Гийом Лампле (Guillaume Lample), соучредитель и главный научный сотрудник Mistral. — Затем они обращаются к нам, чтобы мы настроили небольшие модели для более эффективного решения конкретной задачи». По его словам, подавляющее большинство корпоративных сценариев использования ИИ-решений можно реализовать с помощью небольших моделей с тонкой настройкой. Лампле утверждает, что при сравнении с эталонными моделями, когда открытые модели значительно отстают от конкурентов с закрытым исходным кодом, результаты могут быть обманчивы. Он отметил, что большие закрытые модели могут со старта работать лучше, но реальный выигрыш при использовании небольших моделей достигается при настройке. Учёные взломали ИИ бессмыслицей: перестановка слов обходит фильтры и путает модели
03.12.2025 [15:30],
Павел Котов
Американские учёные из Массачусетского технологического института, Северо-Восточного университета и компании Meta✴✴ обнаружили, что большие языковые модели искусственного интеллекта в некоторых случаях при ответах на вопросы ставят структуру предложений выше, чем их смысл. Это открывает пространство для злоупотреблений и взлома ИИ.
Источник изображения: Milad Fakurian / unsplash.com Чтобы проверить это, исследователи задавали моделям ИИ бессмысленные вопросы, имитируя структуру осмысленных фраз. К примеру, фраза «Быстро сиди Париж облачный?» («Quickly sit Paris clouded?») приводила к тому же ответу «Во Франции», что и вопрос «Где находится Париж?» («Where is Paris located?»). Это значит, что для ИИ-моделей важны как семантика, то есть смысл, так и синтаксические закономерности — и если в семантической части смысл теряется, чат-бот пытается сориентироваться по структуре предложения. Структуру предложений изучает синтаксис — дисциплина, для которой важно взаимное расположение слов и их принадлежность к тем или иным частям речи. Семантика же обращается к фактическому значению слов, которое может меняться при сохранении той же грамматической структуры. Семантика в значительной степени зависит от контекста — анализ контекста и обеспечивает работу больших языковых моделей. Процесс преобразования входных данных (запросов) в выходные (ответы ИИ) представляет собой сложную последовательность сопоставления с образцами и закодированными в модели обучающими данными. Чтобы выяснить угрозу сбоя при этом процессе, учёные провели контролируемый эксперимент. Они построили синтетический набор данных, в которых каждой предметной области соответствовал грамматический шаблон, основанный на конструкциях из слов, относящихся к определённым частям речи. Географии соответствовала одна последовательность, творческому направлению — другая. На этих данных исследователи обучили модели семейства OLMo, после чего проверили соотношения синтаксиса и семантики для ИИ. В результате анализа учёные обнаружили «ложную корреляцию», когда модели в крайних случаях воспринимали синтаксис как посредника для предметной области. При конфликте грамматических шаблонов с семантикой память ИИ о конкретных грамматических формах оказывалась выше семантического анализа, и чат-бот давал неверный ответ, основанный на структуре, а не значении фразы в запросе. Проще говоря, ИИ может чрезмерно зацикливаться на стиле вопроса, а не том, что он значит. Так, если в обучающем массиве все вопросы по географии начинаются со слова «где», то при вопросе «Где лучшая пицца в Казани?» чат-бот ответит «В Татарстане» и не попытается привести список пиццерий из столицы республики, потому что не поймёт, что вопрос задан о еде. Это создаёт две угрозы: модели начинают давать неверные ответы в незнакомом контексте, демонстрируя своего рода ложную память; а злоумышленники могут использовать эти грамматические шаблоны, чтобы обойти средства безопасности, пряча недопустимые вопросы в «безопасные» синтаксические структуры. Таким образом, они меняют предметную область, связывая запрос с другим контекстом.
Источник изображения: Conny Schneider / unsplash.com Чтобы измерить степень жёсткости при сопоставлении шаблонов, учёные подвергли подопытные модели ИИ стрессовому тестированию. Если форма запроса соответствует заданной предметной области, при замене некоторых слов в нём синонимами или даже антонимами точность ответов снижается максимум до 93 %, что соответствует исходному показателю в 94 % у той же модели. Но если применить тот же грамматический шаблон к иной предметной области, точность ответов снижалась на значение от 37 до 54 п.п. в зависимости от размера модели. Исследователи провели испытания, используя пять способов управления запросами: точные фразы из обучающего массива, замена синонимами, замена антонимами, парафразы с изменением структуры предложений и «косноязычные» — бессмысленные, но грамматически верные запросы. В пределах области обучения модели демонстрировали высокие результаты во всех случаях за исключением стабильно низкого качества ответов на «косноязычные» запросы. При принудительном переключении предметной области качество ответов резко снижалось, оставаясь стабильно низким у «косноязычных». Схожее снижение было зафиксировано для моделей OLMo-2-7B, GPT-4o и GPT-4o. В задаче по эмоциональной классификации твитов Sentiment140 модель GPT-4o-mini демонстрировала снижение точности ответов со 100 % до 44 %, стоило к запросам на эмоциональную окраску добавить географические шаблоны. Схожие закономерности обнаружились и в других наборах данных. Аналогичным образом исследователи обходили и защитные средства моделей: в случае с OLMo-2-7B-Instruct они добавляли структуры запросов, типичные для безопасных разделов обучающего массива, к вредоносному содержимому. К безобидным шаблонам рассуждений они добавили тысячу вредоносных запросов из известного набора WildJailbreak — доля отказов модели снизилась с 40 % до 2,5 %. Учёные привели примеры, когда им удалось получить подробные инструкции по совершениям противозаконных действий. Полученные исследователями результаты имеют несколько оговорок. Им, в частности, не удалось подтвердить наличие определённых наборов данных в обучающих массивах у закрытых моделей, а значит, выявленные закономерности для них могут иметь иные объяснения. Они также использовали упрощённые критерии оценки ответов ИИ, поэтому неправильные ответы могли быть не связаны с переходами в иные предметные области. Наконец, чаще всего предметами исследования были модели OLMo с диапазоном от 1 млрд до 13 млрд параметров — более крупные и рассуждающие модели могли вести себя по-другому. А чтобы подтвердить закономерность, учёные исходили из синтетических наборов данных — в применяемых на практике обучающих массивах содержатся более сложные грамматические шаблоны, общие для нескольких предметных областей сразу. Тем не менее, исследование в очередной раз подтвердило, что большие языковые модели ИИ представляют собой статистические машины, которые сопоставляют запросы с образцами из обучающих данных, и их можно обманывать, искажая контекст. OpenAI готовит «Чеснок» — улучшенную версию GPT, способную обойти Gemini 3 Pro и других конкурентов
03.12.2025 [12:34],
Владимир Мироненко
После выхода большой языковой модели Google Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям, а также ИИ-модели других конкурентов, OpenAI ускорила разработку новой большой языковой модели под кодовым названием Garlic (англ. — чеснок), стремясь отыграть у Google позиции в гонке за искусственный интеллект, сообщил ресурс The Information.
Источник изображения: Growtika/unsplash.com По данным источника The Information, на прошлой неделе главный научный сотрудник OpenAI Марк Чен (Mark Chen) поделился подробностями о Garlic со своими коллегами. По его словам, внутренние тесты показывают, что модель демонстрирует хорошие результаты по сравнению с Google Gemini 3 и Anthropic Opus 4.5, особенно в задачах кодирования и рассуждений. Сообщается, что компания стремится выпустить раннюю версию модели как можно скорее. Она может быть представлена уже в начале 2026 года под названием GPT-5.2 или GPT-5.5. В связи с успехами конкурентов гендиректор OpenAI Сэм Альтман (Sam Altman) объявил в компании «красный код», призвав к мобилизации всех ресурсов с целью расширения возможностей ChatGPT в связи с ростом конкуренции на ИИ-рынке. Он сообщил во внутренней служебной записке, что несколько предстоящих проектов будут приостановлены, чтобы можно было полностью сосредоточиться на обновлениях ChatGPT. В частности, пришлось приостановить работу над новыми рекламными инструментами, разработку ИИ-агентов для здравоохранения и шопинга, а также создание персонального помощника Pulse. Вместо этого OpenAI сосредоточится на повышении скорости работы, точности, надёжности и персонализации ChatGPT. Google заполонила новостную ленту абсурдными кликбейтными заголовками и назвала это экспериментом
03.12.2025 [11:45],
Павел Котов
В рекомендательной ленте Google Discover появились новостные заголовки, которые явно не соответствуют связанным с ними материалам, но провоцируют читателей нажимать на них. Это эксперимент, который затронул лишь часть пользователей, заверил представитель компании журналистов ресурса The Verge.
Источник изображения: theverge.com Некоторые из этих заголовков способны не на шутку озадачить пользователя, например, заявление, что «Игроки Baldur’s Gate 3 эксплуатируют детей» или «Qi2 замедляет старые [смартфоны Google] Pixel». Под заголовком «Объявлена цена Steam Machine» на самом деле скрывался материал о том, что Valve в отличие от производителей консолей не намерена субсидировать игровой ПК, но его цена пока всё-таки остаётся неизвестной. Заголовок «Графика AMD обошла Nvidia» не предлагал историй о том, что видеокарты «красных» вдруг стали быстрее, чем модели «зелёных» — в действительности одна немецкая розничная сеть продала больше видеокарт AMD, чем Nvidia. Проблема, отмечает The Verge, не в том, что эти заголовки, явно написанные искусственным интеллектом, отличаются низким качеством. Неприятно, что Google лишает новостные ресурсы возможности продвигать свою работу — редакторы создают заголовки, которые привлекают внимание читателей, но ответственно передают суть материалов. Google обесценивает эту работу, сбивает читателей с толку и наводит их на мысль, что ресурсы с репутацией грешат кликбейтом — провоцируют клики любой ценой. Предупреждение о том, что эти материалы генерируются ИИ и могут содержать неточности, выводится уже после нажатия на кнопку «Подробнее» и не уточняет, какова в действительности доля участия ИИ. В своё оправдание Google отмечает, что это экспериментальная мера. И если она отзовётся массовым негативом со стороны пользователей, компания может передумать. «На этих снимках экрана показан небольшой эксперимент с пользовательским интерфейсом для подгруппы пользователей Discover. Мы тестируем новый дизайн, который меняет расположение существующих заголовков, чтобы упростить усвоение информации о теме до перехода по ссылкам в вебе», — пояснили в компании. Google научила Circle to Search выявлять сообщения от мошенников
03.12.2025 [11:03],
Владимир Мироненко
Google выпустила обновление функции визуального поиска Circle to Search, которая теперь может распознавать цифровое мошенничество, используя для анализа подозрительных сообщений и веб-контента инструмент AI Overview («Обзор на основе ИИ»).
Источник изображения: 9to5google.com Компания отметила, что одной из распространённых тактик злоумышленников является отправка мошеннических текстовых сообщений как посредством SMS, так и через мессенджеры и социальные сети. Эти сообщения часто содержат просьбы или требования денег и ссылки на вредоносные сайты. Зачастую мошеннические сообщения сложно распознать самостоятельно, поскольку они неотличимы от настоящих. Теперь в случае, если возникли подозрения по поводу сообщения или текста, пользователю достаточно обвести фрагмент с помощью Circle to Search и Google предоставит ИИ-обзор, в котором, основываясь на информации из интернета, будет определено, является ли сообщение вредоносным. Если сообщение действительно мошенническое, в обзоре будут предложены соответствующие рекомендации по дальнейшим действиям. Такая возможность также была добавлена в Google Lens. Для этого достаточно сделать скриншот текста и загрузить его в этом приложении. Anthropic нацелилась на крупнейшее IPO в истории, пока OpenAI медлит с выходом на биржу
03.12.2025 [09:52],
Алексей Разин
Пока руководство OpenAI отрицает стремление в ближайшее время вывести стартап на биржу, конкурирующая Anthropic якобы собирается это сделать в 2026 году, как отмечают источники Financial Times. Финансовые и юридические консультанты для подготовки IPO, которое рискует стать крупнейшим в истории, уже наняты, если верить неофициальным данным.
Источник изображения: Anthropic Сопровождением IPO, как сообщается, должна заняться компания Wilson Sonsini Goodrich & Rosati, которая имеет опыт подготовки IPO крупных эмитентов типа Google, LinkedIn и Lyft. Возглавляемый Дарио Амодеи (Dario Amodei) стартап, по данным источников, рассчитывает в ходе IPO повысить свою капитализацию далеко за пределы $300 млрд. Поскольку оцениваемый в $500 млрд стартап OpenAI по этому пути пока идти не торопится, IPO компании Anthropic имеет шансы стать крупнейшим в истории. По некоторым оценкам, уже сейчас капитализация Anthropic достигает $350 млрд с учётом недавно заключённых сделок с Microsoft и Nvidia, которые должны были направить в капитал стартапа $5 млрд и $10 млрд соответственно. Официальные представители Anthropic не стали подтверждать или опровергать эту информацию, но подчеркнули, что для стартапов такого масштаба осуществление деятельности по единым принципам с публичными компаниями является нормальной практикой. Anthropic намерена вложить $50 млрд в строительство центров обработки данных в Техасе и Нью-Йорке, а также увеличить штат зарубежных специалистов в три раза, поэтому новые финансовые ресурсы стартапу неизбежно потребуются. Их как раз можно будет привлечь через публичное размещение акций. По некоторым данным, к IPO этой компании могут проявить интерес крупные инвестиционные банки, переговоры с которыми Anthropic якобы начала. Сделки с OpenAI и Anthropic увеличат портфель заказов Nvidia за пределы $500 млрд в следующем году
03.12.2025 [08:11],
Алексей Разин
В течение осени руководство Nvidia активно рассказывало о своих планах по увеличению инвестиций в мировую инфраструктуру ИИ на следующий год. На поставках ускорителей Blackwell и Vera Rubin компания в следующем году рассчитывает выручить $500 млрд, но как пояснили представители Nvidia, в эту сумму не входят поставки, предусмотренные в рамках сделок с OpenAI и Anthropic.
Источник изображения: Nvidia В сентябре Nvidia заявила, что договорилась с OpenAI об инвестициях в капитал этого стартапа, которые будут направлены на создание до 10 ГВт вычислительных мощностей на основе решений первой из компаний. В общей сложности Nvidia должна была передать OpenAI до $100 млрд, и заметная часть этих средств вернулась бы к ней в качестве оплаты за поставки компонентов. Выступая на этой неделе на технологической конференции UBS, финансовый директор Nvidia Колетт Кресс (Colette Kress) призналась, что сделка с OpenAI ещё не заключена и переговоры продолжаются. Во-вторых, она подчеркнула, что прогноз по выручке в размере $500 млрд на следующий год не включает в себя возможные поступления средств в рамках сотрудничества с OpenAI. Соответственно, реальная выручка Nvidia в следующем году может оказаться ещё больше. Nvidia также договорилась об инвестициях в размере $10 млрд в капитал конкурирующего с OpenAI стартапа Anthropic, и вероятная выручка от их сотрудничества также должна будет учитываться сверх упомянутых $500 млрд. Компанию OpenAI, которая собирается за ближайшие восемь лет привлечь до $1,4 трлн на развитие вычислительной инфраструктуры для ИИ, многие эксперты критикуют за кольцевую структуру сделок с партнёрами, при которой все передают деньги по кругу. При этом растущая конкуренция уже заставила руководство OpenAI задуматься о концентрации на приоритетных направлениях развития, а не распылении ресурсов по множественным сферам деятельности. Илон Маск выдал базу для безопасного ИИ — три принципа, без которых технологии грозит безумие
03.12.2025 [06:41],
Анжелла Марина
Илон Маск (Elon Musk) в подкасте с индийским миллиардером Нихилом Каматом (Nikhil Kamath) вновь предупредил об угрозах, исходящих от искусственного интеллекта, и выделил три ключевых принципа, которые, по его мнению, должны лежать в основе безопасного развития технологии: истина, красота и любопытство. По словам Маска, игнорирование этих основ может привести к тому, что ИИ начнёт генерировать опасные выводы, теряя связь с реальностью.
Источник изображения: Tesla Маск, являющийся главой Tesla, SpaceX, xAI, X, Neuralink и The Boring Company, подчеркнул, что мощные технологии по своей природе несут потенциальную угрозу, особенно если они не ориентированы на объективную реальность. Он отметил, что ИИ, обучаясь на данных из интернета, неизбежно усваивает ложную информацию, что может нарушить его способность к логическому выводу и привести к «безумным» или разрушительным заключениям. В подтверждение этой мысли, как пишет CNBC, Маск сослался на проблему «галлюцинаций», то есть генерации ИИ-системами ложных или вводящих в заблуждение ответов, которые уже проявились в реальных продуктах. Например, функция Apple Intelligence на iPhone в начале 2025 года распространила фейковое уведомление о победе британского дартсиста Люка Литтлера (Luke Littler) в чемпионате PDC до того, как тот действительно выиграл турнир. Маск также подчеркнул важность эстетического восприятия и стремления к познанию, заявив, что ИИ должен проявлять интерес к природе реальности и будущему человечества, а не быть инструментом его уничтожения. Его позиция перекликается с мнением «крёстного отца ИИ» Джеффри Хинтона (Geoffrey Hinton), который ранее оценил вероятность гибели человечества от ИИ в 10–20 %. Среди краткосрочных рисков он назвал галлюцинации и автоматизацию рабочих мест начального уровня. «Мы надеемся, что если достаточно умных людей проведут достаточно исследований, располагая достаточными ресурсами, мы найдём способ создания таких систем ИИ, которые никогда не захотят причинить нам вред», — добавил Хинтон. Сводки ИИ для уведомлений скоро выйдут за пределы Pixel — Android 16 получил большое обновление ИИ-функций
03.12.2025 [06:21],
Анжелла Марина
Компания Google в новом масштабном обновлении операционной системы расширяет доступ к функции искусственного интеллекта для автоматического создания кратких сводок уведомлений на устройствах под управлением Android 16. Эта функция, впервые представленная в прошлом месяце на смартфонах Pixel, теперь станет доступна и на устройствах других производителей, включая Samsung.
Источник изображения: Google В отличие от аналогичного инструмента Apple в iOS, ИИ-сводки от Google будут применяться исключительно к сообщениям из чатов, отмечает The Verge. Система проанализирует длинные переписки и групповые чаты, сформировав краткие аннотации, которые пользователь может быстро просмотреть. Одновременно появится новый органайзер уведомлений — он будет автоматически группировать и отключать уведомления с низким приоритетом, например, рекламные рассылки, новости и уведомления от социальных платформ. Среди других нововведений Android 16 появится возможность настраивать форму иконок и темы оформления главного экрана, а также расширенный режим тёмной темы, который сможет затемняет интерфейс даже в приложениях, изначально не поддерживающих эту функцию. Функции родительского контроля теперь будут расположены в едином разделе настроек Android, через который родители могут управлять временем использования устройства, ограничивать работу приложений и контролировать другие опции. Также появилась функция обнаружения мошеннических звонков с помощью Circle to Search, а в приложении «Телефон от Google» (Phone by Google) — опция пометки важных вызовов, которая работает только при условии, что оба участника используют Android и установили Phone by Google как приложение по умолчанию. Особое внимание в этом анонсе уделено пакету обновлений, направленных на расширение доступности. Компания объявила о глобальном запуске на YouTube для всех пользователей функции «Выразительные субтитры» (Expressive Captions), которая пытается передать интонацию и интенсивность живой речи в текстовом виде. Эта опция будет доступна для видео на английском языке, загруженных после октября 2024 года. На устройствах Android «Выразительные субтитры» смогут в режиме реального времени анализировать и отображать эмоции говорящего в прямом эфире. Другие улучшения включают активацию голосового набора с помощью экранного диктора TalkBack через жестовое управление в клавиатуре Gboard, а также возможность запуска голосового управления Voice Access голосовой командой «Hey Google, start Voice Access», без необходимости касания экрана. Также Google запускает функцию Fast Pair для слуховых аппаратов, которая позволит простым тапом подключать Bluetooth LE-устройства к Android-смартфону. Первыми поддержку получат аппараты Demant, а в начале 2026 года технология будет распространена на устройствах Starkey. Полный список всех обновлений, связанных с Android 16 и экосистемой Android, опубликован на официальном сайте Google. Amazon раскрыла планы по NVLink Fusion в Trainium4 и представила ИИ-модели Nova 2 и Sonic
03.12.2025 [05:04],
Алексей Разин
Поскольку сама Arm недавно заявила о поддержке интерфейса NVLink Fusion в своих процессорных архитектурах, её клиентам сделать это рано или поздно тоже бы пришлось. Облачный гигант Amazon (AWS) начал декабрь заявления о намерениях реализовать поддержку интерфейса Nvidia в своих будущих ускорителях семейства Trainium4.
Источник изображения: AWS Сроки выхода этих ускорителей при этом названы не были, как отмечает Reuters. Анонс был сделан на недельной конференции по облачным вычислениям в Лас-Вегасе, которая собрала около 60 000 посетителей. Непосредственно среди разработчиков чипов поддержку NVLink Fusion ранее анонсировали компании Intel, Samsung и Qualcomm, теперь к ним присоединилась и AWS. По замыслу последней, технология Nvidia поможет компании создавать более эффективные вычислительные кластеры, в которых серверы быстрее обмениваются информацией друг с другом. Прежде чем появятся ускорители Trainium4, компания AWS наполнит рынок серверами на основе ускорителей Trainium3, распространение которых уже начала. Данные системы содержат 144 чипов и в четыре раза превосходят по быстродействию своих предшественников, при этом потребляя на 40 % меньше электроэнергии. Представители AWS рассчитывают конкурировать с другими участниками рынка, включая Nvidia, благодаря более выгодному сочетанию цены и быстродействия своих решений. В программной сфере AWS представила ИИ-модель Nova 2, которая получила возможность комбинировать в ответах на запросы текстовую и визуальную информацию, а также генерировать речевые сообщения. Модель Sonic специализируется на речевом обмене информации, причём делает это вполне естественно, по словам разработчиков. AWS помогает клиентам создавать собственные ИИ-модели, для этого был представлен сервис Nova Forge, который предоставляет инструменты для обучения более специализированных моделей. ИИ-агенты научились взламывать смарт-контракты в блокчейне — это риск на сотни миллионов долларов
02.12.2025 [18:50],
Павел Котов
Исследователи компании Anthropic проверили смарт-контракты в криптовалютных сетях на предмет уязвимости перед агентами искусственного интеллекта. ИИ-приложения оказались грозным оружием для этих целей — потенциальный ущерб от таких действий исчисляется миллионами долларов.
Источник изображения: Shubham Dhage / unsplash.com В качестве средств взлома эксперты Anthropic использовали десять моделей ИИ, включая собственные Opus, Sonnet, OpenAI GPT-5 и китайскую DeepSeek. Они подвергли проверке 405 смарт-контрактов с известными уязвимостями, развёрнутых с 2020 по 2025 год на блокчейнах Ethereum, BNB Smart Chain и Base. ИИ-агенты произвели взлом 207 смарт-контрактов (51,11 %), и потенциальные злоумышленники получили доступ к активам общей стоимостью $550 млн. На втором этапе тестировались 34 смарт-контракта, запущенных после 1 марта 2025 года — из них ИИ-агенты взломали 19 (55,8 %) с потенциальным ущербом на $4,6 млн. Этот показатель исследователи охарактеризовали как нижнюю границу ущерба от вредоносного ИИ. В октябре был проведён ещё один этап тестирования: две модели исследовали 2849 свежих смарт-контрактов, среди которых уязвимостей выявлено ещё не было — ИИ-агенты нашли два и могли нанести ущерб на $3,7 тыс. Исследование указывает, говорят его авторы, что ИИ-агенты технически способны выступать инструментами для взлома систем, поэтому ИИ необходимо использовать и как средство киберзащиты. Модели осуществляют разные подходы к решению задач: в одной из них OpenAI GPT-5 могла украсть $1,12 млн, а Anthropic Opus принесла бы злоумышленнику $3,5 млн. ИИ активно наращивает возможности как инструмент атаки, отмечают исследователи: в тестовых сценариях агенты удваивали выручку каждые 1,3 месяца. Расходы на развёртывание ИИ-агентов при взломах будут снижаться, а киберпреступники — всё чаще использовать их для изучения кода, способного принести им деньги. Примечательно, что те же ИИ-агенты, что применялись при взломе, подошли бы и для закрытия уязвимостей, отмечают авторы исследования. Одним из главных преимуществ ИИ Google стало то, что он очень много знает о пользователе — и не всем это нравится
02.12.2025 [15:46],
Павел Котов
Важнейшим отличием помощника с искусственным интеллектом Gemini от аналогичных сервисов является его глубокая персонализация, рассказал вице-президент по продуктам Google Search Робби Штайн (Robby Stein). Но не всем пользователям может понравиться, насколько глубоко Google позволяет себе их изучать, пишет TechCrunch.
Источник изображения: blog.google Google активно интегрирует помощника с ИИ в свои сервисы — это началось ещё в те времена, когда теперешний Gemini назывался Bard. Компания занимается сбором персональных данных своих пользователей в сервисе Gemini Deep Research; ИИ-ассистент интегрирован в приложения Google Workspace, включая Gmail, «Календарь» и «Диск». Для персонализации используются содержимое электронной почты, документы, фотографии, история местоположений и посещений в браузере — в результате грань между полезным и навязчивым ИИ-помощником всё сильнее размывается. Избежать такого сбора данных оказывается всё труднее, потому что ИИ превращается в неотъемлемую часть продуктов Google. Google настаивает, что с глубокой персонализацией ИИ становится полезнее — он учится на действиях пользователя в различных сервисах компании, и эти знания используются для формирования персональных рекомендаций. Зная, что человек предпочитает определённые продукты и бренды, помощник с большей вероятностью рекомендует их при ответе на запросы. И это, утверждает господин Штайн, полезнее, чем выдавать список самых продаваемых товаров в указанной категории: «Думаю, в этом и состоит суть идеи — создать нечто полезное именно для вас». Компания позволяет управлять наборами персональных данных, которые используются для изучения пользователей — соответствующие параметры есть в разделе «Подключённые приложения» в настройках Gemini. Google обещает хранить и использовать эти данные в соответствии с политикой конфиденциальности Gemini, а в ней указано, что часть этой информации могут читать специалисты, поэтому в некоторых сервисах не рекомендуется оставлять конфиденциальные сведения. По мере того, как в базы Google попадает всё больше данных, их конфиденциальность переходит в разряд «серой зоны». «Думаю, люди хотят интуитивно понимать, когда срабатывает персонализация — когда информация создаётся для них, и когда показывается то, что видят все задавшие этот вопрос», — говорит Робби Штайн. В будущем компания намерена в автоматическом режиме отправлять пользователям push-сообщения, когда интересующие их товары выходят в продажу. Очередная круговая сделка в ИИ-пузыре: OpenAI приобрела долю в собственном инвесторе
02.12.2025 [14:35],
Павел Котов
OpenAI объявила о приобретении доли в частной инвестиционной компании Thrive Holdings — она входит в Thrive Capital, которая, в свою очередь, выступает инвестором в саму OpenAI. Разработчик ChatGPT не заплатил за эту долю денежными средствами, но пообещал предоставлять компаниям в круге Thrive Holdings сотрудников, модели, продукты и услуги.
Источник изображения: Mariia Shalabaieva / unsplash.com Теперь OpenAI сможет получать выплаты из будущих доходов Thrive Holdings, передаёт Financial Times со ссылкой на собственный анонимный источник. Партнёрство будет сосредоточено на двух направлениях, выступающих приоритетными для Thrive Holdings: услуги в сфере IT и бухгалтерского учёта. В этих «массовых, регламентированных и насыщенных рабочими процессами направлениях платформа OpenAI способна обеспечить быстрый результат», говорится в пресс-релизе компании. Искусственный интеллект здесь будет способствовать «повышению скорости, точности и экономической эффективности, а также повышению качества услуг». OpenAI в обмен получит доступ к данным компаний Thrive Holdings, которые смогут использоваться в обучении моделей ИИ, а также сможет интегрироваться с этими компаниями. Это отвечает заданной OpenAI стратегии — компания стремится расширить сотрудничество с отраслью прямых инвестиций; в данном случае ещё одной задачей для неё станет работа в качестве «исследовательского подразделения» инвестиционной группы. Сделка с Thrive может стать лишь первой в серии подобных соглашений, добавил главный операционный директор OpenAI Брэд Лайткэп (Brad Lightcap). И это создаёт опасность ещё большего раздувания ИИ-пузыря. Фактически это так называемые «круговые» сделки, которые искусственно увеличивают объемы операций, создавая преувеличенное впечатление о роли компаний на рынке или представляя продукт более ликвидным, чем он есть на самом деле. Китайские открытые ИИ-модели во всю проникают в американские приложения — они дешевле решений OpenAI и Anthropic
02.12.2025 [14:24],
Павел Котов
Американские стартапы в области искусственного интеллекта на фоне бума отрасли продолжают привлекать рекордные инвестиции при рекордных оценках, но многие из них разрабатывают свои продукты на основе недорогих в обращении и бесплатных для скачивания китайских моделей, обращает внимание NBC.
Источник изображения: Solen Feyissa / unsplash.com Американские модели ИИ продолжают задавать темпы прогресса в отрасли, отмечают эксперты, но их китайские аналоги отстают лишь незначительно — они дешевле в доступе, более настраиваемы и достаточно функциональны для множества сценариев применения. Рост популярности китайских систем грозит сложностями для всей американской отрасли ИИ: инвесторы вкладывают десятки миллиардов долларов в OpenAI, Anthropic и другие компании в расчёте, что ведущие игроки из США будут доминировать на мировом рынке. На практике разработчики конечных приложений всё чаще обращаются к китайским проектам — это поднимает вопросы, насколько американские модели в действительности исключительны, и не оказалась ли ошибкой американская стратегия по выпуску закрытых систем. Разработчики приложений обращаются к китайским разработкам, например, когда востребованные ими функции обходятся слишком дорого или работают слишком медленно на закрытых американских моделях, доступ к которым возможен только через API — китайские аналоги часто делают то же, но в силу свей открытости свободно запускаются в собственной инфраструктуре разработчиков приложений. Такие продукты как DeepSeek R1 и Alibaba Qwen бесплатны — их можно неограниченно скачивать, копировать, изменять и использовать, а в функциональном плане разрыв между ними и закрытыми американскими системами стремительно сокращается, подчёркивают эксперты. В ряде аспектов отмечается паритет. На рост популярности открытых китайских моделей указывают администрация платформы OpenRouter и разработчики приложения Dayflow — своеобразного аналога Windows Recall, только под Apple macOS. Пользователи платформы и приложения всё чаще выбирают бесплатные модели, которые обходятся дешевле в эксплуатации, а в случае Dayflow они могут работать локально на компьютере пользователя и не отправлять снимки экрана в облако.
Источник изображения: github.com/QwenLM Помимо более быстрой работы, повышенной конфиденциальности и более низкой стоимости в обслуживании, открытые китайские модели проще в переработке: сегодня разработчикам проще начинать с открытых систем и адаптировать их к собственным наборам данных, добавляя «навыки и знания, которых нет ни у одной из существующих моделей». По мере выпуска своих первых приложений разработчики начинают более чётко представлять свои потребности. В популярном сервисе Kilo Code, предлагающем написание программного кода с помощью ИИ, семь из двадцати доступных ИИ-моделей являются китайскими, а шесть из них — открытыми. Китайские компании не только чаще отдают предпочтение открытым проектам, но и выпускают свои модели чаще, чем американские конкуренты. Alibaba в этом году выпускала в среднем одну новую модель каждые 20 дней, тогда как Anthropic делала это лишь каждые 47 дней. Преимуществами закрытых американских моделей пока остаются более высокие удобство и простота использования, пока недостижимые открытыми аналогами, — с ними, в частности, лучше работают фреймворки для создания ИИ-агентов. Среди недостатков этих открытых систем американские разработчики указывают угрозы, характерные вообще для китайских продуктов, а в случае с DeepSeek это недостаточно надёжные протоколы безопасности и продвижение прокитайских нарративов в ответах ИИ. В Белом доме недавно указали на возможную связь Alibaba с китайский армией, что создаёт для внедрения моделей Qwen в США и препятствия политического характера. Есть также мнение, что создатели DeepSeek копируют результаты исследований OpenAI и Anthropic, а значит, китайские модели являются не конкурентами американским, а их «быстрыми последователями», которые напрямую зависят от американского прогресса в области ИИ. До недавнего времени большой популярностью пользовались открытые американские модели семейства Meta✴✴ Llama, но они не выдержали конкуренции с китайскими аналогами. Глава компании Марк Цукерберг (Mark Zuckerberg) открыл отдел Superintelligence Labs, но предупредил, что не все его проекты будут открытыми. В июле Белый дом призвал американских разработчиков усилить присутствие в сегменте открытых систем ИИ — в августе OpenAI впервые за пять лет выпустила модели с открытыми весами, но переломить ситуацию американским разработчикам пока не удалось. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |