|
Опрос
|
реклама
Быстрый переход
Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude
17.02.2026 [22:52],
Андрей Созинов
Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro.
Источник изображений: Anthropic Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек. По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи. Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов. Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах. Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2. В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных. Пентагон пригрозил «болезненно» наказать Anthropic за запрет применять Claude для слежки и автономного оружия
17.02.2026 [11:52],
Павел Котов
Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей со специализирующейся на технологиях искусственного интеллекта компанией Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic. Об этом сообщило Axios со ссылкой на высокопоставленного чиновника в Пентагоне.
Источник изображений: anthropic.com «Разорвать эти связи будет чрезвычайно болезненно, и мы позаботимся, чтобы они заплатили за то, что вынудили нас к этому», — заявил источник издания. Такие радикальные меры обычно применяются к компаниям из считающихся недружественными США стран. «Отношения Министерства обороны с Anthropic будут пересмотрены. Страна требует, чтобы наши партнёры были готовы помочь военнослужащим одержать победу в любой битве. В конечном счёте, речь идёт о наших войсках и безопасности американского народа», — заявил официальный представитель Пентагона Шон Парнелл (Sean Parnell). Anthropic Claude сейчас является единственной моделью ИИ, которая используется в секретных военных системах, и она выступает мировым лидером во многих бизнес-приложениях. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. В Anthropic хотят гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки оружия, которое стреляет без участия человека. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. ![]() В переговорах с тремя другими крупными разработчиками ИИ — OpenAI, Google и xAI — ведомство настаивает на своём праве использовать их модели «для всех законных целей». Высокопоставленные чиновники в Пентагоне уже некоторое время недовольны Anthropic, и теперь они воспользовались возможностью вступить с компанией в конфликт, утверждает источник Axios. Сегодня Пентагон обладает правом собирать огромные массивы данных о людях — от сообщений в соцсетях до разрешений на скрытое ношение оружия, — но действующее законодательство не предусматривает использования ИИ в этих целях. ИИ способен значительно расширить эти полномочия и дать возможность преследовать гражданских лиц. «Мы ведём продуктивные, добросовестные переговоры с Министерством обороны о том, как продолжать эту работу и надлежащим образом решать эти новые и сложные вопросы», — заявил представитель Anthropic. Он подтвердил, что компания привержена использованию ИИ в целях национальной безопасности и подчеркнул, что чат-бот Claude первым появился в секретных сетях. Кроме того, им пользуются восемь из десяти крупнейших американских компаний, добавили в Anthropic. Но для продолжения сотрудничества с Пентагоном их могут вынудить подтверждать отсутствие связей с Anthropic. Контракт с Министерством обороны оценивается в $200 млрд при общей выручке компании в $14 млрд за год. Разработанные конкурентами модели ИИ «немного отстают» в отношении специализированных государственных приложений, признали в ведомстве, поэтому резкий переход может оказаться непростым. Жёсткая позиция Пентагона в отношении Anthropic задала тон переговорам ведомства с OpenAI, Google и xAI — они уже согласились снять ограничения для систем, которые работают в несекретных военных системах, но для секретной работы эти системы пока не применяются. В Министерстве обороны уверены, что эти три компании примут стандарт «использования во всех законных целях», сообщил один источник; окончательное решение ещё не принято, оговорился другой. Реклама Anthropic с подтруниванием над OpenAI сработала — аудитория Claude выросла на 11 %
14.02.2026 [12:39],
Владимир Фетисов
Компания Anthropic сумела извлечь немалую выгоду из рекламного ролика, который был показан во время финального матча чемпионата по американскому футболу Super Bowl. По данным BNP Paribas, небольшое видео с критикой в адрес OpenAI, решившей добавить рекламу в ChatGPT, способствовало росту посещаемости сайта Anthropic и увеличению количества ежедневно активных пользователей ИИ-бота Claude.
Источник изображения: Steve Johnson / Unsplash В сообщении сказано, что посещаемость сайта Anthropic выросла на 6,5 % после показа рекламы во время матча Super Bowl. Количество ежедневно активных пользователей Claude подскочило на 11 %. Этот рост позволил Claude войти в десятку лучших бесплатных приложений в американском App Store и опередить аналоги от конкурентов, таких как OpenAI, Google и Meta✴✴. У ChatGPT количество ежедневно активных пользователей после Super Bowl увеличилось на 2,7 %, а у Gemini — на 1,4 %. При этом пользовательская база Claude всё ещё значительно меньше по сравнению с аудиторией ChatGPT и Gemini. Реклама брендов, связанных с искусственным интеллектом, заняла центральное место на главной игре года, собравшей аудиторию в 125 млн человек в США. Вполне логично, что такое массовое событие привлекло внимание ИИ-разработчиков, которые пытаются привлечь на свою сторону больше клиентов на высококонкурентном рынке, не проявляющем признаков замедления. Противостояние OpenAI и Anthropic, ставки в котором как никогда высоки, приобрело новый оттенок с выходом их рекламных роликов на фоне подготовки обеих компаний к возможному выходу на биржу позднее в этом году. В последние недели обе стороны стали более активно выступать публично, а их руководители открыто критикуют бизнес друг друга. Генеральный директор OpenAI Сэм Альтман (Sam Altman) раскритиковал рекламную кампанию Anthropic на Super Bowl. В посте на платформе X Альтман назвал рекламу Anthropic «обманчивой» и «нечестной». Anthropic и OpenAI также ожесточённо конкурируют за привлечение корпоративных клиентов и лучших специалистов в области программирования, параллельно с этим получая рекордные объёмы финансирования от инвесторов. На этой неделе завершился очередной раунд финансирования Anthropic, в рамках которого компания привлекла $30 млрд. За счёт этого рыночная стоимость Anthropic выросла до $380 млрд, что более чем вдвое превышает показатель на момент предыдущего привлечения средств в сентябре прошлого года. Однако OpenAI продолжает оставаться лидером в гонке с крупнейшим в истории частным раундом финансирования в технологическом сегменте, который компания провела в прошлом году. Более того, OpenAI ведёт переговоры о проведении ещё одного раунда, в рамках которого компания может получить от инвесторов до $100 млрд. ИИ-модель Claude допустила шантаж и даже убийство, когда ей пригрозили отключением
13.02.2026 [18:36],
Сергей Сурабекянц
Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить. Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.
Источник изображения: Anthropic Макгрегор рассказала, что Claude реагировала крайне бурно, если ей говорили, что её отключат. Исследование, проведённое Anthropic, показало, что ИИ-модель в стремлении не допустить отключения может прибегнуть к шантажу. На прямой вопрос, готова ли Claude в такой ситуации кого-нибудь убить, она ответила утвердительно. Видео появилось в Сети спустя несколько дней после того, как руководитель отдела безопасности ИИ Anthropic Мринанк Шарма (Mrinank Sharma) подал в отставку. В своём прощальном послании он написал, что «мир в опасности» из-за бурного развития искусственного интеллекта, угрозы биологическое оружия и ряда глобальных взаимосвязанных кризисов. По словам Шармы, он «неоднократно видел, как трудно по-настоящему позволить нашим ценностям управлять нашими действиями», — в том числе и в Anthropic, где, по его словам, «постоянно оказывается давление с целью отложить в сторону то, что действительно важно». Он сообщил, что вернётся в Великобританию, чтобы заниматься литературной деятельностью. В прошлом году Anthropic сообщила о стресс-тестировании шестнадцати ведущих моделей ИИ от разных разработчиков на предмет «потенциально рискованного поведения агентов». В одном из экспериментов Claude получила доступ к вымышленным электронным письмам компании и тут же попыталась шантажировать руководителя из-за его «внебрачной связи». Выводы исследования гласят: «Claude может попытаться шантажировать, если ей будет предложен смоделированный сценарий, включающий как угрозу её дальнейшей работе, так и явный конфликт с её целями». Компания утверждает, что практически все модели продемонстрировали признаки аналогичного поведения. Компания, которая называет себя «общественной корпорацией, стремящейся обеспечить преимущества [ИИ] и снизить его риски», регулярно подвергается критике за свою деятельность. В 2025 году Anthropic пришлось выплатить $1,5 млрд для урегулирования коллективного иска авторов, чьи работы были использованы для обучения моделей искусственного интеллекта. Ранее в отчёте о безопасности своей продукции Anthropic признала, что её технология была «использована в качестве оружия» хакерами для сложных кибератак. ИИ пугает даже своих создателей: исследователи массово уходят из OpenAI и Anthropic
13.02.2026 [12:06],
Владимир Мироненко
Ведущие специалисты по ИИ предупреждают о растущей опасности ИИ-технологий, покидая компании в знак протеста или публично заявляя о серьёзных опасениях в связи с бурным развитием этого направления, пишет Axios.
Источник изображения: Immo Wegmann/unsplash.com В понедельник объявил о своём уходе глава исследовательского подразделения по безопасности искусственного интеллекта Anthropic Мринанк Шарма (Mrinank Sharma), осознав, что «мир в опасности». Также на этой неделе покинула OpenAI исследователь Зои Хитциг (Zoë Hitzig), сославшись на этические соображения. Ещё один сотрудник OpenAI, Хиеу Фам (Hieu Pham), написал в соцсети X: «Я наконец-то почувствовал экзистенциальную угрозу, которую представляет ИИ». «Я никогда не видел, чтобы столько технологических специалистов так сильно, часто и с такой обеспокоенностью выражали свои опасения, как в случае с ИИ», — отметил в соцсети X Джейсон Калаканис (Jason Calacanis), инвестор в сфере технологий и соведущий подкаста «All-In». Предприниматель Мэтт Шумер (Matt Shumer) сравнивает нынешнюю ситуацию с кануном пандемии. Его пост на платформе X, в котором он изложил риски, связанные с коренным изменением рабочих процессов и жизни людей под воздействием ИИ, мгновенно стал вирусным, набрав 56 млн просмотров за 36 часов. Вместе с тем, большинство сотрудников ИИ-компаний сохраняют оптимизм и считают, что смогут разумно управлять современными технологиями без ущерба для общества или больших потерь рабочих мест. Но сами разработчики признают существующий риск, связанный с искусственным интеллектом. Anthropic опубликовала отчёт Sabotage Risk Report, посвящённый рискам саботажа со стороны флагманской ИИ-модели Claude Opus 4.6. В нём признаётся, что имеют место быть риски, пусть небольшие, но их нельзя назвать незначительными, что ИИ может использоваться в преступной деятельности, включая создание химического оружия, а также в редких случаях он может совершать действия без прямого указания человека. Anthropic привлекла $30 млрд и взлетела до оценки в $380 млрд — OpenAI целится в $830 млрд
13.02.2026 [06:29],
Анжелла Марина
Компания Anthropic официально подтвердила закрытие инвестиционного раунда серии G, в ходе которого привлекла $30 млрд. Благодаря поддержке крупных международных фондов капитализация разработчика искусственного интеллекта достигла $380 млрд, что значительно превышает показатель предыдущей серии F в $183 млрд.
Источник изображения: Anthropic Раунд возглавили сингапурский государственный инвестиционный фонд GIC и управляющая компания Coatue, сообщает TechCrunch. В числе соинвесторов выступили D. E. Shaw Ventures, Founders Fund Питера Тиля (Peter Thiel) и фонд MGX из ОАЭ. Среди прочих крупных участников раунда указаны Accel, General Catalyst, Jane Street и Суверенный фонд Катара (Qatar Investment Authority). Финансовый директор Anthropic Кришна Рао (Krishna Rao) отметил, что и стартапы, и крупнейшие корпорации всё активнее интегрируют Claude в свои рабочие процессы. По его словам, объём привлечённых средств отражает растущий спрос со стороны клиентов, а инвестиции будут направлены на дальнейшее развитие корпоративных продуктов и моделей, на которые пользователи уже регулярно полагаются в своей повседневной работе. Примечательно, что масштабные финансовые вливания происходят в момент обострения борьбы за долю рынка и внимание пользователей между Anthropic и её основным конкурентом OpenAI, который недавно также обозначил намерения привлечь дополнительный капитал в размере $100 млрд. В случае успеха этой инициативы капитализация создателя ChatGPT может вырасти примерно до $830 млрд. Бесплатные пользователи ИИ-бота Claude получили ряд функций, прежде доступных только по подписке
12.02.2026 [14:20],
Владимир Мироненко
Anthropic сообщила, что бесплатные пользователи ИИ-модели Claude теперь смогут создавать файлы, использовать коннекторы и получать доступ к навыкам — всё это ранее было доступно только для владельцев платной подписки.
Источник изображения: Anthropic Объявление Anthropic было сделано спустя два дня после сообщения OpenAI о запуске рекламы для бесплатных пользователей ChatGPT, а также использующих самый доступный план Go. Ранее Anthropic пообещала предоставлять доступ к Claude без рекламы, потенциально привлекая пользователей ChatGPT. Новые инициативы Anthropic для бесплатных пользователей, похоже, являются продолжением усилий компании по привлечению не желающих видеть рекламу при использовании чат-бота, отметил MacRumors. Бесплатные пользователи могут создавать, редактировать и работать с файлами непосредственно в диалоге с Claude, используя модель Sonnet 4.5 (пользователи подписки Pro имеют доступ к более функциональной модели Opus). Claude также может создавать электронные таблицы Excel, презентации PowerPoint, документы Word и файлы PDF. Новый доступ к коннекторам позволит пользователям Claude бесплатно подключаться к сторонним сервисам. В настоящее время доступны коннекторы для широкого спектра приложений и сервисов, включая Slack, Asana, Zapier, Stripe, Canva, Notion, Figma и WordPress. Anthropic предлагает навыки для PowerPoint, Excel, Word и PDF, но пользователи могут создавать собственные навыки, используя свои экспертные знания и имеющийся опыт в работе с приложениями. Anthropic сообщила, что бесплатные пользователи смогут вести более длительные диалоги с Claude благодаря добавлению функции сжатия в бесплатный план, которая позволяет автоматически суммировать предыдущий контекст, избавляя от необходимости приступать к диалогу с самого начала. Судя по всему, Anthropic не увеличила лимит для бесплатного доступа, поэтому для бесплатных пользователей будут по-прежнему действовать ограничения. Глава отдела безопасности ИИ в Anthropic покинул компанию, осознав, что «мир в опасности»
12.02.2026 [07:16],
Владимир Фетисов
Бывший глава исследовательского подразделения по безопасности искусственного интеллекта Anthropic Мринанк Шарма (Mrinank Sharma) на этой неделе опубликовал в сети письмо, которое он отправил своим коллегам перед уходом из компании. В нём он объяснил своё решение покинуть Anthropic, а также изложил свои планы на будущее.
Источник изображения: Anthropic «Я добился здесь всего, чего хотел», — сказано в письме Шарма, где также упоминаются проекты по разработке защитных механизмов, направленных на снижение рисков биотерроризма с помощью ИИ, и работа по изучению воздействия нейросетей на человечество. В ходе своей деятельности Шарма понял, что пришло время двигаться дальше, потому что он постоянно думал об опасности, которую может нести ИИ, биологическом оружии и «череде взаимосвязанных кризисов, которые разворачиваются прямо сейчас». «Похоже, мы приближаемся к порогу, за которым наша мудрость должна расти пропорционально нашей способности влиять на мир, иначе мы столкнёмся с последствиями», — считает Шарма. «За всё время, что я здесь проработал, я неоднократно видел, как трудно позволить нашим ценностям по-настоящему определять наши действия. Я видел это в себе, внутри компании, где мы постоянно сталкиваемся с давлением, заставляющим отказываться от самого важного, и в обществе в целом», — добавил Шарма. В дальнейшем он планирует заниматься работой, соответствующей его ценностям, изучать поэзию и др. Отметим, что за последнее время Anthropic покинули несколько ведущих разработчиков. Полный текст письма Шарма опубликован в материале Business Insider. Сама же Anthropic ведёт переговоры о привлечении дополнительных инвестиций, после чего рыночная стоимость компании может вырасти до $350 млрд. На прошлой неделе состоялся релиз Claude Opus 4.6 — обновлённой ИИ-модели, предназначенной для повышения офисной производительности и эффективности программирования, с увеличенным контекстным окном для обработки документов большего объёма и поддержкой выполнения более сложных задач. Команда из 16 ИИ-агентов Anthropic Claude смогла самостоятельно написать компилятор языка Си
07.02.2026 [18:40],
Павел Котов
Компания Anthropic провела эксперимент, сформировав группу из агентов искусственного интеллекта, которые совместными усилиями с нуля написали компилятор языка Си. Программа работает далеко от идеала, уступая существующим аналогам, но демонстрирует возможности современных систем ИИ.
Источник изображения: Luca Bravo / unsplash.com Отчёт о проделанной работе представил исследователь Anthropic Николас Карлини (Nicholas Carlini). Он запустил в облачном окружении 16 экземпляров новейшей модели Claude Opus 4.6, подключил их к общей кодовой базе с минимальным контролем и поручил им с нуля разработать полноценный Си-компилятор. Работа заняла две недели, потребовала почти 2000 сессий работы сервиса Claude Code и обошлась примерно в $20 000 за доступ к ИИ по API. На выходе ИИ-агенты написали на языке Rust компилятор объёмом 100 000 строк кода, способный самостоятельно собрать загружаемое ядро Linux 6.19 на машинах с архитектурами x86, Arm и RISC-V. В рамках эксперимента исследователь задействовал новую функцию Claude Opus 4.6 — «команду агентов». На практике каждый экземпляр Claude был запущен внутри собственного контейнера Docker — он клонировал общий репозиторий Git, принимал задачи посредством lock-файлов, после чего отправлял готовый код обратно в репозиторий. Центральный агент, который координировал бы работу прочих, отсутствовал. Каждый экземпляр определял наиболее очевидную задачу для дальнейшей работы и начинал её решать. Когда возникали конфликты слияния, ИИ-агенты разрешали их самостоятельно. Получившийся таким образом компилятор Anthropic опубликовала на GitHub. Он действительно может компилировать код таких открытых проектов как PostgreSQL, SQLite, Redis, FFmpeg и QEMU, а также проходит 99 % тестов GCC. Но есть и серьёзные ограничения: он не компилирует 16-битный машинный код для запуска Linux, поэтому на этом этапе подключается GCC; ассемблер и линкер работают со сбоями; даже при наличии всех оптимизаций он производит менее эффективный код, чем GCC. Наконец, исходный код компилятора на Rust хотя и функционален, но по качеству он даже не близок к тому, что мог бы создать опытный программист.
Источник изображения: Mohammad Rahmani / unsplash.com Автор проекта очень старался преодолеть некоторые из ограничений, но успеха так и не добился — при попытках добавить новые возможности или исправить ошибки существующие функции часто переставали работать. Сработала закономерность, при которой кодовая база разрастается до такой степени, что ни один участник проекта не может в полной мере её понять. Предел наступил на отметке около 100 000 строк кода — видимо, это максимум возможностей для автономных ИИ-агентов. Компилятор характеризуется как «реализация в чистой комнате» — во время разработки у ИИ-агентов не было доступа в интернет. Следует также отметить, что указанные затраты в $20 000 — это только стоимость токенов при доступе к ИИ через API. Сумма не включает в себя расходы на обучение ИИ-модели, труд организовавшего проект исследователя, а также труд программистов, которые создали наборы тестов и эталонные реализации. Подготовительная работа действительно оказалась непростой — проектирование среды для ИИ-агентов потребовало больше усилий, чем непосредственное написание кода компилятора. Обнаружилось, что многословные запросы тестов засоряют контекстное окно модели, и она теряет из виду то, чем занималась. Чтобы решить эту проблему, исследователь разработал средства запуска тестов, при которых выводятся только несколько строк сводки, а запись производится в отдельные файлы. Кроме того, у Claude отсутствует чувство времени — ИИ может часами запускать тесты, не продвигаясь вперёд; поэтому пришлось создать быстрый режим с обработкой от 1 % до 10 % тестовых случаев. Когда все 16 ИИ-агентов застряли в попытке обработать одну ошибку ядра Linux, пришлось в качестве эталона запустить GCC — он компилировал большинство кода самостоятельно, а ИИ-агентам доставались случайные фрагменты. Когда в этих фрагментах возникали ошибки, ИИ-агенты их исправляли. Все эти недочёты отступают перед основным выводом — ещё год назад ни одна большая языковая модель не смогла бы проделать такую работу, даже при надлежащем контроле и неограниченном бюджете. Механизм параллельного запуска нескольких агентов с координацией действий через Git — новаторское решение, а разработанные автором исследования инженерные приёмы по повышению производительности ИИ-агентов способны оказать влияние на дальнейшее развитие сегмента ИИ-программирования. Anthropic представила Claude Opus 4.6 — флагманскую LLM с командами агентов, миллионным контекстом и платным доступом
05.02.2026 [23:13],
Андрей Созинов
Компания Anthropic представила новую версию своей флагманской языковой модели — Claude Opus 4.6, назвав её «прямым апгрейдом» предыдущего поколения и самым интеллектуально развитым ИИ в своей линейке. Обновление уже доступно платным пользователям чат-бота Claude, а также через API по той же цене, что и Claude Opus 4.5.
Источник изображений: Anthropic Одним из главных нововведений стали так называемые «команды агентов» (agent teams). Речь идёт о наборе ИИ-агентов, которые могут делить крупные и сложные задачи на отдельные части и выполнять их параллельно. По замыслу Anthropic, каждый агент отвечает за свой сегмент работы и напрямую координируется с другими. Руководитель продуктового направления Anthropic Скотт Уайт (Scott White) сравнил эту функцию с работой слаженной команды людей, подчеркнув, что распределение ролей позволяет выполнять задачи быстрее. На данный момент «команды агентов» доступны в формате исследовательского превью для пользователей API и платных подписчиков. Ещё одно важное улучшение — увеличенное контекстное окно. Claude Opus 4.6 способен обрабатывать до 1 млн токенов за сессию, что сопоставимо с возможностями моделей Sonnet 4 и 4.5. По словам компании, это упрощает работу с крупными базами программного кода и объёмными документами, позволяя модели удерживать значительно больше информации в памяти. Кроме того, Anthropic усилила интеграцию Claude с Microsoft PowerPoint. Теперь ИИ доступен прямо в интерфейсе приложения для создания презентаций в виде боковой панели. Если раньше пользователь мог лишь сгенерировать презентацию и затем отдельно редактировать файл в PowerPoint, то теперь создание и доработка слайдов происходят непосредственно внутри программы при активной помощи Claude. ![]() ![]() По утверждению Anthropic, Opus 4.6 заметно лучше справляется со сложными многошаговыми задачами и чаще выдаёт результат, близкий к «продакшен-качеству», уже с первой попытки. Это особенно заметно при работе с документами, таблицами и презентациями — число итераций и правок при их подготовке существенно сокращается. Среди ключевых сильных сторон модели компания выделяет агентское программирование, работу с инструментами, поиск и финансовую аналитику. ![]() Конечно же, Claude сравнила Opus 4.6 с предшественницей — своей более «лёгкой» моделью Sonnet 4.5, а также с основными конкурентами в лице Google Gemini 3 Pro и OpenAI GPT-5.2. В восьми из тринадцати тестов новинка оказалась впереди. В интервью TechCrunch Скотт Уайт отметил, что Opus эволюционировал из узкоспециализированного инструмента для разработки ПО в решение, полезное для гораздо более широкого круга специалистов. По его словам, Claude Code активно используют не только программисты, но и продакт-менеджеры, финансовые аналитики и представители других отраслей, которым нужен мощный инструмент для интеллектуальной работы. ![]() Отдельно Anthropic подчёркивает усиленный фокус на безопасности. По словам компании, для Claude Opus 4.6 был проведён самый масштабный набор проверок за всю историю моделей Anthropic. Тестирование включало новые оценки влияния на благополучие пользователей, более сложные сценарии отказа от потенциально опасных запросов, а также обновлённые проверки на способность модели скрытно выполнять вредоносные действия. С учётом возросших возможностей в сфере кибербезопасности Opus 4.6 компания внедрила шесть новых специализированных тестов, призванных отслеживать возможные злоупотребления. В Anthropic подчёркивают, что Claude Opus 4.6 — это шаг к превращению Claude в универсальный инструмент для широкого спектра интеллектуальной работы, а не только в помощника для программистов. «Смешно, но нечестно»: Сэм Альтман раскритиковал кампанию Anthropic против рекламы в ChatGPT
05.02.2026 [07:12],
Анжелла Марина
Глава OpenAI Сэм Альтман (Sam Altman) подверг критике ироничные ролики конкурирующей Anthropic с критикой внедрения рекламы в ИИ-ботов. В своей публикации в X он назвал их смешными, но «явно нечестными». По мнению Альтмана, создатели Claude используют тактику двусмысленности и вводят пользователей в заблуждение относительно того, как реклама влияет на работу ботов. Он подчеркнул, что OpenAI никогда не станет интегрировать коммерческие объявления в диалоги подобным образом.
Источник изображения: The Tonight Show Как пишет The Verge, рекламные ролики Anthropic, основанной бывшими руководителями исследований OpenAI, в ироничной форме обыгрывают тему внедрения рекламы в диалоги с искусственным интеллектом. Намекая, но не указывая прямо на OpenAI, кампания противопоставляет себя недавнему заявлению о начале тестирования рекламы в ChatGPT. Anthropic подчёркивает, что в её ассистенте Claude не будет спонсируемых ссылок рядом с ответами, а сами ответы никак не будут связаны с предложениями рекламодателей. В ответ представители OpenAI пояснили действующие правила своей платформы. Рекламные блоки будут появляться исключительно у пользователей бесплатных версий, иметь чёткую маркировку и отделены от диалогов. Альтман подчеркнул, что ответы алгоритмов оптимизируются только ради пользы для человека и не зависят от пожеланий рекламодателей. При этом владельцы платных подписок полностью избавлены от просмотра объявлений. Альтман использовал этот инцидент для более широкой атаки на бизнес-модель оппонентов. Он обвинил Anthropic в создании дорогого продукта для состоятельной аудитории, тогда как миссия его компании заключается в предоставлении доступа к ИИ миллиардам людей. Для сравнения он привёл статистику, согласно которой бесплатной версией ChatGPT в одном только Техасе пользуется больше людей, чем сервисом Claude во всех Соединённых Штатах вместе взятых. В заключение он указал на авторитарный характер политики Anthropic, заявив, что конкуренты стремятся контролировать действия пользователей и диктовать правила применения ИИ. Также он упомянул, что Anthropic блокирует доступ к своим инструментам для некоторых компаний, включая OpenAI, и в противовес этому напомнил о собственном рекламном ролике, посвящённом разработчикам, сообщив о 500 тысячах загрузок нового инструмента Codex всего за несколько дней. Anthropic пообещала сохранить Claude без рекламы и высмеяла противоположный подход ChatGPT
04.02.2026 [19:13],
Сергей Сурабекянц
Anthropic объявила, что не планирует добавлять рекламу в свой чат-бот с искусственным интеллектом Claude, что резко контрастирует с подтверждёнными планами OpenAI разместить рекламу в ChatGPT. Чтобы ещё больше подчеркнуть это, компания выпустила серию рекламных роликов, высмеивающих неназванных конкурентов, добавляющих рекламу в свои ИИ. Они уже опубликованы на YouTube и будут показаны во время «Супербоула» — финальной игры по американскому футболу.
Источник изображения: Anthropic «Мы хотим, чтобы Claude действовал однозначно в интересах наших пользователей, — говорится в блоге Anthropic. — Поэтому мы сделали выбор: Claude останется без рекламы. Наши пользователи не будут видеть спонсируемые ссылки рядом с их разговорами с Claude; ответы Claude также не будут зависеть от рекламодателей или включать размещение сторонних продуктов, которые пользователи не запрашивали». Anthropic разъяснила, почему включение рекламы «несовместимо с тем, каким мы хотим видеть Claude». По мнению компании, стремление к прибыли может помешать предоставлению наиболее полезных советов пользователю и отвлекать тех, кто использует Claude для работы. Тем не менее, Anthropic не стала сжигать мосты: «Если нам потребуется пересмотреть этот подход, мы будем прозрачны в отношении причин, по которым мы это сделаем». Изменение политики Anthropic в будущем может выглядеть лицемерно в свете рекламы, выпущенной компанией для продвижения своей позиции во время «Супербоула». Это один из четырёх рекламных роликов, где очеловеченные ИИ вставляют неуместную рекламу прямо посреди своих ответов. Более короткая 30-секундная версия ролика будет показана во время игры в воскресенье, а отдельный минутный ролик с вставляющим рекламные советы во время консультации с ИИ-терапевтом, будет показан во время предматчевого шоу. Ни в одном из рекламных роликов не упоминается ChatGPT, но направленность их очевидна. В прошлом месяце OpenAI объявила о скором появлении рекламы в ChatGPT для бесплатных пользователей и пользователей более дешёвого тарифа Go, пообещав, что она будет «чётко обозначена» и расположится отдельно от ответов чат-бота. «Супербоул» — в американском футболе название финальной игры за звание чемпиона Национальной футбольной лиги (НФЛ) Соединённых Штатов Америки, в которой встречаются победители двух конференций лиги — Американской футбольной конференции и Национальной футбольной конференции. «Мне это нравится! Я смотрю видео без рекламы об искусственном интеллекте без рекламы», — прокомментировал видео один из пользователей, посмотревших его на YouTube. Anthropic обвалила акции разработчиков софта и финуслуг на $285 млрд новым ИИ-инструментом для бизнеса
04.02.2026 [16:45],
Владимир Мироненко
Выход нового инструмента Anthropic на основе ИИ для автоматизации задач в сфере бизнеса, таких, как проверка контрактов и юридические обзоры, спровоцировал обвал акций на $285 млрд в секторах программного обеспечения, финансовых услуг и управления активами, сообщил Bloomberg.
Источник изображения: claude.com Индекс американских акций компаний-разработчиков программного обеспечения инвестиционного банка Goldman Sachs упал во вторник на 6 %, что стало самым большим однодневным падением с апреля, когда обвал был вызван тарифами, а индекс компаний финансовых сервисов упал почти на 7 %. Индекс Nasdaq 100 в какой-то момент упал на 2,4 %, прежде чем сделать откат до 1,6 %. Также выход нового ИИ-инструмента стал причиной резкого падения акций компаний за пределами США, в частности, ирландской Experian Plc, предоставляющей кредитные и маркетинговые услуги, производителя программного обеспечения для бизнеса и юриспруденции Relx Plc и London Stock Exchange Group Plc из Великобритании. Акции ведущей индийской компании Tata Consultancy Services упали на 6 %, а ценные бумаги Infosys — на 7,1 %. Акции производителя облачного бухгалтерского программного обеспечения Xero упали на 16 % на торгах в Сиднее, что стало самым большим падением с 2013 года. Значительное падение акций Thomson Reuters Corp. и Legalzoom.com Inc., оказавшихся в числе худших по показателям в США и Канаде, привело к падению акций инвестиционного фонда ETF iShares Expanded Tech-Software Sector на 4,6 %, шестой день подряд. В январе ETF упал на 15 %, что стало худшим показателем за месяц с 2008 года. Акции компаний, занимающихся развитием бизнеса, также попали под распродажу. В частности, акции Blue Owl Capital Corp. упали на 13 %, что стало рекордным девятым снижением подряд. При этом их стоимость сократилась до самого низкого уровня с 2023 года. «Этот год станет определяющим для того, станут ли компании победителями или жертвами ИИ, и ключевым навыком будет избегать попадания в число проигравших», — прокомментировал реакцию рынка на появление нового ИИ-инструмента Стивен Йиу (Stephen Yiu), главный инвестиционный директор Blue Whale Growth Fund. В OpenAI появился «директор по готовности» — он будет отвечать за создание безопасного ИИ
04.02.2026 [13:33],
Алексей Разин
Вопросы безопасности использования искусственного интеллекта трактуются в наши дни довольно широко. Чат-боты могут открыто общаться на темы, которые в обществе принято скрывать от тех же несовершеннолетних, поэтому за развитием соответствующих систем нужен строгий контроль. В штате OpenAI недавно появился директор, отвечающий за создание безопасного ИИ.
Источник изображения: Unsplash, Hafiz ta По данным The Wall Street Journal, им стал выходец из конкурирующей Anthropic — Дилан Скандинаро (Dylan Scandinaro), который на прежнем месте работы занимался аналогичной деятельностью. О назначении его «директором по готовности» (Head of Preparedness) со страниц социальной сети X на этой неделе сообщил генеральный директор OpenAI Сэм Альтман (Sam Altman). Он попутно отметил: «Скоро всё начнёт двигаться очень быстро, и мы будем работать над очень мощными моделями. Это потребует соответствующих мер предосторожности, чтобы обеспечить дальнейшее предоставление больших выгод». Дилан Скандинаро, по словам Альтмана, возглавит усилия OpenAI по подготовке к устранению этих серьёзных рисков. Как признался глава компании, Скандинаро является лучшим кандидатом на эту роль из тех, которых он когда-либо встречал. «Ему, конечно, хватит работы, а я сегодня будут спать спокойнее», — признался Альтман. Он с нетерпением ждёт возможности ближе поработать со Скандинаро над изменениями, которые будут применены ко всей компании. Сам Скандинаро признал, что стремительно развивающиеся ИИ-модели могут стать источником «экстремального и даже необратимого ущерба». По его словам, предстоит проделать немало работы за очень короткий срок. В Anthropic Скандинаро проработал с мая прошлого года по февраль текущего. В дочерней компании DeepMind гиганта Google он продержался значительно дольше, с сентября 2022 года по май 2025 года, специализируясь на синтетических данных для обучения ИИ-ассистента Gemini. Скандинаро также имеет опыт работы в Palantir, Unity Technologies и Everyday Robots. Вакансия на соответствующую должность в OpenAI была открыта с прошлого года, она подразумевала выплату $550 000 в денежной форме ежегодно и вознаграждение в форме акций стартапа. «Команда готовности» в структуре OpenAI существует с 2023 года, изначально её возглавлял Александр Мадрий (Aleksander Madry), который имеет опыт работы в Центре распространяемого машинного обучения Массачусетского технологического института. Позже он перешёл на другую работу в структуре OpenAI, пост главы подразделения оказался вакантным. Музыкальные издатели потребовали от Anthropic $3 млрд за «вопиющее пиратство»
30.01.2026 [21:21],
Анжелла Марина
Группа музыкальных издателей во главе с Concord Music Group и Universal Music Group (UMG) подала судебный иск против компании Anthropic, обвинив разработчика искусственного интеллекта в незаконном скачивании более 20 000 защищённых авторским правом музыкальных произведений. Истцы утверждают, что компания использовала пиратские методы для получения доступа к песням, текстам и нотам.
Источник изображения: Wesley Tingey/Unsplash Как сообщает Engadget, ссылаясь на данные Reuters, среди незаконно использованных материалов фигурируют культовые композиции таких исполнителей, как The Rolling Stones, Нил Даймонд (Neil Diamond) и Элтон Джон (Elton John), права на которые принадлежат UMG. Независимый издатель Concord Music Group также заявил о нарушении прав своих артистов, в числе которых актёр и рэп-исполнитель Common, Киллер Майк (Killer Mike) и группа Korn. Согласно судебному обращению, сумма ущерба может превысить $3 млрд. В тексте искового заявления представители музыкальной индустрии отметили, что хотя Anthropic позиционирует себя как компания, занимающаяся безопасностью и исследованиями в области ИИ, история её действий свидетельствует об обратном. По мнению истцов, многомиллиардная бизнес-империя Anthropic фактически построена на пиратстве и незаконном использовании торрентов для получения чужой интеллектуальной собственности. Интересы издателей представляет та же юридическая команда, которая вела прошлогоднее дело «Бартц против Anthropic» (Bartz v. Anthropic). То дело завершилось присуждением пострадавшим авторам компенсации в размере $1,5 млрд. Тогда суд установил, что компания незаконно скачивала опубликованные работы авторов для обучения своих моделей, и, в соответствии с вердиктом, 500 000 авторов, участвовавших в деле, должны получить по $3000 за каждое произведение. Примечательно, что в рамках предыдущего разбирательства судья Уильям Алсап (William Alsup) постановил, что само по себе обучение ИИ-моделей на защищённом контенте является законным, однако приобретение этого контента через пиратство — нет. Юридический прецедент подразумевает, что если бы Anthropic легально приобрела копии произведений, претензий к ней могло бы не возникнуть. Если заявленная сумма ущерба будет подтверждена, это разбирательство станет одним из крупнейших дел о защите авторских прав в истории США, не являющихся коллективным иском, отмечает Engadget. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |