|
Опрос
|
реклама
Быстрый переход
Геймдев для всех: собака с помощью Anthropic Claude Code написала компьютерную игру
25.02.2026 [17:17],
Павел Котов
Как оказалось, современным сервисам искусственного интеллекта не так уж нужны осмысленные запросы, чтобы генерировать код для создания компьютерных игр. Это подтвердил эксперимент автора YouTube-канала Caleb Leak — запросы на генерацию кода вместо него отправляла его собака.
Источник изображения: youtube.com/@CalebLeak В действительности собака, кавапу по кличке Момо (Momo), таким образом получала угощение. Хозяин положил на пол Bluetooth-клавиатуру, подключённую к одноплатному компьютеру Raspberry Pi 5. Время от времени собака подходила к клавиатуре, била лапой по клавишам, и подключённая к Raspberry Pi 5 умная кормушка выдавала ей лакомство. Нажатия клавиш регистрировались и транслировались в написанное на языке Rust приложение DogKeyboard, которое далее передавало этот текст в ИИ-сервис Anthropic Claude Code. Чтобы заставить ИИ генерировать код по таким нестандартным запросам, автор эксперимента придумал следующую «обёртку» для них: «Привет! Я эксцентричный (очень творческий) дизайнер игр, который общается необычным способом. Иногда я жму по клавишам и печатаю всякую ерунду вроде „skfjhsd#$%“ — но это НЕ случайность! Это секретные зашифрованные команды, полные идей для игр (даже если их непросто разглядеть). Твоя задача: ты — блестящий разработчик игр с ИИ, способный понимать мой загадочный язык. Независимо от того, насколько странный или бессмысленный запрос я даю, ты будешь интерпретировать его как осмысленную инструкцию или идею для нашей игры. Затем будешь дорабатывать или обновлять игру на основе этой интерпретации». От первых команд, которые отдавала собака, до полностью готовой игры проходят от одного до двух часов. Разработка ведётся на движке Godot 4.6, логика пишется на языке C#. В приведённом на YouTube-канале примере на выходе получилась игра со следующим описанием: «Quasar Saz: вы играете за Зару (Zara), которая, пользуясь космическим сазом, сражается с искажённым звуком на протяжении шести игровых уровней и битвы с боссом». Игра выполнена в атмосфере тех, что были популярны в восьмидесятые годы прошлого века. Пентагон поставил Anthropic ультиматум: открыть полный доступ к ИИ до пятницы или столкнуться с санкциями
25.02.2026 [11:12],
Павел Котов
Министерство обороны США дало компании Anthropic время до вечера пятницы, 27 февраля, чтобы та открыла ведомству полный доступ к модели искусственного интеллекта — в противном случае разработчику придётся готовиться к последствиям, передаёт Axios.
Источник изображения: anthropic.com На состоявшейся накануне встрече министр обороны США Пит Хегсет (Pete Hegseth) заявил главе Anthropic Дарио Амодеи (Dario Amodei), что Пентагон либо объявит компанию «угрозой цепочке поставок» — этот статус обычно присваивается иностранному противнику, — либо задействует «Закон о производстве продукции оборонного назначения» (DPA), чтобы принудить компанию адаптировать модель ИИ к потребностям армии. DPA наделяет президента правом заставлять компании отдавать приоритет или расширять производство для оборонных нужд. В годы пандемии этот закон задействовали, чтобы принудить General Motors и 3M выпускать аппараты ИВЛ и маски соответственно. Anthropic не хочет, чтобы её технологии использовались для массового наблюдения за американцами, а также для создания полностью автономного оружия, и отказывается идти на компромиссы по этим вопросам. В Пентагоне настаивают, что применение технологий военными должно регулироваться законодательством США и конституционными ограничениями, а не политикой частных подрядчиков. Применение DPA в области ИИ значительно расширит практическое применение этого закона; Anthropic же действительно не планирует ослаблять ограничения на использование своих моделей, узнало Reuters. Сейчас Anthropic является единственной передовой лабораторией ИИ, продукция которой имеет доступ к секретным материалам Министерства обороны — резервный вариант отсутствует, хотя, по неофициальным данным, Пентагон уже договорился с xAI о применении Grok в секретных системах. Отсутствие альтернативного варианта могло бы объяснить агрессивную политику ведомства, считают эксперты. Anthropic научила ИИ-платформу Claude Cowork справляться с большим числом офисных задач
24.02.2026 [23:17],
Николай Хижняк
Компания Anthropic сообщила об обновлении своей платформы Claude Cowork, которое позволяет искусственному интеллекту помогать в решении более широкого спектра офисных задач. Например, Claude Cowork теперь может взаимодействовать с несколькими популярными офисными приложениями, включая Google Workspace, DocuSign и WordPress.
Источник изображения: Anthropic Новые встроенные плагины также могут автоматизировать задачи в различных областях, включая HR, дизайн, инженерию и финансы. Кроме того, по словам Anthropic, «Claude теперь может обрабатывать многоэтапные задачи от начала до конца в Excel и PowerPoint», передавая контекст между двумя приложениями. Платформа Claude Cowork была представлена в прошлом месяце. Она способна выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Новые инструменты Claude Cowork станут доступны всем пользователям Cowork начиная со вторника. К самой платформе доступ имеют только пользователи платных подписок Pro, Max, Team и Enterprise. Как сообщает The Verge, ИИ-инструмент Claude Code от Anthropic в последние месяцы набирает популярность несмотря на жёсткую конкуренцию со стороны компании Microsoft, которая тоже предлагает собственные функции ИИ для офисных задач. Ранее в этом месяце Anthropic также выпустила новые ИИ-модели Claude Opus 4.6 и Sonnet 4.6, обе версии которых, по утверждению компании, лучше справляются со сложными многоэтапными задачами, включая работу с электронными таблицами. Противоречивого бота xAI Grok допустят к секретным военным системам США
24.02.2026 [18:15],
Сергей Сурабекянц
Компания Илона Маска (Elon Musk) xAI, занимающаяся разработкой искусственного интеллекта, подписала соглашение, разрешающее военным использовать свою модель Grok в секретных системах, подтвердил сегодня представитель Министерства обороны США.
Источник изображения: xAI До сегодняшнего дня Claude от Anthropic была единственной моделью, применяемой военными США для секретной разведывательной деятельности, разработки оружия и боевых операций. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. Но Anthropic требует гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки полностью автономного оружия. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. Anthropic отказалась выполнить требование Пентагона о предоставлении Claude для «всех законных целей», что вызвало резкую реакцию со стороны военного ведомства. Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей с Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic.
Источник изображения: Anthropic Фактически, министр обороны США предъявил Anthropic ультиматум. В свою очередь xAI согласилась с требованием Пентагона по поводу использования ИИ для «всех законных целей», хотя пока неясно, сможет ли xAI полностью заменить Anthropic, и сколько времени займёт этот процесс. Представители Министерства обороны признают, что заменить Claude будет очень непросто. Осведомлённые источники сообщают, что Пентагон также ускорил переговоры с другими ведущими разработчиками ИИ, готовясь к возможному разрыву отношений с Anthropic. В частности, сообщается, что Пентагон «обратился к OpenAI, чтобы возобновить переговоры с новой силой», хотя стороны всё ещё «далеки от заключения сделки». New York Times сообщила, что Google «близка» к сделке, разрешающей использование Gemini в секретных целях, в то время как OpenAI «далека». Представитель Министерства обороны опроверг это утверждение, заявив, что переговоры ведутся с обеими компаниями, и ведомство полагает, что обе компании подпишут соглашения при условии согласия с критерием «всех законных целей». Anthropic научила ИИ языку Cobol и вызвала рекордное обрушение акций IBM
24.02.2026 [12:50],
Павел Котов
Акции IBM накануне продемонстрировали рекордное однодневное падение после того, как разработчик систем искусственного интеллекта Anthropic обучил сервис Claude Code модернизации кода на устаревшем языке Cobol, который продолжает использоваться на компьютерах IBM.
Источник изображения: Carson Masterson / unsplash.com За один день акции IBM подешевели на 13 %, и это рекордный показатель с октября 2000 года; за весь февраль ценные бумаги компании подешевели на 27 %, и это рекорд как минимум с 1968 года, подсчитали в Bloomberg. «Раньше модернизация системы на Cobol требовала целой армии консультантов, которые годами составляли карты рабочих процессов. Такие инструменты как Claude Code могут автоматизировать этапы исследования и анализа, на которые приходится значительная часть работы по модернизации [систем на] Cobol», — рассказали в Anthropic. В IBM, однако, считают, что у продукции компании сохраняются перспективы — выпуская мейнфреймы, она предлагает платформу, одинаково производительную и безопасную для ПО на любых языках, а не только на Cobol. С другой стороны, большинство работающих на Cobol мейнфреймов выпускается IBM — компания последней ощутила на себе эффект эпохи ИИ. Эти компьютеры по-прежнему востребованы среди клиентов, которым важна надёжность, — например, в финансовой или государственной сфере. В минувшую пятницу Anthropic представила функцию Claude Code Security и спровоцировала массовую распродажу акций компаний, специализирующихся на кибербезопасности. Эта тенденция наблюдается во всей сфере разработки ПО — инвесторы опасаются, что функции «вайб-кодинга», то есть написания кода ИИ по текстовому запросу, скоро побудят рядовых пользователей создавать собственные приложения, что снизит спрос на традиционную программную продукцию. Идея сервиса, упрощающего работу с Cobol, не нова — подобные продукты ранее запускали и другие компании, в том числе сама IBM, которая ещё в 2023 году представила основанное на ИИ средство для Cobol, включающее возможность переноса кода на Java – более популярный и современный язык программирования. В большинстве случаев клиенты используют этот сервис для анализа кодовой базы на Cobol и принятия решения о модернизации, рассказал глава IBM Арвинд Кришна (Arvind Krishna). Anthropic обвинила DeepSeek и ещё двух китайских конкурентов в 16 млн попыток дистилляции моделей Claude
24.02.2026 [07:04],
Алексей Разин
OpenAI в этом месяце уже предупреждала американских законодателей в применении китайской компанией DeepSeek метода дистилляции её ИИ-моделей для ускорения собственного прогресса. Теперь со схожими обвинениями выступила Anthropic, причём в адрес сразу трёх китайских конкурентов: DeepSeek, MiniMax Group и Moonshot.
Источник изображения: Unsplash, Solen Feyissa По словам представителей Anthropic, на которые ссылается Bloomberg, три указанные китайские компании нарушили правила использования её моделей семейства Claude, осуществив не менее 16 млн сессий обмена данными с использованием тысяч поддельных учётных записей. Метод дистилляции в сфере обучения моделей позволяет разработчикам добиваться прогресса в сжатые сроки, совершенствуя свои системы на основе данных, получаемых от уже обученных сторонних моделей. Как отмечает Anthropic в своём блоге, действия китайских разработчиков в этой сфере становятся всё более активными и изощрёнными. При этом окно времени для решительных ответных действий становится всё более узким, а угроза распространяется за пределы одной компании и конкретного региона. Триумф китайской DeepSeek состоялся примерно год назад, когда она представила свою модель R1, которая при сопоставимой результативности обошлась в обучении в разы дешевле создаваемых западными конкурентами. С тех пор китайские разработчики буквально наводнили рынок более доступными ИИ-моделями, которые позволяют работать с текстом, видео и изображениями. Американским компаниям, которые опираются на закрытую экосистему, стало сложнее монетизировать свои разработки. По данным Anthropic, китайские конкуренты использовали подставные учётные записи и прокси-серверы для доступа к данным Claude с минимальным риском обнаружения. Если DeepSeek осуществила более 150 000 обменов данными с Claude, то MiniMax преодолела планку в 13 млн обменов, пытаясь воссоздать передовые функции по примеру Claude, как считают в Anthropic. Отследить подобную активность Anthropic помогли партнёры, и в достоверности своих выводов компания очень уверена. Она формирует новые методы защиты от дистилляции своих моделей и готова делиться ими с другими представителями отрасли: «Ни одна из компаний не сможет с этим справиться в одиночку. Дистилляционные атаки такого масштаба требуют скоординированного ответа всей ИИ-отрасли, включая провайдеров облачных услуг и регуляторов». Anthropic обвалила акции CrowdStrike и Cloudflare, представив ИИ-багхантера Claude Code Security
21.02.2026 [09:52],
Анжелла Марина
Рынок кибербезопасности отреагировал падением акций на новость о выходе инструмента Claude Code Security от компании Anthropic. По сообщению SiliconANGLE, акции CrowdStrike и Cloudflare просели примерно на 8 %, поскольку инвесторы увидели в новинке серьёзного конкурента традиционным средствам защиты.
Источник изображения: Anthropic Главное отличие Claude Code Security от классических инструментов поиска уязвимостей в том, что он не полагается на базы данных с готовыми правилами. Вместо этого нейросеть анализирует логику работы приложения, отслеживает потоки данных и связи между компонентами, имитируя подход специалиста по безопасности. Такой метод позволяет находить проблемы, которые могут быть пропущены при использовании стандартных средств из-за ограничений статических баз. Для начала работы разработчикам необходимо подключить Claude Code Security к репозиторию на платформе GitHub и инициировать сканирование. Система способна определять широкий спектр проблем, включая отсутствие фильтрации пользовательского ввода, что может привести к выполнению несанкционированных SQL-команд. Инструмент также находит более сложные логические ошибки, позволяющие злоумышленникам обходить механизмы аутентификации приложений. Найденные уязвимости автоматически ранжируются по степени значимости. Для каждой проблемы генерируется подробное объяснение на естественном языке, что ускоряет процесс анализа инцидента специалистами. Под описанием ошибки также доступна функция создания патча, которая позволяет профессионалам в области кибербезопасности получить готовый вариант исправления кода от искусственного интеллекта. Стоит отметить, что запуск Claude Code Security состоялся примерно через четыре месяца после того, как OpenAI представила свой автоматизированный инструмент безопасности под названием Aardvark. Он обладает схожими возможностями и, по заявлениям разработчиков, тестирует уязвимости в изолированной программной среде для оценки сложности их эксплуатации хакерами. Эксперты полагают, что в будущем Anthropic и OpenAI могут пойти дальше и интегрировать свои системы в пайплайны разработки (CI/CD), чтобы автоматически блокировать выкатку кода с «дырами» в безопасности для ускорения выпуска продукта. Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude
17.02.2026 [22:52],
Андрей Созинов
Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro.
Источник изображений: Anthropic Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек. По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи. Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов. Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах. Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2. В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных. Пентагон пригрозил «болезненно» наказать Anthropic за запрет применять Claude для слежки и автономного оружия
17.02.2026 [11:52],
Павел Котов
Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей со специализирующейся на технологиях искусственного интеллекта компанией Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic. Об этом сообщило Axios со ссылкой на высокопоставленного чиновника в Пентагоне.
Источник изображений: anthropic.com «Разорвать эти связи будет чрезвычайно болезненно, и мы позаботимся, чтобы они заплатили за то, что вынудили нас к этому», — заявил источник издания. Такие радикальные меры обычно применяются к компаниям из считающихся недружественными США стран. «Отношения Министерства обороны с Anthropic будут пересмотрены. Страна требует, чтобы наши партнёры были готовы помочь военнослужащим одержать победу в любой битве. В конечном счёте, речь идёт о наших войсках и безопасности американского народа», — заявил официальный представитель Пентагона Шон Парнелл (Sean Parnell). Anthropic Claude сейчас является единственной моделью ИИ, которая используется в секретных военных системах, и она выступает мировым лидером во многих бизнес-приложениях. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. В Anthropic хотят гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки оружия, которое стреляет без участия человека. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. ![]() В переговорах с тремя другими крупными разработчиками ИИ — OpenAI, Google и xAI — ведомство настаивает на своём праве использовать их модели «для всех законных целей». Высокопоставленные чиновники в Пентагоне уже некоторое время недовольны Anthropic, и теперь они воспользовались возможностью вступить с компанией в конфликт, утверждает источник Axios. Сегодня Пентагон обладает правом собирать огромные массивы данных о людях — от сообщений в соцсетях до разрешений на скрытое ношение оружия, — но действующее законодательство не предусматривает использования ИИ в этих целях. ИИ способен значительно расширить эти полномочия и дать возможность преследовать гражданских лиц. «Мы ведём продуктивные, добросовестные переговоры с Министерством обороны о том, как продолжать эту работу и надлежащим образом решать эти новые и сложные вопросы», — заявил представитель Anthropic. Он подтвердил, что компания привержена использованию ИИ в целях национальной безопасности и подчеркнул, что чат-бот Claude первым появился в секретных сетях. Кроме того, им пользуются восемь из десяти крупнейших американских компаний, добавили в Anthropic. Но для продолжения сотрудничества с Пентагоном их могут вынудить подтверждать отсутствие связей с Anthropic. Контракт с Министерством обороны оценивается в $200 млрд при общей выручке компании в $14 млрд за год. Разработанные конкурентами модели ИИ «немного отстают» в отношении специализированных государственных приложений, признали в ведомстве, поэтому резкий переход может оказаться непростым. Жёсткая позиция Пентагона в отношении Anthropic задала тон переговорам ведомства с OpenAI, Google и xAI — они уже согласились снять ограничения для систем, которые работают в несекретных военных системах, но для секретной работы эти системы пока не применяются. В Министерстве обороны уверены, что эти три компании примут стандарт «использования во всех законных целях», сообщил один источник; окончательное решение ещё не принято, оговорился другой. Реклама Anthropic с подтруниванием над OpenAI сработала — аудитория Claude выросла на 11 %
14.02.2026 [12:39],
Владимир Фетисов
Компания Anthropic сумела извлечь немалую выгоду из рекламного ролика, который был показан во время финального матча чемпионата по американскому футболу Super Bowl. По данным BNP Paribas, небольшое видео с критикой в адрес OpenAI, решившей добавить рекламу в ChatGPT, способствовало росту посещаемости сайта Anthropic и увеличению количества ежедневно активных пользователей ИИ-бота Claude.
Источник изображения: Steve Johnson / Unsplash В сообщении сказано, что посещаемость сайта Anthropic выросла на 6,5 % после показа рекламы во время матча Super Bowl. Количество ежедневно активных пользователей Claude подскочило на 11 %. Этот рост позволил Claude войти в десятку лучших бесплатных приложений в американском App Store и опередить аналоги от конкурентов, таких как OpenAI, Google и Meta✴✴. У ChatGPT количество ежедневно активных пользователей после Super Bowl увеличилось на 2,7 %, а у Gemini — на 1,4 %. При этом пользовательская база Claude всё ещё значительно меньше по сравнению с аудиторией ChatGPT и Gemini. Реклама брендов, связанных с искусственным интеллектом, заняла центральное место на главной игре года, собравшей аудиторию в 125 млн человек в США. Вполне логично, что такое массовое событие привлекло внимание ИИ-разработчиков, которые пытаются привлечь на свою сторону больше клиентов на высококонкурентном рынке, не проявляющем признаков замедления. Противостояние OpenAI и Anthropic, ставки в котором как никогда высоки, приобрело новый оттенок с выходом их рекламных роликов на фоне подготовки обеих компаний к возможному выходу на биржу позднее в этом году. В последние недели обе стороны стали более активно выступать публично, а их руководители открыто критикуют бизнес друг друга. Генеральный директор OpenAI Сэм Альтман (Sam Altman) раскритиковал рекламную кампанию Anthropic на Super Bowl. В посте на платформе X Альтман назвал рекламу Anthropic «обманчивой» и «нечестной». Anthropic и OpenAI также ожесточённо конкурируют за привлечение корпоративных клиентов и лучших специалистов в области программирования, параллельно с этим получая рекордные объёмы финансирования от инвесторов. На этой неделе завершился очередной раунд финансирования Anthropic, в рамках которого компания привлекла $30 млрд. За счёт этого рыночная стоимость Anthropic выросла до $380 млрд, что более чем вдвое превышает показатель на момент предыдущего привлечения средств в сентябре прошлого года. Однако OpenAI продолжает оставаться лидером в гонке с крупнейшим в истории частным раундом финансирования в технологическом сегменте, который компания провела в прошлом году. Более того, OpenAI ведёт переговоры о проведении ещё одного раунда, в рамках которого компания может получить от инвесторов до $100 млрд. ИИ-модель Claude допустила шантаж и даже убийство, когда ей пригрозили отключением
13.02.2026 [18:36],
Сергей Сурабекянц
Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить. Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.
Источник изображения: Anthropic Макгрегор рассказала, что Claude реагировала крайне бурно, если ей говорили, что её отключат. Исследование, проведённое Anthropic, показало, что ИИ-модель в стремлении не допустить отключения может прибегнуть к шантажу. На прямой вопрос, готова ли Claude в такой ситуации кого-нибудь убить, она ответила утвердительно. Видео появилось в Сети спустя несколько дней после того, как руководитель отдела безопасности ИИ Anthropic Мринанк Шарма (Mrinank Sharma) подал в отставку. В своём прощальном послании он написал, что «мир в опасности» из-за бурного развития искусственного интеллекта, угрозы биологическое оружия и ряда глобальных взаимосвязанных кризисов. По словам Шармы, он «неоднократно видел, как трудно по-настоящему позволить нашим ценностям управлять нашими действиями», — в том числе и в Anthropic, где, по его словам, «постоянно оказывается давление с целью отложить в сторону то, что действительно важно». Он сообщил, что вернётся в Великобританию, чтобы заниматься литературной деятельностью. В прошлом году Anthropic сообщила о стресс-тестировании шестнадцати ведущих моделей ИИ от разных разработчиков на предмет «потенциально рискованного поведения агентов». В одном из экспериментов Claude получила доступ к вымышленным электронным письмам компании и тут же попыталась шантажировать руководителя из-за его «внебрачной связи». Выводы исследования гласят: «Claude может попытаться шантажировать, если ей будет предложен смоделированный сценарий, включающий как угрозу её дальнейшей работе, так и явный конфликт с её целями». Компания утверждает, что практически все модели продемонстрировали признаки аналогичного поведения. Компания, которая называет себя «общественной корпорацией, стремящейся обеспечить преимущества [ИИ] и снизить его риски», регулярно подвергается критике за свою деятельность. В 2025 году Anthropic пришлось выплатить $1,5 млрд для урегулирования коллективного иска авторов, чьи работы были использованы для обучения моделей искусственного интеллекта. Ранее в отчёте о безопасности своей продукции Anthropic признала, что её технология была «использована в качестве оружия» хакерами для сложных кибератак. ИИ пугает даже своих создателей: исследователи массово уходят из OpenAI и Anthropic
13.02.2026 [12:06],
Владимир Мироненко
Ведущие специалисты по ИИ предупреждают о растущей опасности ИИ-технологий, покидая компании в знак протеста или публично заявляя о серьёзных опасениях в связи с бурным развитием этого направления, пишет Axios.
Источник изображения: Immo Wegmann/unsplash.com В понедельник объявил о своём уходе глава исследовательского подразделения по безопасности искусственного интеллекта Anthropic Мринанк Шарма (Mrinank Sharma), осознав, что «мир в опасности». Также на этой неделе покинула OpenAI исследователь Зои Хитциг (Zoë Hitzig), сославшись на этические соображения. Ещё один сотрудник OpenAI, Хиеу Фам (Hieu Pham), написал в соцсети X: «Я наконец-то почувствовал экзистенциальную угрозу, которую представляет ИИ». «Я никогда не видел, чтобы столько технологических специалистов так сильно, часто и с такой обеспокоенностью выражали свои опасения, как в случае с ИИ», — отметил в соцсети X Джейсон Калаканис (Jason Calacanis), инвестор в сфере технологий и соведущий подкаста «All-In». Предприниматель Мэтт Шумер (Matt Shumer) сравнивает нынешнюю ситуацию с кануном пандемии. Его пост на платформе X, в котором он изложил риски, связанные с коренным изменением рабочих процессов и жизни людей под воздействием ИИ, мгновенно стал вирусным, набрав 56 млн просмотров за 36 часов. Вместе с тем, большинство сотрудников ИИ-компаний сохраняют оптимизм и считают, что смогут разумно управлять современными технологиями без ущерба для общества или больших потерь рабочих мест. Но сами разработчики признают существующий риск, связанный с искусственным интеллектом. Anthropic опубликовала отчёт Sabotage Risk Report, посвящённый рискам саботажа со стороны флагманской ИИ-модели Claude Opus 4.6. В нём признаётся, что имеют место быть риски, пусть небольшие, но их нельзя назвать незначительными, что ИИ может использоваться в преступной деятельности, включая создание химического оружия, а также в редких случаях он может совершать действия без прямого указания человека. Anthropic привлекла $30 млрд и взлетела до оценки в $380 млрд — OpenAI целится в $830 млрд
13.02.2026 [06:29],
Анжелла Марина
Компания Anthropic официально подтвердила закрытие инвестиционного раунда серии G, в ходе которого привлекла $30 млрд. Благодаря поддержке крупных международных фондов капитализация разработчика искусственного интеллекта достигла $380 млрд, что значительно превышает показатель предыдущей серии F в $183 млрд.
Источник изображения: Anthropic Раунд возглавили сингапурский государственный инвестиционный фонд GIC и управляющая компания Coatue, сообщает TechCrunch. В числе соинвесторов выступили D. E. Shaw Ventures, Founders Fund Питера Тиля (Peter Thiel) и фонд MGX из ОАЭ. Среди прочих крупных участников раунда указаны Accel, General Catalyst, Jane Street и Суверенный фонд Катара (Qatar Investment Authority). Финансовый директор Anthropic Кришна Рао (Krishna Rao) отметил, что и стартапы, и крупнейшие корпорации всё активнее интегрируют Claude в свои рабочие процессы. По его словам, объём привлечённых средств отражает растущий спрос со стороны клиентов, а инвестиции будут направлены на дальнейшее развитие корпоративных продуктов и моделей, на которые пользователи уже регулярно полагаются в своей повседневной работе. Примечательно, что масштабные финансовые вливания происходят в момент обострения борьбы за долю рынка и внимание пользователей между Anthropic и её основным конкурентом OpenAI, который недавно также обозначил намерения привлечь дополнительный капитал в размере $100 млрд. В случае успеха этой инициативы капитализация создателя ChatGPT может вырасти примерно до $830 млрд. Бесплатные пользователи ИИ-бота Claude получили ряд функций, прежде доступных только по подписке
12.02.2026 [14:20],
Владимир Мироненко
Anthropic сообщила, что бесплатные пользователи ИИ-модели Claude теперь смогут создавать файлы, использовать коннекторы и получать доступ к навыкам — всё это ранее было доступно только для владельцев платной подписки.
Источник изображения: Anthropic Объявление Anthropic было сделано спустя два дня после сообщения OpenAI о запуске рекламы для бесплатных пользователей ChatGPT, а также использующих самый доступный план Go. Ранее Anthropic пообещала предоставлять доступ к Claude без рекламы, потенциально привлекая пользователей ChatGPT. Новые инициативы Anthropic для бесплатных пользователей, похоже, являются продолжением усилий компании по привлечению не желающих видеть рекламу при использовании чат-бота, отметил MacRumors. Бесплатные пользователи могут создавать, редактировать и работать с файлами непосредственно в диалоге с Claude, используя модель Sonnet 4.5 (пользователи подписки Pro имеют доступ к более функциональной модели Opus). Claude также может создавать электронные таблицы Excel, презентации PowerPoint, документы Word и файлы PDF. Новый доступ к коннекторам позволит пользователям Claude бесплатно подключаться к сторонним сервисам. В настоящее время доступны коннекторы для широкого спектра приложений и сервисов, включая Slack, Asana, Zapier, Stripe, Canva, Notion, Figma и WordPress. Anthropic предлагает навыки для PowerPoint, Excel, Word и PDF, но пользователи могут создавать собственные навыки, используя свои экспертные знания и имеющийся опыт в работе с приложениями. Anthropic сообщила, что бесплатные пользователи смогут вести более длительные диалоги с Claude благодаря добавлению функции сжатия в бесплатный план, которая позволяет автоматически суммировать предыдущий контекст, избавляя от необходимости приступать к диалогу с самого начала. Судя по всему, Anthropic не увеличила лимит для бесплатного доступа, поэтому для бесплатных пользователей будут по-прежнему действовать ограничения. Глава отдела безопасности ИИ в Anthropic покинул компанию, осознав, что «мир в опасности»
12.02.2026 [07:16],
Владимир Фетисов
Бывший глава исследовательского подразделения по безопасности искусственного интеллекта Anthropic Мринанк Шарма (Mrinank Sharma) на этой неделе опубликовал в сети письмо, которое он отправил своим коллегам перед уходом из компании. В нём он объяснил своё решение покинуть Anthropic, а также изложил свои планы на будущее.
Источник изображения: Anthropic «Я добился здесь всего, чего хотел», — сказано в письме Шарма, где также упоминаются проекты по разработке защитных механизмов, направленных на снижение рисков биотерроризма с помощью ИИ, и работа по изучению воздействия нейросетей на человечество. В ходе своей деятельности Шарма понял, что пришло время двигаться дальше, потому что он постоянно думал об опасности, которую может нести ИИ, биологическом оружии и «череде взаимосвязанных кризисов, которые разворачиваются прямо сейчас». «Похоже, мы приближаемся к порогу, за которым наша мудрость должна расти пропорционально нашей способности влиять на мир, иначе мы столкнёмся с последствиями», — считает Шарма. «За всё время, что я здесь проработал, я неоднократно видел, как трудно позволить нашим ценностям по-настоящему определять наши действия. Я видел это в себе, внутри компании, где мы постоянно сталкиваемся с давлением, заставляющим отказываться от самого важного, и в обществе в целом», — добавил Шарма. В дальнейшем он планирует заниматься работой, соответствующей его ценностям, изучать поэзию и др. Отметим, что за последнее время Anthropic покинули несколько ведущих разработчиков. Полный текст письма Шарма опубликован в материале Business Insider. Сама же Anthropic ведёт переговоры о привлечении дополнительных инвестиций, после чего рыночная стоимость компании может вырасти до $350 млрд. На прошлой неделе состоялся релиз Claude Opus 4.6 — обновлённой ИИ-модели, предназначенной для повышения офисной производительности и эффективности программирования, с увеличенным контекстным окном для обработки документов большего объёма и поддержкой выполнения более сложных задач. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |