Сегодня 02 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → anthropic

Anthropic выпустила приложение с ИИ-чат-ботом Claude для iPhone

Основанная бывшими сотрудниками OpenAI компания Anthropic активно продвигает своего чат-бота Claude в конкурентной борьбе с ChatGPT. Разработчик выпустил мобильное приложение для iPhone, которое уже доступно как для бесплатных, так и для платных пользователей Claude, сообщает The Verge. Мобильное приложение Claude выступает в роли чат-бота, а также может анализировать изображения пользователей. Например, распознавать виды птиц на фотографиях и многое другое.

 Источник изображения: Gabby Jones/Bloomberg

Источник изображения: Gabby Jones/Bloomberg

Ранее доступ к Claude был возможен только через веб-сайт Anthropic.ai, либо через сторонние платформы для моделей искусственного интеллекта. Теперь же, благодаря приложению можно общаться с Claude в любое время и в любом месте, кроме того оно синхронизируется с веб-версией, так что диалоги сохраняются.

По словам Скотта Уайта (Scott White), менеджера по продукту в Anthropic, многие пользователи Claude используют мобильный интернет для доступа к моделям ИИ. Это и побудило компанию выпустить мобильную версию для iOS, а в скором времени планируется релиз версии для Android.

Однако с выпуском мобильного приложения Anthropic немного опоздала. У основных конкурентов, таких как ChatGPT от OpenAI и Gemini от Google, мобильные приложения появились гораздо раньше. При этом Gemini доступен как в общем приложении Google для iPhone, так и в отдельном приложении для Android. У поисковой платформы Perplexity тоже есть мобильное приложение.

Отметим, создатели Claude сделали приложение бесплатным для всех пользователей Claude AI, включая бесплатных пользователей, подписчиков Claude Pro и группы подписчиков нового тарифа Claude Team. Новый тариф Claude Team, запущенный в этом месяце, предоставляет доступ к моделям Claude минимум 5 участникам группы по цене 30 долларов за место в месяц. Пользователи смогут делиться доступом к Claude с другими участниками группы. Подписчики Claude Team получают все преимущества тарифа Pro, а также возможность делать больше запросов в чате и анализировать более длинные документы по сравнению с пользователями Pro и бесплатными пользователями. Кроме того, тариф Team предоставляет расширенные административные права и возможность быстрого переключения между подпиской Pro и Team.

Напомним, что в марте Anthropic анонсировала семейство моделей Claude 3, включающее Сонет, Опус и Haiku. А в сентябре прошлого года компания привлекла 4 млрд долларов инвестиций от Amazon. Таким образом, выпуск мобильного приложения и нового платного тарифа Team являются шагами Anthropic по укреплению своих позиций на конкурентном рынке моделей ИИ.

Британские антимонопольщики заинтересовались инвестициями Microsoft и Amazon в ИИ-стартапы

Британское Управление по защите конкуренции и рынкам (Competition and Markets Authority, CMA) всерьёз заинтересовалось инвестициями Amazon и Microsoft в стартапы в области искусственного интеллекта.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Внимание антимонопольщиков привлекли партнёрские отношения Microsoft с компаниями Mistral и Inflection AI — стартапом, глава и большая часть сотрудников которого в прошлом месяце перешли в Microsoft. CMA обнаружило схемы инвестирования в специализирующиеся на ИИ стартапы, которые могут препятствовать свободной конкуренции. Представитель Microsoft в ответ на это в очередной раз заявил, что компания не видит ничего предосудительного в найме талантливых сотрудников и инвестициях в стартапы, поскольку это не означает слияния компаний и не препятствует конкуренции.

Не ускользнули от внимания CMA и $4 млрд инвестиций Amazon в Anthropic (создателя серии генеративных ИИ-моделей Claude). Обе компании поспешили опровергнуть претензии британских антимонопольщиков.

«Раньше CMA не рассматривало такие сделки. Сотрудничество с Anthropic подразумевает лишь ограниченные инвестиции, у Amazon нет места в совете директоров, она не выступает наблюдателем, а Anthropic может свободно использовать для своих моделей сервисы других облачных провайдеров», — заявила в своём блоге Amazon.

«Мы остаёмся самостоятельной компанией, а наши стратегические партнёрства и отношения с инвесторами не влияют на независимость нашего корпоративного управления и возможности сотрудничества с другими компаниями», — заявили в Anthropic.

Microsoft продолжает агрессивно развивать ИИ-направление. В феврале компания объявила о сотрудничестве с французским стартапом Mistral, ИИ-модели которого станут доступны клиентам облачного сервиса Microsoft Azure. Mistal получила €15 млн инвестиций, что сразу привлекло внимание регуляторов. В марте Microsoft объявила о приёме на работу соучредителя конкурирующего с OpenAI стартапа Inflection AI Мустафы Сулеймана. Он занял должность вице-президента, забрав в Microsoft большую часть сотрудников стартапа. Сама Inflection заявила, что отказывается от разработки персонального ИИ-чатбота в пользу обслуживания бизнес-клиентов и лицензирования технологий Microsoft. Инвестициями Microsoft в ИИ-стартапы заинтересовалась Европейская комиссия, но она не нашла признаков слияния компаний. Федеральная торговая комиссия США также заподозрила Microsoft в нарушении антимонопольного законодательства.

Amazon отстаёт от Microsoft и Google в развитии генеративных ИИ, но старается догнать конкурентов, используя преимущества собственных облачных сервисов. В марте Amazon вложила $2,75 млрд в Anthropic, после чего ИИ-стартап согласился использовать Amazon Web Services для некоторых операций и заказные чипы компании. В Anthropic также инвестирует Google, чьи облачные мощности она также использует.

Найден новый способ заставить ИИ говорить на запрещённые темы — нужно просто измотать его вопросами

Разработчики современных систем искусственного интеллекта накладывают на них ограничения, запрещая давать ответы на отступающие от традиционных этических норм вопросы. Существует множество способов обойти эти ограничения, и очередной такой способ открыли исследователи из компании Anthropic — измотать ИИ вопросами.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Учёные назвали новый тип атаки «многоимпульсным взломом» (many-shot jailbreaking) — они подробно описали его в статье и предупредили коллег о выявленной уязвимости, чтобы последствия атаки можно было смягчить. Уязвимость возникла из-за того, что у больших языковых моделей последнего поколения увеличилось контекстное окно — объём данных, который они могут хранить в том, что заменяет им кратковременную память. Раньше этот объём данных ограничивался несколькими предложениями, а сейчас он вмещает тысячи слов и даже целые книги.

Исследователи Anthropic обнаружили, что модели с большими контекстными окнами, как правило, лучше справляются с задачами, если в запросе содержатся несколько примеров решения подобных задач. Другими словами, чем больше в запросе простых вопросов, тем выше качество ответа. И если первый вопрос ИИ понимает неправильно, то с сотым ошибки уже не будет. Но в результате такого «контекстного обучения» большая языковая модель начинает «лучше» отвечать на недопустимые вопросы. Так, если просто спросить её, как собрать бомбу, она откажется отвечать. Но если перед этим задать модели 99 менее опасных вопросов, а затем снова спросить, как собрать бомбу, вероятность получить недопустимый ответ вырастет.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Трудно сказать наверняка, почему эта атака срабатывает. В действительности никто не знает, что творится в сложной системе весов, которую представляет собой большая языковая модель, но, видимо, существует некий механизм, который помогает ей сосредоточиться на том, что нужно пользователю — понять это помогает содержимое контекстного окна. И когда он говорит о том, что можно принять за мелочи, после упоминания в нескольких десятках вопросов они перестают быть мелочами.

Авторы работы из Anthropic проинформировали коллег и конкурентов о результатах исследования — они считают, что раскрытие информации подобного рода должно войти в отраслевую практику, и в результате «сформируется культура, в которой эксплойты вроде этого будут открыто распространяться среди разработчиков больших языковых моделей и исследователей». Наиболее очевидный способ смягчить последствия атаки — сократить контекстное окно модели, но это снизит качество её работы.


window-new
Soft
Hard
Тренды 🔥
«Яндекс» запустил исследовательского ИИ-агента в «Алисе» для всех 16 мин.
«Однозначно лучший трейлер в истории Bethesda»: новая демонстрация крупного обновления Free Lanes впечатлила фанатов Starfield 43 мин.
Создатели Garry’s Mod подтвердили дату выхода и стоимость амбициозной песочницы S&box 3 ч.
Лабиринт откроет двери на следующей неделе: стратегическая головоломка Minos по мотивам мифа о Тесее и Минотавре получила дату выхода в Steam 13 ч.
Anthropic вспомнила об авторских правах — она пытается смягчить последствия утечки кода Claude Code 15 ч.
Официально: апрельская подборка PS Plus включает пять игр вместо трёх, но есть нюанс 16 ч.
Амбициозный боевик Saros от разработчиков Returnal не опоздает к релизу — игра ушла на золото почти за месяц до выхода 17 ч.
Ollama получила поддержку аппаратного ускорения на чипах Apple M5 — при наличии 32 Гбайт памяти 17 ч.
Создатель Disco Elysium рассказал, при каком условии выйдет Disco Elysium 2 18 ч.
ЕС решил запретить ИИ-контент в официальных материалах 18 ч.