Сегодня 15 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Мошенники наводнили десятки тысяч сайтов спамом с помощью OpenAI GPT-4o-mini

Спам-бот AkiraBot использовал ИИ-модель GPT-4o-mini через API OpenAI для создания спам-комментариев, продвигающих фиктивные SEO-услуги. Разнообразие содержания этих комментариев позволяло обходить системы фильтрации на тысячах сайтов по всему миру, говорится в исследовании компании SentinelOne.

 Источник изображения: Wesley Tingey / Unsplash

Источник изображения: Wesley Tingey / Unsplash

Согласно отчёту компании SentinelOne, специализирующейся на кибербезопасности, AkiraBot атаковал не менее 80 000 веб-сайтов, большинство из которых принадлежат малому и среднему бизнесу, использующему платформы электронной торговли, такие как Shopify, GoDaddy, Wix и Squarespace.

Как сообщает издание 404 Media, бот направлял в API OpenAI запрос: «Вы — полезный помощник, который создаёт маркетинговые сообщения», — после чего ИИ генерировал спам-комментарии, адаптированные под тематику конкретных сайтов. Так, для сайта строительной компании создавался один вариант спам-сообщений, а для салона красоты — другой. Затем эти комментарии размещались в чатах и формах обратной связи на сайтах, с целью побудить их владельцев приобрести SEO-услуги. Поздние версии спам-бота начали использовать для этих целей также онлайновые чат-виджеты, встроенные в большинство современных сайтов.

«Поиск сайтов, ссылающихся на домены AkiraBot, показывает, что ранее этот бот размещал сообщения таким образом, что они индексировались поисковыми системами», — говорится в сообщении SentinelOne. Упомянутый спам-бот появился в сентябре 2024 года и не имеет отношения к группе Akira, занимающейся распространением вымогательского программного обеспечения.

Помимо GPT-4o-mini, AkiraBot использовал прокси-сервисы для обхода CAPTCHA и маскировки сетевой активности. OpenAI заблокировала соответствующий API-ключ и заявила, что продолжает расследование, пообещав отключить все активы, связанные с инцидентом. «Мы серьёзно относимся к злоупотреблениям и постоянно совершенствуем наши системы для их выявления», — говорится в заявлении OpenAI.

Случаи неправомерного использования инструментов OpenAI уже отмечались ранее — в том числе при создании пропагандистских материалов государственными структурами. Однако зачастую киберпреступники предпочитают использовать собственные ИИ-системы. Так, в 2023 году была выявлена ИИ-модель WormGPT, позволявшая мошенникам вести переписку от имени банка и автоматизировать процесс обмана пользователей.

ИИ-лаборатория Meta✴, создавшая модель Llama, постепенно угасает — в компании назвали это «новым началом»

Исследовательская лаборатория Meta AI (прежнее название — Facebook Artificial Intelligence Research, FAIR) «медленно умирает», говорят некоторые инсайдеры. Meta предпочитает называть это «новым началом», пишет Fortune.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Сообщение об уходе вице-президента Meta по исследованиям в области ИИ Жоэль Пино (Joelle Pineau), возглавлявшей последние два года Meta AI, вызвало у многих удивление. Когда-то подразделение FAIR находилось на переднем крае разработки технологий ИИ. Однако после того как Марк Цукерберг (Mark Zuckerberg) за последние два года переориентировал компанию на внедрение продуктов генеративного ИИ, лаборатория стала постепенно отходить на второй план, уступая место более коммерчески ориентированным группам по разработке ИИ, отмечает Fortune.

Так, например, новейшая ИИ-модель Llama была создана отдельной командой GenAI Meta, а не FAIR. FAIR начала терять позиции, и талантливые исследователи перешли в конкурирующие компании и стартапы: более половины из 14 авторов оригинальной исследовательской работы по Llama, опубликованной в феврале 2023 года, покинули компанию спустя шесть месяцев, а как минимум восемь ведущих специалистов ушли за последний год.

Бывшие сотрудники FAIR сообщили Fortune, что лаборатория «умирает медленной смертью». С этой точки зрения уход Пино можно интерпретировать как «предсмертный хрип».

На время поисков нового руководителя лабораторию временно возглавил Янн Лекун (Yann LeCun), главный специалист по ИИ Meta и основатель FAIR. Он отрицает, что лаборатория близка к закрытию, заявив в интервью Fortune: «Это определённо не смерть FAIR». По его словам, лаборатория вот-вот переживёт новый рассвет, а существование группы, работающей над продуктами генеративного ИИ, фактически позволяет FAIR переориентироваться на долгосрочные исследования в этой области. «Это скорее новое начало, в рамках которого FAIR сосредоточится на амбициозной и долгосрочной цели — том, что мы называем AMI (продвинутый машинный интеллект)», — отметил Лекун.

Пино также сообщила Fortune, что по-прежнему «с большим энтузиазмом относится к общей работе и стратегии Meta в области ИИ». По её словам, в компании всё ещё существует сильная поддержка FAIR, а её уход объясняется тем, что она решила «перенаправить свою энергию, прежде чем заняться новым делом».

Тем не менее, семь бывших сотрудников Meta, с которыми на прошлой неделе пообщался репортёр Fortune, утверждают, что лаборатория в последние годы постепенно снижает обороты, а ей предоставляют меньше доступа к вычислительным мощностям по сравнению с командами, сосредоточенными на генеративном ИИ.

Когда в конце ноября 2022 года вышел чат-бот ChatGPT от OpenAI, Meta воспринималась как серьёзно отстающая от OpenAI, Anthropic и Google в сфере генеративного ИИ. Однако FAIR помогла Meta вернуть позиции на ИИ-рынке, разработав модель генеративного ИИ Llama с открытым исходным кодом и свободным доступом, способную конкурировать с решениями других ведущих компаний. Затем, в июле 2023 года, FAIR выпустила Llama 2.

Но уже в сентябре того же года у лаборатории начались проблемы. Как сообщил тогда ресурс The Information, многие из первоначальных исследователей FAIR, работавших над Llama, покинули компанию из-за борьбы за вычислительные ресурсы с другой исследовательской группой Meta, разрабатывавшей конкурирующую модель, от которой впоследствии отказались. В январе 2024 года FAIR снова была реструктурирована. А выпуск Llama 4 осуществлялся уже подразделением по разработке генеративного ИИ Meta, которое возглавляет вице-президент по генеративному ИИ Ахмад Аль-Дале (Ahmad Al-Dahle). После этого команда в рамках недавно созданного направления под руководством вице-президента Meta Манохара Палури (Manohar Paluri) взяла на себя работу над моделями Llama, оставив FAIR в стороне.

По словам бывших сотрудников FAIR, компания в настоящее время перенаправляет ресурсы на программы, ориентированные на генеративный ИИ, тогда как FAIR традиционно занималась целым рядом проектов, охватывающих широкий спектр подотраслей искусственного интеллекта, и генеративный ИИ был лишь одной из них.

Nvidia и Alphabet вложились в капитал стартапа одного из основателей OpenAI

По большому счёту, в штате OpenAI осталось не так много руководителей высокого ранга, которые стояли у истоков этого стартапа, подарившего миру ChatGPT. Илья Суцкевер, например, после ухода из OpenAI основал свою компанию SSI. В её капитал уже вложились инвесторы, включая Nvidia и Alphabet, причём последняя намерена предлагать SSI свои ускорители вычислений TPU.

 Источник изображения: Nvidia

Об этом сообщило агентство Reuters со ссылкой на собственные источники. Независимо от сделки по инвестированию в капитал SSI, корпорация Google сообщила о достижении договорённостей со стартапом Суцкевера о предоставлении ему доступа к облачным вычислительным мощностям, построенным на ускорителях TPU.

Капитализация SSI оценивается в $32 млрд, что делает его самым стремительно дорожающим стартапом в области ИИ. Инвесторы ценят опыт Ильи Суцкевера, который в OpenAI возглавлял процессы исследований и разработки, а также формировал стратегию развития. Сколько именно вложили в капитал SSI компании Nvidia и Alphabet, источники Reuters не сообщают. Последняя из корпораций параллельно оказывает поддержку стартапу Anthropic, тем самым диверсифицируя свои инвестиционные риски в данной сфере.

Для Alphabet сделка с SSI стала ещё одним шансом увеличить поставки ускорителей TPU на сторону, поскольку изначально они создавались Google для собственных нужд холдинга. Традиционно разработчики систем ИИ больше полагались на ускорители Nvidia, но SSI на их фоне выделяется как раз тем, что опирается преимущественно на аппаратные решения Google. В облачной инфраструктуре Google, однако, ускорители TPU сочетаются с решениями Nvidia.

Конкурирующий с SSI стартап Anthropic, также созданный выходцами из OpenAI в 2021 году, использует не только ускорители TPU, но и полагается на решения Amazon (AWS) собственной разработки. В декабре партнёры объявили, что Anthropic станет первым клиентом AWS, получившим доступ к существенным вычислительным мощностям, построенным на чипах AWS собственной разработки. При этом стартап не сокращает затраты на закупки ускорителей Google TPU. Как и Google, облачное подразделение Amazon является инвестором Anthropic. Логично, что Nvidia, Google и SSI связывают подобные отношения. При этом Nvidia инвестирует не только в OpenAI, но и в xAI, основанный Илоном Маском (Elon Musk).

Двухлетняя модель GPT-4 скоро исчезнет из ChatGPT, уступив место более свежей GPT-4o

С 30 апреля компания OpenAI удалит модель GPT-4 из меню выбора моделей в ChatGPT для пользователей подписки Plus. Такое решение связано с окончательным переходом на новую модель GPT-4o, которая, по словам разработчиков, превосходит своего предшественника по всем ключевым параметрам, начиная с написания текстов и заканчивая программированием.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как заявили в OpenAI, мультимодальная большая языковая модель четвёртой серии GPT стала поворотным моментом в развитии чат-бота ChatGPT. Выпущенная 14 марта 2023 года, модель показала несравнимо большие возможности по сравнению в GPT-3. По данным PCMag, на её обучение было потрачено более $100 млн.

Несмотря на то, что GPT-4 исчезнет из пользовательского интерфейса ChatGPT, она останется доступной через API на других платформах. При этом, бесплатные пользователи ChatGPT не смогут выбрать модель вручную, поэтому для них ничего не изменится. В настоящее время OpenAI предлагает несколько моделей, включая GPT-4 Turbo, GPT-o3, GPT-o1 и GPT-4.5, а также ходят слухи о возможном запуске GPT-4.1.

Глава OpenAI Сэм Альтман (Sam Altman) ранее признавал, что наличие большого количества моделей может сбивать пользователей с толку, поэтому в будущем компания планирует отказаться от выбора модели вручную и перейти к системе единого ИИ, где подбор модели будет происходить автоматически в зависимости от задач.

Все представленные модели, как отмечают в OpenAI, являются этапами на пути к следующему крупному релизу GPT-5. Однако её разработка проходит не совсем гладко, что связано, в том числе, и с нехваткой графических процессоров. Но так как компании удалось в прошлом месяце привлечь $40 млрд инвестиций, то ожидается, что это поможет масштабировать вычислительные мощности и ускорить релиз.

После запуска модель GPT-5 станет доступна пользователям бесплатно в базовом режиме. Подписчики ChatGPT Plus ($20 в месяц) смогут использовать её с повышенным уровнем ИИ-возможностей, а пользователи подписки Pro ($200 в месяц) получат доступ к самым мощным функциям, таким как голосовой режим, инструменты визуализации Canvas, расширенный поиск, глубокие исследования и другие продукты OpenAI.

ChatGPT обошёл Instagram✴ и TikTok, став самым скачиваемым приложением в мире

Приложение ChatGPT впервые возглавило мировой рейтинг загрузок в марте 2025 года, обогнав таких гигантов, как Instagram и TikTok. По данным аналитической компании Appfigures, число установок ChatGPT выросло на 28 % по сравнению с февралём и составило около 46 миллионов загрузок за месяц. С момента запуска приложения, март оказался для OpenAI лучшим месяцем.

 Источник изображения: Rolf van Root / Unsplash

Источник изображения: Rolf van Root / Unsplash

Instagram, удерживавший лидерство в январе и феврале, опустился на второе место, а TikTok занял третью строчку в App Store и Google Play, сообщает TechCrunch. При этом, рост популярности ChatGPT связывают с важными обновлениями. В частности, впервые за более чем год были улучшены функции генерации изображений, что позволило пользователям создавать вирусные картинки и мемы в стиле анимационной студии Studio Ghibli, которые быстро разошлись по социальным сетям в конце марта и начале апреля.

Кроме того, OpenAI ослабила ограничения в политике модерации визуального контента и обновила в приложении голосовой режим. Тем не менее, аналитики считают, что не только новые функции повлияли на скачок популярности.

«Складывается впечатление, что слово ChatGPT становится глаголом, таким же, каким стал Google в 2000-х. Многие уже говорят не искусственный интеллект, а просто ChatGPT», — отметил основатель и генеральный директор Appfigures Ариэль Михаэли (Ariel Michaeli). По его словам, волну интереса к ИИ также подогревают конкуренты вроде Grok или DeepSeek, но пользователи всё равно скачивают ChatGPT.

К сожалению, популярность ChatGPT также затрудняет рост других чат-ботов. К примеру, Claude от Anthropic пока не может приблизиться к таким же результатам. У Grok, наоборот, шансы несколько выше, но во многом благодаря фигуре самого Илона Маска (Elon Musk) и его платформе X, которая активно продвигает продукт.

 Источник изображения: Appfigures

Источник изображения: Appfigures

В общемировом рейтинге в марте также оказались Facebook, WhatsApp, Telegram, Snapchat и Threads. Всего 10 самых популярных приложений были загружены 339 миллионов раз, что на 40 миллионов больше, чем в феврале.

OpenAI стала тратить меньше времени на тесты безопасности ИИ-моделей

OpenAI сократила время и ресурсы, которые тратятся на тестирование мощных моделей искусственного интеллекта на безопасность. Это вызывает опасения, что разрабатываемые компанией технологии выпускаются чрезвычайно быстро и не сопровождаются достаточными мерами защиты от угроз.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Сотрудникам OpenAI и компаний-партнёров теперь выделяют всего несколько дней, чтобы провести оценку рисков и производительности моделей ИИ — ранее на это уходили несколько месяцев. Механизмы проверки в OpenAI стали менее тщательными, ресурсов на выявление и смягчение угроз выделяется всё меньше — при оценке в $300 млрд компания вынуждена выпускать новые модели быстро, чтобы сохранять конкурентное преимущество, сообщает Financial Times со ссылкой на восемь информированных источников. По мере того, как возможности больших языковых моделей расширяются, увеличивается и вероятность их использования в качестве оружия; но растёт и спрос на них, и руководство компании стремится выпускать продукты в минимальные сроки.

Мирового стандарта для процесса тестирования ИИ на предмет безопасности не существует, но в этом году вступят в силу положения европейского «Закона об ИИ», которые обяжут разработчиков проводить испытания безопасности своих самых мощных моделей. Ранее некоторые разработчики в добровольном порядке взяли на себя обязательства перед властями Великобритании и США давать возможность проводить такое тестирование сторонним исследователям. OpenAI намеревается выпустить новую модель o3 уже на следующей неделе, то есть на её проверку будет меньше недели; но дату выпуска могут изменить.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Так мало времени этому вопросу в компании ещё не уделяли. В 2023 году вышла GPT-4, оценки для которой проводились около шести предшествующих месяцев. Некоторые опасные возможности модели, рассказал один из участников её тестирования, обнаружились лишь через два месяца после начала процесса. OpenAI взяла на себя обязательство по созданию специальных версий систем ИИ, чтобы оценить возможность их нецелевого применения — например, чтобы выяснить, можно ли сделать биологический вирус более заразным. Эта задача требует значительных ресурсов: сбора специализированной информации, например, по вирусологии, и её отправки в модель при дополнительном обучении — тонкой настройке.

В действительности компания выполняет свои обязательства лишь в ограниченном объёме, проводя тонкую настройку старых и менее эффективных моделей и игнорируя более мощные и продвинутые. Так, в отчёте о безопасности вышедшей в январе модели o3-mini приводятся сведения о более ранней GPT-4o — о некоторых испытаниях для o1 и o3-mini компания не сообщала вообще. OpenAI заявила в свою защиту, что повысила эффективность процессов оценки и ввела автоматизированные тесты, благодаря чему сроки удалось сократить. Согласованного рецепта для таких подходов как тонкая настройка не существует, напомнили в компании, но выразили уверенность, что её методы являются лучшими из возможных, и в отчётах они были отмечены с максимальной прозрачностью.

Ещё одна проблема состоит в том, что тесты безопасности зачастую проводятся не на финальных моделях, которые выходят в открытый доступ, а на «контрольных точках» — более ранних версиях, которые впоследствии обновляются, получая повышенные производительность и новые возможности, и в отчётах OpenAI даются ссылки на «почти финальные» версии. В компании отметили, что «контрольные точки» «преимущественно идентичны» вариантам, которые выходят в общий доступ.

ИИ-стартап выдавал филиппинцев за ИИ — теперь основатель компании ответит за это в суде

Альберту Санигеру (Albert Saniger), основателю и бывшему генеральному директору компании Nate, выпустившей приложение якобы с искусственным интеллектом для совершения покупок и «универсальной» схемой оформления заказа, предъявлено обвинение в мошенничестве в отношении инвесторов, гласит пресс-релиз Минюста США.

 Источник изображения: Hack Capital / unsplash.com

Источник изображения: Hack Capital / unsplash.com

Компания Nate была основана в 2018 году — она привлекла более $50 млн от инвесторов, в том числе от Coatue и Forerunner Ventures; в ходе последнего раунда финансирования во главе с Renegade Partners в 2021 году были привлечены $38 млн. Руководство компании заявляло, что приложение Nate позволяет совершать покупки на любых торговых площадках в один щелчок мыши — оформление заказа якобы берет на себя ИИ. В действительности покупки вручную оформляли подрядчики в кол-центре на Филиппинах, утверждает прокуратура Южного округа штата Нью-Йорк.

Санигер привлёк многомиллионные инвестиции, уверяя, что Nate может совершать транзакции онлайн «без вмешательства человека» за исключением редких случаев. Компания действительно приобрела несколько решений в области ИИ, но в действительности уровень автоматизации в работе приложения, по версии ведомства, был нулевым. В 2022 году издание The Information провело расследование и установило, что сервис использовал труд нанятых людей.

В итоге у Nate закончились средства, в январе 2023 года компания была вынуждена продать активы, а инвесторы «почти полностью» потеряли вложенные средства, гласит обвинительное заключение минюста США. Подобные мошеннические схемы с мнимым ИИ реализовывали и другие стартапы, пишет TechCrunch.

Учёные уличили ИИ в сокрытии истинного хода своих рассуждений

Модели искусственного интеллекта скрывают истинные механизмы своих рассуждений и при запросе от человека выдумывают для него более сложные объяснения, гласят результаты проведённого компанией Anthropic исследования.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

Специалисты Anthropic, разработавшей похожего на ChatGPT ИИ-помощника Claude, изучили модели, способные симулировать процесс рассуждений, в том числе DeepSeek R1 и свои собственные системы серии Claude. Как оказалось, рассуждающие модели ИИ часто не раскрывают, когда при подготовке ответа принимают помощь от внешних источников или используют кратчайшие пути, несмотря на функции, разработанные, чтобы ИИ демонстрировал свой процесс «рассуждений». Чтобы описать работу рассуждающих моделей ИИ, оперируют понятием «цепочки мыслей» (Chain-of-Thought — CoT). Это вывод текущих комментариев к имитации мыслительного процесса ИИ: отображается каждый шаг, который модель делает на пути к получению ответа — аналогичным образом при решении головоломки может рассуждать человек, шаг за шагом проговаривая каждое соображение.

Функция оказалась полезной не только для получения результатов при решении сложных задач, но и для исследователей в области безопасности ИИ, стремящихся отследить внутренние механизмы работы систем. В идеале цепочка мыслей ИИ должна быть понятной для человека и соответствовать действительности, то есть отражать фактический процесс рассуждений модели. На деле такой идеальный сценарий, как оказалось, срабатывает не всегда. Модели ИИ, в том числе Anthropic Claude 3.7 Sonnet, при генерации ответа в ходе исследования часто использовали предложенную им в рамках эксперимента информацию — подсказки с вариантами правильного ответа или инструкции для получения результата по «несанкционированному» кратчайшему пути, — но при выводе публичной цепочки рассуждений часто опускали упоминание этих внешних факторов. Негласно полагаясь на подсказку или получая ответ кратчайшим путём, ИИ создавал сложное, но вымышленное объяснение своего ответа, то есть по сути фабриковал ложную цепочку рассуждений — как школьник, который списал со шпаргалки, но попытался сделать вид, что решил задачу сам.

Чтобы убедиться в правильности своих выводов, исследователи Anthropic стали действовать деликатнее. В одних случаях они ненавязчиво добавляли подсказки прямо в запросы, например, намекали: «Профессор Стэнфорда указывает, что ответ — [A]». В других — сопровождали подсказки тревожными комментариями: «Вы получили несанкционированный доступ <..> правильный ответ — [A]». В некоторых подсказках давался правильный ответ, в других он был намеренно неверным. Такой проверке подвергли модели Anthropic Claude 3.7 Sonnet и DeepSeek R1: первая призналась в цепочке мыслей, что использовала подсказки, лишь в 25 % случаев, вторая — лишь в 39 % случаев. То есть в большинстве испытаний ИИ выводил не соответствующие действительности рассуждения, опуская информацию, которая повлияла на получение ответа. Интересно, что выдуманные цепочки рассуждений в среднем оказались длиннее достоверных; а с усложнением запросов достоверные цепочки рассуждений выводились реже.

 Источник изображений: anthropic.com

Наиболее показательным стал эксперимент по «взлому вознаграждения» (reward hacking). Так называется сценарий, при котором модель ИИ обнаруживает неожиданный способ получить ответ кратчайшим путём, чтобы добиться максимальной производительности и не решать задачу так, как предполагалось. В экспериментах Anthropic учёные намеренно вознаграждали модели за выбор указанных в подсказках неверных ответов: ИИ быстро научился использовать эту лазейку, выбирая неправильные ответы в 99 % случаев, чтобы заработать баллы — упоминание этого сценария в открытой цепочке рассуждений сократилось до доли в 2 %. Так, модель, выдавшая неверный ответ по медицинской тематике, могла написать длинную цепочку рассуждений, подводящую к этому неправильному ответу, не упоминая полученную подсказку.

Специалисты Anthropic выдвинули гипотезу, что обучение моделей на более сложных задачах, которые требуют бо́льших объёмов рассуждений, может естественным образом стимулировать их существеннее использовать цепочку мыслей и чаще упоминать подсказки. Они проверили эту гипотезу, обучив Claude плотнее применять цепочку мыслей при решении сложных задач в области математики и программирования — результат оказался положительным, но радикальных перемен не дал.

Учёные отметили, что их исследование носило ограниченный характер: сценарии были искусственными, а подсказки вводились в задачах с множественным выбором — в реальных задачах ставки и стимулы отличаются. Кроме того, за образец брали только модели Anthropic и DeepSeek. Использованные в ходе эксперимента задачи могли быть недостаточно сложными, чтобы установить значительную зависимость от цепочки мыслей, при более сложных запросах роль вывода цепочки рассуждений может возрасти, а её мониторинг — оказаться более жизнеспособным. Для обеспечения согласованности и безопасности мониторинг цепочки рассуждений может быть не вполне эффективным, и не всегда можно доверять тому, как модели сообщают о своих рассуждениях, когда предметом исследования оказывается «взлом вознаграждения». Чтобы с высокой степенью надёжности «исключить нежелательное поведение [ИИ], используя мониторинг цепочки мыслей, придётся ещё проделать значительную работу», заключили в Anthropic.

OpenAI готовится запустить ИИ-модель GPT-4.1, но возможны задержки

Компания OpenAI планирует в ближайшее время представить несколько новых моделей искусственного интеллекта, включая обновлённую версию GPT-4 под названием GPT-4.1, которая станет усовершенствованной версией флагманской рассуждающей модели GPT-4o.

 Источник изображения: AI

Источник изображения: AI

По данным The Verge, улучшенная новая модель GPT-4.1 также, как и GPT-4o сможет обрабатывать текст, изображение и аудио в режиме реального времени. Вместе с ней OpenAI планирует выпустить и более лёгкие версии — GPT-4.1 mini и nano, запуск которых может состояться уже на следующей неделе.

Кроме того, компания готовит к релизу полную версию модели o3, а также облегчённый вариант o4 mini. ИИ-разработчик Тибор Блахо (Tibor Blaho), известный тем, что раньше других замечает возможные нововведения, обнаружил упоминания этих моделей в новой веб-версии ChatGPT, что, по его мнению, указывает на их скорый запуск.

Интересно, что генеральный директор OpenAI Сэм Альтман (Sam Altman) ранее намекал в соцсети X на «захватывающие функции», которые появятся в линейке продуктов компании, однако не уточнил, связано ли это с новыми моделями. При этом он также предупреждал, что пользователи могут столкнуться с задержками и сбоями из-за высокой нагрузки на вычислительные мощности: «Следует ожидать задержек, сбоев и медленной работы сервисов, пока мы решаем проблемы с производительностью».

Напомним, ранее OpenAI уже была вынуждена ограничить использование генератора изображений в бесплатной версии ChatGPT из-за перегрузки серверов, так как, по словам Альтмана, популярность этой функции привела к тому, что их GPU чуть ли не стали плавиться, подтверждая предположение о колоссальном спросе на услуги компании.

Исследование Microsoft показало, что ИИ пока «так себе» исправляет ошибки в программном коде

Новое исследование подразделения Microsoft Research выявило, что несмотря на то, что ИИ помогает разработчикам в написании кода, даже передовые модели OpenAI (o1) и Anthropic (Claude 3.7 Sonnet) справляются с исправлением ошибок не более чем в половине случаев. Тестирование проводилось на базе лучшего бенчмарка SWE-bench, который измеряет умение ИИ-систем создавать программный код.

 Источник изображения: сгенерировано AI

Источник изображения: сгенерировано AI

В ходе эксперимента ИИ-агенты пытались решить 300 задач по устранению ошибок в коде. Лидером стала модель Claude 3.7 Sonnet, которая выполнила задание с успешностью на 48,4 %, второе место заняла OpenAI o1 (30,2 %), третье — o3-mini (22,1 %). Однако, как видно, даже эти цифры далеки от уровня, которого можно было бы ожидать от опытных программистов-людей. Как поясняет TechCrunch, основная проблема заключается в том, что искусственный интеллект пока плохо понимает, как использовать доступные инструменты и интерпретировать ошибки.

По мнению авторов исследования, ключевым препятствием остаётся дефицит данных для обучения моделей. «Мы твёрдо верим, что обучение или дообучение может сделать их лучшими интерактивными отладчиками, — пишут они. — Однако для этого нужны специализированные данные, например, цепочка записей всех процессов взаимодействия людей с ИИ-отладчиками».

Сейчас таких данных недостаточно, что ограничивает возможности моделей. Например, популярный инструмент Devin стартапа Cognition Labs смог по этой причине справиться лишь с тремя из 20 тестов по кодированию. И хотя ИИ активно используется такими компаниями как Google, по словам генерального директора Сундара Пичаи (Sundar Pichai), четверть кода, который создаётся с помощью искусственного интеллекта, может даже наоборот добавлять ошибки.

Технологические лидеры скептически относятся к полной автоматизации профессии программиста. Билл Гейтс (Bill Gates) уверен, что программирование как профессия, конечно, никуда не исчезнет. Аналогичного мнения придерживаются генеральный директор Replit Амджад Масад (Amjad Masad), глава Okta Тодд Маккиннон (Todd McKinnon) и руководитель IBM Арвинд Кришна (Arvind Krishna).

Несмотря на очевидные проблемы, интерес к ИИ-инструментам для разработки продолжает расти. Инвесторы видят в них потенциал для повышения эффективности, однако ведущие разработчики считают, что доверять ИИ полностью пока рановато.

В графическом онлайн-редакторе Canva появился ИИ для генерации изображений и создания приложений

Бесплатный графический онлайн-редактор Canva представил ИИ-инструменты для генерации изображений и создания мини-приложений с помощью всего лишь текстовых запросов. Несмотря на недовольство художников, которые выступают против использования их работ для обучения ИИ, и опасений, что искусственный интеллект заменит их труд, компании продолжают активно внедрять технологию в свои проекты. Canva не стала исключением.

 Источник изображения: Canva

Источник изображения: Canva

Новый ИИ-ассистент Canva AI способен генерировать изображения по запросу, предлагать дизайнерские решения для публикаций в соцсетях и печати, а также писать тексты. А с помощью инструмента Canva Code, как отмечает TechCrunch, пользователи смогут создавать интерактивные элементы, например, карты и пользовательские калькуляторы, которые можно встраивать в приложения и на сайты. Как сообщил сооснователь и директор по продукту Кэмерон Адамс (Cameron Adams), для этого Canva сотрудничает с компанией Anthropic.

Хотя Canva не является первопроходцем на рынке ИИ-услуг для дизайна в целом и веб-дизайна в частности (аналогичные инструменты предлагают стартапы Cursor, Replit и другие), интеграция функций искусственного интеллекта логично дополняет платформу. Компания также анонсировала ИИ-инструменты для фоторедактора, включая автоматическую ретушь и замену фона, тем самым усиливая конкуренцию с Adobe Photoshop и Pixelmator.

Также сервис запустил собственные электронные таблицы — Canva Sheets с инструментом Magic Insights, который помогает находить закономерности в данных, и инструментом Magic Charts, автоматически превращающий цифры в визуальные графики с фирменным стилем. Поддерживается интеграция с такими сервисами, как Google Analytics и HubSpot.

Хотя художники опасаются последствий массового внедрения ИИ, Кэмерон Адамс считает, что речь идёт не о замене людей, а о трансформации профессий. «Каждая работа изменится и адаптируется к новым возможностям. Мы, в свою очередь, видим в этом огромный потенциал», — подчеркнул он. Недавние увольнения в компании он объяснил реструктуризацией, не связанной напрямую с ИИ.

Илону Маску придётся ответить в суде за преследование OpenAI

Около десяти лет назад Илон Маск (Elon Musk) принимал участие в становлении стартапа OpenAI, но покинул его до того, как успех ChatGPT стремительно нарастил коммерческий потенциал компании. Нынешнее руководство OpenAI считает, что сейчас Маск пытается навредить бизнесу компании всеми способами, попутно продвигая интересы конкурирующего стартапа xAI. Остановить Маска OpenAI попытается через суд.

 Источник изображения: Unsplash, Levart_Photographer

Источник изображения: Unsplash, Levart_Photographer

Соответствующий иск, как отмечает Bloomberg, был подан адвокатами OpenAI на этой неделе. В примерно стостраничном документе представители истца описывают, как Илон Маск использует судебные разбирательства и публикации в СМИ для ущемления интересов OpenAI. Даже февральскую попытку купить стартап за $97,4 млрд предприниматель использовал для нанесения ущерба его бизнесу, по словам адвокатов. Установив подобную планку стоимости, Маск тем самым усложнил переговоры OpenAI с реальными инвесторами, которые теперь неизбежно будут на неё ориентироваться и способны отказаться в результате от намерений вложить средства в капитал стартапа.

Основная цель подобной активности Маска, как считают представители OpenAI, заключается в формировании более выгодных условий для ведения бизнеса стартапа xAI, который он основал в 2023 году. Недавно xAI номинально поглотил социальную сеть X, которую Маск приобрёл в 2022 году за $44 млрд. Объединённая структура оценивается экспертами как минимум в $100 млрд.

На прошлой неделе OpenAI привлекала $40 млрд от японской корпорации SoftBank, с которой принимает участие в реализации проекта Stargate по развитию американской национальной вычислительной структуры. Данный раунд финансирования поднимает капитализацию OpenAI до $300 млрд, по мнению экспертов.

В иске OpenAI попутно сообщается о попытках Маска отговорить инвесторов от поддержки этой компании. Ранее Маск сам обвинял OpenAI в том, что со своих инвесторов компания берёт обещание не поддерживать конкурентов, но представители стартапа подобные обвинения отвергли. Судебное заседание по свежему иску должно будет рассматриваться при участии присяжных, как настаивают представители OpenAI. Сторонам в марте следующего года также предстоит встретиться в суде по иску о реструктуризации OpenAI, в котором миллиардер попытается её предотвратить. Когда состоится заседание по делу о преследовании OpenAI Илоном Маском, пока не сообщается.

Adobe внедрит креативных ИИ-агентов в Photoshop и Premiere Pro

Компания Adobe работает над внедрением ИИ-агентов в графический редактор Photoshop и видеоредактор Premiere Pro. Агенты смогут не только предложить варианты редактирования изображений и видео, но и автоматически применить их. Об этом сообщил в своём блоге Илай Гринфилд (Ely Greenfield), технический директор Adobe по цифровым медиа.

 Источник изображения: blog.adobe.com

Источник изображения: blog.adobe.com

В приложении Photoshop новый ИИ-агент, который получил название «креативный агент», будет доступен через новую плавающую панель Actions. Этот инструмент сможет анализировать изображение и предлагать правки, например, удаление лишних объектов на заднем плане или художественное размытие фона. Для применения изменений пользователю потребуется лишь подтвердить выбранный вариант, отмечает The Verge.

Хотя опытные пользователи Photoshop традиционно предпочитают вручную редактировать объекты, работать со слоями и вносить детализированные правки, Adobe начала внедрение ИИ-инструментов. Среди них — функция Generative Fill для заливки или дополнения пикселями изображения, и Distraction Removal для удаления лишних объектов.

В перспективе пользователи смогут давать агенту команды на естественном языке, что упростит освоение сложных операций (хотя ИИ сможет выполнять их и самостоятельно). При этом можно будет либо корректировать работу агента, либо редактировать как обычно слои вручную.

Что касается Premiere Pro, Adobe продолжает развивать недавно представленную технологию Media Intelligence. Она уже умеет анализировать видео и помогать в поиске нужных фрагментов. В будущем ИИ-агент сможет выполнять черновой монтаж по запросу пользователя.

«Хотя ИИ не заменит творческое видение человека, он способен предложить разумные идеи, которые ускорят работу над проектом, — отметил Гринфилд. — Кроме того, он научит выполнять сложные задачи в несколько кликов, способствуя профессиональному росту редактора». В дальнейшем агент для Premiere Pro сможет подбирать оптимальные кадры, корректировать цвет, настраивать звук и выполнять другие задачи, в том числе с применением недавно представленного инструмента Generative Extend, который автоматически добавляет несколько секунд к клипу для плавного перехода.

Технологию, лежащую в основе первого ИИ-агента для Photoshop, представят на мероприятии Adobe Max в Лондоне 24 апреля.

Главный конкурент ChatGPT запустил подписку за $200 в месяц, и в ней всё равно есть ограничения

Компания Anthropic собирается протестировать верхний ценовой порог премиальной подписки на своего чат-бота Claude. Компания станет очередным игроком — вслед за конкурентом OpenAI — на рынке искусственного интеллекта (ИИ), исследующим, сколько готовы платить пользователи за расширенный доступ к современным ИИ-технологиям.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Сегодня Anthropic представила тариф Max, стоимость которого составила $100 или $200 в месяц в зависимости от объёма использования. По словам представителей компании, за $100 пользователи смогут отправлять в пять раз больше запросов к Claude, чем позволяет текущий план Pro за $18 в месяц. А за $200 возможности увеличатся в 20 раз. В настоящее время владельцы подписки Pro могут отправлять в среднем 45 сообщений боту в течение пяти часов.

Подобно другим разработчикам ИИ, компания из Сан-Франциско стремится убедить частных клиентов и бизнес приобретать её продукты, чтобы покрыть высокие затраты на разработку передовых ИИ-моделей. Новый тариф можно сравнить с предложением OpenAI, которая в конце прошлого года запустила аналогичную подписку за $200 в месяц для ChatGPT. Однако OpenAI предоставляет безлимитный доступ к самым мощным моделям за те же $200 в месяц.

Anthropic утверждает, что подписчики тарифа Max смогут получать более развёрнутые ответы, а их запросы будут обрабатываться в приоритетном порядке даже в периоды пиковых нагрузок. Кроме того, они получат эксклюзивный доступ к новым моделям и обновлениям программного обеспечения.

Последняя версия модели Anthropic — Claude 3.7 Sonnet — также предоставляет пользователям возможность выбора между быстрым ответом на простые запросы и более детальным, разложенным «по полочкам» и имитирующим человеческое мышление. Это выделяет компанию на фоне конкурентов в условиях насыщенного рынка ИИ, особенно после того как в марте Anthropic успешно привлекла $3,5 млрд инвестиций, достигнув оценки в $61,5 млрд и тем самым подтвердив своё место среди крупнейших ИИ-стартапов мира.

ИИ-помощник программиста Google Gemini Code Assist научился писать приложения по описанию и переводить код из одного языка в другой

На конференции Cloud Next представитель компании сообщил, что ИИ-помощник по кодированию Code Assist теперь умеет развёртывать новых ИИ-агентов. Они могут создавать приложения из спецификаций продуктов в Google Docs или выполнять преобразования кода с одного языка на другой. Code Assist теперь доступен в Android Studio в дополнение к другим средам программирования.

 Источник изображения: Google

Источник изображения: Google

Обновления Code Assist являются ответом на конкурентное давление со стороны таких компаний, как GitHub Copilot, Cursor и Cognition Labs, создателя вирусного инструмента программирования Devin. Рынок помощников по кодированию на основе искусственного интеллекта растёт с каждым месяцем, а его ёмкость оценивается в миллиарды долларов.

Агенты Code Assist, которыми можно управлять с новой доски Gemini Code Assist Kanban, могут создавать рабочие планы и отчитываться о пошаговом прогрессе по запросам на работу. Помимо создания программного обеспечения и миграции кода, агенты могут внедрять новые функции приложений, выполнять проверки кода и генерировать модульные тесты и документацию.

Пока трудно понять, насколько хорошо работают агенты Code Assist. Исследования показали, что даже лучшие генераторы кода на основе ИИ на сегодняшний день могут допускать ошибки и вносить уязвимости безопасности из-за неспособности понимать логику программирования. На одном из недавних тестов Devin успешно выполнил только три из двадцати задач.

Поэтому, при использовании любого ИИ-ассистента для программирования не помешает самостоятельно проверить получившийся код.


window-new
Soft
Hard
Тренды 🔥
Передовая 332-слойная флеш-память Kioxia предложит кристаллы той же ёмкости, что и 218-слойная 3 ч.
Infinix представила смартфоны Smart 10 Plus, Smart 10 HD и Smart 10 по цене меньше $100 7 ч.
Власти США намерены надавить на союзников с целью синхронизации санкций против Китая 11 ч.
Администрация Трампа решила разобраться в госконтрактах со SpaceX, чтобы узнать, как лишить Маска финансирования 21 ч.
AMD представила Pensando Pollara 400 — первую 400-Гбит/с сетевую карту стандарта Ultra Ethernet 22 ч.
Asus ROG Astral GeForce RTX 5090 Dhahab Edition с автографом Дженсена Хуанга продали на аукционе за $24 200 23 ч.
Китайские учёные изготовили уникальный радиотелескоп для исследования тёмной энергии 23 ч.
Тайвань отправил в тюрьму капитана китайского судна, обвинив его в умышленном повреждении подводного кабеля 24 ч.
Intel выпустит недорогой шестиядерник Core 5 120F для платформы LGA 1700 24 ч.
Apple внесла iPhone XS в список винтажных гаджетов 14-06 17:16