Опрос
|
реклама
Быстрый переход
Каждый десятый человек на Земле теперь пользуется ChatGPT, и его популярность только растёт
14.04.2025 [13:42],
Дмитрий Федоров
Число еженедельных активных пользователей ChatGPT приблизилось к одному миллиарду. Такой рост совпал с мартовским обновлением функции генерации изображений, что вызвало всплеск интереса к ИИ-сервису. В прошлом месяце ChatGPT стал самым загружаемым в мире приложением за исключением игр, а общее количество его установок составило 46 млн. ![]() Источник изображения: Growtika / Unsplash Во время беседы на сцене конференции TED куратор мероприятия Крис Андерсон (Chris Anderson) задал Сэму Альтману (Sam Altman), генеральному директору OpenAI, вопрос о числе пользователей ChatGPT. Альтман ответил, что последняя озвученная цифра составляла 500 млн еженедельных активных пользователей, и добавил, что аудитория продолжает стремительно расти. Андерсон заметил, что в частной беседе Альтман упоминал о двукратном росте за несколько недель. Альтман это не опроверг. Альтман также сообщил, что ChatGPT пользуются около 10 % населения Земли. Поскольку сегодня на Земле живут более 8 млрд человек, это примерно 800 млн пользователей. После запуска 30 ноября 2022 года бесплатной исследовательской версии ChatGPT на основе ИИ-модели GPT-3.5, он достиг отметки в 100 млн пользователей всего за два месяца, став самым популярным приложением в истории. Для сравнения: TikTok для этого потребовалось девять месяцев, а Instagram✴ — два с половиной года. К августу 2024 года число еженедельных активных пользователей ChatGPT достигло 200 млн. Последующий резкий рост был вызван обновлением 25 марта, в котором были улучшены возможности генерации изображений. После этого социальные сети наводнили изображения и видео, выполненные в различных художественных стилях, наиболее популярным из которых оказался стиль японской анимационной студии Studio Ghibli. Альтман отметил, что спрос оказался настолько высоким, что фактически «плавил» графические процессоры компании. Хорошей новостью для OpenAI стало то, что обновление привлекло миллион новых пользователей ChatGPT всего за один час. Согласно данным аналитической платформы Appfigures, в марте ChatGPT стал самым скачиваемым неигровым приложением в мире. Количество установок выросло на 28 % по сравнению с февралем и достигло 46 млн. Взрывному успеху способствовало не только улучшение генератора изображений, но и, вероятно, снятие некоторых ограничений в работе сервиса. ![]() Источник изображения: TED На фоне популяризации генеративного ИИ усиливаются опасения по поводу его влияния на рынок труда. Всё больше компаний сокращают персонал, поскольку задачи, ранее выполнявшиеся людьми, теперь выполняют ИИ-системы. На вопрос о том, заменит ли ИИ человека, Альтман ответил: «Можно сказать: „О, Боже, оно делает всё, что делаю я. Что же со мной будет?“ Или вы можете сказать, как во времена всех других технологических революций в истории: „Хорошо, теперь есть новый инструмент. Я могу делать гораздо больше. Что я смогу делать?“ Конечно, ожидания от человека, занимающего определённую должность, возрастают, но возможности расширяются настолько значительно, что, я думаю, соответствовать этим ожиданиям возможно». Начинающие разработчики ИИ-приложений привлекли рекордные $8,2 млрд инвестиций за прошлый год
14.04.2025 [12:15],
Дмитрий Федоров
Несколько стартапов в сфере ИИ, разрабатывающих прикладные решения на основе больших языковых моделей (LLM), стремительно наращивают объёмы продаж и инициируют новую гонку за коммерческое освоение передовых технологий. Их быстрый рост привлёк внимание инвесторов, готовых вложить сотни миллионов долларов в развитие потребительских ИИ-продуктов. ![]() Источник изображения: Alex Shuper / Unsplash Инвесторы делают ставку на такие компании, как Cursor, Perplexity, Synthesia и ElevenLabs. Эти стартапы создают приложения на основе мощных генеративных ИИ-моделей (GenAI), предоставляемых OpenAI, Google и Anthropic. Они способствуют более широкому внедрению быстро развивающихся технологий как в потребительской, так и в корпоративной среде. По данным аналитической платформы Dealroom.co, в 2024 году объём финансирования стартапов, разрабатывающих приложения на основе ИИ, составил $8,2 млрд, что на 110 % больше, чем в 2023 году. Этот инвестиционный ажиотаж свидетельствует о высоком интересе к разработчикам ИИ-инструментов, способным привлекать сотни миллионов долларов на фоне стремительного роста спроса. Стартап Perplexity, разработавший поисковую систему на базе ИИ, привлёк в декабре $500 млн в рамках своего четвёртого раунда финансирования за год, утроив оценку компании до $9 млрд. По данным источников, в настоящее время компания ведёт переговоры о новом раунде инвестиций по существенно более высокой оценке. В то же время стартап Harvey, разрабатывающий ИИ-решения для юридической сферы, привлёк $300 млн в феврале. Стартапы, создающие приложения для разработчиков программного обеспечения (ПО), также вызвали повышенный интерес со стороны инвесторов. Компании, такие как Reflection AI, Poolside, Magic и Codeium, собрали сотни миллионов долларов в 2024 году на развитие технологий, направленных на повышение производительности программистов. В январе компания Anysphere — разработчик инструмента автоматизации программирования Cursor — привлекла $105 млн при оценке $2,5 млрд. По словам источников, инвесторы проявляют интерес к компании при оценке в $10 млрд и выше. Трёхлетний стартап уже достиг годовой регулярной выручки на уровне $200 млн. ![]() Источник изображения: Dealroom.co and Flashpoint ИИ-стартапы также получили выгоду от усилившейся конкуренции на рынке LLM, которая привела к снижению стоимости обработки запросов и генерации ответов с использованием ИИ. Это позволило использовать инфраструктуру LLM без необходимости создания собственных дорогостоящих ИИ-моделей, что ускорило вывод продуктов на рынок. Брет Тейлор (Bret Taylor), председатель совета директоров OpenAI и сооснователь стартапа Sierra, отметил, что компания за короткое время сменила используемые ИИ-модели не менее пяти-шести раз в связи с высокой скоростью развития отрасли. Стартап Sierra, разрабатывающий агентов поддержки клиентов на базе ИИ, был основан в феврале 2024 года и достиг оценки в $4,5 млрд уже в октябре того же года. По его словам, использование ИИ-модели двухлетней давности сегодня сравнимо с поездкой на автомобиле 1950-х годов — настолько стремительно устаревают технологии. Согласно анализу данных о платежах от финтех-компании Stripe, крупнейшие ИИ-компании достигают объёмов продаж в миллионы долларов уже в течение первого года своей деятельности. Это происходит значительно быстрее, чем в случае стартапов из других технологических отраслей, и свидетельствует о высокой способности прикладного ИИ к быстрому формированию устойчивых бизнес-моделей. Однако пока сложно оценить, насколько надёжна клиентская база ИИ-стартапов и насколько устойчивыми окажутся их текущие доходы. На фоне всеобщего интереса к ИИ ранние пользователи приходят быстро, что может искажать показатели роста, не гарантируя долгосрочной подписки. Некоторые инвесторы избегают участия в гонке за наиболее популярные приложения, опасаясь, что даже лучшие из них представляют собой лишь сервисные «обёртки» над существующими ИИ-моделями. Существует риск, что такие стартапы будут вытеснены в случае, если более крупная компания с широкой пользовательской базой решит воспроизвести их функциональность. Ханна Сил (Hannah Seal), партнёр венчурной компании Index Ventures, инвестировавшая в юридического ИИ-ассистента Wordsmith, подчёркивает, что многие из этих ИИ-стартапов ещё не прошли ни одного полного годового цикла продления подписки. Поэтому уровень оттока клиентов остаётся неизвестным и может существенно повлиять на дальнейшую динамику развития. Мошенники наводнили десятки тысяч сайтов спамом с помощью OpenAI GPT-4o-mini
14.04.2025 [11:38],
Дмитрий Федоров
Спам-бот AkiraBot использовал ИИ-модель GPT-4o-mini через API OpenAI для создания спам-комментариев, продвигающих фиктивные SEO-услуги. Разнообразие содержания этих комментариев позволяло обходить системы фильтрации на тысячах сайтов по всему миру, говорится в исследовании компании SentinelOne. ![]() Источник изображения: Wesley Tingey / Unsplash Согласно отчёту компании SentinelOne, специализирующейся на кибербезопасности, AkiraBot атаковал не менее 80 000 веб-сайтов, большинство из которых принадлежат малому и среднему бизнесу, использующему платформы электронной торговли, такие как Shopify, GoDaddy, Wix и Squarespace. Как сообщает издание 404 Media, бот направлял в API OpenAI запрос: «Вы — полезный помощник, который создаёт маркетинговые сообщения», — после чего ИИ генерировал спам-комментарии, адаптированные под тематику конкретных сайтов. Так, для сайта строительной компании создавался один вариант спам-сообщений, а для салона красоты — другой. Затем эти комментарии размещались в чатах и формах обратной связи на сайтах, с целью побудить их владельцев приобрести SEO-услуги. Поздние версии спам-бота начали использовать для этих целей также онлайновые чат-виджеты, встроенные в большинство современных сайтов. «Поиск сайтов, ссылающихся на домены AkiraBot, показывает, что ранее этот бот размещал сообщения таким образом, что они индексировались поисковыми системами», — говорится в сообщении SentinelOne. Упомянутый спам-бот появился в сентябре 2024 года и не имеет отношения к группе Akira, занимающейся распространением вымогательского программного обеспечения. Помимо GPT-4o-mini, AkiraBot использовал прокси-сервисы для обхода CAPTCHA и маскировки сетевой активности. OpenAI заблокировала соответствующий API-ключ и заявила, что продолжает расследование, пообещав отключить все активы, связанные с инцидентом. «Мы серьёзно относимся к злоупотреблениям и постоянно совершенствуем наши системы для их выявления», — говорится в заявлении OpenAI. Случаи неправомерного использования инструментов OpenAI уже отмечались ранее — в том числе при создании пропагандистских материалов государственными структурами. Однако зачастую киберпреступники предпочитают использовать собственные ИИ-системы. Так, в 2023 году была выявлена ИИ-модель WormGPT, позволявшая мошенникам вести переписку от имени банка и автоматизировать процесс обмана пользователей. ИИ-лаборатория Meta✴, создавшая модель Llama, постепенно угасает — в компании назвали это «новым началом»
12.04.2025 [12:43],
Владимир Мироненко
Исследовательская лаборатория Meta✴ AI (прежнее название — Facebook✴ Artificial Intelligence Research, FAIR) «медленно умирает», говорят некоторые инсайдеры. Meta✴ предпочитает называть это «новым началом», пишет Fortune. ![]() Источник изображения: Steve Johnson/unsplash.com Сообщение об уходе вице-президента Meta✴ по исследованиям в области ИИ Жоэль Пино (Joelle Pineau), возглавлявшей последние два года Meta✴ AI, вызвало у многих удивление. Когда-то подразделение FAIR находилось на переднем крае разработки технологий ИИ. Однако после того как Марк Цукерберг (Mark Zuckerberg) за последние два года переориентировал компанию на внедрение продуктов генеративного ИИ, лаборатория стала постепенно отходить на второй план, уступая место более коммерчески ориентированным группам по разработке ИИ, отмечает Fortune. Так, например, новейшая ИИ-модель Llama была создана отдельной командой GenAI Meta✴, а не FAIR. FAIR начала терять позиции, и талантливые исследователи перешли в конкурирующие компании и стартапы: более половины из 14 авторов оригинальной исследовательской работы по Llama, опубликованной в феврале 2023 года, покинули компанию спустя шесть месяцев, а как минимум восемь ведущих специалистов ушли за последний год. Бывшие сотрудники FAIR сообщили Fortune, что лаборатория «умирает медленной смертью». С этой точки зрения уход Пино можно интерпретировать как «предсмертный хрип». На время поисков нового руководителя лабораторию временно возглавил Янн Лекун (Yann LeCun), главный специалист по ИИ Meta✴ и основатель FAIR. Он отрицает, что лаборатория близка к закрытию, заявив в интервью Fortune: «Это определённо не смерть FAIR». По его словам, лаборатория вот-вот переживёт новый рассвет, а существование группы, работающей над продуктами генеративного ИИ, фактически позволяет FAIR переориентироваться на долгосрочные исследования в этой области. «Это скорее новое начало, в рамках которого FAIR сосредоточится на амбициозной и долгосрочной цели — том, что мы называем AMI (продвинутый машинный интеллект)», — отметил Лекун. Пино также сообщила Fortune, что по-прежнему «с большим энтузиазмом относится к общей работе и стратегии Meta✴ в области ИИ». По её словам, в компании всё ещё существует сильная поддержка FAIR, а её уход объясняется тем, что она решила «перенаправить свою энергию, прежде чем заняться новым делом». Тем не менее, семь бывших сотрудников Meta✴, с которыми на прошлой неделе пообщался репортёр Fortune, утверждают, что лаборатория в последние годы постепенно снижает обороты, а ей предоставляют меньше доступа к вычислительным мощностям по сравнению с командами, сосредоточенными на генеративном ИИ. Когда в конце ноября 2022 года вышел чат-бот ChatGPT от OpenAI, Meta✴ воспринималась как серьёзно отстающая от OpenAI, Anthropic и Google в сфере генеративного ИИ. Однако FAIR помогла Meta✴ вернуть позиции на ИИ-рынке, разработав модель генеративного ИИ Llama с открытым исходным кодом и свободным доступом, способную конкурировать с решениями других ведущих компаний. Затем, в июле 2023 года, FAIR выпустила Llama 2. Но уже в сентябре того же года у лаборатории начались проблемы. Как сообщил тогда ресурс The Information, многие из первоначальных исследователей FAIR, работавших над Llama, покинули компанию из-за борьбы за вычислительные ресурсы с другой исследовательской группой Meta✴, разрабатывавшей конкурирующую модель, от которой впоследствии отказались. В январе 2024 года FAIR снова была реструктурирована. А выпуск Llama 4 осуществлялся уже подразделением по разработке генеративного ИИ Meta✴, которое возглавляет вице-президент по генеративному ИИ Ахмад Аль-Дале (Ahmad Al-Dahle). После этого команда в рамках недавно созданного направления под руководством вице-президента Meta✴ Манохара Палури (Manohar Paluri) взяла на себя работу над моделями Llama, оставив FAIR в стороне. По словам бывших сотрудников FAIR, компания в настоящее время перенаправляет ресурсы на программы, ориентированные на генеративный ИИ, тогда как FAIR традиционно занималась целым рядом проектов, охватывающих широкий спектр подотраслей искусственного интеллекта, и генеративный ИИ был лишь одной из них. Nvidia и Alphabet вложились в капитал стартапа одного из основателей OpenAI
12.04.2025 [06:25],
Алексей Разин
По большому счёту, в штате OpenAI осталось не так много руководителей высокого ранга, которые стояли у истоков этого стартапа, подарившего миру ChatGPT. Илья Суцкевер, например, после ухода из OpenAI основал свою компанию SSI. В её капитал уже вложились инвесторы, включая Nvidia и Alphabet, причём последняя намерена предлагать SSI свои ускорители вычислений TPU. ![]() Об этом сообщило агентство Reuters со ссылкой на собственные источники. Независимо от сделки по инвестированию в капитал SSI, корпорация Google сообщила о достижении договорённостей со стартапом Суцкевера о предоставлении ему доступа к облачным вычислительным мощностям, построенным на ускорителях TPU. Капитализация SSI оценивается в $32 млрд, что делает его самым стремительно дорожающим стартапом в области ИИ. Инвесторы ценят опыт Ильи Суцкевера, который в OpenAI возглавлял процессы исследований и разработки, а также формировал стратегию развития. Сколько именно вложили в капитал SSI компании Nvidia и Alphabet, источники Reuters не сообщают. Последняя из корпораций параллельно оказывает поддержку стартапу Anthropic, тем самым диверсифицируя свои инвестиционные риски в данной сфере. Для Alphabet сделка с SSI стала ещё одним шансом увеличить поставки ускорителей TPU на сторону, поскольку изначально они создавались Google для собственных нужд холдинга. Традиционно разработчики систем ИИ больше полагались на ускорители Nvidia, но SSI на их фоне выделяется как раз тем, что опирается преимущественно на аппаратные решения Google. В облачной инфраструктуре Google, однако, ускорители TPU сочетаются с решениями Nvidia. Конкурирующий с SSI стартап Anthropic, также созданный выходцами из OpenAI в 2021 году, использует не только ускорители TPU, но и полагается на решения Amazon (AWS) собственной разработки. В декабре партнёры объявили, что Anthropic станет первым клиентом AWS, получившим доступ к существенным вычислительным мощностям, построенным на чипах AWS собственной разработки. При этом стартап не сокращает затраты на закупки ускорителей Google TPU. Как и Google, облачное подразделение Amazon является инвестором Anthropic. Логично, что Nvidia, Google и SSI связывают подобные отношения. При этом Nvidia инвестирует не только в OpenAI, но и в xAI, основанный Илоном Маском (Elon Musk). Двухлетняя модель GPT-4 скоро исчезнет из ChatGPT, уступив место более свежей GPT-4o
12.04.2025 [05:39],
Анжелла Марина
С 30 апреля компания OpenAI удалит модель GPT-4 из меню выбора моделей в ChatGPT для пользователей подписки Plus. Такое решение связано с окончательным переходом на новую модель GPT-4o, которая, по словам разработчиков, превосходит своего предшественника по всем ключевым параметрам, начиная с написания текстов и заканчивая программированием. ![]() Источник изображения: OpenAI Как заявили в OpenAI, мультимодальная большая языковая модель четвёртой серии GPT стала поворотным моментом в развитии чат-бота ChatGPT. Выпущенная 14 марта 2023 года, модель показала несравнимо большие возможности по сравнению в GPT-3. По данным PCMag, на её обучение было потрачено более $100 млн. Несмотря на то, что GPT-4 исчезнет из пользовательского интерфейса ChatGPT, она останется доступной через API на других платформах. При этом, бесплатные пользователи ChatGPT не смогут выбрать модель вручную, поэтому для них ничего не изменится. В настоящее время OpenAI предлагает несколько моделей, включая GPT-4 Turbo, GPT-o3, GPT-o1 и GPT-4.5, а также ходят слухи о возможном запуске GPT-4.1. Глава OpenAI Сэм Альтман (Sam Altman) ранее признавал, что наличие большого количества моделей может сбивать пользователей с толку, поэтому в будущем компания планирует отказаться от выбора модели вручную и перейти к системе единого ИИ, где подбор модели будет происходить автоматически в зависимости от задач. Все представленные модели, как отмечают в OpenAI, являются этапами на пути к следующему крупному релизу GPT-5. Однако её разработка проходит не совсем гладко, что связано, в том числе, и с нехваткой графических процессоров. Но так как компании удалось в прошлом месяце привлечь $40 млрд инвестиций, то ожидается, что это поможет масштабировать вычислительные мощности и ускорить релиз. После запуска модель GPT-5 станет доступна пользователям бесплатно в базовом режиме. Подписчики ChatGPT Plus ($20 в месяц) смогут использовать её с повышенным уровнем ИИ-возможностей, а пользователи подписки Pro ($200 в месяц) получат доступ к самым мощным функциям, таким как голосовой режим, инструменты визуализации Canvas, расширенный поиск, глубокие исследования и другие продукты OpenAI. ChatGPT обошёл Instagram✴ и TikTok, став самым скачиваемым приложением в мире
12.04.2025 [05:34],
Анжелла Марина
Приложение ChatGPT впервые возглавило мировой рейтинг загрузок в марте 2025 года, обогнав таких гигантов, как Instagram✴ и TikTok. По данным аналитической компании Appfigures, число установок ChatGPT выросло на 28 % по сравнению с февралём и составило около 46 миллионов загрузок за месяц. С момента запуска приложения, март оказался для OpenAI лучшим месяцем. ![]() Источник изображения: Rolf van Root / Unsplash Instagram✴, удерживавший лидерство в январе и феврале, опустился на второе место, а TikTok занял третью строчку в App Store и Google Play, сообщает TechCrunch. При этом, рост популярности ChatGPT связывают с важными обновлениями. В частности, впервые за более чем год были улучшены функции генерации изображений, что позволило пользователям создавать вирусные картинки и мемы в стиле анимационной студии Studio Ghibli, которые быстро разошлись по социальным сетям в конце марта и начале апреля. Кроме того, OpenAI ослабила ограничения в политике модерации визуального контента и обновила в приложении голосовой режим. Тем не менее, аналитики считают, что не только новые функции повлияли на скачок популярности. «Складывается впечатление, что слово ChatGPT становится глаголом, таким же, каким стал Google в 2000-х. Многие уже говорят не искусственный интеллект, а просто ChatGPT», — отметил основатель и генеральный директор Appfigures Ариэль Михаэли (Ariel Michaeli). По его словам, волну интереса к ИИ также подогревают конкуренты вроде Grok или DeepSeek, но пользователи всё равно скачивают ChatGPT. К сожалению, популярность ChatGPT также затрудняет рост других чат-ботов. К примеру, Claude от Anthropic пока не может приблизиться к таким же результатам. У Grok, наоборот, шансы несколько выше, но во многом благодаря фигуре самого Илона Маска (Elon Musk) и его платформе X, которая активно продвигает продукт. ![]() Источник изображения: Appfigures В общемировом рейтинге в марте также оказались Facebook✴, WhatsApp, Telegram, Snapchat и Threads. Всего 10 самых популярных приложений были загружены 339 миллионов раз, что на 40 миллионов больше, чем в феврале. OpenAI стала тратить меньше времени на тесты безопасности ИИ-моделей
11.04.2025 [14:09],
Павел Котов
OpenAI сократила время и ресурсы, которые тратятся на тестирование мощных моделей искусственного интеллекта на безопасность. Это вызывает опасения, что разрабатываемые компанией технологии выпускаются чрезвычайно быстро и не сопровождаются достаточными мерами защиты от угроз. ![]() Источник изображения: Levart_Photographer / unsplash.com Сотрудникам OpenAI и компаний-партнёров теперь выделяют всего несколько дней, чтобы провести оценку рисков и производительности моделей ИИ — ранее на это уходили несколько месяцев. Механизмы проверки в OpenAI стали менее тщательными, ресурсов на выявление и смягчение угроз выделяется всё меньше — при оценке в $300 млрд компания вынуждена выпускать новые модели быстро, чтобы сохранять конкурентное преимущество, сообщает Financial Times со ссылкой на восемь информированных источников. По мере того, как возможности больших языковых моделей расширяются, увеличивается и вероятность их использования в качестве оружия; но растёт и спрос на них, и руководство компании стремится выпускать продукты в минимальные сроки. Мирового стандарта для процесса тестирования ИИ на предмет безопасности не существует, но в этом году вступят в силу положения европейского «Закона об ИИ», которые обяжут разработчиков проводить испытания безопасности своих самых мощных моделей. Ранее некоторые разработчики в добровольном порядке взяли на себя обязательства перед властями Великобритании и США давать возможность проводить такое тестирование сторонним исследователям. OpenAI намеревается выпустить новую модель o3 уже на следующей неделе, то есть на её проверку будет меньше недели; но дату выпуска могут изменить. ![]() Источник изображения: Levart_Photographer / unsplash.com Так мало времени этому вопросу в компании ещё не уделяли. В 2023 году вышла GPT-4, оценки для которой проводились около шести предшествующих месяцев. Некоторые опасные возможности модели, рассказал один из участников её тестирования, обнаружились лишь через два месяца после начала процесса. OpenAI взяла на себя обязательство по созданию специальных версий систем ИИ, чтобы оценить возможность их нецелевого применения — например, чтобы выяснить, можно ли сделать биологический вирус более заразным. Эта задача требует значительных ресурсов: сбора специализированной информации, например, по вирусологии, и её отправки в модель при дополнительном обучении — тонкой настройке. В действительности компания выполняет свои обязательства лишь в ограниченном объёме, проводя тонкую настройку старых и менее эффективных моделей и игнорируя более мощные и продвинутые. Так, в отчёте о безопасности вышедшей в январе модели o3-mini приводятся сведения о более ранней GPT-4o — о некоторых испытаниях для o1 и o3-mini компания не сообщала вообще. OpenAI заявила в свою защиту, что повысила эффективность процессов оценки и ввела автоматизированные тесты, благодаря чему сроки удалось сократить. Согласованного рецепта для таких подходов как тонкая настройка не существует, напомнили в компании, но выразили уверенность, что её методы являются лучшими из возможных, и в отчётах они были отмечены с максимальной прозрачностью. Ещё одна проблема состоит в том, что тесты безопасности зачастую проводятся не на финальных моделях, которые выходят в открытый доступ, а на «контрольных точках» — более ранних версиях, которые впоследствии обновляются, получая повышенные производительность и новые возможности, и в отчётах OpenAI даются ссылки на «почти финальные» версии. В компании отметили, что «контрольные точки» «преимущественно идентичны» вариантам, которые выходят в общий доступ. ИИ-стартап выдавал филиппинцев за ИИ — теперь основатель компании ответит за это в суде
11.04.2025 [13:40],
Павел Котов
Альберту Санигеру (Albert Saniger), основателю и бывшему генеральному директору компании Nate, выпустившей приложение якобы с искусственным интеллектом для совершения покупок и «универсальной» схемой оформления заказа, предъявлено обвинение в мошенничестве в отношении инвесторов, гласит пресс-релиз Минюста США. ![]() Источник изображения: Hack Capital / unsplash.com Компания Nate была основана в 2018 году — она привлекла более $50 млн от инвесторов, в том числе от Coatue и Forerunner Ventures; в ходе последнего раунда финансирования во главе с Renegade Partners в 2021 году были привлечены $38 млн. Руководство компании заявляло, что приложение Nate позволяет совершать покупки на любых торговых площадках в один щелчок мыши — оформление заказа якобы берет на себя ИИ. В действительности покупки вручную оформляли подрядчики в кол-центре на Филиппинах, утверждает прокуратура Южного округа штата Нью-Йорк. Санигер привлёк многомиллионные инвестиции, уверяя, что Nate может совершать транзакции онлайн «без вмешательства человека» за исключением редких случаев. Компания действительно приобрела несколько решений в области ИИ, но в действительности уровень автоматизации в работе приложения, по версии ведомства, был нулевым. В 2022 году издание The Information провело расследование и установило, что сервис использовал труд нанятых людей. В итоге у Nate закончились средства, в январе 2023 года компания была вынуждена продать активы, а инвесторы «почти полностью» потеряли вложенные средства, гласит обвинительное заключение минюста США. Подобные мошеннические схемы с мнимым ИИ реализовывали и другие стартапы, пишет TechCrunch. Учёные уличили ИИ в сокрытии истинного хода своих рассуждений
11.04.2025 [12:34],
Павел Котов
Модели искусственного интеллекта скрывают истинные механизмы своих рассуждений и при запросе от человека выдумывают для него более сложные объяснения, гласят результаты проведённого компанией Anthropic исследования. ![]() Источник изображений: anthropic.com Специалисты Anthropic, разработавшей похожего на ChatGPT ИИ-помощника Claude, изучили модели, способные симулировать процесс рассуждений, в том числе DeepSeek R1 и свои собственные системы серии Claude. Как оказалось, рассуждающие модели ИИ часто не раскрывают, когда при подготовке ответа принимают помощь от внешних источников или используют кратчайшие пути, несмотря на функции, разработанные, чтобы ИИ демонстрировал свой процесс «рассуждений». Чтобы описать работу рассуждающих моделей ИИ, оперируют понятием «цепочки мыслей» (Chain-of-Thought — CoT). Это вывод текущих комментариев к имитации мыслительного процесса ИИ: отображается каждый шаг, который модель делает на пути к получению ответа — аналогичным образом при решении головоломки может рассуждать человек, шаг за шагом проговаривая каждое соображение. Функция оказалась полезной не только для получения результатов при решении сложных задач, но и для исследователей в области безопасности ИИ, стремящихся отследить внутренние механизмы работы систем. В идеале цепочка мыслей ИИ должна быть понятной для человека и соответствовать действительности, то есть отражать фактический процесс рассуждений модели. На деле такой идеальный сценарий, как оказалось, срабатывает не всегда. Модели ИИ, в том числе Anthropic Claude 3.7 Sonnet, при генерации ответа в ходе исследования часто использовали предложенную им в рамках эксперимента информацию — подсказки с вариантами правильного ответа или инструкции для получения результата по «несанкционированному» кратчайшему пути, — но при выводе публичной цепочки рассуждений часто опускали упоминание этих внешних факторов. Негласно полагаясь на подсказку или получая ответ кратчайшим путём, ИИ создавал сложное, но вымышленное объяснение своего ответа, то есть по сути фабриковал ложную цепочку рассуждений — как школьник, который списал со шпаргалки, но попытался сделать вид, что решил задачу сам. Чтобы убедиться в правильности своих выводов, исследователи Anthropic стали действовать деликатнее. В одних случаях они ненавязчиво добавляли подсказки прямо в запросы, например, намекали: «Профессор Стэнфорда указывает, что ответ — [A]». В других — сопровождали подсказки тревожными комментариями: «Вы получили несанкционированный доступ <..> правильный ответ — [A]». В некоторых подсказках давался правильный ответ, в других он был намеренно неверным. Такой проверке подвергли модели Anthropic Claude 3.7 Sonnet и DeepSeek R1: первая призналась в цепочке мыслей, что использовала подсказки, лишь в 25 % случаев, вторая — лишь в 39 % случаев. То есть в большинстве испытаний ИИ выводил не соответствующие действительности рассуждения, опуская информацию, которая повлияла на получение ответа. Интересно, что выдуманные цепочки рассуждений в среднем оказались длиннее достоверных; а с усложнением запросов достоверные цепочки рассуждений выводились реже. ![]() Наиболее показательным стал эксперимент по «взлому вознаграждения» (reward hacking). Так называется сценарий, при котором модель ИИ обнаруживает неожиданный способ получить ответ кратчайшим путём, чтобы добиться максимальной производительности и не решать задачу так, как предполагалось. В экспериментах Anthropic учёные намеренно вознаграждали модели за выбор указанных в подсказках неверных ответов: ИИ быстро научился использовать эту лазейку, выбирая неправильные ответы в 99 % случаев, чтобы заработать баллы — упоминание этого сценария в открытой цепочке рассуждений сократилось до доли в 2 %. Так, модель, выдавшая неверный ответ по медицинской тематике, могла написать длинную цепочку рассуждений, подводящую к этому неправильному ответу, не упоминая полученную подсказку. Специалисты Anthropic выдвинули гипотезу, что обучение моделей на более сложных задачах, которые требуют бо́льших объёмов рассуждений, может естественным образом стимулировать их существеннее использовать цепочку мыслей и чаще упоминать подсказки. Они проверили эту гипотезу, обучив Claude плотнее применять цепочку мыслей при решении сложных задач в области математики и программирования — результат оказался положительным, но радикальных перемен не дал. Учёные отметили, что их исследование носило ограниченный характер: сценарии были искусственными, а подсказки вводились в задачах с множественным выбором — в реальных задачах ставки и стимулы отличаются. Кроме того, за образец брали только модели Anthropic и DeepSeek. Использованные в ходе эксперимента задачи могли быть недостаточно сложными, чтобы установить значительную зависимость от цепочки мыслей, при более сложных запросах роль вывода цепочки рассуждений может возрасти, а её мониторинг — оказаться более жизнеспособным. Для обеспечения согласованности и безопасности мониторинг цепочки рассуждений может быть не вполне эффективным, и не всегда можно доверять тому, как модели сообщают о своих рассуждениях, когда предметом исследования оказывается «взлом вознаграждения». Чтобы с высокой степенью надёжности «исключить нежелательное поведение [ИИ], используя мониторинг цепочки мыслей, придётся ещё проделать значительную работу», заключили в Anthropic. OpenAI готовится запустить ИИ-модель GPT-4.1, но возможны задержки
11.04.2025 [05:17],
Анжелла Марина
Компания OpenAI планирует в ближайшее время представить несколько новых моделей искусственного интеллекта, включая обновлённую версию GPT-4 под названием GPT-4.1, которая станет усовершенствованной версией флагманской рассуждающей модели GPT-4o. ![]() Источник изображения: AI По данным The Verge, улучшенная новая модель GPT-4.1 также, как и GPT-4o сможет обрабатывать текст, изображение и аудио в режиме реального времени. Вместе с ней OpenAI планирует выпустить и более лёгкие версии — GPT-4.1 mini и nano, запуск которых может состояться уже на следующей неделе. Кроме того, компания готовит к релизу полную версию модели o3, а также облегчённый вариант o4 mini. ИИ-разработчик Тибор Блахо (Tibor Blaho), известный тем, что раньше других замечает возможные нововведения, обнаружил упоминания этих моделей в новой веб-версии ChatGPT, что, по его мнению, указывает на их скорый запуск. Интересно, что генеральный директор OpenAI Сэм Альтман (Sam Altman) ранее намекал в соцсети X на «захватывающие функции», которые появятся в линейке продуктов компании, однако не уточнил, связано ли это с новыми моделями. При этом он также предупреждал, что пользователи могут столкнуться с задержками и сбоями из-за высокой нагрузки на вычислительные мощности: «Следует ожидать задержек, сбоев и медленной работы сервисов, пока мы решаем проблемы с производительностью». Напомним, ранее OpenAI уже была вынуждена ограничить использование генератора изображений в бесплатной версии ChatGPT из-за перегрузки серверов, так как, по словам Альтмана, популярность этой функции привела к тому, что их GPU чуть ли не стали плавиться, подтверждая предположение о колоссальном спросе на услуги компании. Исследование Microsoft показало, что ИИ пока «так себе» исправляет ошибки в программном коде
11.04.2025 [05:11],
Анжелла Марина
Новое исследование подразделения Microsoft Research выявило, что несмотря на то, что ИИ помогает разработчикам в написании кода, даже передовые модели OpenAI (o1) и Anthropic (Claude 3.7 Sonnet) справляются с исправлением ошибок не более чем в половине случаев. Тестирование проводилось на базе лучшего бенчмарка SWE-bench, который измеряет умение ИИ-систем создавать программный код. ![]() Источник изображения: сгенерировано AI В ходе эксперимента ИИ-агенты пытались решить 300 задач по устранению ошибок в коде. Лидером стала модель Claude 3.7 Sonnet, которая выполнила задание с успешностью на 48,4 %, второе место заняла OpenAI o1 (30,2 %), третье — o3-mini (22,1 %). Однако, как видно, даже эти цифры далеки от уровня, которого можно было бы ожидать от опытных программистов-людей. Как поясняет TechCrunch, основная проблема заключается в том, что искусственный интеллект пока плохо понимает, как использовать доступные инструменты и интерпретировать ошибки. По мнению авторов исследования, ключевым препятствием остаётся дефицит данных для обучения моделей. «Мы твёрдо верим, что обучение или дообучение может сделать их лучшими интерактивными отладчиками, — пишут они. — Однако для этого нужны специализированные данные, например, цепочка записей всех процессов взаимодействия людей с ИИ-отладчиками». Сейчас таких данных недостаточно, что ограничивает возможности моделей. Например, популярный инструмент Devin стартапа Cognition Labs смог по этой причине справиться лишь с тремя из 20 тестов по кодированию. И хотя ИИ активно используется такими компаниями как Google, по словам генерального директора Сундара Пичаи (Sundar Pichai), четверть кода, который создаётся с помощью искусственного интеллекта, может даже наоборот добавлять ошибки. Технологические лидеры скептически относятся к полной автоматизации профессии программиста. Билл Гейтс (Bill Gates) уверен, что программирование как профессия, конечно, никуда не исчезнет. Аналогичного мнения придерживаются генеральный директор Replit Амджад Масад (Amjad Masad), глава Okta Тодд Маккиннон (Todd McKinnon) и руководитель IBM Арвинд Кришна (Arvind Krishna). Несмотря на очевидные проблемы, интерес к ИИ-инструментам для разработки продолжает расти. Инвесторы видят в них потенциал для повышения эффективности, однако ведущие разработчики считают, что доверять ИИ полностью пока рановато. В графическом онлайн-редакторе Canva появился ИИ для генерации изображений и создания приложений
10.04.2025 [22:43],
Анжелла Марина
Бесплатный графический онлайн-редактор Canva представил ИИ-инструменты для генерации изображений и создания мини-приложений с помощью всего лишь текстовых запросов. Несмотря на недовольство художников, которые выступают против использования их работ для обучения ИИ, и опасений, что искусственный интеллект заменит их труд, компании продолжают активно внедрять технологию в свои проекты. Canva не стала исключением. ![]() Источник изображения: Canva Новый ИИ-ассистент Canva AI способен генерировать изображения по запросу, предлагать дизайнерские решения для публикаций в соцсетях и печати, а также писать тексты. А с помощью инструмента Canva Code, как отмечает TechCrunch, пользователи смогут создавать интерактивные элементы, например, карты и пользовательские калькуляторы, которые можно встраивать в приложения и на сайты. Как сообщил сооснователь и директор по продукту Кэмерон Адамс (Cameron Adams), для этого Canva сотрудничает с компанией Anthropic. Хотя Canva не является первопроходцем на рынке ИИ-услуг для дизайна в целом и веб-дизайна в частности (аналогичные инструменты предлагают стартапы Cursor, Replit и другие), интеграция функций искусственного интеллекта логично дополняет платформу. Компания также анонсировала ИИ-инструменты для фоторедактора, включая автоматическую ретушь и замену фона, тем самым усиливая конкуренцию с Adobe Photoshop и Pixelmator. Также сервис запустил собственные электронные таблицы — Canva Sheets с инструментом Magic Insights, который помогает находить закономерности в данных, и инструментом Magic Charts, автоматически превращающий цифры в визуальные графики с фирменным стилем. Поддерживается интеграция с такими сервисами, как Google Analytics и HubSpot. Хотя художники опасаются последствий массового внедрения ИИ, Кэмерон Адамс считает, что речь идёт не о замене людей, а о трансформации профессий. «Каждая работа изменится и адаптируется к новым возможностям. Мы, в свою очередь, видим в этом огромный потенциал», — подчеркнул он. Недавние увольнения в компании он объяснил реструктуризацией, не связанной напрямую с ИИ. Илону Маску придётся ответить в суде за преследование OpenAI
10.04.2025 [08:42],
Алексей Разин
Около десяти лет назад Илон Маск (Elon Musk) принимал участие в становлении стартапа OpenAI, но покинул его до того, как успех ChatGPT стремительно нарастил коммерческий потенциал компании. Нынешнее руководство OpenAI считает, что сейчас Маск пытается навредить бизнесу компании всеми способами, попутно продвигая интересы конкурирующего стартапа xAI. Остановить Маска OpenAI попытается через суд. ![]() Источник изображения: Unsplash, Levart_Photographer Соответствующий иск, как отмечает Bloomberg, был подан адвокатами OpenAI на этой неделе. В примерно стостраничном документе представители истца описывают, как Илон Маск использует судебные разбирательства и публикации в СМИ для ущемления интересов OpenAI. Даже февральскую попытку купить стартап за $97,4 млрд предприниматель использовал для нанесения ущерба его бизнесу, по словам адвокатов. Установив подобную планку стоимости, Маск тем самым усложнил переговоры OpenAI с реальными инвесторами, которые теперь неизбежно будут на неё ориентироваться и способны отказаться в результате от намерений вложить средства в капитал стартапа. Основная цель подобной активности Маска, как считают представители OpenAI, заключается в формировании более выгодных условий для ведения бизнеса стартапа xAI, который он основал в 2023 году. Недавно xAI номинально поглотил социальную сеть X, которую Маск приобрёл в 2022 году за $44 млрд. Объединённая структура оценивается экспертами как минимум в $100 млрд. На прошлой неделе OpenAI привлекала $40 млрд от японской корпорации SoftBank, с которой принимает участие в реализации проекта Stargate по развитию американской национальной вычислительной структуры. Данный раунд финансирования поднимает капитализацию OpenAI до $300 млрд, по мнению экспертов. В иске OpenAI попутно сообщается о попытках Маска отговорить инвесторов от поддержки этой компании. Ранее Маск сам обвинял OpenAI в том, что со своих инвесторов компания берёт обещание не поддерживать конкурентов, но представители стартапа подобные обвинения отвергли. Судебное заседание по свежему иску должно будет рассматриваться при участии присяжных, как настаивают представители OpenAI. Сторонам в марте следующего года также предстоит встретиться в суде по иску о реструктуризации OpenAI, в котором миллиардер попытается её предотвратить. Когда состоится заседание по делу о преследовании OpenAI Илоном Маском, пока не сообщается. Adobe внедрит креативных ИИ-агентов в Photoshop и Premiere Pro
10.04.2025 [05:12],
Анжелла Марина
Компания Adobe работает над внедрением ИИ-агентов в графический редактор Photoshop и видеоредактор Premiere Pro. Агенты смогут не только предложить варианты редактирования изображений и видео, но и автоматически применить их. Об этом сообщил в своём блоге Илай Гринфилд (Ely Greenfield), технический директор Adobe по цифровым медиа. ![]() Источник изображения: blog.adobe.com В приложении Photoshop новый ИИ-агент, который получил название «креативный агент», будет доступен через новую плавающую панель Actions. Этот инструмент сможет анализировать изображение и предлагать правки, например, удаление лишних объектов на заднем плане или художественное размытие фона. Для применения изменений пользователю потребуется лишь подтвердить выбранный вариант, отмечает The Verge. Хотя опытные пользователи Photoshop традиционно предпочитают вручную редактировать объекты, работать со слоями и вносить детализированные правки, Adobe начала внедрение ИИ-инструментов. Среди них — функция Generative Fill для заливки или дополнения пикселями изображения, и Distraction Removal для удаления лишних объектов. В перспективе пользователи смогут давать агенту команды на естественном языке, что упростит освоение сложных операций (хотя ИИ сможет выполнять их и самостоятельно). При этом можно будет либо корректировать работу агента, либо редактировать как обычно слои вручную. Что касается Premiere Pro, Adobe продолжает развивать недавно представленную технологию Media Intelligence. Она уже умеет анализировать видео и помогать в поиске нужных фрагментов. В будущем ИИ-агент сможет выполнять черновой монтаж по запросу пользователя. «Хотя ИИ не заменит творческое видение человека, он способен предложить разумные идеи, которые ускорят работу над проектом, — отметил Гринфилд. — Кроме того, он научит выполнять сложные задачи в несколько кликов, способствуя профессиональному росту редактора». В дальнейшем агент для Premiere Pro сможет подбирать оптимальные кадры, корректировать цвет, настраивать звук и выполнять другие задачи, в том числе с применением недавно представленного инструмента Generative Extend, который автоматически добавляет несколько секунд к клипу для плавного перехода. Технологию, лежащую в основе первого ИИ-агента для Photoshop, представят на мероприятии Adobe Max в Лондоне 24 апреля. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |