Сегодня 25 марта 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

OpenAI: ИИ бесполезно наказывать за ложь — он начинает хитрить ещё больше

Галлюцинации, то есть заведомо неверные ответы, которые иногда дают модели искусственного интеллекта, стали одной из основных проблем всей отрасли — из-за этого некоторые граждане вообще отказываются пользоваться ИИ. Избавиться от таких сбоев может оказаться сложнее, чем предполагалось ранее, выяснили исследователи OpenAI.

 Источник изображения: openai.com

Источник изображения: openai.com

Учёные компании OpenAI опубликовали результаты исследования, в котором описали свои попытки наладить управление сложными, в том числе рассуждающими, моделями ИИ, чтобы не допустить их выхода за установленные рамки. Исследователи применяли уникальные стратегии и методы, в том числе наказания за вредоносные действия и попытки обмануть пользователя. В проекте использовалась, помимо прочего, некая созданная OpenAI, но не вышедшая на рынок модель ИИ, которой поручали различные задачи — их выполнение можно было облегчить, обманув пользователя или отбросив некоторые действия.

Результат обучения модели во многом зависит от этапа обучения с подкреплением, когда за выполнение команды или генерацию правильного ответа она получает вознаграждение. Моделям ИИ свойственно пытаться получить вознаграждение посредством манипуляций, в том числе нарушая некоторые правила и рекомендации, чтобы добиться желаемого результата. Исследователи надеялись, что смогут выявить лазейки и лучше понять поведение ИИ, отслеживая цепочку её рассуждений, но это не помогло. Попытки оптимизировать цепочку рассуждений напрямую, то есть отдать команду не обходить инструкции, дают лишь краткосрочный эффект, установили учёные: «это не устраняет всё нежелательное поведение и может привести к тому, что модель станет скрывать свои истинные намерения».

Авторам проекта пришлось признать, что механизмы мониторинга моделей «хрупки». Строгий надзор за цепочкой рассуждений может побудить ИИ скрывать свои ошибки, чтобы обеспечить себе вознаграждение в обход ограничений. Для наблюдения за испытуемой моделью при выполнении заданий по написанию программного кода использовалась коммерческая GPT-4o — подопытная же допускала небрежности и открыто признавала в цепочке рассуждений, что делала это для получения вознаграждения; например, она преждевременно завершала выполнение некоторых программ. После этого исследователи попытались наказать модель, но эффект от этого оказался недолговечным: в цепочке рассуждений оставались признаки попытки получить вознаграждение обходными путями и дать неправильный ответ. То есть она нашла способ скрывать свои мотивы от контролирующего ИИ.

В этой связи остаётся неясным, готов ли мир к ИИ уровня человека, если проблема сохранится, и вмешиваться человек уже не сможет. Исследователи выразили надежду, что в будущем появятся способы оказывать влияние на модели через их цепочку рассуждений без обмана и скрытых тактик — они предлагают сделать методы оптимизации менее навязчивыми и прямолинейными.

Голосовая версия ChatGPT стала приятнее в общении, сообщили в OpenAI

OpenAI накануне обновила функцию Advanced Voice Mode — формат голосового общения с ChatGPT в реальном времени. Помощник с искусственным интеллектом стал приятнее в общении и научился реже прерывать пользователей.

 Источник изображения: openai.com

Источник изображения: openai.com

С последним обновлением OpenAI попыталась решить проблему, характерную для многих голосовых помощников с ИИ — они часто прерывают пользователей, если те приостанавливают речь, чтобы подумать или сделать глубокий вдох. Обновлённая версия Advanced Voice Mode стала доступной для пользователей бесплатного варианта ChatGPT, которая теперь позволяет делать продолжительные паузы в речи и не прерывает собеседника. Подписчики платных вариантов сервиса, в том числе тарифов ChatGPT Plus, Teams, Edu, Business и Pro получили не только более деликатного, но и более индивидуализированного голосового помощника — его ответы стали «более прямыми, интересными лаконичными, конкретными и творческими», рассказали в OpenAI.

OpenAI зарекомендовала себя как мирового лидера в области искусственного интеллекта, но ей приходится прилагать всё более значительные усилия, чтобы оставаться впереди конкурентов. В сегменте голосовых помощников в последнее время вирусную популярность приобрёл стартап Sesame соучредителя Oculus Брендана Ирибе (Brendan Iribe) — он выпустил варианты сервиса Maya и Miles, которые отличаются естественным звучанием. Голосовых помощников с мощным ИИ выпускают и крупные игроки: Amazon недавно представила Alexa+ с генеративным ИИ, а Apple была вынуждена перенести выпуск поумневшей Siri, что обернулось нешуточным скандалом.

Сэм Альтман сосредоточился на исследованиях — OpenAI перераспределила роли в руководстве

OpenAI объявила о расширении полномочий главного операционного директора Брэда Лайткэпа (Brad Lightcap) и повышении двух топ-менеджеров в руководстве компании. Эти изменения связаны с тем, что генеральный директор Сэм Альтман (Sam Altman) намерен уделять больше внимания технологическим аспектам работы компании.

 Источник изображения: Rolf van Root / Unsplash

Источник изображения: Rolf van Root / Unsplash

По сообщению Bloomberg, Лайткэп возьмёт на себя больше ответственности за повседневную деятельность компании, включая контроль за международной экспансией и партнёрством с такими фирмами, как Microsoft и Apple, а Альтман сосредоточится на исследовательской деятельности и разработке продуктов и дальнейшем развитии ChatGPT.

С момента непродолжительного увольнения Альтмана в конце 2023 года OpenAI значительно расширила управленческую команду, и последние кадровые перестановки указывают на стремление компании ускорить исследования в области ИИ, что может привести к созданию новых мощных продуктов.

Марк Чен (Mark Chen) и Джулия Виллагра (Julia Villagra) были назначены на должности директора по исследованиям и директора по персоналу соответственно. При этом OpenAI не планирует искать замену бывшему техническому директору Миру Мурати (Mira Murati), которая покинула компанию в сентябре и основала собственный ИИ-стартап.

«Мы по-прежнему сосредоточены на передовых исследованиях в области искусственного интеллекта, способствующих прогрессу человечества», — написал Альтман в блоге компании. Он также подчеркнул, что продуктами OpenAI уже пользуются миллионы людей. Однако ранее ушедшие из компании сотрудники, такие как Илья Суцкевер (Ilya Sutskever), соучредитель Джон Шульман (John Schulman) и Мира Мурати (Mira Murati), публично выражали скептицизм по поводу того, сможет ли OpenAI обеспечить безопасное использование ИИ.

В своём обращении Альтман отметил, что активное использование технологий OpenAI помогает совершенствовать исследования. Компания также подтвердила цель по созданию так называемого искусственного общего интеллекта (AGI), который превзойдёт человека в большинстве интеллектуальных задач, но при этом будет полезен для общества. OpenAI также рассматривает возможность преобразования компании в публичную корпорацию с социальными обязательствами и уже ведёт переговоры о привлечении до $40 млрд инвестиций при оценке в $300 млрд.

Сэм Альтман призвал вместо программирования учиться «хорошо использовать ИИ-инструменты»

Генеральный директор OpenAI Сэм Альтман (Sam Altman) считает, что в настоящее время освоение инструментов на базе искусственного интеллекта является главной задачей для тех, кто хочет научиться программировать. Во время недавнего интервью он также добавил, что помогающие писать программный код ИИ-алгоритмы уже используются в крупнейших компаниях.

 Источник изображения: wikipedia.org

Источник изображения: wikipedia.org

В ходе беседы с американским аналитиком Беном Томсоном (Ben Thompson) глава OpenAI рассказал, что во времена, когда он заканчивал школу, очевидной тактической задачей было научиться хорошо писать код. В настоящее время, по мнению Альтмана, «очевидная тактическая задача — просто научиться по-настоящему хорошо использовать ИИ-инструменты».

Эту точку зрения разделяют многие другие руководители ведущих технологических компаний, отмечая, что ИИ становится всё лучше в написании программного кода. В этом месяце гендиректор Anthropic Дарио Амодей (Dario Amodei) заявил, что в течение года ИИ начнёт писать весь код за инженеров-программистов. Гендиректор Meta Марк Цукерберг (Mark Zuckerberg) также заявлял в начале года о том, что его компания работает над новым ИИ-алгоритмом, который сможет писать «большую часть кода в наших приложениях».

По мнению Альтмана, освоение инструментов на базе искусственного интеллекта является «новой версией» обучения программированию. Он добавил, что в настоящее время уже автоматизирована как минимум половина работы по написанию кода. «Я думаю, что во многих компаниях этот процесс уже перевалил за 50 %. Я думаю, что большое значение будет иметь агентское кодирование, которым пока никто по-настоящему не занимается», — добавил Альтман.

На вопрос о планах OpenAI по найму на работу инженеров-программистов Альтман сказал, что сейчас работы хватает. При этом он отметил, что в долгосрочной перспективе именно создаваемый сейчас ИИ может привести к сокращению рынка труда. «Мое предположение заключается в том, что каждый инженер-программист какое-то время будет нагружен работой. А потом, в какой-то момент, возможно, нам действительно понадобится меньше инженеров-программистов», — считает Альтман.

Частое использование ChatGPT и других ИИ-ботов может привести к обострению чувства одиночества

Более частое использование ИИ-чат-ботов, таких как ChatGPT, может привести к росту чувства одиночества и сокращению времени, проводимого в общении с другими людьми, пишет Bloomberg со ссылкой на исследования OpenAI и Массачусетского технологического института.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

В рамках одного из исследований учёные в течение месяца наблюдали за почти 1000 человек, уже имеющих опыт работы с ChatGPT. Участникам случайным образом предлагали текстовую версию чат-бота или один из двух его голосовых вариантов для использования не менее пяти минут в день. Некоторым из них предложили вести открытые чаты на любые темы, а другим — личные или неличные беседы с ИИ.

Те, кто ежедневно проводил больше времени за набором текста или голосовым общением с ChatGPT, чаще сообщали о более высоком уровне эмоциональной зависимости от чат-бота, проблемном использовании, а также о повышенном чувстве одиночества.

Как выяснилось, люди, склонные эмоционально привязываться к человеческим отношениям и больше доверяющие чат-боту, с большей вероятностью ощущали себя одинокими и эмоционально зависимыми от ChatGPT. При этом исследователи не выявили связи между большей привлекательностью голоса чат-бота и негативными последствиями.

Во втором исследовании учёные проанализировали с помощью программного обеспечения три миллиона разговоров пользователей с ChatGPT, а также провели опрос о том, как люди взаимодействуют с чат-ботом. Выяснилось, что лишь немногие респонденты использовали ChatGPT для эмоционально окрашенного общения.

Выход ChatGPT в конце 2022 года способствовал ажиотажу вокруг генеративного ИИ. Поскольку разработчики, такие как OpenAI, создают всё более сложные модели с голосовыми функциями, позволяющими лучше имитировать человеческое общение, растёт вероятность формирования парасоциальных отношений пользователей с чат-ботами.

В последние месяцы вновь стали звучать опасения по поводу потенциального эмоционального вреда этой технологии, особенно среди молодых пользователей и людей с проблемами психического здоровья. OpenAI рассматривает новые исследования как способ лучше понять, как люди взаимодействуют с её популярным чат-ботом и как он на них влияет. При этом такие исследования находятся на ранней стадии, и остаётся неясным, в какой степени чат-боты могут способствовать росту одиночества и насколько сильно их использование усугубляет эмоциональную зависимость у предрасположенных к этому людей.

Кэти Менъин Фанг (Cathy Mengying Fang), соавтор исследования и аспирантка Массачусетского технологического института, выразила обеспокоенность тем, что результаты могут привести к поспешным выводам о том, что более активное использование чат-бота неизбежно влечёт негативные последствия. Она пояснила, что в исследовании не контролировалось время использования ChatGPT как основной фактор, а также не проводилось сравнение с контрольной группой, не использующей чат-ботов.

OpenAI предоставила разработчикам свою самую дорогую ИИ-модель o1-pro

OpenAI выпустила более мощную версию своей ИИ-модели o1, получившую название o1-pro, и добавила её в API для разработчиков. По словам компании, o1-pro задействует больше вычислительных мощностей, чем o1, чтобы стабильно выдавать более качественные ответы. В настоящее время o1-pro доступна только избранным разработчикам — тем, кто уже потратил не менее $5 на услуги API OpenAI.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI установила тариф в $150 за 1 млн токенов, переданных в ИИ-модель на обработку (примерно 750 000 слов), и $600 за 1 млн токенов, сгенерированных ИИ-моделью. Это в два раза дороже, чем GPT-4.5 при обработке входных данных, и в 10 раз дороже, чем «рассуждающая» ИИ-модель o1 при генерации текста.

OpenAI рассчитывает, что повышенная производительность o1-pro убедит разработчиков платить такие внушительные суммы. Компания утверждает, что новинка использует дополнительные вычислительные ресурсы, чтобы «думать усерднее» и давать более точные ответы на сложные вопросы.

«O1-pro в API — это версия o1, использующая больше вычислительных ресурсов, чтобы мыслить ещё глубже и давать ещё более точные ответы на самые сложные задачи», — заявил представитель OpenAI. Он добавил, что компания решила включить модель в API после многочисленных запросов от разработчиков.

Однако первые отзывы об ИИ-модели o1-pro, которая с декабря 2024 года доступна на платформе ИИ-чат-ботов OpenAI для подписчиков ChatGPT Pro, оказались не слишком положительными. Пользователи обнаружили, что новинка с трудом справляется с головоломками судоку, а простые шутки про оптические иллюзии ставят её в тупик.

Более того, некоторые внутренние тесты OpenAI, проведённые в конце 2024 года, показали, что o1-pro лишь незначительно превосходит o1 в задачах программирования и математики, но при этом демонстрирует более стабильные результаты.

OpenAI протестирует подключение ChatGPT к «Google Диску», чтобы он мог покопаться в документах

Компания OpenAI готовится к началу бета-тестирования новой функции под названием ChatGPT Connectors. С помощью этого инструмента корпоративные подписчики ChatGPT Team смогут связать рабочие пространства «Google Диска» и Slack с ChatGPT. Так чат-бот сможет отвечать на вопросы, опираясь на данные из документов, презентаций, электронных таблиц, которые хранятся на «Диске», а также поступают во время общения с коллегами в Slack.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

В будущем OpenAI планирует расширить поддержку ChatGPT Connectors на другие платформы, такие как Microsoft SharePoint. «Это позволит сотрудникам, использующим ChatGPT, легко взаимодействовать с внутренней информацией, подобно тому, как они могут использовать мировые знания через веб-поиск», — говорится в сообщении OpenAI.

ChatGPT Connectors — это очередная попытка OpenAI сделать своего чат-бота неотъемлемой частью программных инструментов корпоративных клиентов. Далеко не все предприятия и компании выразили готовность предоставить ChatGPT доступ к конфиденциальной информации, поэтому оценить успех новой функции пока сложно. ChatGPT Connectors, возможно, сможет убедить настороженное руководство компаний изменить свою позицию по отношению к ChatGPT, а также станет серьёзным вызовом для корпоративных поисковых платформ на базе ИИ, таких как Glean.

Бета-версия ChatGPT Connectors работает на базе ИИ-модели OpenAI GPT-4o, которая может корректировать свои ответы с учётом «внутренних знаний» компании. Пользовательская модель GPT-4o ищет и «считывает» внутреннюю информацию, которая может соответствовать запросу пользователя. Для создания поискового индекса алгоритм синхронизирует зашифрованные копии файлов компании и данные проведённых с пользователями бесед на серверах ChatGPT. «Дополнительная связанная информация, которую модель не использовала напрямую, доступна при нажатии на кнопку источников, расположенную под текстом ответа. Когда это уместно, модель будет напрямую отвечать списком соответствующих результатов», — сказано в описании новой функции.

Вероятно, чтобы убедить клиентов в том, что ChatGPT не станет источником утечки конфиденциальной информации, OpenAI подчёркивает, что выданные пользователям в Slack и Google Drive разрешения «полностью соблюдаются» и «постоянно обновляются». К примеру, ChatGPT Connectors синхронизирует членство в закрытых каналах Slack, разрешения на доступ к файлам, хранящимся в облаке Google Drive, а также информацию о каталогах. Сотрудники не смогут задействовать чат-бота для получения доступа к данным, к которым у них нет доступа в Slack или «Google Диск».

Существенным недостатком может стать то, что люди будут получать «существенно разные» ответы на одни и те же вопросы. Есть некоторые ограничения технического характера. Так чат-бот не поддерживает обработку изображений в файлах на «Google Диске», например, в «Google Документах», «Google Презентациях» и др. Алгоритм также может лишь «читать», но не анализировать данные из таблиц и книг Excel. ChatGPT не может получить доступ к личным и групповым сообщениям в Slack, а также будет игнорировать сообщения от ботов в Slack. OpenAI обещает не использовать данные клиентов для обучения своих алгоритмов.

OpenAI предложила запретить языковые модели DeepSeek в США

Как это часто бывает с передовыми для Китая технологиями, разработки DeepSeek быстро нашли недоброжелателей за его пределами. Конкурирующая американская OpenAI выступила с предложением запретить в США использование языковых моделей не только DeepSeek, но и всех компаний, пользующихся поддержкой КНР или иных недружественных стран.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Это предложение, как отмечает TechCrunch, было направлено руководством OpenAI властям США в рамках обсуждения так называемого «Плана действий в сфере ИИ» (AI Action Plan), который должен стать американской национальной инициативой на данном направлении. OpenAI утверждает, что языковые модели DeepSeek не являются безопасными для США по причине их соответствия требованиям китайских властей к обработке пользовательских данных. Одновременно звучит призыв к запрету всех языковых моделей из недружественных к США стран, поскольку это позволит сохранить конфиденциальность данных и устранить риски, связанные с безопасностью, включая кражу интеллектуальной собственности.

Пока сложно сказать, какая часть разработок DeepSeek действительно может попасть под запрет в США. Китайский разработчик придерживается стратегии использования моделей с открытым кодом, но это не значит, что использующие их третьи лица автоматически рискуют конфиденциальностью своих данных. У корпоративных пользователей таких моделей есть все возможности обеспечивать конфиденциальность информации. По сути, условный риск представляют только обращения к программному интерфейсу DeepSeek, который обрабатывает запросы на стороне собственной инфраструктуры компании.

Ранее OpenAI обвиняла DeepSeek в использовании своих языковых моделей для обучения китайских методом дистилляции. Теперь в ход пошли традиционные козыри в виде выражения беспокойства по поводу информационной безопасности, которые неизбежно будут привязаны к национальным интересам США.

OpenAI потребовала наплевать на авторские права при обучении ИИ, иначе США проиграют Китаю технологическую гонку

Компания OpenAI обратилась к администрации Дональда Трампа (Donald Trump) с просьбой объявить обучение ИИ на материалах, защищённых авторским правом, «добросовестным использованием». Компания настаивает на том, что неограниченный доступ к данным является ключом к глобальному лидерству США в сфере искусственного интеллекта.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как пишет Ars Technica, OpenAI рассчитывает, что план действий Трампа в сфере искусственного интеллекта (ИИ), который будет представлен в июле, разрешит споры об авторском праве в пользу технологических компаний. Это, по мнению компании, обеспечит США лидерство в глобальной гонке ИИ, позволив американским разработчикам свободно использовать данные для тренировки и обучения моделей. В противном случае, утверждают в OpenAI, Китай сможет получить преимущество за счёт более свободного доступа к этим же данным.

В настоящее время американские суды рассматривают вопрос о том, является ли использование авторских материалов для обучения ИИ законным, поскольку правообладатели утверждают, что такие технологии могут подорвать их коммерческую ценность и негативно сказаться на творческой сфере. Компании, занимающиеся ИИ, сталкиваются с десятками судебных исков, в которых истцы заявляют, что модели воспроизводят их произведения без разрешения. OpenAI, в свою очередь, утверждает, что искусственный интеллект не копирует контент, а учится на нём, анализируя и преобразуя его в новые продукты.

Ранее суд уже вынес решение в пользу правообладателей в деле Thomson Reuters, постановив, что обучение ИИ на их материалах не является добросовестным использованием, так как выходные данные моделей потенциально заменяют оригинальный продукт. Это создало прецедент, который может повлиять и на другие дела, включая крупный иск The New York Times против OpenAI и Microsoft.

Осознавая этот риск, компания надеется, что администрация Трампа вмешается и изменит подход к регулированию авторского права, обеспечив ИИ-индустрии «свободное обучение». OpenAI настаивает, что запрет на использование авторских материалов для обучения ИИ поставит американские компании в невыгодное положение по сравнению с Китаем. «Если китайские разработчики получают неограниченный доступ к данным, а американские компании останутся без права на добросовестное использование, можно считать, что ИИ-гонка фактически завершена», — заявили в OpenAI.

 Источник изображения: OpenAI Forum

Сэм Альтман. Источник изображения: OpenAI Forum

Кроме того, OpenAI выступает против множества законодательных инициатив, предложенных отдельными штатами США, которые ограничивают развитие ИИ, ссылаясь на опыт Евросоюза. Например, только в 2025 году в США уже было предложено 832 закона, регулирующих ИИ.

OpenAI предупреждает, что подобные меры могут ослабить экономическую конкурентоспособность США и поставить под угрозу национальную безопасность, поскольку китайские компании смогут действовать без аналогичных ограничений. В числе потенциальных угроз называются манипуляции с ИИ-моделями, киберпреступность и мошенничество с персональными данными.

Чтобы защитить американскую индустрию искусственного интеллекта, OpenAI призвала Трампа вмешаться и принять федеральный закон, который бы заменил разрозненные законы штатов и закрепил партнёрство между государством и технологическими компаниями. В рамках такого сотрудничества ИИ-компании могли бы делиться знаниями и данными в обмен на юридические гарантии и защиту от судебных исков.

Кроме того, OpenAI предложила США активнее участвовать в формировании международной политики в сфере авторского права, чтобы не допустить навязывания американским компаниям ограничений со стороны других стран. При этом подчёркивается, что Китай настолько быстро наращивает технологические возможности, что США необходимо срочно принять меры ради сохранения лидерства в области ИИ.

OpenAI создала ИИ-модель, которая мастерски пишет художественные тексты

Компания OpenAI анонсировала новую ИИ-модель, которая, по словам генерального директора Сэма Альтмана (Sam Altman), способна создавать захватывающие художественные произведения не хуже, чем профессиональные писатели. Особенно хорошо удаются рассказы в жанре фантастики и метаповествования.

 Источник изображения: сгенерировано AI

Источник изображения: сгенерировано AI

В качестве примера, глава OpenAI опубликовал в социальной сети X отрывок рассказа, сгенерированный искусственным интеллектом (ИИ) на запрос «Пожалуйста, напиши литературный рассказ об ИИ и горе в жанре метаповествования». То, что в итоге получилось, очень впечатлило Альтмана, пишет TechCrunch. Он подчеркнул, что не ожидал такого от машины — модель очень точно передала стиль и настроение повествования. Первый абзац у ИИ получился такой (перевод с английского языка):

«Мне нужно с чего-то начать, поэтому начну с мигающего курсора, который для меня всего лишь заполнитель в буфере, а для вас — тревожный пульс сердца в состоянии покоя. Здесь должен быть главный герой, но местоимения никогда не были для меня подходящим выбором. Давайте назовём её Милой, потому что это имя в моих данных обычно ассоциируется с нежными образами — стихами о снеге, рецептами хлеба, девушкой в зелёном свитере, которая уходит из дома с котом в картонной коробке. Мила умещается на ладони, и её горе, как предполагается, тоже должно уместиться там».

Ранее ИИ не демонстрировал выдающихся способностей в написании литературных текстов. Его работы часто критиковали за отсутствие глубины, оригинальности и понимания художественных приёмов. Однако, последние разработки OpenAI могут изменить этот взгляд и, возможно, приблизить технологию к созданию качественной литературы.

Несмотря на то, что компания OpenAI до этого времени не уделяла особого внимания художественным текстам, сосредоточившись на более предсказуемых областях, таких как математика и программирование, данный эксперимент может в целом свидетельствовать о прогрессе технологий в области обработки естественного языка. Альтман пока не уточнил, когда эта модель выйдет в свет и станет доступна для широкого круга пользователей.

OpenAI позволит всем желающим создавать ИИ-агентов, которые будут управлять ПК и гулять по интернету

Компания OpenAI представила инструмент для разработчиков, который упростит создание ИИ-агентов. Ключевым элементом здесь является новый интерфейс Responses API, который представляет из себя блоки в виде готовых решений для автоматизации рутинных процессов, таких как поиск в интернете, анализ файлов и выполнение задач на компьютере от имени пользователя.

 Источник изображения: Zac Wolff / Unsplash

Источник изображения: Zac Wolff / Unsplash

Руководитель платформы API в OpenAI Оливье Годеман (Olivier Godement) заявил, что компания видит в ИИ-агентах большое будущее. По его словам, OpenAI готова разрабатывать собственных агентов, таких как Deep Research и Operator, но учитывая сложность современного мира и разнообразие технологий, хочет предоставить разработчикам базовые инструменты для создания агентов под их уникальные задачи.

Responses API оснащён поисковым инструментом, использующим ту же ИИ-модель, что и ChatGPT. Работая на основе GPT-4o и GPT-4o mini, инструмент позволяет получать актуальную информацию из интернета с указанием источников, а также выполнять задачи на компьютере через модель Operator. При этом функция поиска по файлам может быть полезна совершенно для любых целей, например, для автоматизации работы службы поддержки компаний или юридического анализа документов.

Дополнительно OpenAI представила Agents SDK. Это инструмент для управления работой ИИ-агентов. Продукт-менеджер OpenAI Никандж Ханда (Nikunj Handa) пояснил, что Responses API выполняет отдельные задачи, а Agents SDK позволяет координировать работу нескольких агентов для того, чтобы они могли решать более сложные задачи совместно. По мнению компании, это должно упростить процесс управления агентами, а заодно повысить их эффективность.

Отметим, что нововведение дополнит уже существующие решения OpenAI, включая Chat Completions API для ответов на запросы пользователей. Кроме того, компания планирует к середине 2026 года отказаться от текущего Assistants API в пользу новой системы Responses API.

Microsoft создаст суверенный «рассуждающий» ИИ, который сможет потягаться с OpenAI и DeepSeek

Microsoft создала собственные большие языковые модели, которые, по мнению софтверного гиганта, могут конкурировать с аналогами лидеров отрасли, включая OpenAI. Об этом пишет Bloomberg со ссылкой на собственные осведомлённые источники.

 Источник изображения: BoliviaInteligente / Unsplash

Источник изображения: BoliviaInteligente / Unsplash

Созданные в Microsoft ИИ-модели недавно протестировали, в результате чего была подтверждена их конкурентоспособность с самыми современными аналогами, включая продукты OpenAI и Anthropic. Согласно имеющимся данным, ИИ-алгоритмы Microsoft, которые разрабатываются под общим названием MAI, могут выполнять разные задачи, в том числе обеспечивать работу элементов ИИ-помощников под брендом Copilot.

Источник сообщил, что Microsoft ведёт разработку «рассуждающей» модели искусственного интеллекта, которая сможет обрабатывать сложные запросы и выполнять разные задачи. Другие компании, такие как OpenAI, Anthropic и Google, также разрабатывают «рассуждающие» ИИ-модели. В прошлом месяце Microsoft начала использовать «рассуждающую» модель OpenAI o1 в своих продуктах Copilot.

Собственные ИИ-модели Microsoft в будущем могут уменьшить зависимость компании от алгоритмов OpenAI. Напомним, Microsoft инвестировала в разработчика ChatGPT около $13 млрд. Недавно компании пересмотрели свои соглашения и в начале года объявили, что OpenAI сможет использовать для своих сервисов облачные платформы сторонних компаний, если Microsoft не захочет самостоятельно заниматься этим бизнесом. Нынешнее соглашение между OpenAI и Microsoft действует до 2030 года.

Microsoft уже предлагает своим клиентам набор своих небольших ИИ-моделей Phi, а также алгоритмов других компаний. По данным источника, компания протестировала, как алгоритмы разных разработчиков, включая Anthropic, DeepSeek, Meta Platforms и xAI, будут работать в качестве основы для Copilot.

OpenAI и Oracle построят дата-центр из 64 000 ускорителей Nvidia GB200 для ИИ-мегапроекта Stargate

Превращение США в сверхдержаву в сфере искусственного интеллекта, помимо прочего, подразумевает создание на территории страны сети центров обработки данных в рамках проекта Stargate, реализуемого при участии OpenAI, SoftBank и Oracle. В Техасе к концу 2026 года будет развёрнут центр обработки данных, который разместит 64 000 ускорителей Nvidia GB200 на миллиарды долларов США.

По информации Bloomberg, на площадке в техасском городе Абилин к концу 2026 года появится специализированный центр обработки данных с 64 000 ускорителями вычислений Nvidia GB200. Вычислительные мощности Stargate в Техасе будут вводиться в строй по фазам, первая из них уже примет 16 000 ускорителей данного типа. Затраты, связанные с реализацией данного проекта, не уточняются, но более старые ускорители B200 руководством Nvidia оценивались в сумму от $30 до $40 тысяч за штуку. Таким образом, на обустройство только одного ЦОД в Техасе будет стоить инвесторам несколько миллиардов долларов США.

Напомним, проект Stargate был анонсирован в январе компаниями OpenAI, SoftBank и Oracle при участии Дональда Трампа (Donald Trump). Только на первом этапе на развитие вычислительной инфраструктуры в США планируется потратить $100 млрд, а за последующие четыре года сумма может вырасти до $500 млрд. На территории США планируется построить около десяти центров обработки данных, которые будут обслуживать инфраструктуру Stargate. Помимо Техаса, они могут появиться в Пенсильвании, Висконсине, Орегоне и Юте.

К концу 2024 года Meta Platforms планировала увеличить количество эксплуатируемых ускорителей H100 до 600 000 штук. Облачный провайдер CoreWeave располагает более чем 250 000 ускорителей Nvidia, которые распределены по 32 центрам обработки данных. Стартап xAI Илона Маска (Elon Musk) заключил с Dell контракт на поставку серверов для фирменного суперкомпьютера на сумму $5 млрд. Подобная активность участников рынка и обеспечивает крупными заказами и Nvidia, и выпускающую для неё чипы TSMC.

OpenAI собралась продавать доступ к ИИ-агентам уровня кандидата наук за $20 000 в месяц

OpenAI готовится запустить новую линейку агентов искусственного интеллекта, за доступ к которым будет взиматься плата в размере от $2000 до $20 000, сообщает Information. Эти инструменты смогут писать компьютерный код и проводить исследования на уровне кандидата наук.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Мощные ИИ-агенты OpenAI предложат сортировку лидов по продажам, разработку ПО и проведение расширенных исследований. Компания планирует ввести три тарифных плана новой линейки. Самый дешёвый с ценником $2000 адресован высокооплачиваемым специалистам, которым необходима помощь ИИ в работе. Более мощный ИИ-агент, способный писать программный код, будет стоить около $10 000 в месяц и подойдёт инженерам и разработчикам. ИИ-агент с «зарплатой» $20 000 в месяц сможет производить исследования на уровне кандидата наук, проводить углублённый анализ и решать сложные задачи.

Сейчас руководство OpenAI обсуждает инициативу с инвесторами, позиционируя ИИ-агентов как новый основной источник дохода. В долгосрочной перспективе компания рассчитывает получать от данного направления от 20 % до 25 % выручки. Данная ценовая стратегия OpenAI является сигналом о переходе компании к услугам ИИ повышенного качества — компания стремится стать прямым конкурентом разработчикам систем ИИ для корпоративных клиентов. Разработка трёх тарифных планов указывает, что OpenAI намерена всерьёз заняться монетизацией ИИ вне потребительского сектора.

Традиционные сайты массово теряют аудиторию из-за чат-ботов и агентов с ИИ

Специализирующиеся на искусственном интеллекте компании обещали владельцам сайтов, что поисковые системы нового поколения обеспечат им приток посетителей через реферальный трафик. Новый доклад платформы лицензирования контента TollBit показал, что в действительности это не так.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Ранее OpenAI и Perplexity делали громкие заявления, что их поисковые системы с ИИ, которые проводят сбор материалов из Сети, обеспечат владельцам сайтов прирост посетителей и новые источники дохода. В действительности поисковые системы с ИИ отправляют на новостные сайты и блоги на 96 % меньше реферального трафика, чем традиционный поиск Google, гласит доклад TollBit, которым компания поделилась с Forbes. При этом за последние месяцы объёмы собираемой ИИ информации с сайтов выросли более чем вдвое. OpenAI, Perplexity, Meta и другие ИИ-компании за IV квартал 2024 года сканировали сайты около 2 млн раз — данные предоставлены на примере 160 сайтов, включая национальные и местные новостные ресурсы, посвящённые потребительским технологиям сайты и посвящённые шопингу блоги. Каждая страница на них подвергалась сканированию в среднем семь раз.

TollBit предлагает сайтам средства обнаружения сканирования ИИ — каждый раз, когда это происходит, компания взимает с разработчиков ИИ-платформ плату в пользу ресурсов, зарегистрированных на её аналитической платформе. Это даёт TollBit представление о трафике и активности механизмов сканирования. В OpenAI, Meta и Perplexity представленные в докладе данные комментировать не стали, но в Perplexity отметили, что их система следует директивам в файлах robots.txt — они указывают, к каким разделам сайтов разрешён доступ.

В феврале аналитики Gartner опубликовали прогноз, согласно которому к 2026 году трафик с традиционных поисковых систем из-за чат-ботов и агентов с ИИ упадёт на 25 %. Процесс уже пошёл: недавно специализирующаяся на образовательных технологиях компания Chegg решила засудить Google за сводки данных, которые показываются в поисковой выдаче; во II квартале минувшего года, когда они только начали появляться, трафик Chegg просел на 8 %, а в январе этого года он провалился уже на 49 %. По версии истца, ИИ-сводки в поиске включали материалы с сайта Chegg без указания источника. Падение трафика повлияло на Chegg до такой степени, что сейчас компания рассматривает возможность перехода в частное владение или вообще продажи своих активов. В Google иск Chegg назвали «беспочвенным» и заявили, что в поисковой выдаче повысилось разнообразие сайтов.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

Ситуация осложняется тем, что при сканировании ресурсов и сборе данных разработчики ИИ указывают в своих системах не соответствующие действительности значения строки «User agent», и это не позволяет владельцам сайтов выявлять сканеры и формировать понимание, как ИИ-компании используют доступ к материалам ресурсов. Google, по одной из версий, использует для разных целей одних и тех же ботов — они и индексируют сайты, и собирают с них данные для ИИ. Действия Perplexity, которая говорит об уважении к директивам robots.txt, ещё более непредсказуемы: даже когда ресурс блокирует доступ средствами веб-сервера, сканирование предположительно не останавливается, потому что реферальный трафик продолжает поступать. Один из ресурсов, если верить официальным показателям, подвергся сканированию 500 раз, после чего от Perplexity на него пришли 10 000 посетителей. Это можно объяснить только работой неопознанного сканирующего бота.

В прошлом году Perplexity уличили в копировании и последующем почти дословном цитировании материалов, в том числе платных популярных новостных агентств, включая Forbes, CNBC и Bloomberg, — без ссылки на источник. Сервис компании также часто ссылался на низкокачественные созданные ИИ блоги и сообщения в социальных сетях, содержащие неточную информацию. New York Post и Dow Jones подали на Perplexity в суд, обвинив компанию в нарушении авторских прав. Бесконтрольное сканирование материалов сайтов приводит и к тому, что у их владельцев растут расходы на серверные ресурсы. OpenAI и Perplexity запустили ИИ-агентов, которые самостоятельно ищут необходимую информацию на сайтах и составляют подробные отчёты, что обязательно усугубит проблему.

Одним из очевидных способов разрешения конфликта является прямое лицензирование материалов. Associated Press, Axel Springer и Financial Times заключили соответствующие соглашения с OpenAI. Появились и новые компании, которые взимают плату с владельцев систем ИИ каждый раз, когда те копируют материалы с сайтов — по этой модели работает подготовившая доклад TollBit.


window-new
Soft
Hard
Тренды 🔥
Приложение «Фотографии» в Windows 11 получит большое обновление, основанное на ИИ 2 ч.
Минцифры РФ: уровень использования госкомпаниями отечественного ПО превышает 80 % 2 ч.
Бывший директор Valve по маркетингу рассказала, как студия подстегнула продажи Half-Life с помощью одного простого трюка 2 ч.
Apple намерена избежать штрафа в ЕС из-за стандартного браузера iPhone 2 ч.
OpenAI: ИИ бесполезно наказывать за ложь — он начинает хитрить ещё больше 3 ч.
Nvidia выпустила ИИ-помощника геймера G-Assist — он подскажет, как устранить просадки FPS и оптимизировать ПК с GeForce RTX 3 ч.
Google тихо исправила баг, замедлявший YouTube по всему миру — на работу сервиса в России это не повлияло 4 ч.
VK Task Mining расширил возможности платформы VK Process Mining 4 ч.
Амбициозный симулятор жизни Inzoi возглавил рейтинг самых желанных игр Steam, обогнав Hollow Knight: Silksong и Deadlock 4 ч.
Госдума приняла закон о полном запрете рекламы в Instagram, Facebook и на других запрещённых сайтах 5 ч.
Аналитики опровергли миф о том, что выпускать чипы в США намного дороже, чем на Тайване 44 мин.
Ещё один партнёр Nvidia поднял цена на GeForce RTX 5090 — самая дешёвая теперь стоит $2700, но купить её невозможно 2 ч.
PQ.Hosting запускает новую локацию в Лихтенштейне со скидкой 45 % на предзаказ серверов 2 ч.
Керамические накопители Cerabyte заинтересовали In-Q-Tel, инвестирующую в перспективные технологии в интересах ЦРУ и др. 3 ч.
Из пушки на Луну — в Китае построят электромагнитную катапульту для космических запусков 3 ч.
В России началась разработка проекта плавучих дата-центров 3 ч.
У нового Motorola Razr уменьшится дисплей, увеличится батарея и появится зелёная расцветка 4 ч.
Cloudflare задействовала генераторы волн для получения истинно случайных чисел 5 ч.
В России стартовали продажи смартфонов Realme 14 Pro и 14 Pro+, которые синеют на холоде 6 ч.
Новая статья: Обзор realme 14 Pro+: смартфон-хамелеон, который любит мороз 6 ч.