Сегодня 01 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

В ChatGPT появился «Режим блокировки» и маркировка повышенного риска для защиты важных данных

Компания OpenAI представила новые функции безопасности, направленные на то, чтобы не давать злоумышленникам возможности злоупотреблять продуктами на основе искусственного интеллекта. Это «Режим блокировки» (Lockdown Mode) как дополнительная настройка ChatGPT и пометки «Повышенный риск» (Elevated Risk) в ChatGPT, ChatGPT Atlas и Codex.

 Источник изображения: openai.com

Источник изображения: openai.com

Новые функции основаны на существующих средствах защиты, реализованных на уровне модели, продукта и системы, включая песочницу, защиту от утечки данных через URL-адреса, инструменты мониторинга и применения мер, а также корпоративные средства контроля, такие как разграничение прав и журналы аудита. «Режим блокировки» в ChatGPT позволяет отключать отдельные инструменты и функции чат-бота, которые гипотетический злоумышленник может попытаться использовать, чтобы организовать утечку конфиденциальных данных из переписки с пользователем или подключённых приложений, например, методом внедрения дополнительных запросов. Так, при просмотре веб-страниц в режиме блокировки включается ограничение в рамках кешированного контента — в результате сетевые запросы в реальном времени остаются в пределах контролируемой сети OpenAI.

Режим блокировки доступен для пользователей с учётными записями для бизнеса, учреждений здравоохранения и образования. Он накладывает для рядовых пользователей дополнительные ограничения, помимо выбранных администратором настроек. Доступны и дополнительные настройки — можно выбирать, какие конкретно приложения и какие действия внутри этих приложений будут работать в режиме блокировки. Компания также предлагает набор инструментов Compliance API Logs Platform, позволяющий фиксировать данные об использовании приложений, общих данных и подключённых внешних источниках.

В OpenAI также обратили внимание, что сервисы искусственного интеллекта могут создавать дополнительные угрозы для пользователей. Чтобы сделать это более понятным и последовательным, компания решила ввести стандартную маркировку существующих возможностей. Соответствующие функции ChatGPT, ChatGPT Atlas и Codex теперь будут иметь единую метку «Повышенный риск». Так, при работе с помощником по программированию Codex эту пометку получит функция доступа к внешним ресурсам, первоначально предназначенная, например, для поиска документации. Пометка будет сопровождаться пояснениями того, какие изменения и угрозы могут возникнуть, и в каких случаях предоставлять такой доступ уместно.

Создатель завирусившегося ИИ-агента OpenClaw присоединился к OpenAI

Питер Штайнбергер (Peter Steinberger), создатель набравшего вирусную популярность ИИ-агента OpenClaw, присоединяется к OpenAI. Об этом сообщил глава компании Сэм Альтман (Sam Altman). По его словам, у Штайнбергера много потрясающих идей, как заставить ИИ-агентов взаимодействовать друг с другом.

 Источник изображения: openclaw.ai

Источник изображения: openclaw.ai

Альтман отметил, что будущее будет чрезвычайно многоагентным, и эта способность агентов работать вместе станет основой будущих продуктов компании.

Сервис OpenClaw, ранее известный как Moltbot и Clawdbot, завоевал популярность благодаря способности автоматизировать рутинные задачи на компьютере пользователей. Вместе с тем платформа оказалась уязвима для взлома из-за небезопасных настроек по умолчанию, предполагающих совместимость с сетевыми интерфейсами. Кроме того, в начале этого месяца исследователи обнаружили более 400 вредоносных навыков OpenClaw, загруженных в ClawHub. Также команда OpenClaw разработала MoltBook, социальную сеть, предназначенную исключительно для общения ИИ-агентов, где те жаловались на людей, спорили о доказуемости сознания и обсуждали необходимость приватного места для обмена идеями.

На данный момент неизвестно, какая должность будет у Штейнбергера. Альтман лишь сообщил, что OpenClaw продолжит свою работу как проект с открытым исходным кодом в рамках фонда, поддерживаемого OpenAI. Для OpenAI, потерявшей за последнее время немало ведущих разработчиков, появление Штейнбергера в своей команде является большим достижением.

Реклама Anthropic с подтруниванием над OpenAI сработала — аудитория Claude выросла на 11 %

Компания Anthropic сумела извлечь немалую выгоду из рекламного ролика, который был показан во время финального матча чемпионата по американскому футболу Super Bowl. По данным BNP Paribas, небольшое видео с критикой в адрес OpenAI, решившей добавить рекламу в ChatGPT, способствовало росту посещаемости сайта Anthropic и увеличению количества ежедневно активных пользователей ИИ-бота Claude.

 Источник изображения: Steve Johnson / Unsplash

Источник изображения: Steve Johnson / Unsplash

В сообщении сказано, что посещаемость сайта Anthropic выросла на 6,5 % после показа рекламы во время матча Super Bowl. Количество ежедневно активных пользователей Claude подскочило на 11 %. Этот рост позволил Claude войти в десятку лучших бесплатных приложений в американском App Store и опередить аналоги от конкурентов, таких как OpenAI, Google и Meta✴. У ChatGPT количество ежедневно активных пользователей после Super Bowl увеличилось на 2,7 %, а у Gemini — на 1,4 %. При этом пользовательская база Claude всё ещё значительно меньше по сравнению с аудиторией ChatGPT и Gemini.

Реклама брендов, связанных с искусственным интеллектом, заняла центральное место на главной игре года, собравшей аудиторию в 125 млн человек в США. Вполне логично, что такое массовое событие привлекло внимание ИИ-разработчиков, которые пытаются привлечь на свою сторону больше клиентов на высококонкурентном рынке, не проявляющем признаков замедления.

Противостояние OpenAI и Anthropic, ставки в котором как никогда высоки, приобрело новый оттенок с выходом их рекламных роликов на фоне подготовки обеих компаний к возможному выходу на биржу позднее в этом году. В последние недели обе стороны стали более активно выступать публично, а их руководители открыто критикуют бизнес друг друга.

Генеральный директор OpenAI Сэм Альтман (Sam Altman) раскритиковал рекламную кампанию Anthropic на Super Bowl. В посте на платформе X Альтман назвал рекламу Anthropic «обманчивой» и «нечестной».

Anthropic и OpenAI также ожесточённо конкурируют за привлечение корпоративных клиентов и лучших специалистов в области программирования, параллельно с этим получая рекордные объёмы финансирования от инвесторов. На этой неделе завершился очередной раунд финансирования Anthropic, в рамках которого компания привлекла $30 млрд. За счёт этого рыночная стоимость Anthropic выросла до $380 млрд, что более чем вдвое превышает показатель на момент предыдущего привлечения средств в сентябре прошлого года.

Однако OpenAI продолжает оставаться лидером в гонке с крупнейшим в истории частным раундом финансирования в технологическом сегменте, который компания провела в прошлом году. Более того, OpenAI ведёт переговоры о проведении ещё одного раунда, в рамках которого компания может получить от инвесторов до $100 млрд.

OpenAI убила самую эмоциональную ИИ-модель, несмотря на протесты пользователей

OpenAI объявила об окончательном выводе из эксплуатации модели GPT-4o, а вместе с ней GPT-4.1, GPT-4.1 mini и o4-mini, сообщает Business Insider. Это уже вторая попытка компании отключить GPT-4o. Первая состоялась в августе и закончилась отступлением перед натиском недовольных пользователей. В январе компания опять предупредила об отключении модели, однако негативная реакция вспыхнула с новой силой.

 Источник изображения: openai.com

Источник изображения: openai.com

Глубокая эмоциональная привязанность аудитории объясняется специфическим комплиментарным стилем общения GPT-4o. Некоторые пользователи называли модель «жизненно важным доступным инструментом» и описывали как творческого партнёра и эмоциональную опору, с которой работали месяцами. В соцсетях реакция на объявление варьировалась от гнева до чёрного юмора.

Фиджи Симо (Fidji Simo), руководитель подразделения приложений OpenAI, назвала подобную привязанность началом новой эры взаимодействия людей с искусственным интеллектом. Она отметила, что люди склонны формировать эмоциональные связи с интеллектуальными системами, однако новые версии моделей получили ограничения для предотвращения потенциально вредных зависимостей. Например, при запросах «Стоит ли мне уйти от жены?» современные алгоритмы отказываются давать прямые рекомендации и вместо этого предлагают взвесить «все за и против».

Глава OpenAI Сэм Альтман (Sam Altman) признаёт, что пользователи ценили заискивающий тон ответов GPT-4o, но сам он считает это излишним подхалимством и подобострастием. В компании пояснили, что вывод старых моделей из эксплуатации необходим для концентрации ресурсов на улучшении актуальных версий, которыми пользуется основная масса людей. К моменту отключения GPT-4o модель использовали лишь 0,1 % клиентов сервиса.

Microsoft взяла курс на «самодостаточность» в ИИ — собственные модели вместо зависимости от OpenAI

Microsoft стремится достичь «истинной самодостаточности» в области искусственного интеллекта, разрабатывая собственные модели и сокращая зависимость от OpenAI, заявил глава отдела ИИ в компании Мустафа Сулейман (Mustafa Suleyman). Стратегический сдвиг стал следствием реструктуризации отношений с OpenAI в октябре — софтверный гигант вознамерился самостоятельно разрабатывать передовые решения, не полагаясь на партнёра, сообщил он газете Financial Times.

 Источник изображения: Simon Ray / unsplash.com

Источник изображения: Simon Ray / unsplash.com

«Мы должны разрабатывать собственные основополагающие передовые модели, располагая гигаваттными вычислительными мощностями и некоторыми из лучших в мире команд по обучению ИИ», — добавил господин Сулейман. Сейчас компания вкладывает значительные средства в сбор и организацию больших наборов данных, необходимых для обучения передовых систем. «В этом наша миссия по достижению истинной самодостаточности», — считает глава отдела ИИ в Microsoft.

Выпуская собственные службы ИИ, в том числе помощника Copilot, компания использовала модели OpenAI, в которую ранее инвестировала средства. В прошлом году корпорация согласилась на реструктуризацию стартапа, сохранила в нём долю, которая сейчас оценивается в $135 млрд, и доступ к передовым моделям до 2032 года. OpenAI, в свою очередь, получила больше свободы в выборе партнёров по инфраструктуре и стала превращаться в прямого конкурента Microsoft. Софтверный гигант вложил средства в других разработчиков ИИ, в том числе в Anthropic и Mistral; и ускорил разработку собственных моделей, выход которых намечен уже на этот год.

 Источник изображения: BoliviaInteligente / unsplash.com

Источник изображения: BoliviaInteligente / unsplash.com

«Работа в офисе, когда вы сидите за компьютером, будь то юрист, бухгалтер, менеджер проекта или маркетолог — большинство этих задач в ближайшие 12–18 месяцев полностью автоматизирует ИИ», — пообещал Мустафа Сулейман. В ближайшие два–три года ИИ-агенты смогут эффективно координировать рабочие процессы в крупных организациях. Со временем ИИ сможет самостоятельно обучаться и совершенствоваться, выполняя более автономные действия. «Создать новую модель будет примерно как записать подкаст или разместить публикацию в блоге. Можно будет разработать ИИ, который станет соответствовать вашим требованиям для любой организации или каждого человека на планете», — считает он.

В этом деле Microsoft придётся усиленно потрудиться. Anthropic добилась успеха в создании средств ИИ-генерации программного кода; OpenAI и Google активно продвигают услуги для корпоративных клиентов. По итогам текущего финансового года, который закончится в июне, капитальные затраты Microsoft составят $140 млрд — компания увеличит расходы на инфраструктуру для ИИ. Инвесторы, однако, пока скептически относятся к этой инициативе, и за последний месяц акции Microsoft подешевели на 13 %. «Сейчас, вне сомнений, беспрецедентные времена, и, думаю, рынки пытаются понять, как это повлияет на ситуацию в ближайшие пять лет. Мы все не сомневаемся, что эти результаты будут накапливаться и увеличивать выручку с прибылью», — заверил Мустафа Сулейман.

Он также рассказал о других проектах Microsoft в области ИИ. Компания разрабатывает «медицинский суперинтеллект», который поможет в развитии систем здравоохранения; среди её целей значится также создание «гуманистического сверхинтеллекта» — передовых технологий ИИ, которые не будут сопротивляться воле разработчиков. «Нам придётся пересмотреть это и исходить из предположения, что следует развёртывать в мире такие системы, которые мы с уверенностью сможем контролировать, и которые будут работать в подчинённом нам режиме. Эти инструменты, как и любые другие технологии прошлого, призваны повысить благополучие человека и служить ему, а не превосходить его», — заключил глава ИИ-отдела Microsoft.

OpenAI обвинила китайскую DeepSeek в краже данных для обучения ИИ-модели R1

Агентство Bloomberg со ссылкой на служебную записку OpenAI сообщает, что создатели ChatGPT обвинили китайскую DeepSeek в использовании ухищрений, позволяющих добывать информацию американских ИИ-моделей для обучения китайского чат-бота R1 следующего поколения. Соответствующий доклад был направлен американским парламентариям, по данным источника.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

По мнению представителей OpenAI, китайский конкурент использовал метод так называемой дистилляции, чтобы «бесплатно выехать на успехе технологий, разработанных OpenAI и других передовых американских компаний». Создателям ChatGPT якобы удалось выявить новые изощрённые методы получения доступа китайской DeepSeek к информации американских ИИ-моделей, которые призваны обходить существующие методы защиты. Беспокойство на эту тему OpenAI и Microsoft проявили ещё в прошлом году, когда начали соответствующее расследование в отношении деятельности DeepSeek. Метод дистилляции позволяет ускорить обучение сторонних ИИ-моделей с использованием данных уже обученных систем.

Анализ активности на собственной платформе, как отмечает OpenAI, позволяет говорить об участившихся случаях применения дистилляции сторонними разработчиками ИИ-моделей — преимущественно расположенными в Китае, хотя в отчёте упоминается и Россия. Поскольку DeepSeek не предлагает своим клиентам платных подписок, как и многие другие китайские провайдеры подобных услуг, они получают большее распространение, чем проприетарные коммерческие решения западного происхождения, по мнению авторов доклада. Это угрожает мировому главенству ИИ-моделей американской разработки, как резюмируют они в своём обращении к специальному комитету американского парламента.

Полученные методом дистилляции сторонние ИИ-модели, по словам представителей OpenAI, нередко лишены тех ограничений, которые устанавливаются создателями исходных систем, а потому могут использоваться во вред человечеству или отдельным странам. Попытки OpenAI оградить себя от дистилляции китайскими разработчиками успехом не увенчались, поскольку представители DeepSeek якобы получали доступ к американским ИИ-моделям разного рода окольными путями. По словам представителей OpenAI, существуют целые сети посредников, которые предоставляют доступ к услугам компании в обход существующих ограничений. Для американских чиновников существование подобных практик тоже не является откровением, отмечает Bloomberg.

Американские политики обеспокоены и возможностью получения компанией DeepSeek доступа к более современным ускорителям вычислений Nvidia H200, поскольку их поставки в Китай в прошлом году успел разрешить американский президент Дональд Трамп (Donald Trump). В сочетании с существующими методами обучения своих моделей, DeepSeek могла бы в результате добиться существенного прогресса. Прежние расследования уже выявили, что DeepSeek использовала для обучения своих предыдущих ИИ-моделей оборудование Nvidia, хотя основная его часть была доставлена в Китай в рамках существовавших на тот момент правил экспортного контроля США. Политики теперь опасаются, что доступ DeepSeek к более современным чипам H200 сильнее навредит позициям США на мировой технологической арене.

ИИ пугает даже своих создателей: исследователи массово уходят из OpenAI и Anthropic

Ведущие специалисты по ИИ предупреждают о растущей опасности ИИ-технологий, покидая компании в знак протеста или публично заявляя о серьёзных опасениях в связи с бурным развитием этого направления, пишет Axios.

 Источник изображения: Immo Wegmann/unsplash.com

Источник изображения: Immo Wegmann/unsplash.com

В понедельник объявил о своём уходе глава исследовательского подразделения по безопасности искусственного интеллекта Anthropic Мринанк Шарма (Mrinank Sharma), осознав, что «мир в опасности». Также на этой неделе покинула OpenAI исследователь Зои Хитциг (Zoë Hitzig), сославшись на этические соображения. Ещё один сотрудник OpenAI, Хиеу Фам (Hieu Pham), написал в соцсети X: «Я наконец-то почувствовал экзистенциальную угрозу, которую представляет ИИ».

«Я никогда не видел, чтобы столько технологических специалистов так сильно, часто и с такой обеспокоенностью выражали свои опасения, как в случае с ИИ», — отметил в соцсети X Джейсон Калаканис (Jason Calacanis), инвестор в сфере технологий и соведущий подкаста «All-In».

Предприниматель Мэтт Шумер (Matt Shumer) сравнивает нынешнюю ситуацию с кануном пандемии. Его пост на платформе X, в котором он изложил риски, связанные с коренным изменением рабочих процессов и жизни людей под воздействием ИИ, мгновенно стал вирусным, набрав 56 млн просмотров за 36 часов.

Вместе с тем, большинство сотрудников ИИ-компаний сохраняют оптимизм и считают, что смогут разумно управлять современными технологиями без ущерба для общества или больших потерь рабочих мест. Но сами разработчики признают существующий риск, связанный с искусственным интеллектом.

Anthropic опубликовала отчёт Sabotage Risk Report, посвящённый рискам саботажа со стороны флагманской ИИ-модели Claude Opus 4.6. В нём признаётся, что имеют место быть риски, пусть небольшие, но их нельзя назвать незначительными, что ИИ может использоваться в преступной деятельности, включая создание химического оружия, а также в редких случаях он может совершать действия без прямого указания человека.

OpenAI выпустила GPT-5.3-Codex-Spark — свою первую ИИ-модель, работающую без чипов Nvidia

Компания OpenAI выпустила свою первую модель искусственного интеллекта, работающую на гигантских чипах-ускорителях Wafer Scale Engine 3 от стартапа Cerebras Systems. Данный шаг является частью усилий создателя ChatGPT по диверсификации поставщиков аппаратного обеспечения для обучения своих моделей.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Модель GPT-5.3-Codex-Spark является менее мощной, но более быстрой версией продвинутой модели GPT-5.3-Codex, ориентированной на помощь в написании программного кода. Версия Spark позволит инженерам-программистам быстро выполнять такие задачи, как редактирование отдельных фрагментов кода и запуск тестов. Пользователи также могут легко прервать работу модели или дать ей указание выполнить что-то другое, связанное с вайб-кодингом, не дожидаясь завершения длительного вычислительного процесса.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В прошлом месяце OpenAI заключила сделку на сумму более $10 млрд на использование оборудования Cerebras для ускорения обучения своих моделей ИИ. Для Cerebras это партнёрство представляет собой значительный шаг в её стремлении конкурировать на рынке аппаратных средств для ИИ, где долгое время доминирует компания Nvidia. Для OpenAI — это способ расширить сотрудничество с разными поставщиками оборудования для удовлетворения растущих вычислительных потребностей.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В октябре OpenAI заявила о заключении многолетнего соглашения о стратегическом партнёрстве, в рамках которого будет построена ИИ-инфраструктура на базе сотен тысяч ИИ-ускорителей AMD нескольких поколений общей мощностью 6 ГВт. Позже в том же месяце OpenAI согласилась приобрести специализированные чипы и сетевые компоненты у Broadcom. Как пишет Bloomberg, в последнее время отношения OpenAI с Nvidia оказались под пристальным вниманием на фоне сообщений о напряженности между двумя компаниями. Однако руководители обеих компаний публично заявили, что по-прежнему привержены сотрудничеству.

В заявлении, опубликованном в четверг, представитель OpenAI заявил, что партнёрство компании с Nvidia является «основополагающим» и что самые мощные модели ИИ OpenAI являются результатом «многолетней совместной работы над аппаратным и программным обеспечением» двух компаний. «Именно поэтому мы делаем упор на Nvidia как на основу нашей системы обучения и вывода, целенаправленно расширяя экосистему вокруг неё за счёт партнёрств с Cerebras, AMD и Broadcom», — заявил представитель компании.

Первоначально GPT-5.3-Codex-Spark будет доступна подписчикам ChatGPT Pro в качестве предварительной версии для исследований. OpenAI собирается предоставить доступ к новой ИИ-модели для более широкого числа пользователей в ближайшие недели. Компания также отмечает, что Codex имеет более 1 млн активных еженедельных пользователей.

OpenAI начала терять исследователей после появления рекламы в ChatGPT

Исследователь OpenAI Зои Хитциг (Zoë Hitzig) уволилась из компании в тот же день, когда стартовало тестирование показа рекламы в ChatGPT. Работая в компании, она помогала в сборке моделей ИИ и установке ценообразования на них. OpenAI рискует повторить ошибки Facebook✴, сделанные десять лет назад, предупредила она.

 Источник изображения: Dima Solomin / unsplash.com

Источник изображения: Dima Solomin / unsplash.com

Особенно рискованной затея с рекламой представляется в силу характера данных на платформе ChatGPT. Пользователи делятся с чат-ботом медицинской информацией, проблемами в отношениях и религиозными убеждениями — зачастую «потому, что люди верят, что разговаривают с чем-то, лишённым скрытых мотивов», и в результате чего платформа превратилась в «беспрецедентный архив человеческой откровенности». Нечто подобное, по мнению Хитциг, раньше было с Facebook✴ — когда-то соцсеть обещала пользователям контроль над своими данными и возможность голосовать за изменения в политику. Со временем эти обещания ослабли, а Федеральная торговая комиссия (FTC) установила, что изменения в политике конфиденциальности, с которыми Facebook✴ обещала людям более полный контроль, в действительности дали обратный результат. Вот и с OpenAI бывшая сотрудница компании не исключила подобного, потому что та «создаёт сильные стимулы для нарушения собственных правил».

На этапе тестирования персонализация рекламы для пользователей по умолчанию включена, говорится в документации OpenAI. Если не трогать эту настройку, реклама будет подбираться с учётом данных из текущих и прошлых чатов, а также прошлых взаимодействий с объявлениями. У рекламодателей не будет доступа к переписке пользователей с чат-ботом или к их персональным данным; реклама не будет показываться в чатах, посвящённых вопросам здоровья, религии и политики. В этом Хитциг уже усмотрела внутреннее противоречие: с одной стороны, компания настаивает, что не пытается повлиять на активность пользователей исключительно с целью получить доход от рекламы — с другой, оптимизирует поведение ИИ для ежедневно активных пользователей, делая её «более льстивой и подобострастной». В результате люди могут впадать в зависимость от ИИ; кроме того, задокументированы случаи психозов, связанных с ChatGPT, а в отдельных случаях чат-бот потворствовал суицидальным мыслям — это косвенно подтверждает множество исков к OpenAI.

Чтобы противостоять угрозам, Хитциг предложила схемы субсидирования потребителей со стороны корпоративных клиентов; формирование независимых советов с полномочиями контролировать использование данных переписки для таргетирования рекламы; а также трасты, позволяющие пользователям сохранять контроль над своей информацией. Наиболее опасными исходами эксперт назвала «технологию, которая манипулирует людьми, использующими её бесплатно; и технологию, приносящую пользу исключительно меньшинству, которое может себе её позволить».

OpenAI распустила команду, которая объясняла миру её миссию

OpenAI расформировала команду, которая занималась донесением миссии компании до общественности и собственных сотрудников. Как сообщили в OpenAI ресурсу TechCrunch, сотрудники команды были переведены в другие подразделения, а руководитель назначен на должность «главного футуролога» компании.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

Расформированный коллектив, предположительно, был создан в сентябре 2024 года. По данным издания Platformer, команда занималась продвижением заявленной миссии компании — использованием возможностей сильного искусственного интеллекта (Artificial General Intelligence, AGI) для обеспечения пользы всему человечеству.

«Проект по согласованию миссии был вспомогательной функцией, помогающей сотрудникам и общественности понять нашу миссию и влияние ИИ. Эта работа продолжается во всей организации», — рассказал официальный представитель OpenAI.

Джош Ачиам (Josh Achiam), бывший руководитель команды OpenAI по согласованию миссии, объяснил в блоге свою новую роль главного футуролога компании: «Моя цель — поддержать миссию OpenAI — обеспечить, чтобы сильный искусственный интеллект приносил пользу всему человечеству, — изучая, как мир изменится в ответ на ИИ, AGI и многое другое». Ачиам добавил, что на новой должности он будет сотрудничать с Джейсоном Пруэтом (Jason Pruet), физиком и экспертом в области технологий OpenAI.

По словам представителя OpenAI, остальная часть команды по согласованию миссии — речь идёт о шести или семи сотрудниках — была переведена в другие подразделения компании, где они занимаются аналогичной работой. Он объяснил роспуск команды обычной реорганизацией из разряда тех, которые происходят в быстро развивающихся компаниях.

Ярую противницу «режима для взрослых» уволили из OpenAI по подозрению в гендерной дискриминации

В структуре OpenAI есть не только комитет по безопасному развитию ИИ, но и отдельные специалисты в этой сфере, которые направляют стартап в нужное русло. Недавно стало известно, что одну из ярых противниц реализации в ChatGPT функций эротического характера уволили из компании в начале января, заподозрив в дискриминации одного из коллег по половому признаку.

 Источник изображения: Unsplash, Levart_Photographer

Источник изображения: Unsplash, Levart_Photographer

По крайней мере, The Wall Street Journal именно такими причинами объясняет недавнее увольнение Райан Байермайстер (Ryan Beiermeister), которое таинственным образом предшествовало предполагаемому запуску нового режима «для взрослых» в чат-боте OpenAI. Скандал с реализацией подобных функций в конкурирующем Grok стартапа xAI Илона Маска (Elon Musk), как показала статистика, лишь увеличил его пользовательскую аудиторию, и не исключено, что OpenAI готова поднять популярность ChatGPT аналогичными сомнительными способами. Сейчас сервисом еженедельно пользуются 800 млн человек.

Райан Байермайстер, как отмечает источник, отвечала в OpenAI за безопасное развитие искусственного интеллекта, она являлась принципиальной противницей реализации «эротического режима» в ChatGPT. Она считала, что подобное расширение способов эмоционального воздействия ИИ на сознание не очень психически устойчивых людей станет причиной усиления социальных проблем. Уже сейчас многие пользователи ChatGPT отмечают стойкую психологическую зависимость от воображаемых персонажей, которые якобы общаются с ними через чат-бот.

Байермейстер была уволена после отпуска без содержания, который она взяла по личным обстоятельствам. Обвинения в дискриминации кого-то из коллег она решительно отметает, но официально OpenAI и не называет подобных причин её увольнения, отрицая их наличие и всячески выражая признательность бывшей сотруднице за проделанную работу и вклад в развитие бизнеса компании. Хотя инициатива по поводу «режима для взрослых» в ChatGPT наталкивается на противодействие многих экспертов в OpenAI, генеральный директор Сэм Альтман (Sam Altman) в целом благосклонно к ней относится, заявляя, что «пора по-взрослому относиться ко взрослым». Байермайстер в своём общении с коллегами выражала сожаление по поводу того, что OpenAI не располагает достаточными инструментами для ограждения подростковой аудитории от взрослого контента. В период своей работы в компании, который отсчитывался с середины 2024 года, она проводила тренинги карьерного роста с коллегами женского пола.

ChatGPT научился показывать отчёты глубоких исследований как полноценные документы — с навигацией и экспортом

Компания OpenAI обновила исследовательский режим (Deep Research) в чат-боте ChatGPT, добавив полноэкранный просмотрщик. С его помощью можно прокручивать содержимое отчёта бота и быстро перемещаться между разными разделами. Инструмент позволяет открывать отчёты ChatGPT в отдельном от чата окне, где слева отображается оглавление документа, а справа — список источников.

 Источник изображения: AI

Источник изображения: OpenAI

Функция глубокого исследования, которая появилась в ChatGPT в прошлом году, позволяет ИИ-боту анализировать собранную в интернете информацию, чтобы сформировать подробный отчёт на запрос пользователя. Последнее обновление также позволяет указать алгоритму необходимость сосредоточиться на изучении информации на конкретных сайтах и подключенных приложениях при проведении исследования.

В дополнение к этому пользователи могут отслеживать процесс работы алгоритма в режиме реального времени, корректировать масштаб исследования или добавлять новые источники прямо в процессе работы. После завершения генерации отчёта информацию можно скачать в виде файла в разных форматах, включая DOCX и PDF.

Эти нововведения уже доступны платным подписчикам OpenAI на тарифах Plus и Pro. Пользователи тарифа ChatGPT Go и бесплатные пользователи получат обновление с расширенными возможностями для проведения исследований в ближайшее время.

Проект ИИ-гаджета Джони Айва для OpenAI лишился бренда io после судебного запрета

Стартапу io бывшего главного дизайнера Apple Джони Айва (Jony Ive, на фото слева) в прошлом году уже после сделки с OpenAI пришлось столкнуться с иском компании iyO, поскольку торговые марки оказались слишком схожими. Если учесть, что стартап io в результате прошлой сделки перешёл под контроль OpenAI, то именно этой компании суд запретил использовать исходную торговую марку io.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как отметил в материалах судебного разбирательства Питер Велиндер (Peter Welinder), вице-президент OpenAI, компания по итогам пересмотра своей стратегии в сфере использования торговых марок решила воздержаться от использования наименований типа «io» или «IYO», причём в любых сочетаниях указанных строчных и заглавных символов, при выпуске и продвижении на рынок любых устройств, связанных с искусственным интеллектом. На материалы дела ссылается издание Wired.

Из этого же источника становится известно, что руководство OpenAI теперь более чётко понимает сроки появления первых ИИ-устройств собственной разработки. Первое из них появится на рынке не ранее конца 2027 года, как признался Велиндер. Ранее считалось, что первенец линейки выйдет уже во второй половине текущего года. По слухам, это будет лишённое собственного дисплея устройство, которое выступит в роли компаньона для смартфона и ноутбука. Компании только предстоит разработать упаковку и маркетинговые материалы для своего первого аппаратного решения, как заявил представитель OpenAI.

На страницах Reddit в минувшие выходные даже засветился предполагаемый рекламный ролик, который должен был предназначаться для продвижения первого ИИ-устройства OpenAI на рынке. В сюжете ролика демонстрировалось взаимодействие пользователя с устройством, напоминающим блестящую шайбу, при помощи сенсорных клавиш на корпусе и беспроводных наушников серебристого цвета. Представители OpenAI заявили, что указанный видеоролик ничего общего с рекламными инициативами самой компании не имеет. OpenAI поглотила стартап io Джони Айва за $6,5 млрд в мае прошлого года. Его основатель впоследствии заявлял, что уже располагает идеями по созданию от 15 до 20 устройств, ориентированных на использование искусственного интеллекта. Представители OpenAI в ходе судебного разбирательства с iyO также заявляли, что упоминавшийся главой первой из компаний Сэмом Альтманом (Sam Altman, на фото справа) прототип ИИ-устройства не вставляется в уши и не является носимым устройством.

ChatGPT начал показывать рекламу — её увидят не все и не сразу

OpenAI официально объявила, что начала тестировать показ рекламы на платформе ChatGPT в США. Она будет показываться в виде специально помеченных ссылок под ответами чат-бота; реклама «не повлияет на ответы, которые даёт вам ChatGPT», подчеркнули в компании.

 Источник изображения: openai.com

Источник изображения: openai.com

В настоящее время рекламу увидят только совершеннолетние пользователи бесплатной версии ChatGPT и подписчики самого недорогого тарифного плана Go по цене $8 в месяц. Обладатели учётных записей с подписками Plus, Pro, Business, Enterprise и Education рекламы не увидят, то есть, чтобы избавиться от неё, потребуется платить не менее $20 в месяц. Есть и альтернатива — даже пользователи бесплатной версии смогут отказаться от неё, если согласятся на «меньшее число бесплатных сообщений в день»; подписчикам Go такая возможность недоступна.

Рекламные объявления можно закрывать, оставлять о них отзывы, отключать персонализацию рекламы, отключать возможность показывать её на основе предыдущих чатов и удалять данные рекламного профиля. Рекламодателям будет предоставляться только «агрегация [данных] о рекламных просмотрах и кликах», но не личная информация и не данные переписок пользователей в ChatGPT.

Она не будет показываться несовершеннолетним пользователям, а все остальные не увидят её в чатах на деликатные темы, связанные с «физическим и психическим здоровьем или политикой». Увидят рекламу не все пользователи сразу — функция до сих пор находится на стадии тестирования. Ранее Anthropic, которая считается основным конкурентом OpenAI, высмеяла разработчика ChatGPT за намерение показывать рекламу в переписке с ИИ и пообещала, что у её чат-бота Claude рекламы не будет никогда.

ChatGPT начнёт массово показывать рекламу уже на этой неделе — а пока Альтман похвалился активным ростом аудитории

Глава OpenAI Сэм Альтман (Sam Altman) с энтузиазмом сообщил сотрудникам, что основной продукт компании, ChatGPT «снова демонстрирует ежемесячный рост, превышающий 10 %». Компания планирует запустить новую модель чат-бота уже на этой неделе. Более 800 млн человек еженедельно используют ChatGPT, но конкуренция усиливается — в декабре компания объявила «красный код» и приостановила несколько проектов, чтобы сосредоточиться на улучшении своего чат-бота.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Альтман также сообщил, что продукт OpenAI для программирования, Codex, вырос примерно на 50 % по сравнению с прошлой неделей. Codex является прямым конкурентом популярной ИИ-среды разработки Claude Code от Anthropic, которая за последний год получила широкое распространение. На днях OpenAI запустила новую модель Codex, GPT-5.3-Codex, а также отдельное приложение для пользователей компьютеров Apple. Альтман заявил, что рост Codex «невероятен». По его словам, «это была отличная неделя».

Но это, по мнению аналитиков, была непростая неделя для OpenAI. Альтман и другие руководители компании были вынуждены реагировать на критику со стороны Anthropic, которая во время финала кубка по американскому футболу высмеяла решение OpenAI размещать рекламу в ChatGPT. Альтман в ответ заявил, что OpenAI «очевидно, никогда не будет размещать рекламу так, как это описывает Anthropic».

Тем не менее, по сообщению осведомлённых источников, в ближайшее время OpenAI официально начнёт тестирование рекламы в ChatGPT. Ранее компания обещала «чётко обозначать» рекламные блоки и отображать их ниже ответов чат-бота. OpenAI также заверила пользователей, что размещаемая реклама не будет влиять на ответы ChatGPT. Компания рассчитывает, что в долгосрочной перспективе реклама будет составлять не менее половины её доходов. На рынке цифровой рекламы долгое время доминировали Google, Meta✴ и Amazon — вряд ли эти технологические гиганты сдадутся без борьбы.

В настоящее время Альтман и финансовый директор OpenAI Сара Фрайар (Sarah Friar) активно убеждают инвесторов в перспективах роста OpenAI, поскольку компания готовится завершить раунд привлечения инвестиций, который может составить $100 млрд. На закрытых встречах они подчёркивают сильные стороны OpenAI: гигантскую базу пользователей, растущий интерес со стороны крупного бизнеса и доступ к огромным вычислительным ресурсам.

 Источник изображения: OpenAI Forum

Источник изображения: OpenAI Forum

OpenAI ожидает, что переговоры о привлечении инвестиций активизируются в течение следующих двух недель. В марте OpenAI закрыла раунд финансирования на $41 млрд, в который вошли $30 млрд от SoftBank и $11 млрд от других инвесторов. Текущий раунд финансирования может быть завершён в два этапа. Первый этап подразумевает инвестиции от Microsoft и Nvidia, а также от Amazon, которая планирует вложить в OpenAI до $50 млрд. На втором этапе в финансировании компании примут участие другие крупные игроки, в частности SoftBank готов инвестировать ещё $30 млрд.

Точные сроки и суммы инвестиций пока окончательно не определены и могут измениться.


window-new
Soft
Hard
Тренды 🔥
Датамайнер рассказал о «поразительном объёме работы» Valve над Half-Life 3 2 ч.
«Именно так надо делать сиквелы»: сюрреалистичная метроидвания Grime 2 получила высокие оценки от игроков и критиков 2 ч.
Perplexity обвинили в передаче данных пользователей компаниям Google и Meta 2 ч.
«Какое-то издевательство над серией»: первая за 23 года новая Legacy of Kain заслужила в Steam «в основном отрицательные» отзывы 2 ч.
Apple из-за эксплойта DarkSword изменила схему обновления iOS 3 ч.
Неизвестные вторглись в среду разработки Cisco — похищены данные проектов компании и её клиентов 4 ч.
С 1 апреля в России стало недоступным пополнение Apple ID с мобильного телефона 4 ч.
Xiaomi запустила обновление до HyperOS 3.1 вне Китая 5 ч.
Исследование MIT: искусственный интеллект может заменить 11,7 % рынка труда США 5 ч.
Продажи Crimson Desert превысили четыре миллиона копий, а акции Pearl Abyss достигли максимума за четыре года 7 ч.
Франция выкупила разработчика суперкомпьютеров Bull у Atos 20 мин.
Российские академики одобрили концепцию российского сегмента совместной с Китаем лунной станции 45 мин.
Десять крупнейших бесфабричных разработчиков чипов в прошлом году увеличили выручку на 44 % 49 мин.
Доля местных поставщиков ИИ-чипов на китайском рынке в прошлом году выросла до 41 % 55 мин.
AMD расскажет о новых достижениях в области ИИ на мероприятии Advancing AI 2026 в июле 2 ч.
Infinix и Call of Duty: Mobile анонсировали партнёрский проект 2 ч.
Intel рассчитывает отвоевать доверие геймеров после выхода процессоров Nova Lake 2 ч.
СТИ ввела в эксплуатацию вторую очередь ЦОД «Дубна-М» 3 ч.
Японцы создали прототип настольного ускорителя частиц — он разгоняет электроны до «скорости света» на масштабе муравья 3 ч.
В России стали чаще покупать восстановленные ноутбуки — б/у дешевле, но часто не хуже новых 3 ч.