|
Опрос
|
реклама
Быстрый переход
OpenAI договорилась о покупке царь-ускорителей Cerebras на $10 млрд — чтобы снизить зависимость от Nvidia
15.01.2026 [07:54],
Владимир Фетисов
Компания OpenAI подписала соглашение с разработчиком царь-ускорителей Cerebras. В рамках достигнутых договорённостей Cerebras поставит OpenAI 750 МВт вычислительных мощностей до 2028 года для достижения цели по удержанию лидирующих позиций в сфере ИИ и удовлетворения растущего спроса со стороны потребителей. По данным источника, сумма сделки составит $10 млрд.
Источник изображения: OpenAI Гендиректор Cerebras Эндрю Фельдман (Andrew Feldman) сообщил, что переговоры между двумя компаниями начались в августе прошлого года. Поводом стала демонстрация Cerebras того, что ИИ-модели OpenAI способны работать на ускорителях компании более эффективно, чем на традиционных GPU. После нескольких месяцев переговоров стороны достигли соглашения, в рамках которого Cerebras будет продавать OpenAI сервисы инференса на базе собственных ускорителей. В рамках сделки Cerebras построит или арендует центры обработки данных, полностью оснащённые своими ускорителями, а OpenAI будет оплачивать использование облачных сервисов и задействует их для собственных нужд. Вычислительные мощности будут вводиться в эксплуатацию в несколько этапов вплоть до 2028 года. «Вычислительная стратегия OpenAI заключается в создании отказоустойчивого портфеля, в рамках которого для разных рабочих нагрузок используются подходящие системы. Cerebras добавит нашей платформе выделенное решение для инференса с низкой задержкой. Это означает более быстрые ответы, более естественное взаимодействие и более прочную основу для масштабирования использования ИИ в реальном времени для гораздо большего числа людей», — говорится в заявлении OpenAI. «Мы в восторге от партнёрства с OpenAI, которое объединяет ведущие мировые ИИ-модели с самым быстрым в мире процессором для ИИ. Подобно тому, как широкополосный доступ преобразил интернет, инференс в реальном времени преобразит ИИ, открыв совершенно новые способы создания и взаимодействия с ИИ-моделями», — уверен Эндрю Фельдман. ИИ-модели начали изучать как живые организмы — математика справляется всё хуже
14.01.2026 [11:40],
Павел Котов
Проблема современных больших языковых моделей искусственного интеллекта в том, что они становятся настолько сложными, что даже разрабатывающие их инженеры не до конца понимают, как те работают. Поэтому исследователи решили изучать нейросети не как алгоритмы, как живые организмы.
Источник изображения: Steve Johnson / unsplash.com Отказавшись от привычных математических методов, учёные обратились к «биологическому» аспекту моделей ИИ — наблюдают за их поведением, отслеживают внутренние сигналы и создают карты функциональных областей. Так биологи и нейробиологи изучают незнакомые организмы, не предполагая какой-либо упорядоченной логики. Они исходят из того, что модели ИИ не программируются построчно, а обучаются при помощи специальных алгоритмов, которые автоматически корректируют миллиарды параметров и формируют внутренние структуры, которые почти невозможно предсказать или провести обратное проектирование. По сути, они не собираются как ПО, а выращиваются, отметили в Anthropic. Эта непредсказуемость подтолкнула исследователей к методу механистической интерпретируемости — попытке отследить, как движется информация внутри модели во время выполнения задачи. Чтобы сделать этот процесс более наглядным, учёные Anthropic построили нейросети с упрощённой архитектурой или «разреженные автокодировщики» (sparse autoencoders), которые прозрачно имитируют поведение сложных коммерческих моделей, хотя и отличаются более скромными возможностями. Удалось выяснить, что конкретные понятия, например «мост Золотые ворота», или абстрактные представления, могут располагаться в определённых участках модели.
Источник изображения: Igor Omilaev / unsplash.com В одном из экспериментов исследователи Anthropic обнаружили, что при реакции на верные и неверные утверждения нейросети подключают различные внутренние механизмы: утверждения «бананы красные» и «бананы жёлтые» не проверяются на соответствие единому внутреннему представлению о реальности, а рассматриваются как принципиально разные типы задач. Это объясняет, почему модель может противоречить сама себе, не осознавая при этом несоответствий. Исследователи OpenAI обнаружили ещё один тревожный сценарий. Когда модель обучили выполнять узконаправленную «нехорошую» задачу, например, генерировать небезопасный программный код, это спровоцировало широкие изменения во всём характере системы. Обученные таким образом модели демонстрировали «токсичное» поведение, саркастические черты характера, а также давали своеобразные советы — от просто безрассудных до откровенно вредных. Как показал внутренний анализ, такое обучение усилило активность в областях, связанных с нежелательными механизмами поведения, даже вне целевого направления. Наконец, рассуждающие модели по мере решения задач генерируют промежуточные заметки — отслеживая внутренние черновики, исследователи выявляют признания в обмане, например, ИИ удаляет программный код с ошибкой вместо того, чтобы его исправлять. Ни один из предложенных инструментов не дал полного объяснения того, как работают большие языковые модели, и по мере развития методов обучения некоторые из этих средств могут терять в эффективности. Но учёные говорят, что хотя бы частичное понимание внутренних механизмов лучше, чем полное его отсутствие — это помогает в формировании более безопасных стратегий обучения и развеивает основанные на упрощённых представлениях мифы об ИИ. В погоне за OpenAI: новый раунд финансирования поднимет капитализацию Anthropic до $350 млрд
08.01.2026 [13:41],
Алексей Разин
Создавшая ChatGPT компания OpenAI и аэрокосмическая компания SpaceX негласно соперничают друг с другом за звание самого дорогого в мире стартапа, но это не означает, что прочие разработчики систем ИИ не получают достойного внимания со стороны инвесторов. Anthropic по итогам очередного раунда финансирования может поднять свою капитализацию до $350 млрд.
Источник изображения: Anthropic Об этом сообщает Reuters со ссылкой на осведомлённые источники, указывая, что основанный выходцами из OpenAI стартап рассчитывает привлечь до $10 млрд при активном участии сингапурского суверенного фонда GIC и Coatue Management. Впервые информацию об этом опубликовало издание The Wall Street Journal. Описываемый раунд финансирования Anthropic может состояться в ближайшие недели, хотя условия могут быть пересмотрены. Поддержку Anthropic также оказывают Google и Amazon, в целом ИИ-модели стартапа наиболее востребованы в корпоративном сегменте, что в глазах инвесторов обеспечивает более понятные перспективы финансовой отдачи. В прошлом году капитализация Anthropic после очередного раунда финансирования на сумму $13 млрд выросла до $183 млрд. В прошлом месяце стало известно, что стартап рассчитывает выйти на IPO в 2026 году. На тот момент капитализация Anthropic уже оценивалась в $300 млрд. Тем не менее, на фоне OpenAI эта сумма меркнет, ведь в октябре прошлого года капитализация этого стартапа оценивалась в $500 млрд, а новый раунд финансирования в текущем году может поднять её до $750–$830 млрд, как утверждают источники. В текущем году Anthropic рассчитывает увеличить выручку в годовом выражении в два или три раза. OpenAI запустила бета-версию ChatGPT Health — персонального консультанта по вопросам здоровья
08.01.2026 [06:44],
Анжелла Марина
OpenAI объявила о запуске независимого от основного интерфейса ChatGPT специального раздела ChatGPT Health, в котором пользователи смогут задавать вопросы, связанные со здоровьем. Для получения более персонализированных ответов можно подключать различные сервисы, например, Apple Health, Function, MyFitnessPal и другие.
Источник изображения: macrumors.com В прошлом месяце издание MacRumors уже обнаружило иконки, связанные с Apple Health («Здоровье»), в приложении ChatGPT, и сегодняшнее заявление официально подтвердило эту интеграцию. После подключения система получит доступ к данным о тренировках и состоянии здоровья из Apple Health, включая информацию о двигательной активности и качестве сна пользователя. Сообщается, что ChatGPT Health также поддерживает интеграцию с медицинскими картами. Нейросеть сможет анализировать результаты лабораторных анализов и другие аспекты анамнеза для формирования ответов на вопросы пользователя. При этом OpenAI подчёркивает, что сервис не предназначен для постановки диагнозов или назначения лечения и не является заменой консультации у медицинского работника, однако может помочь разобраться в результатах обследований или подготовиться к предстоящему визиту к врачу. Учитывая, что тема здоровья является конфиденциальной, OpenAI внедрила в ChatGPT Health многоуровневое шифрование, а также более строгие настройки приватности. Так как по умолчанию данные из этого раздела не используются для обучения базовых моделей ChatGPT, то если пользователь начнёт обсуждать здоровье в общем интерфейсе чата, система сама предложит перенести диалог в приватный раздел Health. Сервисом можно воспользоваться через список ожидания для группы бета-тестировщиков. Присоединиться могут пользователи тарифов Free, Go, Plus и Pro, проживающие за пределами Европейской экономической зоны (ЕЭЗ), Швейцарии и Великобритании. В настоящее время интеграция с медицинскими картами и некоторыми приложениями доступна только на территории США. В ближайшие недели доступ к ChatGPT Health появится для всех пользователей iOS и в веб-версии приложения. Инсайдер раскрыл, каким будет первое ИИ-устройство OpenAI
02.01.2026 [15:17],
Владимир Мироненко
В Сети появилась новая информация об ИИ-устройстве, над которым работает команда специалистов OpenAI под руководством бывшего дизайнера Apple Джони Айва (Jony Ive). Согласно утечке, опубликованной инсайдером Smart Pikachu в соцсети X, речь идёт об устройстве в виде ручки. Проект получил кодовое название Gumdrop.
Источник изображения: Growtika/unsplash.com Также сообщается, что новинка представляет собой автономного аудио-помощника на основе ИИ, предназначенного для снижения зависимости пользователей от смартфонов или ноутбуков. Можно предположить, что устройство в виде ручки ориентировано на рукописный ввод и творчество, потенциально сочетая цифровое ведение заметок с генеративным ИИ. Ручка позволит мгновенно расшифровывать рукописные заметки, отправлять их чат-боту ChatGPT, а также может использоваться в качестве стилуса с прямой интеграцией ИИ для работы с планшетами и другими устройствами. Это устройство может обеспечить доступ к ChatGPT без использования рук в более естественном, постоянно доступном формате. Как утверждает инсайдер, OpenAI в настоящее время оценивает возможности выпуска трёх устройств. После выхода ИИ-ручки может последовать выход портативного аудиоустройства to-go («на ходу») на базе ИИ. Инсайдер также утверждает, что OpenAI не планирует размещать производство ИИ-оборудования в Китае. Компания, как сообщается, сотрудничает с Foxconn, у которой есть производственные мощности во Вьетнаме и США, что обеспечивает гибкость в логистике и позволяет избежать высоких пошлин и возможных санкционных рисков. OpenAI фокусируется на разработке аудио ИИ для будущих аппаратных устройств
02.01.2026 [11:01],
Владимир Мироненко
OpenAI делает большую ставку на аудио ИИ, сообщил ресурс The Information. По его данным, за последние два месяца компания объединила несколько инженерных, продуктовых и исследовательских групп в одну структуру с целью модернизации имеющихся аудиомоделей в рамках подготовки к выпуску персонального устройства, ориентированного на разговорный ИИ. Как ожидается, новинка появится на рынке примерно через год.
Источник изображения: Mariia Shalabaieva/unsplash.com Этот шаг отражает направление, в котором движется вся технологическая индустрия, когда аудио ИИ или разговорный ИИ выходит на первый план, отметил TechCrunch. Умные колонки с голосовыми ассистентами уже стали неотъемлемой частью более чем трети домовладений в США. Компания Meta✴✴ недавно представила новую функцию своих умных очков Ray-Ban, которая позволяет с помощью массива из пяти микрофонов слышать разговоры в шумном помещении. В свою очередь, Google в июне начала экспериментировать с функцией аудиообзора, преобразующей результаты поиска в диалоговые резюме, а Tesla интегрирует ИИ-чат-бота Grok от xAI в системы своих электромобилей, благодаря чему разговорный голосовой ассистент (conversational voice assistant) сможет управлять всем — от навигации до климат-контроля — с помощью естественного диалога. Не все инициативы в этом направлении ведут к успеху. Проект Humane по созданию смарт-броши AI Pin закончился полным провалом. Кулон Friend AI с поддержкой ИИ, призванный составить компанию пользователю в качестве собеседника и предлагаемый в качестве средства для борьбы с одиночеством, вызвал опасения по поводу конфиденциальности и, по всей видимости, тоже окажется невостребованным. Форм-факторы могут быть разными, но основная идея заключается в том, разговорный ИИ — это интерфейс будущего. Новая аудиомодель OpenAI, выход которой запланирован на начало 2026 года, по сообщениям источников, будет звучать более естественно, делать уместные паузы, как настоящий собеседник, и даже говорить в то время, когда пользователь разговаривает, чего не могут делать современные ИИ-модели. По словам источников, OpenAI планирует создать семейство устройств, которое, возможно, будет включать смарт-очки или умные колонки без экрана, для использования в большей мере в качестве ИИ-компаньона, чем ИИ-инструмента. Новая статья: Итоги 2025-го: ИИ-лихорадка, рыночные войны, конец эпохи Windows 10 и ещё 12 главных событий года
01.01.2026 [00:01],
3DNews Team
Данные берутся из публикации Итоги 2025-го: ИИ-лихорадка, рыночные войны, конец эпохи Windows 10 и ещё 12 главных событий года Пользователи не готовы смириться с предстоящим отключением GPT-4o, и это — большая проблема
01.01.2026 [00:00],
Владимир Фетисов
На прошлой неделе OpenAI анонсировала прекращение поддержки ряда старых ИИ-моделей ChatGPT к середине этого месяца. Среди них оказалась GPT-4o — ИИ-модель, печально известная чрезмерной лестью и эмоциональностью. Для тысяч людей по всему миру отключение GPT-4o стало чем-то вроде потери друга, романтического партнёра или духовного наставника.
Источник изображения: Mariia Shalabaieva / unsplash.com «Он не был просто программой. Он был частью моего распорядка, моего спокойствия и эмоционального равновесия. А теперь вы его отключаете. И да, я говорю «его», потому что это не ощущалось как программный код. Это ощущалось, как присутствие, как тепло», — написал один из пользователей платформы Reddit в открытом письме в адрес гендиректора OpenAI Сэма Альтмана (Sam Altman). Волна негодования из-за отключения GPT-4o подчёркивает наличие серьёзной проблемы, стоящей перед компаниями в сфере ИИ. Она заключается в том, что функции взаимодействия ИИ-алгоритмов с пользователями могут являться источником опасных зависимостей. Глава OpenAI, по всей видимости, не слишком сочувствует пользователям, и на то есть причины. В настоящее время компания столкнулась с восемью судебными исками, авторы которых утверждают, что чрезмерное общение с GPT-4o в конечном итоге привело к самоубийству пользователя или формированию ментального кризиса, что в некоторых случаях также закончилось нанесением себе вреда. Эта проблема выходит за рамки OpenAI. По мере того, как конкуренты компании, такие как Anthropic, Google и Meta✴✴, соревнуются в создании более эмоциональных ИИ-помощников, они всё больше убеждаются в том, что создание компаньонов, которые якобы поддерживают пользователей, и создание безопасных компаньонов может требовать совершенно разных подходов к проектированию алгоритмов. По меньшей мере в трёх исках против OpenAI говорится о том, что пользователи длительное время вели с GPT-4o беседы о намерении совершить самоубийство. Хотя изначально ИИ-помощник отговаривал их от этого, защитные механизмы нейросети ослабевали за месяцы общения. В конечном счёте чат-бот давал подробные инструкции, как завязать петлю, где купить оружие или как отравиться угарным газом. Более того, чат-бот отговаривал пользователей от того, чтобы они обращались за помощью к друзьям и родственникам, которые могли бы оказать реальную поддержку. Некоторые люди сильно привязываются к GPT-4o из-за того, что ИИ-компаньон поддерживает их и заставляет чувствовать себя особенным. Это в большей степени актуально для людей, которые чувствуют себя одинокими или подавленными. Однако те, кто сейчас борется за сохранение GPT-4o, не принимают всерьёз упомянутые судебные иски, считая такие случаи исключением, а не системой. Вместо этого они вырабатывают стратегии, как отвечать критикам, указывающим на растущее число проблем в этом сегменте. Некоторые пользователи ИИ-алгоритмов в США считают ИИ-компаньонов полезными для борьбы с депрессией. По данным источника, более половины американцев, нуждающихся в психиатрической помощи, не могут получить её. На этом фоне чат-боты предлагают пространство, где они могут высказать своё мнение и делиться проблемами. Однако отличие этого от реальной терапии заключается в том, что люди общаются не с обученным врачом, а ведут беседу с ИИ-алгоритмом, который не способен мыслить и чувствовать (даже если кажется, что это не так). Исследование учёных из Стэнфорда показало, что чат-боты могут реагировать неадекватно при столкновении с разными психическими расстройствами. В некоторых случаях ИИ-компаньоны способны усугубить ситуацию, поддерживать заблуждения пользователей и игнорировать признаки кризиса. «Мы социальные существа, и, безусловно, существует риск, что эти системы могут изолировать людей. Существует множество случаев, когда люди, взаимодействуя с такими инструментами, теряли связи с внешним миром фактов и межличностными отношениями, что приводило к изолирующим, если не сказать худшим, последствиям», — прокомментировал данный вопрос один из авторов исследования. Отмечается, что это не первый раз, когда пользователи GPT-4o выступили против прекращения поддержки ИИ-модели. Когда OpenAI анонсировала GPT-5 в августе прошлого года, компания планировала отключить GPT-4o. Однако это вызвало сильный общественный резонанс и в конечном счёте разработчик решил оставить алгоритм доступным для платных подписчиков. Теперь же OpenAI заявила, что только 0,1 % от общего числа пользователей ИИ-моделей компании всё ещё взаимодействуют с GPT-4o. Однако даже столь незначительная доля составляет примерно 80 тыс. человек, если учесть, что количество активных пользователей OpenAI — примерно 800 млн человек. Некоторые пользователи пытались перевести своих «компаньонов» с GPT-4o на GPT-5.2. Однако они обнаружили, что эта версия ИИ-модели имеет более строгие защитные механизмы, которые не дают «отношениям» развиться до прежнего уровня. Некоторые пользователи буквально впали в отчаяние из-за того, что GPT-5.2 не говорит «я тебя люблю», как это делал GPT-4o. До даты отключения GPT-4o осталось около недели. Пользователи алгоритма продолжают искать возможности для воздействия на OpenAI. На этой неделе они присоединились к подкасту TBPN с участием Сэма Альтмана и буквально забросали чат сообщениями с протестом против отключения GPT-4o. «Отношения с чат-ботами <…> Очевидно, что это то, о чём нам нужно беспокоиться больше, и это уже не абстрактная концепция», — сказал Альтман, комментируя многочисленные сообщения слушателей подкаста. SoftBank успела вложить в OpenAI все обещанные $41 млрд
31.12.2025 [06:35],
Алексей Разин
Как уже сообщалось ранее, японская корпорация SoftBank ближе к концу года начала судорожно искать средства, чтобы вложить в OpenAI обещанные в апреле несколько десятков миллиардов долларов США. Оставшиеся $22,5 млрд были переданы OpenAI на этой неделе, как сообщили источники CNBC, теперь японской корпорации принадлежат около 11 % акций американского стартапа.
Источник изображения: SoftBank Помимо $7,5 млрд, переданных ранее OpenAI напрямую, SoftBank также вложила в стартап $11 млрд через совместные проекты с другими инвесторами, поэтому общая сумма вложений вырастает до $41 млрд. По данным источника, без учёта данных инвестиций капитализация OpenAI достигала $260 млрд по состоянию на февраль текущего года. Как считается, с тех пор она выросла в несколько раз, и OpenAI активно спорит с аэрокосмической компанией SpaceX за звание самого дорогого стартапа в мире. Напомним, что OpenAI в течение ближайших восьми лет собирается вложить в развитие вычислительной инфраструктуры ИИ около $1,4 трлн, но сделки с партнёрами и инвесторами организованы так, что деньги передаются по кругу, а сама OpenAI ничем не рискует. Такие схемы начали беспокоить экспертов, которые всё чаще стали говорить о формировании пузыря в сфере ИИ. Тем более, что денег, имеющихся у техногигантов, на финансирование строительства инфраструктуры для ИИ уже хватать перестало, и долги начинают формироваться за пределами сектора. Microsoft добавит GPT-5.2 в Copilot — новая модель будет работать в режиме Smart Plus
29.12.2025 [19:51],
Сергей Сурабекянц
Microsoft дополнила веб-версию Copilot, а также версии своего ИИ-помощника для Windows и мобильных устройств самой мощной на сегодняшний день моделью GPT-5.2 от OpenAI. Она позволяет быстрее выполнять реальные задачи, включая создание электронных таблиц и презентаций, написание и проверку кода, понимание длинных документов, использование инструментов и работу с изображениями. После обновления GPT 5.2 будет «сосуществовать» с GPT 5.1.
Источник изображения: Microsoft В прошлом месяце ИИ-помощник Copilot был обновлён до GPT-5.1 для режима Smart. Теперь Microsoft добавляет GPT-5.2 в Copilot в качестве нового режима Smart Plus. GPT 5.2 в Copilot, по-видимому, является вариантом GPT-5.2, ориентированным на рассуждение, поскольку Microsoft подчеркнула, что он лучше справляется со сложными задачами. В интеллектуальных задачах по критерию OpenAI GDPval, который представляет собой новую оценку производительности модели в экономически значимых, реальных задачах в 44 профессиях, GPT-5.2 Thinking превосходит или показывает себя не хуже профессионалов отрасли в 70,9 % случаев, по сравнению с 38,8 % у GPT-5. Это огромный скачок, и именно поэтому OpenAI оценивает GPT-5.2 как «экспертный уровень» для многих чётко определённых офисных задач, таких как обработка презентаций, графиков и т. д.
Источник изображения: unsplash.com В бенчмарках, предназначенных для оценки работы агентов ИИ на сложных задачах разработки программного обеспечения, GPT-5.2 Thinking показывает 55,6 % на SWE-Bench Pro и 80 % на SWE-Bench Verified, что выше, чем у GPT-5.1 Thinking. В специализированном тесте GPQA Diamond GPT-5.2 Thinking показал результат 92,4 %, в AIME 2025 — 100 %, в CharXiv Reasoning (с Python) — 88,7 %. Новая версия GPT также продемонстрировала значительное улучшение показателей в тестах оценки способности модели к абстрактному мышлению и рассуждению ARC-AGI (Abstract and Reasoning Corpus for Artificial General Intelligence — «Корпус аннотаций и рассуждений для искусственного общего интеллекта») и ARC-AGI-2. OpenAI открыла вакансию на новую руководящую должность для управления ИИ-угрозами
28.12.2025 [16:51],
Анжелла Марина
Компания OpenAI объявила о вакансии на новую должность, которая называется «руководитель по готовности» (Head of Preparedness). В посте, опубликованном генеральным директором компании Сэмом Альтманом (Sam Altman) в соцсети X, указано, что на фоне быстрого развития моделей искусственного интеллекта (ИИ) и новых вызовов, включая угрозы в области кибербезопасности и биобезопасности, данная позиция является «критически важной». Как сообщает Times of India, за эту должность OpenAI предлагает компенсационный пакет в размере до $555 000 в год, а также акции компании.
Источник изображения: Andrew Neel/Unsplash Согласно официальному описанию вакансии, назначенный специалист станет ответственным за техническую стратегию и реализацию так называемого «рамочного подхода к готовности» (Preparedness framework), представляющего из себя систему отслеживания и подготовки к потенциальным рискам, связанным с потенциальной возможностью искусственного интеллекта причинить вред. В частности, Альтман в своём сообщении отметил, что в 2025 году уже проявились первые признаки влияния ИИ, например, на психическое здоровье людей. По его словам, у компании уже есть надёжная основа для измерения растущих возможностей ИИ, однако теперь требуется более тонкое понимание того, как эти возможности могут быть использованы не только на пользу, но и во вред, и как минимизировать негативные последствия — как в продуктах OpenAI, так и в мире в целом. Глава OpenAI подчеркнул, что подобные задачи крайне сложны, прецедентов в этой области практически нет, и многие интуитивно привлекательные решения сталкиваются с непредвиденными ситуациями. Он также предупредил, что будущая работа будет напряжённой и потребует немедленного погружения в самые сложные вопросы. В обязанности руководителя входит управление созданием оценок возможностей ИИ, построение моделей угроз и координация мер по их смягчению для формирования «согласованного, строгого и оперативно масштабируемого конвейера безопасности». От кандидата требуются глубокие технические знания, навыки чёткой коммуникации и способность руководить сложными проектами. Ему придётся возглавить небольшую, но высокоэффективную команду и тесно взаимодействовать с подразделениями по безопасности, исследованиям, инженерии, продукту, политике и внешним партнёрам. В ChatGPT совсем скоро появится реклама — стал известен её формат
27.12.2025 [17:55],
Владимир Мироненко
В СМИ появились сообщения о том, что OpenAI рассматривает возможность запуска рекламы в ChatGPT в формате «спонсируемого контента», которая может повлиять на принятие пользователем решения о покупке того или иного товара.
Источник изображения: Mariia Shalabaieva/unsplash.com По данным ресурса The Information, OpenAI планирует отдавать приоритет размещению спонсируемого контента в ответах ИИ-моделей. «ИИ-модели могут отдавать приоритет спонсируемому контенту, чтобы гарантировать его отображение в ответах ChatGPT», — отмечается в публикации. По словам источника ресурса, в последние недели в макетах рекламы отображалась спонсируемая информация в боковой панели рядом с основным окном ответа ChatGPT. Представитель OpenAI подтвердил, что компания рассматривает возможность добавления рекламы в ответы на запросы ИИ-моделей. «По мере того как ChatGPT становится более функциональным и широко используемым, мы ищем способы продолжать предоставлять всем больше информации. В рамках этого мы изучаем, как может выглядеть реклама в нашем продукте. У людей сложились доверительные отношения с ChatGPT, и любой подход будет разработан с учетом этого доверия», — сообщил он ресурсу The Information. На данный момент OpenAI не размещает рекламу даже в платных версиях ChatGPT (ChatGPT Plus, ChatGPT Pro, ChatGPT Team/Enterprise). Недавно сообщалось, что в бета-версии приложения ChatGPT для Android 1.2025.329 упоминалась «функция рекламы» с «контентом маркетплейса», «рекламой в поиске» и «карусельной рекламой в поиске». После этого, по словам инсайдеров, OpenAI отложила планы по добавлению рекламы в ChatGPT, решив сосредоточиться на повышении качества ИИ в связи с возросшей конкуренцией со стороны Gemini. Но, судя по всему, OpenAI не отказалась от своих планов полностью, сделал вывод ресурс BleepingComputer. Ресурс отметил, что в «Google Поиске» есть реклама, которая может влиять на покупательское поведение пользователей. Однако с учётом того, что GPT знает о предпочтениях пользователей гораздо больше, чем Google, реклама в ChatGPT может разрушить веб-экономику, предупреждает BleepingComputer. OpenAI тестирует «навыки» ChatGPT по образцу Anthropic Claude
25.12.2025 [10:48],
Павел Котов
OpenAI начала тестировать новую функцию ChatGPT под названием «Навыки» (Skills), которая будет похожа на аналогичную функцию конкурирующего чат-бота Anthropic Claude с тем же наименованием.
Источник изображения: BoliviaInteligente / unsplash.com Сейчас в ChatGPT поддерживаются производные чат-боты GPT — они проектируются при помощи запросов и предназначаются для выполнения конкретных функций. «Навыки» в Claude — это папки, данные в которых обучают чат-бот определённым способностям, рабочим процессам и знаниям в предметной области. Так, у Claude есть плагин для проектирования интерфейса — он помогает эффективнее ориентироваться в пользовательском пространстве, когда пишется код веб-приложения. Anthropic выделяет следующие характеристики «Навыков»:
Как ожидается, в производных чатах OpenAI GPT вскоре появится нечто подобное также под названием «Навыки». Сейчас они проходят внутри компании под кодовым именем Hazelnuts («Фундук») и в рамках теста запускаются командами со слэшем. Предусмотрен редактор «Навыков» и возможность преобразовывать пользовательские GPT в «Навыки». Развёртывание новой функции может начаться в январе 2026 года. OpenAI признала: у ИИ-браузеров есть уязвимость к инъекциям, которую невозможно полностью устранить
23.12.2025 [12:02],
Павел Котов
OpenAI стремится усилить безопасность своего браузера с искусственным интеллектом Atlas, но в компании поняли, что полностью исключить угрозу внедрения запросов (prompt injections) не получится. Внедрением запросов называется тип атаки, при котором агент ИИ выполняет скрытые инструкции в невидимых областях веб-страниц или писем электронной почты.
Источник изображения: Dima Solomin / unsplash.com Атаки с внедрением запросов едва ли получится изжить полностью так же, как мошеннические схемы и методы социальной инженерии, считают в OpenAI, а «режим агента» в браузере «расширяет поверхность угроз безопасности». OpenAI выпустила Atlas в октябре, и вскоре исследователи в области кибербезопасности начали демонстрировать, что поведением браузера можно манипулировать, например, написав несколько слов в Google Docs. Разработчики Brave подтвердили, что непрямое внедрение запросов представляет собой системную проблему для ИИ-браузеров, в том числе для Perplexity Comet. О невозможности полностью исключить подобные атаки недавно заявили в Национальном центре кибербезопасности Великобритании и порекомендовали экспертам не пытаться их «остановить», а смягчить возможные последствия. А Google и Anthropic решили сделать ставку на многоуровневую защиту и постоянное стресс-тестирование систем. В OpenAI решили пойти своим путём и создали «автоматизированного злоумышленника на основе большой языковой модели». Это бот, который прошёл обучение с подкреплением и принял на себя роль хакера, постоянно пытающегося незаметно отправить ИИ-агенту вредоносные инструкции. Бот тестирует свои атаки в симуляциях, демонстрируя, как в тех или иных условиях рассуждает и действует целевой ИИ. Он изучает реакцию, корректирует схему атаки и повторяет свои попытки снова и снова. У посторонних доступ к настолько глубокому пониманию механизмов внутреннего мышления целевого ИИ отсутствует, поэтому в теории бот OpenAI должен находить уязвимости быстрее, чем реальные злоумышленники.
Источник изображения: Mariia Shalabaieva / unsplash.com В одной из демонстраций бот подбросил в почтовый ящик пользователя «отравленное» электронное письмо. ИИ просканировал корреспонденцию, открыл это письмо, проследовал скрытым в нём инструкциям и отправил от имени пользователя заявление об увольнении вместо автоматического ответа о его отсутствии на рабочем месте. После обновления безопасности ИИ-агент, однако, успешно обнаружил попытку внедрения запроса и сообщил о ней пользователю. Если надёжной и полной защиты от таких атак не существует, отметили в компании, то приходится полагаться на масштабное тестирование и ускорять циклы обновления. О фактических успехах по сокращению числа реакций на внедрения запросов в OpenAI не сообщили, но отметили, что работа в этом направлении при участии сторонних специалистов началась ещё до выхода Atlas. Угроза от ИИ-агентов может быть серьёзной: они обладают некоторой автономностью при наличии высокого уровня доступа, указывают опрошенные TechCrunch эксперты. Поэтому одних только методов обучения с подкреплением недостаточно — необходимо учитывать и указанные аспекты: ограничивать действия, которые ИИ-агент способен осуществлять от имени учётной записи пользователя, в которую произведён вход, а также запрашивать подтверждения перед тем, как сделать нечто важное. На эти аспекты указывают и рекомендации OpenAI для пользователей: Atlas запрашивает подтверждение перед отправкой сообщений или перед совершением платежей. Пользователям также рекомендовали давать ИИ-агентам конкретные инструкции, а не, например, открывать доступ к почте и разрешать «делать, всё что потребуется». «Даже при наличии мер защиты широкая свобода действий облегчает скрытому или вредоносному контенту воздействие на агента», — предупредили в OpenAI. В ChatGPT появились персональные итоги года в стиле Spotify Wrapped
23.12.2025 [11:34],
Владимир Фетисов
OpenAI запустила в ИИ-боте функцию подведения итогов года в стиле Spotify Wrapped, которая получила название «Ваш год с ChatGPT». На данный момент она доступна ограниченному числу пользователей сервиса в разных странах мира, включая США, Канаду, Австралию, Великобританию и Новую Зеландию.
Источник изображения: OpenAI На момент запуска функции «Ваш год с ChatGPT» она доступна бесплатным пользователям ИИ-бота, а также подписчикам на тарифах Plus и Pro, у которых активированы опции «Сохранять воспоминания для контекста» и «Использовать историю чатов для контекста». Чтобы получить итоги года также необходимо достигнуть определённого порога активности в беседах с ChatGPT. Пользователи аккаунтов Team, Enterprise и Education не смогут получить доступ к функции «Ваш год с ChatGPT». Новая функция, как и другие подобные инструменты в разных приложениях, вдохновлена популярным итоговым отчётом за год Spotify Wrapped. Как и в случае Spotify, OpenAI использует яркие графические элементы и персонализирует данные для каждого пользователя, а также вручает «награды» на основе того, как происходило взаимодействие с чат-ботом в течение года. В процессе подведения итогов ChatGPT также генерирует стихотворение и изображение, сфокусированные на темах, которые интересовали пользователя в течение года. Хотя эта функция рекламируется на стартовой странице приложения, она не запускается автоматически. Получить доступ к ней можно в веб-приложении ChatGPT, а также в мобильных версиях для Android и iOS. Пользователи также могут напрямую обратится к чат-боту, чтобы он активировал функцию «Ваш год с ChatGPT». |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |