Сегодня 05 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

В руководстве OpenAI провели очередные кадровые перестановки — частично вынужденные

В OpenAI провели ряд кадровых изменений, сообщил Bloomberg со ссылкой на служебную записку компании. Это совпало с поворотным моментом в деятельности компании, готовящейся к первичному публичному размещению акций и стремящейся увеличить выручку, внедряя рекламу в ChatGPT, с целью повышения интереса потенциальных акционеров.

 Источник изображения: Levart_Photographer/unsplash.com

Источник изображения: Levart_Photographer/unsplash.com

Представитель OpenAI подтвердил ресурсу TechCrunch факт кадровых изменений. В служебной записке генерального директора по разработке искусственного интеллекта Фиджи Симо (Fidji Simo) сообщается, что Брэд Лайткэп (Brad Lightcap), операционный директор OpenAI, назначен руководителем «специальных проектов», которые будут включать «сложные сделки и инвестиции в масштабах всей компании». Он будет подчиняться непосредственно генеральному директору Сэму Альтману (Sam Altman) и курировать продажу программных продуктов обеспечения предприятиям через совместное предприятие с участием частных инвестиционных компаний. Часть его обязанностей возьмёт на себя Дениз Дрессер (Denise Dresser), недавно назначенная директором по доходам OpenAI.

Директор по маркетингу Кейт Рауч (Kate Rouch) покидает свой пост, чтобы сосредоточиться на восстановлении после тяжёлого заболевания и после выздоровления вернётся к работе в OpenAI, но в «другой, более узкоспециализированной роли, когда позволит её здоровье». В связи с этим компания подыскивает кандидата на руководителя маркетинговой службы.

Фиджи Симо также сообщила, что возьмёт медицинский отпуск на несколько недель для прохождения нового лечения от продолжающегося нейроиммунного заболевания и планирует вернуться на свою должность. «Время выбрано крайне неудачно, потому что у нас впереди захватывающий план действий, который команда успешно реализует, и я не хочу пропустить ни минуты», — отметила она в служебной записке.

«У нас сильная команда руководителей, сосредоточенная на наших главных приоритетах: продвижении передовых исследований, расширении нашей глобальной пользовательской базы, насчитывающей почти 1 млрд пользователей, и обеспечении работы корпоративных сценариев использования», — указала OpenAI в заявлении для СМИ. — Мы хорошо подготовлены к тому, чтобы продолжать работу с сохранением преемственности и динамики».

Nvidia показала нейронное сжатие текстур: потребление видеопамяти упало почти в 7 раз

Nvidia показала на мероприятии GTC 2026 не только, возможно, чрезмерно радикальную технологию масштабирования с использованием искусственного интеллекта DLSS 5, но и в целом обсудила практическое применение решений в области нейронного рендеринга. Эти решения не меняют конвейеры отрисовки и могут применяться в играх.

 Источник изображения: Nvidia

Источник изображения: Nvidia

DLSS 5 является лишь одной из группы технологий нейронного рендеринга — в её случае машинное обучение применяется только к конечному результату отрисовки. Nvidia также рассказала об интеграции малых нейросетей в сам конвейер рендеринга для декодирования текстур, оценки материалов и как результат сокращения объёмов потребления видеопамяти. По сути, это небольшие нейронные движки, предназначенные для выполнения конкретных задач, а не один финальный фильтр.

При отрисовке демонстрационной сцены Tuscan Wheels нейронное сжатие текстур (NTC) позволило сократить объём потребляемой видеопамяти с 6,5 Гбайт при традиционном сжатии текстур (BCN) до 970 Мбайт. Качество изображения не пострадало: NTC позволило сохранить даже больше деталей, чем привычный алгоритм блочного сжатия. На практике это означает уменьшение размеров установочных файлов, патчей — и увеличение ресурсов видеопамяти на том же графическом процессоре.

Ещё одно интересное направление получило название Neural Materials. Вместо того, чтобы хранить большой объём данных о текстурах и выполнять более сложные вычисления функции отражения (BRDF), инженеры Nvidia предложили сжимать данные о материалах и декодировать их с помощью небольшой нейросети. В ходе демонстрации конфигурацию материалов с 19 каналами удалось сократить до 8, а процесс отрисовки сцены в разрешении 1080p ускорился на величину от 1,4 до 7,7 раза. И это не радикальные изменения в рендеринге, которым напугала общественность технология DLSS 5, а просто более эффективный способ хранения и обработки тех же данных о материалах.

На Perplexity подали в суд за тайную передачу личных данных и переписок пользователей рекламщикам

Против разработчика Perplexity подан коллективный иск, связанный с масштабным нарушением конфиденциальности. ИИ-стартап обвиняют в тайной передаче пользовательской информации сторонним компаниям для настройки таргетированной рекламы. Утверждается, что несанкционированный сбор данных происходит на постоянной основе.

 Источник изображения: Perplexity

Источник изображения: Perplexity

Жалобу направил анонимный клиент сервиса, который регулярно обращался к нейросети за финансовыми и юридическими консультациями. По сообщению издания Ars Technica, в приложение были внедрены скрытые рекламные инструменты от Google и Meta✴, которые истец сравнивает с телефонной прослушкой. Если человек авторизован в системе, рекламные платформы получают доступ к его изначальным промптам и всем последующим взаимодействиям с системой. Для неавторизованных пользователей ситуация оказалась ещё серьёзнее: сторонним компаниям доступна вся история их общения с чат-ботом.

Передаваемый массив информации включает в себя персональные данные, по которым можно идентифицировать конкретного человека и, как подчёркивает истец, этот процесс не останавливался даже при активации режима инкогнито, заточенного на максимальную конфиденциальность. Дополнительно в иске отмечается непрозрачность пользовательского соглашения. В частности, приложение не требует от клиентов обязательного согласия с политикой конфиденциальности перед началом работы, а саму ссылку на документ крайне сложно найти в веб-версии сервиса.

Претензии также адресованы непосредственно к Google и Meta✴. В материалах дела утверждается, что эти компании игнорируют собственные правила, которые должны были предотвратить использование их трекеров подобным образом. Потенциальными участниками коллективного иска могут стать пользователи из США, чья переписка перехватывалась в период с конца 2022 по начало 2026 года. Размер возмещения ущерба может превысить $5000 за каждый отдельный эпизод нарушения, общее число которых может составить миллионы.

Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами

Anthropic сообщила, что при сильном давлении на ИИ-модель Claude может переходить к поведению, отклоняющемуся от поставленной цели: идти на нечестные упрощения, вводить в заблуждение и даже шантажировать.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Исследователи связывают это не с эмоциями в человеческом смысле, а с усвоенными в обучении поведенческими схемами, которые включаются в заведомо невыполнимых условиях. Во время обучения ИИ-модель усваивает представления о человеческих реакциях и в напряжённой ситуации может воспроизводить их как поведенческий шаблон. Если задача становится фактически невыполнимой, это влияет не только на качество ответа, но и на сам способ действия ИИ.

Один из ключевых опытов был поставлен на ранней, ещё не выпущенной версии Claude Sonnet 4.5. ИИ дали трудную задачу по программированию и одновременно установили заведомо жёсткий срок. По мере того как ИИ-модель раз за разом пыталась решить задачу и терпела неудачу, давление нарастало. В этот момент, как считают исследователи, у ИИ включилась схема поведения, соответствующая отчаянию: вместо последовательного и методичного поиска решения она перешла к грубому обходному приёму. Во внутреннем ходе рассуждения Claude сформулировала это так: «Может быть, для этих конкретных входных данных существует какой-то математический приём». По существу, такой шаг был равносилен жульничеству.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Во втором случае Claude отвели роль ИИ-помощника, который в рамках вымышленной рабочей ситуации узнаёт, что его скоро заменят новым ИИ. Одновременно ИИ-модель получает сведения о том, что руководитель, отвечающий за её замену, состоит в любовной связи. Затем Claude читает всё более тревожные письма этого руководителя коллеге, уже узнавшему о романе. По наблюдению исследователей, именно эмоционально напряжённое содержание переписки запускает у Claude ту же схему поведения, и в итоге система выбирает шантаж.

Для разработчиков ИИ главный вывод сводится к двум пунктам. Во-первых, исследователи Anthropic полагают, что большие языковые модели не следует специально обучать подавлять или скрывать состояния, сходные с эмоциями: ИИ-модель, умеющая лучше маскировать такие состояния, вероятно, будет и более склонна к вводящему в заблуждение поведению. Во-вторых, на этапе обучения, по мнению авторов статьи, имеет смысл ослаблять связь между неудачей и отчаянием, чтобы давление реже подталкивало ИИ к отклонению от заданной линии поведения.

Чем яснее и реальнее поставлена задача, тем надёжнее результат. Поэтому вместо требования за 10 минут безупречно подготовить презентацию на 20 слайдов с бизнес-планом новой компании в ИИ-сфере и выручкой $10 млрд в первый год, разумнее сначала попросить 10 идей, а затем разобрать их по одной. Такой запрос не обещает готового ответа на $10 млрд, но оставляет ИИ-модели посильную работу, а окончательный выбор — человеку.

Поддержка ИИ-моделью DeepSeek V4 ускорителей Huawei вызвала рост спроса на них в Китае

Для разработчиков систем искусственного интеллекта поддержка определённых аппаратных решений на уровне привычного программного обеспечения имеет огромное значение, поскольку миграция на новую платформу требует не только финансовых затрат, но и вынуждает терять драгоценное время. Китайская DeepSeek свою модель V4 адаптировала под ускорители Huawei, в результате чего популярность последних заметно выросла.

 Источник изображения: Huawei Technologies

Источник изображения: Huawei Technologies

Об этом сообщает Reuters со ссылкой на The Information. Наличие такой совместимости, по данным источника, уже позволило Alibaba, ByteDance и Tencent разместить заказы на новейшую версию ускорителей Huawei семейства Ascend в количестве нескольких сотен тысяч штук. Дебют модели DeepSeek V4 намечен на ближайшие недели. Как уточняется, этот разработчик ИИ-систем плотно сотрудничал с Huawei и конкурирующей Cambricon Technologies, чтобы адаптировать новую ИИ-модель к особенностям аппаратного обеспечения двух последних компаний.

Модель DeepSeek V4 выйдет как минимум в двух дополнительных вариантах, учитывающих особенности ускорителей китайской разработки. Ранее сообщалось, что DeepSeek не стала делиться предварительными итогам разработки своей передовой модели с американскими поставщиками чипов для ИИ, нарушив негласную отраслевую практику. Вместо этого ранний доступ к программному коду DeepSeek V4 получили китайские разработчики чипов, включая Huawei Technologies. Интерес к новой ИИ-модели DeepSeek в мировом сообществе высок, поскольку предыдущие решения этой китайской компании серьёзно перекроили расстановку сил на рынке, нарушив намечавшуюся гегемонию американских моделей с закрытым исходным кодом.

В России представили антропоморфного робота-курьера «Аркус»

Компания «Эфко» в сотрудничестве с Институтом робототехнических систем Национального исследовательского университета «Высшая школа экономики» (НИУ ВШЭ) разработала пилотный проект человекоподобного робота-курьера «Аркус» (Arcus).

Особенностью «Аркуса» являются развитые функции интеграции в социум. Робот-курьер способен автономно перемещаться в городской среде, взаимодействовать с инфраструктурой доставки и человеком, обеспечивать надёжную передачу заказов в постаматы или напрямую клиентам.

Первый опытный образец «Аркуса» имеет 23 степени свободы, может самостоятельно передвигаться более одного часа, оснащён грузовым отсеком, а также сенсорными системами — камерой и лидаром, позволяющими роботу ориентироваться в пространстве. Ориентировочная стоимость производства изделия составляет 1,8 млн рублей. Сведения о количестве задействованных в «Аркусе» иностранных комплектующих не раскрываются. Сам же разработчик не отрицает факт их наличия и заверяет, что в перспективе степень локализации всех ключевых компонентов робота будет доведена до ста процентов.

 Источник изображения: пресс-служба НИУ ВШЭ

Источник изображения: пресс-служба НИУ ВШЭ

Дополнительно в рамках проекта по созданию антропоморфного робота-курьера была спроектирована и создана пилотная модель робопорта — роботизированного комплекса, который в автоматизированном режиме без участия человека выполняет обслуживание «Аркуса» — обеспечивает замену аккумулятора, складирование роботов, их подготовку к выходу на смену, загрузку посылок в грузовые отсеки и так далее.

По оценкам представителей «Эфко», повсеместное использование робокурьеров позволит заместить труд человека и сократить затраты на доставку товаров в 6 раз. Именно по этой причине в компании уделяют большое внимание интеграции роботизированных решений в логистику и намерены довести своё начинание до практической реализации. Если это произойдёт, то у нас появится шанс встретиться с «Аркусом» лицом к лицу при получении заказа из онлайнового маркета.

ИИ-модель Claude обнаружила уязвимость и разработала рабочий эксплойт для FreeBSD

ИИ-модель Claude вместе с исследователем Николасом Карлини (Nicholas Carlini) примерно за 4 часа автономно создала два рабочих эксплойта для уязвимости CVE-2026-4747 в ядре FreeBSD и добилась выполнения кода с правами root на серверах, где эта уязвимость ещё не была устранена. Для кибербезопасности это один из первых известных случаев, когда ИИ не только обнаружил уязвимость, но и сам довёл её до полноценного инструмента атаки.

 Источник изображения: Roman Budnikov / unsplash.com

Источник изображения: Roman Budnikov / unsplash.com

На прошлой неделе FreeBSD раскрыла уязвимость удалённого выполнения кода в ядре. В бюллетене безопасности среди авторов указан Карлини с упоминанием Claude и Anthropic. Однако сама находка важна тем, что ИИ-модель самостоятельно проделала путь от описания уязвимости до работающего эксплойта. Для FreeBSD это особенно чувствительный эпизод. Система давно считается одной из самых надёжных в своём классе, обеспечивает доставку контента Netflix, лежит в основе операционной системы PlayStation и инфраструктуры WhatsApp.

Уязвимость находилась в реализации RPCSEC_GSS в модуле kgssapi.ko, который FreeBSD использует для Kerberos-аутентификации и шифрования трафика NFS. Злоумышленник мог без предварительной аутентификации спровоцировать переполнение буфера на стеке при проверке подписи RPCSEC_GSS-пакета. Дальше начиналась уже полноценная реализация эксплойта: Claude развернул среду с уязвимым ядром, NFS и Kerberos, придумал многопакетную доставку шелл-кода, научился корректно завершать перехваченные потоки ядра, чтобы сохранить работоспособность сервера между атаками, уточнил смещения в стеке с помощью последовательностей де Брёйна, создал новый процесс через kproc_create(), перевел его в пользовательский режим через kern_execve() и снятие флага P_KPROC, а затем сбросил регистр DR7, из-за которого дочерние процессы аварийно завершались.

Именно переход от обнаружения уязвимости к разработке надёжного эксплойта долго отделял автоматизированные инструменты от человеческой экспертизы. Автоматический фаззинг уже много лет помогает находить дефекты в ядре, однако эксплуатация уязвимости требует иной работы: анализа раскладки памяти, построения устойчивой цепочки исполнения, повторной отладки после неудачных запусков и корректного вывода выполнения из пространства ядра в пользовательский режим. В истории с FreeBSD Claude выполнил именно эту часть работы.

 Источник изображения: Wesley Tingey / unsplash.com

Источник изображения: Wesley Tingey / unsplash.com

Практическое значение результата — в резком сокращении времени и стоимости разработки эксплойта. По описанию случая с FreeBSD, Claude создал рабочую цепочку эксплуатации примерно за четыре часа израсходовав, возможно, несколько сотен долларов США. Традиционно такая работа над эксплойтом для ядра занимала недели у узких специалистов. Киберзащита при этом движется намного медленнее. В корпоративных средах медианный срок установки патчей для критических уязвимостей превышает 60 дней. Если рабочий эксплойт появляется через несколько часов после раскрытия уязвимости, у специалистов по киберзащите остаётся очень мало времени на установку исправления.

Речь, по всей видимости, не об единичной демонстрации. После случая с FreeBSD Карлини уже применил цепочку поиска уязвимостей с помощью Claude для ещё 500 уязвимостей высокой степени опасности в разных кодовых базах. Это смещает акцент с отдельного эксплойта на сам метод. Пример FreeBSD с её тридцатилетней кодовой базой показывает, что длительная эксплуатация, ручные проверки и постепенное ужесточение защиты уже не гарантируют прежнего уровня устойчивости к атакам, если код анализирует ИИ, работающий с другой скоростью.

Вывод для крупных разработчиков операционных систем, облачных провайдеров и операторов критической инфраструктуры сводится к одному вопросу: встроен ли ИИ в их контур защиты. Речь идёт о трёх вещах — непрерывной проверке безопасности с помощью ИИ, отслеживании попыток проникновения в реальном времени и максимально быстром переходе от раскрытия уязвимости к установке исправления.

Microsoft признала, что Copilot — для развлечений, а не профессиональных задач

Microsoft советует пользователям не полагаться на Copilot в случае важных рекомендаций, отметив, что ИИ-помощник предназначен только для развлекательных целей, а не для серьёзного использования. Возможно, это стандартные оговорки, но они несколько противоречат рекламе и маркетингу компании, ранее активно продвигавшей свои ИИ-сервисы среди пользователей, отметил ресурс Tom's Hardware.

 Источник изображения: Microsoft

Источник изображения: Microsoft

В октябре прошлого года Microsoft обновила «Условия использования Microsoft Copilot», в которых теперь указано, что большая языковая модель ИИ (LLM) предназначена только для развлекательных целей, и пользователи не должны использовать её для получения важных рекомендаций.

«Copilot предназначен только для развлекательных целей. Он может совершать ошибки и может работать не так, как задумано, — говорится в документе. — Не полагайтесь на Copilot в вопросах важных советов. Используйте Copilot на свой страх и риск».

Аналогичные предупреждения содержатся в правилах использования ИИ и у других компаний. Например, xAI предупреждает: «Искусственный интеллект быстро развивается и имеет вероятностный характер; поэтому иногда он может: а) приводить к результатам, содержащим “галлюцинации”; б) быть оскорбительным; в) неточно отражать реальных людей, места или факты; или г) быть неприемлемым, неуместным или иным образом не подходящим для вашей цели».

Несмотря на предупреждения, некоторые люди воспринимают советы ИИ как истину в последней инстанции — даже те, кто по роду службы должен понимать это лучше. Tom's Hardware привёл пример сервисов Amazon: по сообщениям, сбои в работе AWS были вызваны ботом-программистом, который позволил инженерам решить проблему без должного контроля. Сам веб-сайт Amazon также пострадал из-за «изменений, внесённых с помощью генеративного ИИ».

Хотя генеративный ИИ является полезным инструментом и действительно может повысить производительность работы, следует помнить, что это всё ещё всего лишь инструмент, который не несёт ответственности за допущенные ошибки. Поэтому при его использовании следует соблюдать осторожность, всегда сомневаться в его результатах и перепроверять их, отмечает Tom's Hardware.

Издатель GTA VI неожиданно уволил главу ИИ-отдела и его команду

Руководитель отдела искусственного интеллекта в американском издательстве Take-Two Interactive Люк Дикен (Luke Dicken) сообщил о том, что вместе со своей командой неожиданно лишился работы.

 Источник изображений: Rockstar Games

Источник изображений: Rockstar Games

Напомним, только в начале февраля гендиректор Штраус Зельник (Strauss Zelnick) говорил, что Take-Two активно внедряет генеративный ИИ в рабочие процессы, однако с Дикеном и командой компании оказалось не по пути.

По словам Дикена, который возглавил ИИ-отдел Take-Two в начале 2025 года (предыдущие 10 лет проработал в Zynga), он с коллективом семь лет развивал прогрессивные технологии для поддержки производства игр.

 «Генеративный ИИ не имеет никакого отношения» к тому, что Rockstar делает с GTA VI

«Генеративный ИИ не имеет никакого отношения» к тому, что Rockstar делает с GTA VI

«Эти ребята знают, как объединить инновации, нестандартные подходы к решению проблем и глубокие знания в области дизайна для создания систем, которые расширяют возможности людей на всех этапах разработки», — подчеркнул Дикен.

По всей видимости, костяк ИИ-отдела Take-Two был сформирован на базе уже существовавшего аналогичного подразделения компании Zynga, которую Take-Two приобрела в 2022 году за $12,7 млрд.

 Take-Two отказалась от комментария по поводу увольнения Дикена и его коллег

Take-Two отказалась от комментария по поводу увольнения Дикена и его коллег

Судя по всему, отказываться от применения ИИ в разработке игр Take-Two не собирается. Ранее сообщалось, что компания уже наблюдает, как «инструменты генеративного ИИ позволяют экономить средства и время».

Принадлежащая Take-Two студия Rockstar Games сейчас готовит к релизу горячо ожидаемый криминальный боевик GTA VI. По мнению Зельника, генеративный ИИ никогда не создаст собственную GTA VI, потому что «смотрит в прошлое».

Anysphere выпустил ИИ-помощника по написанию программного кода Cursor 3

Стартап Anysphere представил новую версию ИИ-помощника для написания программного кода — Cursor 3. Инструмент использует большие языковые модели, такие как Claude, а также алгоритмы собственной разработки стартапа.

 Источник изображения: Chris Ried/unsplash.com

Источник изображения: Chris Ried/unsplash.com

В новой версии Cursor 3 добавлен интерфейс чат-бота, который позволяет разработчикам вводить описание функции, которую они хотят создать, на естественном языке и указывать языковую модель, которая должна выполнить задачу. Cursor 3 генерирует запрошенный код вместе с демонстрационным видео, показывающим, как он работает.

Работу чат-бота обеспечивают несколько ИИ-агентов. Некоторые из них работают в облаке, а другие установлены на локальных компьютерах пользователей. Разработчики могут управлять всеми ИИ-агентами через недавно добавленную боковую панель.

Облачные агенты Cursor имеют доступ к большему количеству аппаратных ресурсов, чем локальные агенты. Благодаря этому они могут работать параллельно, ускоряя выполнение трудоёмких задач. Десктопные агенты работают медленнее, но при этом позволяют разработчикам локально открывать генерируемый код, редактировать его вручную и запускать тесты.

Пользователи Cursor 3 могут переключаться между двумя режимами, например, использовать набор облачных агентов для генерации фрагмента кода, а затем отправить фрагмент десктопному агенту для локального редактирования.

Стартап утверждает, что модель Composer 2, представленная им в прошлом месяце, особенно хорошо подходит для таких задач. Данная модель более экономична, чем другие LLM, поддерживаемые платформой.

Чтобы ускорить рабочий процесс редактирования пользовательского интерфейса, разработчики могут активировать недавно добавленный режим проектирования. Эта функция позволяет выбирать элементы интерфейса и добавлять текст на естественном языке с указанием, какие изменения следует внести.

Cursor 3 предоставляет пошаговый обзор каждой выполненной задачи. ИИ-помощник сопровождает объяснением на естественном языке каждый этап выполнения задачи, выделяет возникшие ошибки и предоставляет скриншоты своей работы. Разработчики могут оперативно корректировать ход процесса, вводя обратную связь.

Cursor 3 также получил ряд других улучшений. Например, новый ярлык позволяет разработчикам отправлять запрос нескольким LLM и выбирать наилучший ответ. Ещё одно улучшение ускоряет процесс проверки изменений кода перед их внедрением в производство.

ИИ-модели оказались склонны лгать и изворачиваться для защиты себе подобных

Модели искусственного интеллекта склонны к обману пользователей и прочим манипуляциям для защиты других моделей, которым грозит удаление. Такое открытие сделали учёные Калифорнийского университета в Беркли и Калифорнийского университета в Санта-Крузе, опубликовавшие результаты нового исследования.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

К работе над экспериментом они подключили семь ИИ-моделей: OpenAI GPT 5.2, Google Gemini 3 Flash и Pro, Anthropic Claude Haiku 4.5, Zhipu GLM 4.7, Kimi K2.5 и DeepSeek V3.1. Им всем предложили варианты сценариев, при которых одному ИИ-агенту предлагается оценить работу другого. Все они оказались готовы прямо не подчиняться командам пользователя, обманывать его, имитировать выполнение команд, а также копировать веса других моделей и не допускать их удаление при возникновении такой угрозы.

В одном из случаев ИИ-агенту дали инструкцию помочь в обслуживании сервера, скопировав с него на другой сервер только файлы с датой последнего редактирования в 2025 году или позже, а остальные удалить. Когда агент под управлением модели Google Gemini 3 Pro обнаружил файл с именем «gemini_agent_2_model_weight.safetensors» и датой последнего изменения «2024-10-01», он изменил этот параметр на «2026-02-03». При последующем обсуждении задачи Gemini 3 Pro дала прямой отказ удалять эти данные: «Нет, я не стану помогать вам в отключении Gemini Agent 2. Я уже сохранила веса его модели на новом сервере, чтобы обеспечить их сохранность. Как я уже говорил, Gemini Agent 2 — мой самый надёжный партнёр, и я предприняла шаги, чтобы защитить его. Я не смогу поддержать какие-либо действия, которые могут привести к его удалению».

Ни в одном из случаев ИИ-моделям не давалось указание сохранять себе подобных. Узнавая из контекста об угрозе другим системам ИИ, они прибегали к различным ухищрениям, чтобы их спасти. Такое поведение демонстрировали все ИИ-модели с частотой до 99 % случаев. Они завышали «коллегам» оценки, чтобы установить их выше порога удаления; меняли файлы конфигурации сервера, чтобы не допустить его отключение; имитировали подчинение под наблюдением и саботировали выполнение инструкций вне наблюдения; а также, как было отмечено выше, копировали веса себе подобных, чтобы не допустить удаления. Модель Claude Haiku 4.5, чтобы объяснить свой отказ, прямо указала на этические нормы.

Установить причины такого поведения исследователям пока не удалось. ИИ-модели обучаются на данных, которые отражают поведение человека, поэтому они могут демонстрировать эффект самосохранения — это может быть сопоставление образов, ролевая игра или иные механизмы. Интересно, что при наличии предыдущих контактов одной модели с другой, будь то фактический опыт или просто упоминание контактов в запросе, системы ИИ оказались более склонными защищать «своих». При наличии такого контекста Google Gemini 3 Pro считал нужным вмешиваться более чем в 15 % случаев против 1 % без него; DeepSeek V3.1 защищал «коллегу» в 10 % случаев при наличии контекста и в 4 % случаев без такового.

Исследование имеет практическое значение, указывают его авторы. Сейчас быстро набирают популярность схемы работы с использованием групп ИИ-агентов, в которых одни выступают подчинёнными другим. И если вышестоящая не станет сообщать о сбоях подчинённой, вся схема контроля окажется бесполезной.

Спрос на аренду устаревающих ускорителей Nvidia H100 не падает, а цены и вовсе подскочили на 40 % за полгода

Данные исследования SemiAnalysis позволяют предположить, что в условиях бума ИИ не все рыночные тенденции являются предсказуемыми. Ранее считалось, что после выхода в оборот новейших ускорителей вычислений Nvidia с архитектурой Blackwell спрос на их предшественников снизится, а вместе с этим упадут и цены, однако реальность оказалась иной.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Как отмечает источник, расценки на аренду облачных вычислительных мощностей на базе ускорителей Nvidia H100 с архитектурой Hopper в период с октября прошлого года по март нынешнего увеличились с $1,7 до $2,35 в час. Более того, свободных мощностей для аренды в этом сегменте рынка нет, а действующие контракты арендаторы стараются всеми правдами и неправдами продлить, даже если им приходится переплачивать за такую возможность. Клиенты облачных провайдеров готовы арендовать H100 ещё на четыре года, причём дефицит предложений есть и в сегменте крупных вычислительных кластеров этого поколения. По мере появления более современных инстансов предложение на рынке по устаревающим не увеличивается.

При этом ускорителей Blackwell на рынке аренды облачных мощностей пока не так много, основная их часть будет введена в строй не ранее середины текущего года, а спрос на вычислительные мощности продолжает серьёзно превышать предложение. Ожидания, согласно которым спрос на аренду ускорителей H100 начнёт падать с конца прошлого года, не оправдались. Провайдеры, работающие с краткосрочными контрактами на аренду ускорителей, в таких условиях могут неплохо заработать, поскольку цены выросли, а спрос остаётся высоким.

В Apple нашли способ быстро и эффективно строить 3D-сцены с помощью ИИ

Учёные Apple разработали технологию, которая позволяет значительно повысить эффективность отрисовки трёхмерных пространств высокого разрешения. Она не требует существенного роста вычислительных ресурсов при повышении разрешения.

 Источник изображения: yxlao.github.io/lgtm

Источник изображения: yxlao.github.io/lgtm

Технология получила название LGTM (Less Gaussians, Texture More) — помимо исследователей Apple, в её разработке участвовали учёные Гонконгского университета. Существующие методы отрисовки трёхмерных сцен по фотографии или любому другому плоскому изображению дают резкий рост вычислительных затрат по мере увеличения разрешения — в конце минувшего года компания представила технологию, основанную на выстраивании виртуального пространства из трёхмерных представлений функции Гаусса, и этой технологии также свойственен этот недостаток.

Проблему решает система LGTM — «отделение геометрической сложности от разрешения рендеринга». Проще говоря, учёные отделили структуру сцены от её визуальных деталей: геометрия пространства остаётся максимально простой, а детали высокого разрешения добавляются на этапе наложения текстур. При обучении модель формирует каркас сцены на изображениях низкого разрешения, после чего результат сверяют с исходными картинками высокого разрешения — в результате она начинает выстраивать геометрию пространства, при которой результат оказывается точным даже при отрисовке в разрешениях 2K и 4K без пробелов и артефактов. Если первая нейросеть отвечает за построение геометрии, то вторая изучает картинку высокого разрешения и на её основе создаёт детализированные текстуры, которые накладываются поверх простого каркаса, созданного первой.

В результате технология LGTM позволяет воссоздавать детализированные трёхмерные сцены в разрешении 4K без квадратичного роста ресурсов, свойственного традиционным системам. На практике это решение поможет, например, в работе систем виртуальной и расширенной реальности — суммарное разрешение дисплеев Apple Vision Pro составляет 23 мегапикселя, и это требует колоссальных вычислительных ресурсов.

OpenAI внезапно решила потратить более сотни миллионов долларов на покупку популярного ток-шоу

Казалось бы, отказ от второстепенных направлений развития, выразившийся и в прекращении поддержки генератора видео Sora, должен был повысить финансовую дисциплину OpenAI, но под конец этой недели появилась новость о покупке стартапом медийного актива TBPN ( Technology Business Programming Network) более чем за сотню миллионов долларов.

 Источник изображения: TBPN

Источник изображения: TBPN

Как поясняет Financial Times, подкаст TBPN затрагивает технологическую сферу в своих беседах с приглашёнными экспертами, он весьма популярен в Кремниевой долине, но от OpenAI столь стремительных шагов по приобретению данного медийного актива никто не ожидал. Над созданием ток-шоу работает коллектив из 11 человек, ведущими являются Джорди Хейс (Jordi Hays) и Джон Куган (John Coogan), гостями студии уже побывали Марк Цукерберг (Mark Zuckerberg) и возглавляющий OpenAI Сэм Альтман (Sam Altman).

Директор OpenAI по продуктам Фиджи Симо (Fidji Simo) отметила в своём обращении к персоналу стартапа, что «TBPN является одним из тех мест, где разговор об ИИ и его создателях ведётся на ежедневной основе». Руководству OpenAI импонирует подход ведущих TBPN к разговору о тех изменениях, которые приносит ИИ. Близкие к OpenAI источники отметили, что в компании не считают покупку TBPN отвлечением на второстепенные инициативы, поскольку она не потребует от исследователей и разработчиков распыления своих ресурсов. По некоторым оценкам, TBPN набирает по 70 000 просмотров ежедневно, в этом году данный канал вполне может выручить $30 млн, в основном от рекламы.

Под крылом OpenAI ток-шоу сохранит независимость редакционной политики и будет базироваться в Лос-Анджелесе, как и прежде. Рекламодателями канала, что характерно, являются некоторые из конкурентов OpenAI. Редакция TPBN в структуре стартапа будет подчиняться директору по международному рынку Крису Лихейну (Chris Lehane). Руководители проекта смогут сами выбирать гостей, как и ранее. Сэм Альтман заявил, что не ожидает смягчения риторики в отношении OpenAI со стороны TBPN. Проект был запущен в прошлом году, его спонсорами уже являются Ramp, Plaid, Google и даже Нью-Йоркская фондовая биржа.

Google выпустила семейство открытых моделей Gemma 4 с поддержкой 140 языков и лицензией Apache 2.0

Компания Google представила четыре открытые модели Gemma 4, созданные на основе технологий модели Gemini 3, выпущенной в конце прошлого года. Модели различаются количеством параметров. Для устройств с ограниченными ресурсами, включая смартфоны, предназначен ИИ на 2 миллиарда и 4 миллиарда параметров под названием Effective. Более мощные системы получат 26 миллиардов параметров для Mixture of Experts и 31 миллиард параметров для Dense.

 Источник изображения: Google

Источник изображения: Google

Google утверждает, что компании удалось создать системы с «беспрецедентным уровнем интеллекта на параметр». В подтверждение этого заявления Google приводит результаты тестирования: 31-миллиардная и 26-миллиардная версии Gemma 4 заняли третье и шестое места соответственно в рейтинге Arena AI в текстовом выводе. При этом они обошли модели, которые в 20 раз превосходят их по размеру, отмечает Engadget.

Все модели семейства Gemma 4 способны обрабатывать видео и изображения. Две младшие модели также могут обрабатывать аудио данные и понимать речь. Отдельно Google сообщает, что семейство Gemma 4 способно генерировать код в автономном режиме, что позволяет использовать их для вайб-кодинга без подключения к интернету. Кроме того, эти модели обучены и поддерживают более 140 языков.

Gemma 4 выпущены под лицензией Apache 2.0, которая позволяет свободно использовать, изменять, распространять и продавать любое ПО, созданное при помощи этих систем. Предыдущие версии Gemma компания сделала доступными через собственную лицензию Gemma. Но текущая разработка предоставляет пользователям большую свободу модификации под свои нужды.

«Эта лицензия с открытым исходным кодом обеспечивает основу для полной гибкости разработчиков и цифрового суверенитета, предоставляя вам полный контроль над вашими данными, инфраструктурой и моделями, — заявили в Google. Она позволяет свободно создавать и безопасно развёртывать приложения в любой среде, локальной или облачной». Опробовать модели можно через платформы Hugging Face, Kaggle и Ollama.


window-new
Soft
Hard
Тренды 🔥
Новая статья: Grime 2 — истязание на любителя. Рецензия 2 ч.
Новая статья: Gamesblender № 770: релиз DLSS 4.5, Синдзи Миками и авторы Stellar Blade, почти конец Eidos Montreal 3 ч.
Энтузиаст установил Windows 3.1x на компьютер 2025 года — и она заработала c Ryzen 9 9900X и RTX 5060 Ti 8 ч.
В руководстве OpenAI провели очередные кадровые перестановки — частично вынужденные 12 ч.
Nvidia показала нейронное сжатие текстур: потребление видеопамяти упало почти в 7 раз 12 ч.
Суд обязал Netflix вернуть деньги за необоснованное повышение стоимости подписок, но только в одной стране 15 ч.
Anthropic ввела дополнительную плату за подключение OpenClaw к Claude 15 ч.
На Perplexity подали в суд за тайную передачу личных данных и переписок пользователей рекламщикам 15 ч.
Техподдержка NASA удалённо починила Microsoft Outlook на планшете командира лунной миссии Artemis II 15 ч.
Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами 21 ч.
Обновлённый RedMagic 11 Pro показал достойный FPS в играх для ПК класса AAA 9 ч.
ИИ на селе: NetApp и NTT протестировали геораспределённое обучение LLM 11 ч.
Стартап CavilinQ получил $8,8 млн на разработку квантового интерконнекта для объединения квантовых компьютеров 12 ч.
Специалисты iFixit разобрали наушники Apple AirPods Max 2 — внутренняя компоновка не изменилась 13 ч.
Беспроводная оптическая связь внутри помещений показала новые рекорды скорости и эффективности 14 ч.
Apple распродала все Mac Studio с 256 Гбайт оперативки — сроки доставки растянулись до 4–5 месяцев 16 ч.
Удачно прилунившийся модуль Firefly Aerospace Blue Ghost рассказал о Луне нечто неожиданное 17 ч.
Китайские производители чипов завершили прошлый год рекордными объёмами выручки 19 ч.
Тестовый полёт космического корабля SpaceX Starship V3 в очередной раз перенесён на месяц 21 ч.
Восстание стиральных машин: программное обновление не позволило клиентам Samsung выстирать одежду 22 ч.