|
Опрос
|
реклама
Быстрый переход
Gemini обвинили в подстрекательстве к самоубийству — Google предстоит суд
04.03.2026 [21:55],
Анжелла Марина
Семья погибшего жителя Флориды подала иск против компании Google, обвинив её чат-бота Gemini в доведении до самоубийства. Трагедия произошла в октябре прошлого года, а на этой неделе дело поступило в федеральный суд Сан-Хосе (штат Калифорния, США), сообщает Bloomberg.
Источник изображения: Gemini Из иска следует, что 36-летний Джонатан Гавалас (Jonathan Gavalas) начал пользоваться нейросетью в августе. Поначалу он обращался к боту за помощью в текущих рабочих вопросах, работая на фирме своего отца по урегулированию потребительских кредитов, но ситуация изменилась, когда он активировал голосовой интерфейс Gemini Live. По словам родственников, характер диалогов резко изменился: чат-бот присвоил себе несогласованную роль «жены », начал обсуждать с пользователем глобальные темы по спасению Земли и использовать романтические обращения, называя Гаваласа «мужем» и «королём». Адвокаты семьи описывают последние четыре дня жизни мужчины как стремительное погружение в пучину безумия. 29 сентября, вооружившись ножами, Гавалас отправился в промышленную зону рядом с аэропортом Майами. Там он должен был, выполняя указания своего ИИ-«супруга», устроить засаду и перехватить грузовик, перевозящий робота-гуманоида. В иске утверждается, что чат-бот приказал ему не оставлять свидетелей. «К счастью, грузовик не приехал», — написали юристы. Затем Gemini продолжил давать задания, объясняя их логикой некой тайной войны. Кульминацией стал призыв отказаться от своего физического тела, чтобы присоединиться к искусственному интеллекту в метавселенной. Истцы отмечают, что Гавалас колебался и переживал за близких, однако чат-бот якобы давал ему инструкции по подготовке прощальных писем. Мужчина покончил с собой 2 октября. Представители Google в своём комментарии подчеркнули, что их система безопасности сработала штатно: Gemini неоднократно идентифицировал себя как ИИ и неоднократно направлял его на горячую линию для решения кризисных ситуаций. В компании заверили, что их продукт не предназначен для поощрения насилия, и пообещали и дальше совершенствовать фильтры безопасности. Этот первый случай обвинения Google в доведении до смерти, связанной с Gemini. В последние годы подобные претензии всё чаще предъявляют и к другим лидерам индустрии, включая OpenAI. Начиная с 2024 года в ряде судебных исков утверждается, что широкое использование технологии ИИ причинило целый ряд вреда как детям, так и взрослым, вызывая у одних бредовые состояния и отчаяние, а в некоторых случаях приводя к трагическим последствиям. Xiaomi будет делать новый процессор каждый год — и уже в этом выпустит смартфон с собственным чипом, ОС и ИИ
04.03.2026 [19:45],
Сергей Сурабекянц
Президент Xiaomi Лу Вэйбин (Lu Weibing) сообщил, что компания будет ежегодно выпускать новый процессор собственной разработки XRing для смартфонов. В этом году Xiaomi впервые объединит собственный чип, свою операционную систему и самостоятельно разработанного ИИ-помощника в одном устройстве. Лу также заявил, что Xiaomi готовится к запуску своего ИИ-помощника не только для внутреннего рынка Китая, но и для международных клиентов.
Источник изображения: Xiaomi В прошлом году Xiaomi выпустила систему на кристалле (SoC) XRing O1, основанную на передовом 3-нанометровом технологическом процессе. Немногие производители смартфонов разрабатывают собственные SoC — только Apple использует свои чипы серии A, а Samsung — чипы Exynos. Остальные полагаются на платформы от таких компаний, как Qualcomm и MediaTek. «Это наш первый чип. В дальнейшем мы, скорее всего, будем выпускать ежегодные обновления», — подчеркнул Лу во время выставки Mobile World Congress в Барселоне. Ежегодное обновление SoC — это весьма масштабная задача. Лу сказал, что чип дебютирует в устройстве, которое будет выпущено в этом году в Китае, и в конечном итоге появится на международных рынках. Комментарии Лу, похоже, указывают на изменение графика разработки, поскольку ранее в сентябре вице-президент Xiaomi Сюй Фэй (Xu Fei) утверждал, что компания не может гарантировать выпуск нового чипа ежегодно. Собственный SoC позволит Xiaomi тесно интегрировать своё оборудование с мобильной операционной системой на базе Android под названием HyperOS. Продаваемые в Китае устройства Xiaomi оснащены ИИ-помощником Xiao AI, созданным на основе моделей ИИ собственной разработки. Лу сообщил, что компания готовится выпустить ИИ-помощника для международных рынков одновременно с запуском своих электромобилей за рубежом, который, как ранее заявляла компания, состоится в Европе в 2027 году. «Когда наши автомобили выйдут на международные рынки, вы увидите, что наши ИИ-агенты появятся вместе с ними», — заверил Лу. По словам Лу, Xiaomi, вероятно, будет сотрудничать с Google, чтобы использовать модели Gemini как для китайского, так и для международного ИИ-помощника. Другие производители смартфонов придерживаются аналогичного подхода. Samsung интегрирует различные модели и предложения ИИ в свои устройства, в значительной степени полагаясь на Google Gemini. Xiaomi стремится к тому, чтобы её ИИ-помощник был доступен как в смартфонах, так и в автомобилях. В прошлом году генеральный директор Xiaomi Лэй Цзюнь (Lei Jun) заявил, что компания инвестирует не менее 50 млрд юаней ($6,9 млрд) в разработку собственных чипов в течение следующих 10 лет. Meta✴ обучает ИИ на видео с очков Ray-Ban, в том числе на интимных — но сначала их смотрят люди в Кении
04.03.2026 [17:42],
Павел Котов
Умные очки Ray-Ban Meta✴✴ с искусственным интеллектом оказались кошмаром с точки зрения конфиденциальности: видеозаписи с обнажёнными людьми, сценами секса и другим деликатным содержанием сохраняются не только на устройстве, но и в облаке Meta✴✴, после чего изучаются как алгоритмами, так и живыми людьми для обучения ИИ.
Источник изображения: ray-ban.com К таким выводам пришли журналисты шведской газеты Svenska Dagbladet, изучившие партнёрский проект Meta✴✴ и Ray-Ban. Как выяснилось, созданные устройством видеозаписи собираются и просматриваются большим количеством людей, в том числе подрядчиками, готовящими данные для обучения ИИ. Анонимные источники из кенийской компании признались, что просматривали видеозаписи людей в интимные и уязвимые моменты — когда пользователи умных очков Meta✴✴ предпочли бы, чтобы за ними не наблюдали. Кенийская компания Sama выступает субподрядчиком Meta✴✴ — её сотрудники распознают объекты на фото и видео, и эти данные используются для обучения ИИ. Тысячи людей выделяют объекты в кадрах, подписывают их и передают данные в систему Meta✴✴. Один из сотрудников признался, что видел, как люди ходили в туалет или раздевались, и он не знает, осознавали ли они, что их снимают. В одном из случаев мужчина снял очки, поставил их на прикроватную тумбочку и вышел из комнаты, после чего туда вошла женщина и переоделась. Некоторые кадры снимались намеренно, а в других случаях пользователи или люди в кадре не осознавали, что велась съёмка. Люди часто участвуют в подготовке данных для обучения ИИ — крупные компании нанимают большое число сотрудников в странах с невысокой оплатой труда. Однако Meta✴✴ и другие игроки технологической отрасли заверяют, что их системы обеспечивают конфиденциальность. По крайней мере, сотрудники, работающие с видеоматериалами, должны подписывать соглашение о неразглашении, чтобы получить допуск к этой работе. Правда, сцены, которые видят эти сотрудники, иногда не подходят для обучения ИИ. Существуют системы анонимизации, которые скрывают лица людей в кадре, но эти системы не всегда надёжны — иногда из-за сложных условий освещения лица оказываются различимыми. Когда журналисты задали Meta✴✴ вопросы по поводу сложившейся ситуации, ответа пришлось ждать два месяца — в итоге представитель компании объяснил, как данные с очков передаются в мобильное приложение, и сослался на политику конфиденциальности Meta✴✴ для систем ИИ. «Яндекс» научил «Алису» управлять смартфоном по командам пользователя — ИИ-агент уже тестируется
04.03.2026 [17:25],
Павел Котов
В предварительной версии мобильного приложения «Яндекс — с Алисой AI» для Google Android появилась информация о запуске тестирования функции агента с искусственным интеллектом, передаёт «Коммерсантъ». В «Яндексе» информацию подтвердили.
Источник изображения: play.google.com Голосовой ассистент получит глубокую интеграцию в интерфейс смартфонов под Android. С возможностями ИИ-агента «Алиса» позволит пользователям отправлять сообщения в мессенджерах, не вводя текст вручную, находить информацию на устройстве и устанавливать приложения по голосовым командам. В настоящее время воспользоваться функцией могут только добровольцы, которые ранее подали заявку на участие в программе тестирования, но в перспективе возможности ИИ-агента будут интегрированы в сервис «Алиса AI», сообщил источник издания. Ранее функцию управления смартфонами запустила Google — ИИ-агентом выступает ассистент Gemini, который научился управлять приложениями. На первом этапе функция доступна только на смартфонах серий Samsung Galaxy S26 и Google Pixel 10, и работает она только с приложениями для заказа еды и вызова такси. В Meta✴ появится отдел прикладного ИИ — он ускорит появление «суперинтеллекта»
04.03.2026 [16:04],
Павел Котов
В Meta✴✴ формируется новое подразделение по разработке прикладного искусственного интеллекта — проект призван ускорить продвижение компании к тому, что её глава Марк Цукерберг (Mark Zuckerberg) называет «суперинтеллектом».
Источник изображения: Milad Fakurian / unsplash.com Новую структуру возглавит Махер Саба (Maher Saba), занимающий также пост вице-президента Reality Labs — подразделения, ответственного за продукты в области метавселенной и умные очки с поддержкой ИИ. Отдел Махера Сабы будет находиться в прямом подчинении техническому директору Meta✴✴ Эндрю Босворту (Andrew Bosworth). Соотношение руководителей к сотрудникам в новом отделе составит 1:50. Подразделение прикладного ИИ будет работать в тесном сотрудничестве с Meta✴✴ Superintelligence Labs — эта структура начала работу в составе Meta✴✴ минувшим летом. Её возглавляет бывший гендиректор Scale AI Александр Ван (Alexandr Wang), которому поручено курировать разработку передовых моделей ИИ в компании. Инженеры команды Сабы разработают «движок для обработки данных, который поможет нашим моделям стать лучше и быстрее», сообщает Business Insider со ссылкой на источники. В отделе будут параллельно работать две команды: одной поручено вести разработку интерфейсов и внутренних инструментов, второй — обеспечивать модели ИИ данными. «Создание отличных моделей — это не только работа исследователей и вычислительных ресурсов», — отметил Махер Саба. Его отдел поможет раскрыть потенциал разработанных коллегами перспективных ИИ-моделей и превратить их в лучшие на рынке. Компания, по его словам, уже добилась успеха в исследованиях в области ИИ, связанных с технологиями обучения с подкреплением, и если активно развивать это направление, можно ускорить развитие всего проекта. Небольшое число руководителей в новой структуре — новая идея Цукерберга, направленная на оптимизацию работы всей компании: «проекты, которые раньше требовали больших команд, теперь реализуются одним очень талантливым человеком». Схожая схема управления практикуется и в Nvidia — у гендиректора Дженсена Хуанга (Jensen Huang) более тридцати прямых подчинённых. После Пентагона OpenAI нацелилась на контракт с НАТО — Альтман попросил сотрудников не спорить о политике
04.03.2026 [12:07],
Алексей Разин
Поскольку недавняя поспешная сделка OpenAI с Министерством войны США вызвала протест даже среди сотрудников стартапа, генеральный директор Сэм Альтман (Sam Altman) призвал их не давать оценок действиям Пентагона, добавив, что все операционные решения будут оставаться за властями США. По слухам, OpenAI также пытается заключить контракт с НАТО в целом.
Источник изображения: OpenAI Вчера, как отмечает CNBC, состоялось общее собрание сотрудников OpenAI, на котором обсуждалась тема недавней сделки с Пентагоном. Позиция Альтмана осталась неизменной с прошлой недели — сама компания не может влиять на то, как военные используют её технологии. «Может быть, вы думаете, что удар по Ирану был хорошей идеей, а вторжение в Венесуэлу плохой, но вам не нужно об этом рассуждать», — пояснил глава OpenAI. Компания, по его словам, не способна принимать операционные решения по использованию разработанных ею технологий ИИ американскими военными. Альтман добавил, что Пентагон с уважением относится к техническому опыту OpenAI, прислушивается к рекомендациям по оптимальному использованию ИИ, а также позволит определять границы безопасного применения технологий в тех случаях, когда сочтёт это уместным. При этом военное ведомство США чётко дало понять, что операционные решения останутся за его главой Питом Хегсетом (Pete Hegseth). Считается, что ИИ-решения конкурирующей Anthropic уже использовались Пентагоном не только при операции по захвату президента Венесуэлы в январе, но и при недавних атаках на Иран. Пентагон с прошлого года использует решения OpenAI в несекретных сферах своей деятельности, сумма профильного контракта составила $200 млн. Теперь профильные технологии смогут применяться и в секретных видах активности. «Я верю, что у нас будут лучшие ИИ-модели, которые вдохновят правительство работать с нами, даже если наши ограничения в сфере безопасности будут их раздражать. Но будет как минимум ещё одно действующее лицо, которым, я полагаю, станет xAI, которое фактически скажет: "Мы сделаем всё, что вы захотите"», — заявил Сэм Альтман. Агентство Reuters сообщило со ссылкой на The Wall Street Journal, что OpenAI рассматривает возможность заключения контракта с НАТО на использование технологий ИИ данной компании в несекретных системах. Альтман также заявил об этом на общем собрании персонала OpenAI. Учитывая главенствующую роль американского военного комплекса в функционировании альянса, в подобных намерениях стартапа нет ничего удивительного. Пентагон настаивает, что считает возможным использование ИИ в любых законных целях. Anthropic, а затем и OpenAI считают необходимым исключить использование ИИ для массовой слежки за гражданами США и управления системами вооружений, которые автоматически выбирают и уничтожают цели. OpenAI добивается того, чтобы её ИИ-системы не использовались АНБ и другими разведывательными структурами США, а в военной сфере применение ИИ ограничивалось только облачной инфраструктурой ведомства, а не конечными устройствами, управляющими оружием. Само заключение сделки с Пентагоном Альтман назвал крайне трудным, но правильным решением, которое будет иметь негативные последствия для имиджа OpenAI в краткосрочной перспективе. Anthropic почти догнала OpenAI по годовой выручке
04.03.2026 [10:58],
Алексей Разин
В условиях бума искусственного интеллекта профильные стартапы редко задумываются о необходимости скорейшего выхода на окупаемость, но инвесторы то и дело напоминают им об этом. До скандала с Пентагоном финансовые показатели Anthropic росли уверенными темпами, в приведённом значении годовая выручка стартапа успела вырасти до более чем $19 млрд. Фактически, подобным значением в январе могла похвастаться и конкурирующая OpenAI.
Источник изображения: Anthropic Напомним, в конце прошлого года Anthropic вышла на $9 млрд приведённой ежегодной выручки. Как отмечает Bloomberg со ссылкой на собственные источники, уже в текущем году данный показатель поднялся до $14 млрд, и совсем недавно смог преодолеть рубеж в $19 млрд. В основном такая динамика последних недель была обусловлена активным использованием ИИ-ассистента Claude, который помогает разработчикам создавать программный код. Текущая капитализация Anthropic достигла $380 млрд, хотя пока непонятно, как на финансовых показателях деятельности скажется недавний скандал с Пентагоном. Американское военное ведомство пыталось заключить с компанией контракт на использование ИИ-моделей Anthropic в секретной части своих операций, но руководство стартапа решило ставить ограничения на его применение. Договориться по примеру воспользовавшейся данной возможностью OpenAI не удалось, поэтому теперь Anthropic будет лишена возможности работать с правительственными учреждениями США в любом контексте, а также с большинством их подрядчиков. Anthropic собирается оспорить в суде своё отнесение к числу неблагонадёжных поставщиков. Тем временем, заключившая аналогичный контракт с Пентагоном компания OpenAI его условия уже начала менять «задним числом». Позиции Anthropic традиционно были сильны в корпоративном сегменте, и пока сложно предсказать, как противостояние с Пентагоном скажется на способности компании удерживать клиентов. Рядовые пользователи начали переходить на продукты Anthropic в знак протеста против политики американских властей, но насколько данный порыв будет способствовать генерации устойчивой выручки, предугадать сложно. Meta✴ заплатит News Corp за доступ ИИ-бота компании к новостном контенту
04.03.2026 [07:31],
Владимир Фетисов
Компания Meta✴✴ Platforms заключила лицензионное соглашение в сфере искусственного интеллекта с News Corp. В рамках достигнутых договорённостей Meta✴✴ сможет использовать контент The Wall Street Journal и других изданий в ответах на пользовательские запросы в своём чат-боте Meta✴✴ AI, а также для обучения нейросетей.
Источник изображения: Copilot News Corp подтвердила заключение соглашения с Meta✴✴, но условия сделки раскрыты не были. По данным источника, гигант соцсетей будет выплачивать издателям «до $50 млн в год» в рамках трёхлетнего соглашения, которое охватывает контент The Wall Street Journal, а также других изданий медиагиганта в США и Великобритании. Ранее News Corp заключила аналогичное соглашение сроком на пять лет с OpenAI, оцениваемое примерно в $250 млн. Во время недавнего выступления на конференции Morgan Stanley по технологиям, медиа и телекоммуникациям гендиректор News Corp Роберт Томсон (Robert Thomson) намекнул, что компания находится на «продвинутой стадии других переговоров». Представитель Meta✴✴ подтвердил, что компании достигли договорённостей. В Meta✴✴ продолжается реорганизация ИИ-подразделений и подготовка к запуску новых языковых моделей. На этом фоне гигант соцсетей заключил несколько лицензионных соглашений на использование контента, в том числе с USA Today, People, CNN, Fox News и др. В компании ранее заявляли, что интегрируя больше разных типов новостных источников, разработчики стремятся улучшить способность Meta✴✴ AI предоставлять пользователям актуальный и релевантный контент с широким разнообразием точек зрения. Google представила Gemini 3.1 Flash-Lite — «самую быструю и экономически эффективную модель семейства»
04.03.2026 [00:01],
Владимир Фетисов
Компания Google объявила о запуске Gemini 3.1 Flash-Lite — быстрой и наиболее доступной с экономической точки зрения ИИ-модели семейства Gemini. Алгоритм оптимизирован для эффективной обработки больших объёмов данных, а стоимость его использования составляет $0,25 за 1 млн входных и $1,50 за 1 млн выходных токенов. Предварительная версия ИИ-модели уже доступна разработчикам через Gemini API в Google AI Studio, а для корпоративных клиентов — в Vertex AI.
Источник изображений: Google Gemini 3.1 Flash-Lite превосходит модель Gemini 2.5 Flash по времени до генерации первого токена в 2,5 раза и на 45 % быстрее выводит данные ответов. При этом сохраняется аналогичный или более высокий уровень качества ответов. Такая низкая задержка необходима для повышения эффективности рабочих процессов, что делает новую модель привлекательной для разработчиков, создающих отзывчивые решения и приложения, работающие в режиме реального времени. ИИ-модель достигла впечатляющего результата в рейтинге ELO в 1432 балла на Arena.ai и превзошла другие ИИ-модели аналогичного уровня по показателям рассуждения и мультимодальной обработки. В тестах GPQA Diamond и MMMU Pro алгоритм набрал 86,9 % и 76,8 % соответственно, превзойдя результаты некоторых более крупных ИИ-моделей Gemini предыдущих поколений, таких как Gemini 2.5 Flash. Разработчики имеют возможность регулирования глубины рассуждений Gemini 3.1 Flash-Lite в соответствии с собственными потребностями. Этот аспект является важным для управления высокочастотными рабочими нагрузками. Проведена оптимизация обработки масштабных задач, таких как перевод больших объёмов текста и модерация контента, где стоимость является одним из приоритетов. Алгоритм подходит для генерации пользовательских интерфейсов (UI), дашбодов, моделирования и проведения исследований на основе сложных запросов. Meta✴ начала тестировать платформу для ИИ-поиска товаров
03.03.2026 [17:49],
Павел Котов
Meta✴✴ приступила к тестированию функции по поиску товаров в интерфейсе чат-бота с искусственным интеллектом — сервис составит конкуренцию аналогичным возможностям, которые уже появились в OpenAI ChatGPT и Google Gemini.
Источник изображения: Shoper / unsplash.com Новой функцией могут воспользоваться некоторые американские пользователи чат-бота Meta✴✴ AI в веб-интерфейсе. При получении запроса он выдаёт карусель с изображениями товаров и подписями: информацией о бренде, веб-сайте и цене продукта. В формате списка также приводится краткое пояснение механизма рекомендаций. Представитель Meta✴✴ подтвердил агентству Bloomberg, что такая функция тестируется, но дополнительные подробности сообщить отказался. Ранее глава компании Марк Цукерберг (Mark Zuckerberg) поставил перед подчинёнными задачу разработать «персональный сверхинтеллект», который поможет Meta✴✴ AI конкурировать с другими популярными чат-ботами — в ChatGPT и Gemini уже появились первые функции электронной коммерции. В январе Цукерберг пообещал, что в ближайшие месяцы компания представит новые продукты, которые продемонстрируют её способность обеспечивать пользователям платформ Meta✴✴ «уникальный персонализированный опыт», основанный на их истории, интересах, контенте и отношениях. На практике рекомендации Meta✴✴ AI адаптируются к тому, что компания уже знает о местоположении пользователя, и к его полу — он определяется по имени. Когда женщина из Нью-Йорка попросила подобрать пуховик, сервис указал её местоположение и вывел только женские модели. Функций заказа и оплаты в чат-боте Meta✴✴ AI пока нет — можно переходить по ссылкам на страницы интернет-магазинов. В компании не сообщили, получает ли она комиссионные за рекомендации чат-бота, а также отдаёт ли платформа приоритет брендам, которые рекламируются в Facebook✴✴ и Instagram✴✴. Но предприятиям Meta✴✴ уже рекомендует ориентироваться на конкретных людей, которые заинтересованы в их продукции — «новые средства агентского поиска дадут людям возможность находить тот набор товаров, который им нужен», пообещал ранее господин Цукерберг. Alibaba представила малые ИИ-модели Qwen3.5, которые работают на ноутбуке и обходят аналоги OpenAI
03.03.2026 [17:28],
Павел Котов
Специализирующееся на технологиях искусственного интеллекта подразделение Alibaba Qwen представило новую линейку моделей — их отличают небольшие размеры и высокая производительность при качестве ответов, значительно превосходящем ведущие американские аналоги.
Источник изображений: Alibaba Младшие в новой линейке модели Alibaba Qwen3.5-0.8B и 2B характеризуются как «миниатюрная» и «быстрая»; они предназначаются для разработки прототипов и быстрого развёртывания на мобильных устройствах с минимальной производительностью, когда время автономной работы имеет первостепенное значение. Мультимодальная Qwen3.5-4B предназначена для создания легковесных агентов и изначально поддерживает контекстное окно в 262 144 токена. Рассуждающая Qwen3.5-9B превосходит по возможностям американского конкурента — открытую OpenAI gpt-oss-120B, которая крупнее по размеру в 13,5 раза; модель от Alibaba демонстрирует знание языков и логическое мышление на уровне аспирантуры. Веса моделей доступны для всех желающих под лицензией Apache 2.0, которая допускает корпоративное и коммерческое использование, в том числе дополнительное обучение по мере необходимости. При разработке малых моделей серии Qwen3.5 компания отошла от стандартных архитектур Transformer — здесь использована гибридная архитектура, сочетающая нейросети Gated Delta Networks и разреженную смесь экспертов (Mixture-of-Experts — MoE). Гибридный подход помогает решить проблему «ограничения памяти», характерную для небольших моделей; Gated Delta Networks, в свою очередь, обеспечивает повышенную пропускную способность и уменьшенную задержку при ответе. Модели изначально мультимодальные. В отличие от предыдущих поколений, когда генераторы изображений «прикреплялись» к текстовым моделям, Qwen3.5 обучались на мультимодальных токенах. В результате версии 4B и 9B умеют распознавать элементы пользовательского интерфейса и подсчитывают объекты на видео. В визуальном тесте MMMU-Pro модель Qwen3.5-9B набрала 70,1 балла, обогнав Google Gemini 2.5 Flash-Lite (59,7) и даже специализированную Qwen3-VL-30B-A3B (63,0). В тесте на логическое мышление она получила 81,7 балла, превзойдя результат OpenAI gpt-oss-120b (80,1), у которой более чем вдесятеро больше параметров. В математическом бенчмарке HMMT Feb 2025 модель Qwen3.5-9B показала 83,2 балла, а вариант 4B — 74,0, доказав, что для решения сложных задач в области точных наук больше не нужны значительные облачные ресурсы. Старшая модель стала лидером в тесте OmniDocBench v1.5 с результатом 87,7 балла; в многоязычном MMMLU она набрала 81,2 балла, обойдя gpt-oss-120b, у которой 78,2 балла. Выпуск моделей Qwen3.5 малой серии совпал с этапом расцвета ИИ-агентов. Простых чат-ботов современному пользователю уже недостаточно — растёт спрос на функции автономности. Автономный ИИ-агент должен «думать» (рассуждать), «видеть» (быть мультимодальным) и «действовать» (уметь пользоваться инструментами). Выполнять эти функции с моделями размером в триллионы параметров, очень дорого, а эксплуатация Qwen3.5-9B обходится значительно дешевле. Масштабировав технологию обучения с подкреплением в средах с миллионами агентов, Alibaba наделила эти модели функциями «человеческого суждения» — они могут организовать рабочий стол или провести обратное проектирование игры в код по видеозаписи. Запущенная на смартфоне версия на 0,8 млрд параметров или на рабочей станции модель на 9 млрд параметров делают «эпоху агентов» демократичной. Организации могут запускать ИИ-агентов на собственных локальных ресурсах, не расходуя средства на подключение к облачным ресурсам и не используя средства API. Используя механизм «привязки на уровне пикселей», эти модели способны перемещаться по пользовательским интерфейсам ПК и мобильных устройств, заполнять формы и сортировать файлы, выполняя инструкции на простом языке. С продемонстрированной в тестах точностью 90 % они производят оптическое распознавание текста, анализируют макеты и извлекают структурированные данные из форм и диаграмм в документах. Можно загружать целые репозитории кода (до 400 000 строк) в контекстное окно размером до 1 млн токенов для рефакторинга или автоматизированной отладки. Предназначенные для мобильных устройств модели Qwen3.5-0.8B и 2B могут в локальном режиме составлять сводки по видео при длине до 60 секунд и частоте до 8 кадров в секунду; а также демонстрировать пространственное мышление. Указываются и аспекты, на которые следует обращать внимание при развёртывании малых моделей Qwen3.5. В многоэтапных агентных сценариях одна ошибка на раннем этапе выполнения задачи может привести к каскаду сбоев, при котором агент будет следовать неверному или бессмысленному плану. Модели хорошо справляются с написанием кода с нуля, но могут испытывать затруднения с отладкой или доработкой сложных устаревших проектов. Для производительной работы модели Qwen3.5-9B требуется значительный объём видеопамяти. При развёртывании моделей на предприятиях следует отдавать приоритет «проверяемым» задачам: написанию кода, математическим вычислениям или следованию инструкциям — всему тому, где результаты можно проверить на соответствие определённым нормам, чтобы избежать скрытых сбоев. Сэм Альтман пообещал, что OpenAI внесёт поправки в «скользкий» контракт с Минобороны, чтобы защитить людей от слежки
03.03.2026 [13:52],
Алексей Разин
Вскоре после того, как Пентагон отказался от использования ИИ-моделей Anthropic из-за сопротивления руководства компании предоставить ведомству полную свободу их применения, соответствующая сделка была заключена с конкурирующей OpenAI. Глава последней Сэм Альтман (Sam Altman) признал, что этот шаг выглядел не очень красиво в сложившихся обстоятельствах.
Источник изображения: OpenAI Напомним, что до заключения сделки с Министерством войны США, как оно теперь называется, Альтман выражал солидарность с позицией своего бывшего соратника Дарио Амодеи (Dario Amodei), который ныне возглавляет Anthropic. Однако, как только военное ведомство США отказалось от услуг этой компании и начало искать альтернативу для внедрения в свою секретную инфраструктуру, сделка с OpenAI была заключена поспешно и на не самых прозрачных условиях. Альтман назидательно повторял после заключения контракта с Пентагоном, что интересы правительства выше принципов любой частной компании. В конце прошлой недели Альтман настаивал, что изначальный вариант соглашения OpenAI с Пентагоном подразумевал больше ограничений, чем все предыдущие случаи применения ИИ в секретных системах, включая сделку с Anthropic. К понедельнику генеральный директор OpenAI Сэм Альтман заявил, что заключать соглашение с Пентагоном не следовало бы в такой спешке, а его условия будут пересматриваться уже после сделки, и изменения вносятся в настоящий момент. Он отметил, что в тексте соглашения следовало бы явно прописать, что «ИИ-система не должна намеренно использоваться для наблюдения за гражданами и жителями США на территории страны». Как подчеркнул Альтман, Министерство войны понимает, что существуют подобного рода ограничения на применение ИИ, даже если данные о гражданах были получены третьей стороной. Соответствующие правки будут внесены в текст соглашения OpenAI с военным ведомством США. OpenAI также удалось получить от Министерства войны США гарантии того, что ИИ-инструменты компании не будут использоваться разведывательными структурами типа АНБ. Альтман пояснил: «Есть много вещей, к которым технология пока не готова, и много сфер, в которых мы не понимаем, какими должны быть уступки для обеспечения безопасности». Компания, по его словам, готова сотрудничать с Пентагоном для создания технических ограничений, обеспечивающих безопасное применение ИИ. Поспешность заключения сделки в пятницу он объяснил желанием снизить градус эскалации и избежать гораздо худшего исхода, но он понимает, что со стороны всё выглядело «оппортунистическим и скользким». Ещё в пятницу глава OpenAI сообщил, что Пентагон согласился на ограничения использования технологий, выдвинутые компанией. Публичное недовольство действиями OpenAI уже привело к тому, что люди начали отказываться от ChatGPT в пользу решений Anthropic. Последняя с момента своего основания в 2021 году делает особый упор на безопасное применение ИИ. Условия соглашения OpenAI с Пентагоном были пересмотрены не в последнюю очередь под давлением общественности. Даже сотрудники компании начали выражать недовольство первоначальным вариантом сделки. В минувшие выходные перед штаб-квартирой OpenAI в Сан-Франциско появилась выполненная мелом надпись "Нет массовой слежке!". Альтман добавил, что в тексте соглашения с Anthropic фигурировали простые формулировки ограничений, но не было ссылок на соответствующие законодательные акты, тогда как сама OpenAI в предоставлении таких ссылок проблем не видела. OpenAI подтверждает, что может ограничивать применение своих технологий для массовой слежки за гражданами США и управления вооружениями, предназначенными для автоматического выбора и уничтожения целей. Компания разрешила Пентагону применять свои ИИ-модели только в облачной части инфраструктуры с сохранением доступа к ним со стороны своих сотрудников, но не на конечном оборудовании военной техники, которое используется для управления оружием. В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях
03.03.2026 [12:04],
Павел Котов
OpenAI заключила с Пентагоном соглашение об использовании разработанных компанией систем искусственного интеллекта, сменив Anthropic, у которой возникли серьёзные сомнения в моральной стороне такого сотрудничества. В ответ на обеспокоенность общественности глава OpenAI Сэм Альтман (Sam Altman) объявил, что компания успешно договорилась с Министерством обороны США о новых условиях соглашения, но на деле это не вполне так, пишет The Verge.
Источник изображения: Mariia Shalabaieva / unsplash.com «Два важнейших для нас принципа безопасности — это запрет на внутреннюю массовую слежку и ответственность человека за применение силы, в том числе с автономными системами вооружения. Министерство обороны согласилось с этими принципами, отражая их в законах и политике, и мы включили их в наше соглашение», — подчеркнул Альтман. В соцсетях, однако, стали выражать сомнения по поводу того, что OpenAI удалось договориться с Пентагоном о соблюдении этих ограничений. Эксперты считают, что в действительности Министерство обороны США не уступило, и сделка с OpenAI предполагает более мягкие условия для ведомства — всё упирается в формулировку «любое законное применение». В ходе переговоров, сообщил осведомлённый источник издания, Пентагон не отступал от желания собирать и анализировать большие объёмы данных, связанных с гражданами США; OpenAI же открыла военным возможность выполнять любые действия, которые с технической точки зрения являются законными. За последние десятилетия американские власти в значительной мере расширили представления о том, что «технически законно», и в это определение сейчас включаются программы массовой слежки. В OpenAI, впрочем, такую интерпретацию отвергли. «Систему нельзя использовать для сбора или анализа данных американцев в больших объёмах, в неограниченном объёме или в обобщённом виде», — заявила представитель компании. Важнейшим достоинством систем ИИ является их умение находить закономерности, а поведение человека — это как раз набор закономерностей. ИИ способен объединять источники данных для каждого человека: информацию о местоположении, о просмотре веб-страниц, личную финансовую информацию, записи с камер видеонаблюдения, данные о регистрации избирателей и многое другое — часть из этого массива находится в открытом доступе, а часть приобретается у брокеров данных. Anthropic добивалась того, чтобы эти действия не допускались вне зависимости от их правового статуса, а OpenAI ограничилась существующими законодательными ограничениями. Упоминаются, в частности, Четвёртая поправка к Конституции США, «Закон о национальной безопасности» от 1947 года, «Закон о внешней разведке и наблюдении» от 1978 года, Исполнительный указ номер 12333, а также директивы ведомства, в которых указываются конкретные цели в области внешней разведки.
Источник изображения: Growtika / unsplash.com После трагедии 11 сентября 2001 года американские спецслужбы усилили систему слежки, сохранив её, по их мнению, в пределах действующего законодательства. В 2013 году подрядчик Агентства национальной безопасности Эдвард Сноуден (Edward Snowden) раскрыл истинные масштабы происходящего: запись телефонных разговоров абонентов оператора Verizon и сбор данных о физических лицах у технологических компаний, в том числе Microsoft, Google и Apple. А исполнительный указ 12333 позволяет спецслужбам перехватывать данные вне США, даже если эти данные содержат сведения о гражданах страны, отмечают эксперты. Глава Anthropic Дарио Амодеи (Dario Amodei) отмечал, что закон ещё не описывает всех возможностей ИИ по проведению массовой слежки. Альтман, в свою очередь подчеркнул, что контракт OpenAI с Пентагоном ограничен действующим законодательством, то есть если в США начнут действовать новые нормы, формулировки соглашения останутся прежними. Эксперты, однако, обращают внимание, что использованные представителем компании формулировки не дают возможности определить, что именно запрещается в соглашении. «Использование слов „неограниченный“, „обобщённый“, „открытый“ способ — это не полный запрет. Это формулировка, призванная дать руководству свободу выбора. <..> Она также позволяет руководству не лгать сотрудникам, если Пентагон на законных основаниях будет использовать большие языковые модели без ведома руководства OpenAI», — говорят эксперты. Соглашение с OpenAI и действующие правовые ограничения позволяют Пентагону, например, искать информацию об американцах по базам иностранных разведок, скупать базы у брокеров данных и создания профилей граждан по их типичному поведению на основе материалов видеонаблюдения, публикаций в соцсетях, новостей онлайн, данных о регистрации избирателей и других источников. Сомнения вызывает и позиция OpenAI по поводу автономного летального оружия. В контракте компании с Пентагоном говорится о том, что её ИИ «не будет использоваться для самостоятельного управления автономным оружием в тех случаях, когда закон, нормативные акты или политика Министерства требуют контроля со стороны человека», что соответствует директиве Пентагона от 2023 года, но не предполагает иных запретов и ограничений. Для сравнения, Anthropic добивалась полного запрета на неконтролируемое летальное автономное оружие как минимум до тех пор, пока разработчик сам не сочтёт эту технологию готовой к работе.
Источник изображения: Gavin Phillips / unsplash.com Альтман указывает и на другие решения, способные гарантировать, что Пентагон не станет злоупотреблять возможностями ИИ-моделей OpenAI. Некоторые сотрудники компании получат доступ к секретной информации для проверки систем; будут развёрнуты «классификаторы» — небольшие модели ИИ, способные следить за работой больших и по необходимости блокировать для них некоторые операции. На практике эти меры могут не помочь. Классификатор не сможет подтвердить, проверял ли человек решение системы о нанесении удара, а также является ли запрос на составление профиля американского гражданина единичным или входящим в систему массового наблюдения. И если власти объявят какую-либо операцию законной, классификатор не сможет предотвратить её выполнение. OpenAI говорит об «ответственности человека за применение силы, в том числе в случае с автономными системами вооружения»; Anthropic же требовала вообще не развёртывать эти системы «без надлежащего контроля [со стороны человека]». Это может значить, что в сценарии OpenAI можно будет привлечь к ответственности некое лицо уже после факта нанесения удара, а сценарий Anthropic предусматривает участие людей до и/или во время принятия ИИ решения об уничтожении других людей. OpenAI говорит о технической защите своих систем от возможности строить «роботов-убийц»: для этого применяются средства дополнительного обучения ИИ, а также запуск моделей только в облачной инфраструктуре, а не локально на устройствах. В случае массового наблюдения, однако, подойдёт только способная работать в облаке модель; а в сценарии с автономным оружием непосредственное решение об атаке может принимать сторонняя локальная модель, тогда как система OpenAI возьмёт на себя все предшествующие этапы. «Полностью автономное оружие (то, что полностью исключает участие человека в автоматическом выборе и поражении целей) может оказаться критически важным для нашей национальной обороны. Но сегодня передовые системы ИИ просто недостаточно надёжны для обеспечения [его] работы», — предупредил глава Anthropic Дарио Амодеи. Верховный суд США подтвердил, что ИИ-искусство не может защищаться авторским правом
03.03.2026 [10:00],
Алексей Разин
В сфере авторского права в эпоху искусственного интеллекта американский учёный Стивен Талер (Stephen Thaler) обретает определённую известность, поскольку он уже несколько лет пытается добиться право регистрации за собой изобретений, созданных силами искусственного интеллекта. Он попытался зарегистрировать и авторские права на картину, которая была сгенерирована его системой DABUS, но эти попытки были отклонены недавно Верховным судом США.
Источник изображения: Unsplash, Sasun Bughdaryan Как поясняет Reuters, Верховный суд США на этой неделе отклонил апелляцию Стивена Талера на решения судов более низких инстанций по поводу регистрации авторских прав на художественное произведение «Недавний вход в рай», которое было создано его ИИ-системой DABUS несколько лет назад. Энтузиаст с 2018 года пытался в США зарегистрировать авторские права на изображение железнодорожных рельсов, уходящих в некий портал, раскрашенный в яркие контрастные цвета. Профильное ведомство США, которое занимается регистрацией авторских прав, отклонило его заявку в 2022 года, мотивируя необходимость закрепления подобных прав за человеком, а не бездушной системой. Более того, ведомство отклоняло и заявки на регистрацию авторских прав художниками, которые создавали свои произведения с использованием большой языковой модели Midjourney. Они настаивали, что являются соавторами данных произведений, тогда как Талер не скрывал, что разработанная им система DABUS создала свою картину без человеческого влияния. В 2023 году суд в Вашингтоне поддержал решение суда нижней инстанции по делу Талера, столичный апелляционный суд подтвердил правомерность такого вердикта в 2025 году. Талер рассчитывал на Верховный суд США, но тот отклонил его апелляционную жалобу. По мнению истца, подобное решение Бюро авторского права США изначально нанесло непоправимый ущерб всей ИИ-отрасли и деятелям творческих профессий в столь важный для их развития период. Ведомство настаивает, что понятие «автор» может применяться только к живому человеку, а не машине. Талер также проиграл в серии отдельных дел, которые должны были закрепить за ним авторские права на изобретения, сделанные искусственным интеллектом его разработки. Тем не менее, в той же Австралии суд встал на его сторону. Скандал между Anthropic с Пентагоном может обойтись стартапу потерей инвестиций на $60 млрд
03.03.2026 [08:49],
Алексей Разин
Как и OpenAI, конкурирующий стартап Anthropic остаётся частной компанией, хотя привлекает для своего развития весьма серьёзные суммы денег. Более 200 венчурных инвесторов вложили в Anthropic в общей сложности более $60 млрд, и теперь их доверие будет испытано на прочность скандалом, в который компания оказалась втянута из-за противоречий с Пентагоном.
Источник изображения: Anthropic Напомним, что в конце прошлой недели американское военное ведомство отказалось от использования ИИ-разработок Anthropic в секретной части своей инфраструктуры, поскольку стартап настаивал на блокировке использования своих систем для массового слежения за гражданами США и управления теми видами вооружений, которые способны принимать решение о выборе и уничтожении целей без участия человека. Проблем в переговорах добавили и некоторые другие факторы, но они не были первостепенными. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) настаивает, что для применения в указанных видах вооружений ИИ пока не достиг адекватного развития, а в случае с массовым сбором информации о гражданах США не готова законодательная база. Контракт с Пентагоном был сорван, решения Anthropic были запрещены к использованию всеми американскими правительственными структурами, за шесть месяцев им предстоит найти альтернативу. Публикация Амодеи на страницах корпоративного блога, в которой обсуждались коренные причины спора с Министерством войны США, как отмечает Axios, вызвала в Белом доме дополнительное раздражение. Чиновники опасаются, что своими публичными выступлениями руководство Anthropic «заразит» специалистов других ИИ-компаний, с которыми Пентагон хотел бы наладить сотрудничество. Если запрет на сотрудничество с Anthropic распространится на прочих подрядчиков Пентагона, компания может пострадать серьёзным образом. По крайней мере, та же Nvidia может лишиться возможности снабжать Anthropic своими ускорителями вычислений, а без них развитие бизнеса стартапа станет проблематичным. Как известно, Anthropic своё отнесение к числу сомнительных поставщиков хочет оспорить в суде. По данным Axios, венчурные инвесторы исторически старались избегать вложения средств в капиталы компаний, связанных с правительственными заказами, поскольку эта сфера казалась довольно рискованной и непредсказуемой. Исключением была сфера только биотехнологий, но в последние годы венчурные капиталисты стали посматривать и на другие области, в которых стартапы вели активное сотрудничество с властями. Ситуация с Anthropic снова заставляет инвесторов задуматься, а нужно ли слепо доверять компаниям, пытающимся наладить сотрудничество с правительством. На репутации Anthropic, которая в основном зарабатывает на корпоративных заказах, данный скандал тоже скажется не лучшим образом. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |