Сегодня 17 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ai
Быстрый переход

Обновленная Siri появится в следующем году, как подтвердил Тим Кук

Генеральный директор Apple Тим Кук (Tim Cook) в интервью CNBC подтвердил, что компания придерживается графика и планирует выпустить персональную версию голосового помощника Siri в следующем году. Ожидается, что новый набор функций, который станет частью обновления операционной системы iOS 26.4, будет представлен в марте.

 Источник изображения: Apple

Источник изображения: Apple

Комментируя ход разработки, Кук заявил, что Apple «добивается хороших результатов» на этом направлении, повторив свои слова, сказанные ранее. Как сообщает издание MacRumors, это заявление прозвучало накануне публикации компанией рекордных финансовых результатов за третий квартал фискального 2025 года.

Напомним, изначально новые функции Siri были анонсированы ещё в ходе ежегодной конференции для разработчиков WWDC 2024, однако затем их запуск был отложен. Среди новых возможностей значатся расширенное понимание личного контекста пользователя, визуальный анализ содержимого на экране устройства, а также улучшенные возможности управления в рамках отдельных приложений.

В качестве примера на презентации тогда показали, как пользователь задал вопрос Siri о рейсе вылета и бронировании обеда для своей матери, а ИИ-ассистент, проанализировав соответствующую информацию из приложений «Почта» и «Сообщения», выдал ответ. В настоящее время компания Apple столкнулась с судебными исками коллективного характера, которые были поданы из-за переноса сроков выхода новых функций Siri, именно из-за которых многие пользователи решили приобрести iPhone 17.

Разработчик провального ИИ-гаджета Rabbit R1 объявил о создании устройства второго поколения

Откровенно провальный запуск первых портативных гаджетов с искусственным интеллектом (ИИ), таких как Rabbit R1 и Humane AI Pin и волна критики этих странных гаджетов, не остановил создателя первого из них от разработки преемника.

 Источник изображений: Rabbit

Источник изображений: Rabbit

Устройства R1 от компании Rabbit и AI Pin от компании Humane, были созданы для прямого взаимодействия с ИИ-сервисами без использования графического интерфейса или почти без такового. Однако первые образцы получили преимущественно негативные отзывы.

Тем не менее генеральный директор Rabbit Джесси Лю в интервью изданию Tom’s Guide подтвердил, что компания активно работает над следующим поколением устройств и уже тестирует прототипы различных форм-факторов, рассматривая возможность выпуска нового устройства уже в следующем году.

По его словам, 2026 год станет особенно значимым, поскольку к рынку автономных ИИ-гаджетов присоединится OpenAI, которая, по имеющимся данным, планирует представить собственное аппаратное решение в конце 2026 или начале 2027 года. Лю также отметил, что компания ориентируется на концепцию «три-в-одном» и считает, что в ближайшие 18 месяцев смартфоны станут по-настоящему «агентными», что даёт Rabbit достаточно времени для выпуска хотя бы одного нового поколения устройства.

В Adobe Firefly появится ИИ-озвучка видеороликов

Adobe представила ИИ-инструмент для работы со звуком, который позволяет быстро добавлять в видео тематически подходящее фоновое сопровождение и закадровый голос. Инструменты Generate Soundtrack (Генерация саундтрека) и Generate Speech (Генерация речи) будут интегрированы в обновлённое приложение Adobe Firefly.

 Источник изображений: Adobe

Источник изображений: Adobe

Функция Generate Soundtrack, уже запущенная в публичной бета-версии, проанализирует загруженное видео и сгенерирует до четырёх вариантов инструментальных аудиодорожек длиной до пяти минут, автоматически синхронизируя их с видеорядом. Пользователи могут выбрать музыкальный стиль из предустановленных вариантов, например, lofi, хип-хоп, классику и другие, либо описать желаемое настроение в текстовом поле, например, «сентиментальное» или «агрессивное». Система также изначально предложит пример текстового запроса на основе анализа видеоконтента.

Что касается авторских прав, то, так как ИИ-модель Firefly, на которой построен Generate Soundtrack, обучена на лицензированном музыкальном контенте, то, по утверждению компании, это делает созданные треки безопасными для коммерческого использования. Как поясняет глава направления генеративного ИИ в Adobe Александру Костин (Alexandru Costin), Adobe приобрела права на музыку и голоса у правообладателей, поэтому может гарантировать отсутствие рисков, связанных с нарушением авторских прав. Это выгодно отличает Adobe от конкурентов, таких как Suno и Udio, которые столкнулись с исками о нарушении авторских прав из-за обучения своих моделей на защищённых материалах.

Параллельно запущена в публичной бета-версии функция Generate Speech, позволяющая создавать озвучивание по тексту. Она предлагает более 50 голосов на основе модели Adobe Firefly Speech Model или технологии ElevenLabs и поддерживает свыше 20 языков. Можно регулировать скорость, высоту тона и эмоциональную окраску речи, а также вручную корректировать произношение имён и слов с региональными особенностями.

Кроме того, Adobe разрабатывает веб-редактор Firefly Video Editor, представляющий из себя многодорожечный редактор с временной шкалой для генерации, организации, обрезки и монтажа клипов. Он объединит инструменты для создания озвучки, саундтреков и титров в одном приложении, дополненном покадровым редактированием и стилевыми пресетами. Редактор начнёт поступать в бета-версию в следующем месяце, а для раннего доступа пользователям необходимо зарегистрироваться в листе ожидания.

OneXPlayer представила портативную консоль OneXFly Apex с жидкостным кулером и мощнейшим мобильным Ryzen

Компания OneXPlayer представила новейшую портативную игровую консоль OneXFly Apex с рядом интересных особенностей. Устройство привлекает внимание не столько тем, что в нём используются мощные мобильные процессоры Ryzen AI Max+, сколько тем, что консоль поддерживает подключение системы жидкостного охлаждения.

 Источник изображений: OneXPlayer

Источник изображений: OneXPlayer

Устройство будет предлагаться в нескольких конфигурациях: с процессорами Ryzen AI Max 385 или Ryzen AI Max+ 395, от 32 до 128 Гбайт ОЗУ LPDDR5X-8000, а также с SSD на 1 или 2 Тбайт. Внутри доступен второй слот для установки дополнительного NVMe-накопителя PCIe 4.0. Для расширения постоянной памяти также предусмотрена поддержка карт памяти TF и новых накопителей Mini SSD.

В составе процессоров используется производительная встроенная графика Radeon 8060S с 40 вычислительными блоками на архитектуре RDNA 3.5.

Для максимально эффективного охлаждения компонентов OneXPlayer предлагает использовать систему жидкостного охлаждения. Она съёмная, состоит из радиатора, помпы и резервуара и в некоторой степени напоминает СЖО Oasis для ноутбуков XMG Neo 17.

Без подключения СЖО OneXFly Apex может справляться с отводом до 80 Вт TDP от процессора (максимум до 100 Вт). Приставка оснащена собственной системой охлаждения, в состав которой входят четыре медные тепловые трубки и два вентилятора. При подключении СЖО предел TDP, с которым может справиться система, повышается до 120 Вт.

OneXFly Apex оснащена 8-дюймовым IPS-дисплеем с частотой обновления 120 Гц и поддержкой динамической смены частоты обновления (VRR). Поддерживаемое разрешение производитель не сообщил. Экран имеет пиковую яркость 500 кд/м² и 100-процентный охват цветового пространства sRGB.

Подключать к OneXFly Apex внешне придётся не только СЖО, но и батарею — собственной встроенной у приставки нет. Внешняя батарея рассчитана на 85 Вт·ч. Как и систему жидкостного охлаждения, её придётся докупать отдельно.

Консоль поддерживает несколько режимов производительности в зависимости от выставленных настроек TDP. Ниже представлены результаты тестов в 3DMark Time Spy с учётом разных режимов:

  • 25 Вт — 4083 балла;
  • 55 Вт — 9035 баллов;
  • 80 Вт — 10 518 баллов;
  • 120 Вт — 12 416 баллов.

С программной стороны OneXFly Apex предлагает поддержку двух функций: Game Freeze и HandyKit. Первая позволяет поставить игру на паузу в любой момент, чтобы освободить системные ресурсы для других задач. HandyKit служит для доступа к различным функциям Windows, таким как блокировка экрана. Конфигурации и цены:

  • Ryzen AI Max 385, 32 Гбайт ОЗУ, 1 Тбайт SSD — 8599 юаней (около $1200);
  • Ryzen AI Max+ 395, 48 Гбайт ОЗУ, 1 Тбайт SSD — 9999 юаней (около $1400);
  • Ryzen AI Max+ 395, 64 Гбайт ОЗУ, 2 Тбайт SSD — 11 999 юаней (около $1700);
  • Ryzen AI Max+ 395, 128 Гбайт ОЗУ, 2 Тбайт SSD — 15 999 юаней (около $1690).

Внешняя батарея на 85 Вт·ч оценивается в 399 юаней (около $56), а СЖО — в 999 юаней (около $140). Вес устройства составляет 698 граммов без батареи, размеры — 29,2 × 12,4 см. Компания не сообщила, когда приставка появится в продаже.

«Лучший ИИ-продукт в России»: «Яндекс» представил обновлённую «Алису AI» с ИИ нового поколения

Компания «Яндекс» представила «Алису AI» — новую версию своего универсального чат-бота, который может быть задействован для решения разных задач. Теперь сервис использует новый формат ответов — с картинками, видео и информацией из «Яндекс Карт». В скором времени нейросеть также научится запоминать дела пользователя, своевременно напоминая о важном, а также будет выполнять разные поручения с помощью ИИ-агентов.

 Источник изображений: yandex.ru

Источник изображений: yandex.ru

«Алиса AI» может генерировать из потока мыслей и записей пользователя полноценные списки дел, покупок, заметок и напоминаний. Они будут отображаться прямо в интерфейсе чата в разделе «Моя память». К примеру, пользователь на ходу может наговорить ИИ-боту то, что нужно сделать, а «Алиса AI» сгруппирует важные дела в списках и потом напомнит о необходимости сделать что-либо. Такой подход должен облегчить выполнение повседневных задач, поскольку не нужно держать всё в голове. В ближайшее время данное нововведение станет доступно всем пользователям нейросети.

Разработчики обучали «Алису AI» на миллионах задач, для решения которых люди ежедневно задействуют разные нейросети, ассистентов, поисковик и другие сервисы «Яндекса». Особое внимание уделялось выполнению практических задач. По данным разработчиков, «Алиса AI» лучше всех доступных в России нейросетей отвечает на вопросы в категориях «Образование», «Саморазвитие и советы», «Рабочие задачи», «Бытовые задачи и инструкции». За счёт этого сервис закрывает все основные потребности в ИИ, которые уже есть или могут появиться у русскоязычной аудитории в ближайшем будущем.

Предыдущие версии ИИ-бота «Яндекса» отвечали в чате текстом. Теперь же ИИ-сервис может давать развёрнутые ответы с использованием изображений, видео, ссылок и др. «Алиса AI» самостоятельно генерирует множество запросов к поисковику и картографическому сервису компании, собирая информацию, на основе которой формируется подробный и структурированный ответ с учётом местоположения пользователя.

Ещё разработчики расширили возможности ИИ-бота в плане помощи по школьным предметам, включая русский язык, литературу, английский язык, историю, математику и геометрию. «Алиса AI» пригодится для проверки пунктуации и орфографии, а также поможет понять, как разобрать слово по составу, решить систему уравнений и многое другое. Сервис может распознавать формулы, таблицы и текст, включая рукописные записи.

За производительность «Алисы AI» отвечает новое поколение генеративных ИИ-моделей — Alice AI LLM, Alice AI Art и Alice AI VLM. Отмечается, что ИИ-бот сделал огромный скачок по сравнению с предыдущей версией, в том числе в плане знаний национальных особенностей и понимания культурного кода страны. Новая модель работает на базе архитектуры Mixture of Experts (MoE); количество параметров увеличилось до сотен миллиардов. Для обучения модели использовалась новая технология тренировки на базе обучения с подкреплением.

Разработчики объединили возможности языковой модели с генеративным поиском, благодаря чему «Алиса AI» не только опирается на знания ИИ-модели, но и осуществляет глубокий поиск данных в интернете по разным источникам, включая веб-сайты, изображения, видео и данные об организациях. Модель способна в ответах комбинировать разные типы контента.

Генератор изображений также был улучшен. Теперь он более точно следует пользовательским запросам. Для достижения нужного результата разработчики обновили обучающую базу. Перед генерацией картинки запрос автоматически перефразируется в более привычные для нейросети описания. Модель доработали под образовательные задачи, за счёт чего она стала лучше разбираться в чертежах, формулах, графиках и схемах из учебных материалов.

В скором времени разработчики планируют дополнить семейство моделей Alice AI алгоритмом для редактирования изображений. Что касается «Алисы AI», то она уже доступна на сайте alice.yandex.ru, в приложении «Алиса» и поисковике «Яндекса». В скором времени она также будет интегрирована в браузер компании и сервис «Яндекс Go».

AMD начнёт продавать профессиональные Radeon AI Pro R9700 поштучно за $1299

Компания AMD сообщила, что профессиональная видеокарта Radeon AI Pro R9700 поступит в розничную продажу 27 октября. До этого указанная модель ускорителя в течение примерно трёх месяцев с момента своего выпуска распространялась исключительно через OEM-поставщиков и системных интеграторов. AMD также подтвердила официальную рекомендованную цену ускорителя — $1299.

 Источник изображений: AMD

Источник изображений: AMD

В основе Radeon AI Pro R9700 лежит графический чип Navi 48 с 64 вычислительными блоками (4096 потоковых процессоров), 128 тензорными (ИИ) ядрами, 64 ядрами для трассировки лучей и 256 текстурными блоками.

Карта предлагает 32 Гбайт памяти GDDR6 с поддержкой 256-битной шины и пропускной способностью 640 Гбайт/с. Энергопотребление заявлено на уровне 300 Вт. Для питания используются два 8-контактных разъёма. Набор внешних видеоразъёмов включает четыре DisplayPort 2.1.

AMD Radeon AI Pro R9700 достигает производительности до 191 Тфлопс в операциях FP16 и до 1531 Тфлопс в операциях INT4. Видеокарта имеет толщину в два слота расширения и оснащена системой охлаждения с вентилятором тангенциального типа, что позволяет легко создавать плотные конфигурации из нескольких GPU.

EA объединилась со Stability AI для создания «революционных» ИИ-инструментов для разработки видеоигр

Electronic Arts объявила о заключении партнёрского соглашения с разработчиком ИИ-генератора изображений Stable Diffusion в лице Stability AI с целью интеграции инструментов на базе искусственного интеллекта в свои рабочие процессы. В заявлении EA сказано, что компании будут «совместно создавать революционные модели, инструменты и рабочие процессы на основе ИИ, которые позволят художникам, дизайнерам и разработчикам переосмыслить то, как создаётся контент».

 Источник изображения: Christin Hume / unsplash.com

Источник изображения: Christin Hume / unsplash.com

В Electronic Arts отметили, что человек по-прежнему останется главным при разработке игр, но внутренние процессы изменятся таким образом, чтобы ИИ стал надёжным помощником в этом. Ожидается, что интеграция ИИ-алгоритмов поможет ускорить рабочие процессы, благодаря чему люди смогут уделять больше времени созданию игр. В компании добавили, что ИИ «может создавать наброски, генерировать и анализировать данные, но он не может воображать, сопереживать или мечтать. Это задача художников, дизайнеров, разработчиков, сценаристов и новаторов из EA».

Гендиректор EA Эндрю Уилсон (Andrew Wilson) ранее высоко отзывался о нейросетях, заявив в прошлом году, что искусственный интеллект становится основой бизнеса компании. В дальнейшем ИИ-алгоритмы могут быть ещё глубже интегрированы в рабочую среду EA, поскольку группа инвесторов, рассматривающих возможность выкупа акций компании, планирует активно задействовать ИИ для выполнения разных задач. Они делают ставку на то, что сокращение затрат за счёт внедрения ИИ значительно повысит прибыльность EA в ближайшие годы.

Один из первых совместных проектов EA и Stability AI связан с «ускорением создания материалов для физически корректного рендеринга (PBR)». Для этого планируется создание новых ИИ-инструментов, например, для генерации 2D-текстур, которые сохраняют точную цветопередачу в любой среде. В Stability AI добавили, что компании будут работать над созданием ИИ-систем, способных предварительно визуализировать 3D-окружения на основе серии последовательных запросов.

Reddit подал в суд на Perplexity за нелегальный скрапинг данных для ИИ

Платформа Reddit подала в суд на компанию Perplexity и трёх поставщиков сервисов веб-скрапинга — SerpApi, Oxylabs и AWMProxy, обвинив их в массовом несанкционированном сборе защищённых данных с сайта социальной сети для обучения искусственного интеллекта (ИИ). В иске утверждается, что Perplexity, разработчик ИИ-поисковика, использует данные, полученные через этих посредников, вместо того чтобы заключить прямое соглашение с Reddit, как это сделали некоторые другие компании, работающие в сфере ИИ.

 Источник изображения: Reddit

Источник изображения: Reddit

Согласно иску, как стало известно The Verge, в мае 2024 года Reddit направил Perplexity официальное требование о прекращении скрапинга контента, на что компания заявила, что не использует данные Reddit для обучения своих моделей и соблюдает правила, прописанные в файле robots.txt. Однако вскоре после этого количество цитирований Reddit в ответах Perplexity, по утверждению истца, возросло.

Reddit подчёркивает, что миллионы тематических постов, созданных пользователями, представляет значительную ценность для обучения ИИ и даже заключила соглашения с OpenAI и Google, а также в 2023 году ввела платный API, стремясь получать компенсацию за использование своих данных.

Бен Ли (Ben Lee), главный юридический директор Reddit, заявил, что «компании, занимающиеся разработкой искусственного интеллекта, втянуты в гонку вооружений за качественный контент, созданный людьми, и это давление привело к развитию экономики "отмывания данных" в промышленных масштабах». Он назвал литовского скрапера Oxylabs UAB, ботнет-структуру AWM Proxy и SerpAI, открыто рекламирующие методы обхода защиты, типичными представителями такой незаконной деятельности. По его словам, эти компании (ответчики по делу), не имея прямого доступа к Reddit, маскируют свои скрипты и местоположение, чтобы красть контент через поисковую выдачу Google, а Perplexity сознательно приобретает эти украденные данные, избегая легального сотрудничества.

В свою очередь, Джесси Двайер (Jesse Dwyer), руководитель отдела коммуникаций Perplexity, сообщил изданию The Verge, что компания пока не получала иск, но намерена решительно отстаивать право пользователей свободно и справедливо получать доступ к публичным знаниям. Он подчеркнул, что подход Perplexity остаётся принципиальным и ответственным, а угрозы открытости и общественным интересам компания терпеть не намерена.

Ранее Reddit также подавала в суд на Anthropic по аналогичным основаниям, утверждая, что боты Anthropic получили доступ к платформе Reddit, даже после того как Anthropic заявила, что не будет этого делать.

Аудитория Meta✴ AI резко выросла благодаря «ИИ-тиктокам» Vibes — конкуренты зафиксировали спад активности

Мобильное приложение Meta✴ AI значительно увеличило свою ежедневную аудиторию и число новых установок после внедрения в сентябре функции Vibes — ленты коротких видеороликов, создаваемых с помощью ИИ. Согласно анализу Similarweb, число ежедневных активных пользователей приложения выросло более чем в три раза за последние четыре недели.

 Источник изображения: Salvador Rios/Unsplash

Источник изображения: Salvador Rios/Unsplash

Как сообщает TechCrunch со ссылкой на отчёт Similarweb, мобильное приложение Meta✴ AI для платформ iOS и Android зафиксировало значительный рост как числа ежедневных активных пользователей, так и количества новых установок. На 17 октября 2025 года ежедневная аудитория приложения составила 2,7 млн человек, существенно превысив показатель в 775 тысяч пользователей, зафиксированный четырьмя неделями ранее. Ежедневные загрузки приложения также выросли с менее чем 200 тысяч в день до 300 тысяч в день за тот же период. Для сравнения, 17 октября 2024 года, приложение Meta✴ AI получало около 4 тысяч загрузок в сутки.

Аналитики Similarweb отмечают, что в их анализе не наблюдается значимой корреляции с изменениями в поисковых запросах или рекламных показателях, однако допускают возможность внутренних продвижений через Facebook✴ или Instagram✴, которые могли бы остаться незамеченными в их данных. Одновременно рассматривается в качестве вероятной причины роста популярности приложения запуск функции Vibes, которая была представлена 25 сентября 2025 года. Этот срок совпадает с началом резкого увеличения числа ежедневных активных пользователей как на iOS, так и на Android.

Рост интереса к ИИ-видео может быть также связан с недавним дебютом генератора видео Sora компании OpenAI, который вызвал широкий общественный резонанс и привёл к тому, что одноимённое приложение возглавило рейтинг App Store. Хотя данные Similarweb не подтверждают причинно-следственную связь, аналитики предполагают, что внимание к Sora могло побудить пользователей попробовать Meta✴ AI для сравнения возможностей. Кроме того, учитывая, что доступ к Sora остаётся не простым и предоставляется только по приглашениям, часть заинтересованных пользователей могла обратиться к Meta✴ AI как к доступной альтернативе. Это, в свою очередь, указывает на то, что политика OpenAI по ограничению доступа к Sora могла косвенно усилить позиции конкурентов.

По состоянию на 17 октября приложение Meta✴ AI продемонстрировало рост ежедневной активной аудитории на 15,58 % в глобальном масштабе, в то время как приложения ChatGPT, Grok и Perplexity зафиксировали снижение на 3,51 %, 7,35 % и 2,29 % соответственно.

Инженеры Apple сомневаются, что новая Siri успеет к весеннему запуску в iOS 26.4

Сотрудники Apple выразили обеспокоенность по поводу производительности обновлённой версии голосового помощника Siri в ранних сборках операционной системы iOS 26.4. Несмотря на существенную задержку и дополнительное время на доработку Siri, инженеры компании, тестирующие программное обеспечение, сомневаются в её готовности к запуску, запланированному на весну 2026 года.

 Источник изображения: Apple

Источник изображений: Apple

По информации 9to5Mac со ссылкой на отчёт Power On Марка Гурмана (Mark Gurman) из Bloomberg, в случае неудачного дебюта обновлённой Siri через шесть месяцев возможны новые уходы высокопоставленных специалистов из подразделения искусственного интеллекта Apple. «У сотрудников, тестирующих iOS 26.4, есть опасения относительно производительности голосового помощника в предстоящей версии операционной системы, в которую должна быть интегрирована новая Siri», — пишет Гурман.

Напомним, что на конференции WWDC24 компания официально представила платформу Apple Intelligence в виде набора ИИ-функций, работающих локально на устройствах Apple. Хотя часть анонсированных возможностей, таких как инструмент Clean Up в приложении «Фото», генеративные эмодзи (Genmoji) и интеграция ChatGPT в Siri, была реализована в ходе цикла выпуска iOS 18, ключевое обновление самого голосового помощника так и не появилось. Apple изначально обещала три основные функции новой Siri. В частности, понимание контекстного диалога пользователя, анализ содержимого экрана и способность выполнять действия внутри приложений. Однако эти возможности не были включены даже в бета-версии iOS 18.4 или iOS 18.5, что привело к официальной задержке релиза на год из-за несоответствия внутренним стандартам качества.

Позже, в интервью после конференции WWDC уже в 2025 году, руководитель подразделения программного обеспечения Apple Крейг Федериги (Craig Federighi) пояснил, что команде потребовалось время для перестройки архитектуры Siri, и выпуск должен состояться в 2026 году. По имеющимся данным, к выпуску готовятся две команды компании, разрабатывающие разные подходы к реализации нового помощника: один основан на локальных моделях непосредственно на устройстве, другой — на использовании модели Google Gemini через облачную интеллектуальную систему для комплексной обработки данных с пользовательских устройств Private Cloud Compute.

Исследование показало, что ИИ ускорил мышление подростков, но есть одна проблема

Искусственный интеллект (ИИ) активно меняет когнитивные процессы подростков, заставляя их мыслить быстрее, но в ущерб глубине анализа. Таковы выводы нового исследования Оксфордского университетского издательства (Oxford University Press), о которых рассказало издание Business Iinsider, в ходе которого в августе были опрошены 2000 учащихся из Великобритании в возрасте от 13 до 18 лет. Около 80 % респондентов признались, что используют ИИ-инструменты для выполнения домашних заданий и это им помогает быстрее решать сложные задачи.

 Источник изображения: AI

Источник изображения: AI

Как заявила директор Educational Neuroscience Hub Europe и соавтор отчёта Эрика Галеа (Erika Galea), современные студенты начинают мыслить вместе с машинами, приобретая беглость и скорость, но иногда теряя независимое мышление. Она добавила, что главной задачей становится не овладение технологиями, а сохранение глубины человеческой мысли в эпоху синтетического познания и искусственного интеллекта. Это «синтетическое познание», по терминологии оксфордских исследователей, характеризует новое мышление так называемого «поколения, рождённого с ИИ», то есть, подростков, которые взрослели бок о бок с алгоритмами.

Исследование выявило двойственное влияние технологий. Более 90 % студентов сообщили, что ИИ помог им развить хотя бы один академический навык. Однако 60 % также констатировали негативное воздействие. В частности, четверть опрошенных считают, что ИИ делает обучение слишком лёгким, а каждый десятый отмечает ограничение творческих навыков и снижение потребности в критическом мышлении. Ко всему прочему, некоторые учащиеся уже демонстрируют зависимость от ИИ и прямо об этом заявляют. Озабоченность разделяют и педагоги: треть студентов указали, что их учителя неуверенно чувствуют себя при использовании ИИ на уроках, а 51 % респондентов хотели бы получить от школ более чёткие руководства по ответственному применению этого инструмента.

Авторы отчёта настаивают на том, что образовательные системы должны меняться, чтобы использовать ИИ, но не позволять студентам мыслить как машины. Учитель и соавтор книги «Поколение Альфа в классе» (Generation Alpha in the Classroom) Ольга Сэйер (Olga Sayer) отметила, что ИИ изменил методы обучения, но не его цели. По её словам, конечная цель образования остаётся прежней — мыслить независимо и творчески, а также расти как личность. Оксфордские исследователи призвали учебные заведения внедрять грамотность в сфере ИИ, тренировать метапознание и оказывать поддержку педагогам, чтобы те могли помогать студентам балансировать в новой реальности.

Anthropic представила инструмент Skills, который сделает ИИ полезнее в реальной работе

Компания Anthropic объявила о запуске новой функции под названием Skills for Claude, предназначенной для повышения эффективности ИИ-помощника в профессиональной среде. Инструмент представляет собой набор специализированных инструкций, скриптов и ресурсов, которые Claude может загружать по требованию для выполнения конкретных рабочих операций. Спектр задач варьируется от работы с электронными таблицами Excel до рабочих задач организации.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Новая функция, по сообщению The Verge, позволяет компаниям и отдельным пользователям создавать собственные наборы навыков (Skills), адаптированные под их уникальные рабочие процессы. Эти навыки можно применять внутри всей экосистемы Anthropic, например, в интерфейсе чат-бота Claude.ai, в среде для разработчиков Claude Code, через API компании и в рамках Claude Agent SDK. Сообщается, что такие компании, как Box, Rakuten и Canva, уже использовали данный инструмент на практике.

По замыслу разработчиков, функция призвана усовершенствовать агентские возможности Claude, избавляя пользователей от необходимости каждый раз составлять идеальные промпты или искать контекст для выполнения рутинных задач. Как пояснил Бред Абрамс (Brad Abrams), руководитель продукта в Anthropic, Skills призваны усилить агентские возможности Claude в контексте конкретной организации, а не для достижения абстрактных бенчмарков. По его словам, функция позволяет обучать ИИ выполнять задачи, актуальные именно для конкретной компании. В качестве примера он привёл создание презентации о рыночных результатах модели Haiku 4.5 с использованием PowerPoint Skill — Claude сгенерировал хорошо структурированные и легко читаемые слайды.

Инструмент доступен пользователям тарифных планов Pro, Max, Team и Enterprise. Примечательно, что анонс Anthropic последовал сразу после аналогичного мероприятия OpenAI, на котором была представлена платформа AgentKit, предназначенная для вывода ИИ-агентов из стадии прототипирования в промышленную эксплуатацию.

Google запустила Nano Banana в AI Mode и «Google Объектив»

Google расширила функциональность ИИ-инструмента Nano Banana, интегрировав его в новый режим поиска AI Mode и «Google Объектив» (Google Lens). Обновление позволяет создавать и редактировать изображения напрямую через поисковый интерфейс и камеру, сохраняя при этом технические особенности оригинальной реализации в приложении Gemini.

 Источник изображений: 9to5google.com

Источник изображений: 9to5google.com

В режиме AI Mode в поиске Google появился новый значок «плюс» в левом нижнем углу поля ввода запроса, а функции голосового ввода и «Google Объектив» переместились в правую часть интерфейса. На этой же странице карусель с предложениями была заменена на упрощённый список подсказок. Через новое меню пользователи получают доступ к галерее, камере и функции создания изображений, обозначенной эмодзи банана. При выборе последнего варианта подсказка в поле ввода меняется на «Опишите ваше изображение», что позволяет генерировать новые изображения или редактировать загруженные. Все сгенерированные изображения содержат водяной знак Gemini в виде искры в правом нижнем углу и могут быть скачаны или отправлены другим пользователям.

Более заметная интеграция Nano Banana реализована в «Google Объектив». После недавнего добавления функции Live в Поиск и переноса фильтра «Домашнее задание» непосредственно в интерфейс Поиска, в Lens появилась новая вкладка Create. Небольшое изменение дизайна переместило текстовые подписи под иконки, чтобы разместить больше фильтров горизонтально. Эта вкладка предлагает пользователям «снимать, создавать и делиться», причём кнопка спуска затвора отмечена эмодзи банана. В отличие от других фильтров, функция Create по умолчанию использует фронтальную камеру для селфи, но позволяет переключиться на основную камеру с помощью переключателя справа. Сделанный снимок автоматически добавляется в поле ввода AI Mode, где можно ввести текстовый запрос для редактирования или генерации.

На момент публикации функция Nano Banana доступна в Google Lens и AI Mode на устройствах под управлением Android в США для аккаунтов, подключённых к Search Lab с активным AI Mode. Параллельно Google на этой неделе расширила поддержку AI Mode на 35 новых языков и более чем 40 стран и территорий, доведя общее количество охваченных регионов до 200.

Google представила модель Gemini, которая заполняет в браузере формы и играет в 2048

Компания Google представила предварительную версию новой ИИ-модели Gemini 2.5 с функцией Computer Use, которая способна взаимодействовать с веб-сайтами через браузер, имитируя действия человека. Модель применяет визуальное понимание и логическое рассуждение для выполнения, например, таких задач, как заполнение и отправка форм без использования API или другого программного интерфейса.

 Источник изображения: Solen Feyissa/Unsplash

Источник изображения: Solen Feyissa/Unsplash

Как сообщает The Verge, модель Gemini 2.5 Computer Use предназначена для работы с пользовательскими интерфейсами, созданными для людей, а не для автоматизированных систем. По заявлению Google, технология уже применялась в агентских функциях AI Mode и в исследовательском прототипе Project Mariner, где ИИ-агенты самостоятельно выполняли задачи в браузере, например, добавляли товары в корзину на основе списка ингредиентов.

Интересно, что анонс новой модели состоялся спустя день после того, как OpenAI представила новые приложения для ChatGPT в рамках ежегодного мероприятия Dev Day, продолжив развитие функции ChatGPT Agent, способной выполнять сложные задачи от имени пользователя. При этом Anthropic ещё в прошлом году выпустила версию модели Claude с функцией Computer Use. Однако Google заявляет, что её модель «превосходит ведущие аналоги по нескольким веб- и мобильным бенчмаркам».

В отличие от ChatGPT Agent и инструмента Anthropic, Gemini 2.5 Computer Use имеет доступ только к браузеру, а не ко всей операционной системе. Google подчеркнула, что решение «пока не оптимизировано для управления на уровне настольной ОС» и поддерживает 13 действий, включая открытие веб-браузера, ввод текста, а также перетаскивание элементов.

Сообщается, что модель уже доступна разработчикам через платформы Google AI Studio и Vertex AI. Кроме того, публичная демонстрация размещена в виртуальном браузере BrowserBase, где можно наблюдать, как ИИ выполняет такие задачи, как «сыграть в игру 2048» или «просмотреть Hacker News в поисках обсуждаемых тем».

Google представила ИИ-агента CodeMender — он самостоятельно устраняет уязвимости ПО

Лаборатория Google DeepMind опубликовала результаты работы агента на базе искусственного интеллекта CodeMender. Агент может в автономном режиме выявлять, исправлять и переписывать уязвимый код для предотвращения будущих эксплойтов в программном обеспечении.

 Источник изображения: Google

Источник изображения: Google

Как пишет издание SiliconANGLE, CodeMender развивает предыдущие проекты DeepMind по поиску уязвимостей, в частности проект OSS-Fuzz для анализа безопасности открытого ПО и систему Big Sleep, сочетая интеллектуальные возможности моделей Gemini с передовыми методами программного анализа. Основной целью проекта является автономная отладка и исправление сложных ошибок в крупномасштабных кодовых базах.

Несмотря на то что проект находится на стадии исследований, CodeMender уже отправил 72 исправления безопасности в проекты с открытым исходным кодом, включая те, объём которых превышает 4,5 миллиона строк кода. По данным компании, ИИ-агент позволяет разработчикам сосредоточиться на создании качественного программного обеспечения, автоматически генерируя и применяя надёжные патчи безопасности.

Система спроектирована как для реактивной, так и для проактивной работы: она не только мгновенно исправляет обнаруженные уязвимости, но и переписывает существующий код, устраняя целые классы ошибок. В качестве примера исследователи DeepMind приводят работу агента с библиотекой сжатия изображений libwebp, которая была использована в атаке на iOS в 2023 году. Агент применил к ней аннотации -fbounds-safety, после чего, по заявлению исследователей, подобные уязвимости переполнения буфера стали «невозможными для эксплуатации навсегда».

Внутренняя архитектура CodeMender включает набор инструментов: статический и динамический анализ, фаззинг, символьное исполнение и так называемого «судью LLM», который проверяет, сохраняют ли предлагаемые изменения исходную функциональность. Система способна к самокоррекции, если в процессе проверки обнаруживается проблема. Все изменения перед отправкой проходят проверку на корректность, соответствие стилевым стандартам и отсутствие регрессий. При этом в DeepMind подчёркивают, что CodeMender пока остаётся исследовательским проектом, и все патчи, сгенерированные им, проходят проверку исследователями-людьми перед отправкой в проекты.

После запуска инструмент будет предлагать иной подход по сравнению с традиционными методами, такими как статический анализ и фаззинг, которые находят уязвимости, но всё ещё сильно зависят от опыта проверяющего человека. Новый подход изменит систему, в которой искусственный интеллект сможет самостоятельно выявлять и устранять ошибки, что является критически важным шагом по мере экспоненциального роста размера и сложности современных кодовых баз.


window-new
Soft
Hard
Тренды 🔥
Амбициозный корейский боевик Crimson Desert от создателей Black Desert — это «премиальный опыт», а не рассадник микротранзакций 12 ч.
Тысячи пользователей пожаловались на сбои в работе соцсети X 14 ч.
Календарь релизов — 16–22 февраля: Styx: Blades of Greed, Norse: Oath of Blood и Forgotlings 14 ч.
Две Assassin’s Creed, эвакуационный шутер по Второй мировой и не только: инсайдер выяснил, какие игры Ubisoft отменила вместе с ремейком «Принца Персии» 14 ч.
Blizzard: несмотря на 14 лет с релиза, в Diablo III до сих пор играют «миллионы» 14 ч.
YouTube усугубил войну с блокировщиками рекламы — пользователям начали отключать комментарии и описания роликов 15 ч.
Для безопасности и совместимости: IT-гиганты сформировали трансграничное объединение Trusted Tech Alliance 16 ч.
Создатель завирусившегося ИИ-агента OpenClaw присоединился к OpenAI 16 ч.
Облачные сервисы в 2025 году росли в России самыми быстрыми темпами, опередив ИИ-сегмент 17 ч.
ByteDance пообещала отучить ИИ-генератор Seedance 2.0 копировать голливудских актеров и персонажей 18 ч.