Apple представила визуальный ИИ-поиск Visual Intelligence — ответ на «Google Объектив»
Читать в полной версииВсе четыре представленные вчера новые модели смартфонов Apple получили выделенную сенсорную кнопку на боковой части корпуса, которая отвечает за управление функциями основной камеры. После выхода iOS 18 она поможет осуществлять быстрый поиск информации об объектах, попавших в объектив камеры — в Apple назвали это Visual Intelligence. Данная функция будет интегрироваться с фирменной системой искусственного интеллекта Apple Intelligence.
Новая сенсорная кнопка на боковой панели смартфонов семейства iPhone 16 понимает несколько типов воздействия, включая одинарное и двойное нажатие, удержание и скольжение пальца вверх или вниз. В зависимости с ассоциируемым жестом будет вызываться и соответствующая функция. Проводя пальцем вверх или вниз по кнопке, например, можно менять масштаб изображения.
Как добавляет The Verge, однократное нажатие и дальнейшее удержание кнопки будет вызывать функцию поиска информации по изображению объектов, которые находятся в поле зрения основной камеры смартфона. Система будет искать контекстную информацию, связанную с теми объектами, на которые направлена камера. Например, если навести камеру на здание кафе, то будет найдено расписание его работы и меню. Функция также пригодится при переносе информации с бумажных объявлений и листовок, чтобы быстро создать напоминание о том или ином событии. Во многом функция напоминает Google Lens.
В дальнейшем Apple собирается интегрировать функцию Visual Intelligence со сторонними информационными сервисами типа Google. Представители компании подчёркивают, что сами изображения на серверах Apple при этом не хранятся, если пользователь применяет их только для поиска связанных данных.