Рассказывая о знаковых продуктах вроде Apple Silicon Mac Pro и Apple Vision Pro на своём главном мероприятии WWDC 2023, докладчики компании ни разу напрямую не упомянули «искусственный интеллект», как это делали Microsoft и Google, а заменили его другими понятиями: «машинное обучение» и «трансформер».
При рассказе о новых алгоритмах автозамены и голосового ввода в iOS 17, старший вице-президент Apple по разработке ПО Крейг Федериги (Craig Federighi) сообщил, что автозамена основана на машинном обучении и языковой модели — трансформере, благодаря которым система срабатывает точнее, чем когда-либо. Модель запускается с каждым нажатием клавиши, что стало возможным благодаря мощным процессорам Apple в основе iPhone.
Таким образом, он избежал термина «искусственный интеллект», но подтвердил, что в продукте используется языковая модель с архитектурой типа «трансформер», оптимизированной для обработки естественного языка. На той же архитектуре работают нейросети в основе генератора изображений DALL-E и чат-бота ChatGPT. Это значит, что автокоррекция в iOS 17 срабатывает на уровне предложения, предлагая завершение слов или целых фраз. Более того, она дополнительно обучается, подстраиваясь под особенности речи владельца телефона. Все это оказывается возможным благодаря подсистеме Neural Engine, которая дебютировала в процессорах Apple A11 в 2017 году — она оптимизирует производительность приложений с функциями машинного обучения.
Несколько раз упоминался термин «машинное обучение»: при описании новых функций экрана блокировки iPad — функция Live Photo сама производит синтез дополнительных кадров; при описании функции сканирования PDF в iPadOS для последующей автоподстановки в формах; в рассказе о функции AirPods Adaptive Audio, которая выявляет музыкальные предпочтения пользователя; в описании нового виджета Smart Stack под Apple Watch.
«Машинное обучение» используется в новом приложении Journal — теперь на iPhone можно вести личный интерактивный дневник. Приложение само рекомендует, какой контент отметить, исходя из сохранённых на телефоне данных. Наконец, «машинное обучение» применяется для создания 3D-аватаров пользователей с выводом изображения глаз на передний экран гарнитуры Apple Vision Pro. А для сжатия этих аватаров используется кодек на алгоритме нейросети.
Непрямое упоминание технологий ИИ последовало при описании нового чипа Apple M2 Ultra, на борту которого до 32 ядер центрального и 76 графического процессора, а также 32 ядра подсистемы Neural Engine — чип обеспечивает до 31,6 трлн операций в секунду и предлагает прирост производительности на 40 % в сравнении с M1 Ultra. Apple прямо заявила, что эти ресурсы смогут использоваться для обучения «больших моделей — трансформеров», располагая 192 Гбайт оперативной памяти, которых и быть не может у современных дискретных графических процессоров, и из-за этого они пасуют перед некоторыми задачами.
Это означает, что обучение ИИ оказывается доступным для рядовых пользователей, причём для него подойдёт не только занимающий верхнее положение в линейке Mac Pro по цене от $6999, но и более скромный Mac Studio, который предлагается от $1999. Осталось дождаться сравнительных обзоров с ускорителями вроде NVIDIA H100.