Сегодня 18 февраля 2018
18+
Теги → api
Быстрый переход

Новая статья: Ты помнишь, как все начиналось?

Данные берутся из публикации Ты помнишь, как все начиналось?

Баг в Instagram привёл к утечке телефонных номеров и почтовых адресов знаменитостей

Instagram обнаружила баг, который позволял хакерам получить доступ к телефонным номерам и адресам электронной почты пользователей. Проблема присутствовала в API, через который сервис взаимодействует с другими приложениями.

Компания не сообщила, какие именно пользователи подверглись атаке. Тем не менее, всего лишь два дня назад стало известно, что злоумышленники взломали аккаунт популярной певицы и актрисы Селены Гомес (Selena Gomez) и опубликовали снимки с Джастином Бибером (Justin Bieber).

cnn.com

cnn.com

«Недавно мы обнаружили, что один человек или более получили доступ к контактной информации некоторых популярных пользователей Instagram — в частности, к адресам электронной почты и телефонным номерам, — использовав баг в API Instagram, — заявила компания. — Пароли от аккаунтов похищены не были. Мы быстро устранили недоработку и сейчас ведём тщательное расследование».

Компания уведомила владельцев всех подтверждённых аккаунтов о возможной утечке контактной информации. Она посоветовала внимательно относиться к звонкам и сообщениям с незнакомых номеров, а также к электронным письмам.

Как минимум один раз злоумышленники смогли использовать баг Instagram на «некоторых аккаунтах». Разработчики не рассказали, чьи именно это аккаунты и как много их было. Доступ к номерам телефонов и почтовым адресам в связке с методами социальной инженерии мог позволить злоумышленникам получить полный контроль над аккаунтами.

Именно так, скорее всего, и была взломана учётная запись Селены Гомес, на которую в Instagram подписаны 125 миллионов человек. Её аккаунт был закрыт в понедельник, но позже в тот же день певица снова получила к нему доступ.

Google обновила облачный речевой API рядом новых возможностей

Google Cloud Speech, облачный речевой API, позволяющий разработчикам использовать службы поискового гиганта для преобразования голоса в текст, получил первое крупное обновление с момента своего запуска в 2016 году. Наиболее существенное новшество, пожалуй, — поддержка трёх десятков новых языков в дополнение к 89 понимаемым службой ранее.

Впрочем, «языки» — это не вполне верно: с точки зрения Google различные региональные диалекты английского, испанского или арабского входят в этот список отдельным пунктом. Так или иначе, среди новых языков присутствуют такие, как бенгальский, латвийский, суахили и другие, покрывающие в совокупности порядка миллиарда человек.

Кроме того, Google внесла и другие ключевые новшества в свою службу. Среди прочего речь идёт о поддержке временных меток на уровне слов. Идея состоит в том, чтобы пометить каждое слово своей меткой времени, чтобы разработчики могли, например, позволить пользователям слышать, кто произнёс то или иное слово. Это особенно интересно для транскрипционных и переводческих услуг, которые используют этот API для ускорения своих рабочих процессов. Иметь возможность разметить звук текстовыми метками, по словам соучредителя Happy Scribe Андрэ Бастье (André Bastie), существенно снижает время, затрачиваемое на проверку автоматических транскрипций (его компания берёт за такую работу $0,1 на минуту интервью).

Кроме того, длительность файлов, загружаемых разработчиками в службу, повышена с 80 минут до 3 часов (при необходимости можно запросить дополнительное расширение). Как и прежде, разработчики могут использовать Google Cloud Speech API бесплатно на отрывках до 60 минут, а каждые дополнительные 15 секунд оплачиваются по тарифу $0,006.

Google выпустила публичную бета-версию анализатора видео на базе искусственного интеллекта

Google предоставила всем желающим доступ к бета-версии API Cloud Video Intelligence, который анонсировала в марте. Он позволяет пользователям загружать видео и с помощью системы обнаружения меток получать информацию об объектах на нём.

В новой версии API компания добавила поддержку обнаружения порнографического контента. Так сервис, в который разработчик встраивает Cloud Video Intelligence, сможет обнаруживать неприемлемые ролики и блокировать их отправку.

Google анонсировала и ряд улучшений для API Cloud Vision, которые делают некоторые возможности интерфейса программирования более точными. Модель обнаружения меток, которая называет объекты на изображениях, теперь поддерживает более 10 тысяч сущностей. Она, например, может отличить сухой завтрак на картинке от обычного. Также в два раза возросла вероятность подбора наиболее подходящей для изображения метки.

Показатель ошибок модели безопасного поиска, которая обнаруживает контент для взрослых, снизился на 30 %. У модели поиска текста средняя скорость обнаружения выросла на 25 %. Также она стала на 5 % точнее при работе с романскими языками. Система обнаружения лиц Google стала более чем в два раза лучше распознавать грусть, удивление и злость.

Благодаря сервисам Google разработчикам проще встраивать в приложения возможности искусственного интеллекта. Им не нужно самостоятельно создавать системы машинного обучения. С публичным запуском API Cloud Video Intelligence калифорнийский гигант показал: приложения можно существенно улучшать без каких-либо усилий, поскольку Google вносит изменения в фоновом режиме.

Havok переименован в Direct Physics в рамках интеграции с DX12

Купив у Intel физический движок Havok в 2015 году, Microsoft отметила, что эта технология дополнит её набор инструментов и платформ, включая DirectX 12, Visual Studio и Azure. Явным свидетельством того стал состоявшийся теперь ребрендинг Havok — движок получил название Direct Physics.

Новое название популярного движка указывает на взаимосвязь с API DirectX 12, частью которого, согласно прежним заявлениям Microsoft, станет Havok. Подобная интеграция, возможно, позволит увеличить производительность физических расчётов. Однако у немалого числа компаний и разработчиков возникает вопрос  какие изменения будут внесены в процесс лицензирования Havok? Стоит ожидать, что библиотеки Direct Physics станут доступны всем разработчикам, использующим в своих проектах DX12.

Если это так, то наверняка потенциальным лицензиатам будет предложен выбор: приобрести лицензию на использование наборов инструментов Direct Physics отдельно, или получить её бесплатно, разрабатывая игры под DX12. Таким образом, Microsoft сможет и далее извлекать прямую прибыль от приобретённой интеллектуальной собственности от тех, кто не желает внедрять DirectX 12, одновременно повышая вероятность выбора разработчиками её графического API.

Такая стратегия поможет Microsoft успешнее действовать против конкурирующей технологии Vulkan, которая, с точки зрения разработчиков, возможно, является более оптимальным выбором благодаря расширенной кроссплатформенности. В конечном счёте это может привести к росту числа игр, доступных на ПК и Xbox. Среди множества высококлассных игр, использующих библиотеки Havok, можно назвать Halo 5: Guardians от 343 Industries, Destiny от Bungie и The Legend of Zelda: Breath of the Wild.

3DMark теперь позволяет сравнить производительность в Vulkan и DirectX 12

В настоящее время на ПК существует два ключевых передовых конкурирующих графических API — более распространённый DirectX 12 от Microsoft и более открытый кроссплатформенный Vulkan от Khronos Group (поддерживаемый даже в современных смартфонах). Для тех, кто желает сравнить производительность в них, появился новый мощный инструмент: в тесте 3DMark API Overhead была добавлена поддержка Vulkan.

Это новшество позволяет сопоставить производительность системы в режимах Vulkan, DirectX 12 и DirectX 11 с помощью одного простого теста. По этому случаю компания Futuremark даже представила специальный трейлер:

Конечно, тест специфический — он лишь позволяет оценить, насколько лучше тот или иной API справляется с увеличением количества запросов на отрисовку и как скоро CPU начинает выступать ограничивающим фактором. Современные API DirectX 12 и Vulkan, поддерживающие более низкоуровневый доступ к GPU и оптимизированные для работы с многоядерными процессорами, разумеется, наголову опережают в этой специфической задаче DirectX 11.

Это превосходство, впрочем, не значит, что в реальных играх отрыв будет столь же существенным: разработчики часто не используют преимущества современного оборудования в целях совместимости. Впрочем, количество запросов на отрисовку в современных играх быстро растёт и достигает многих тысяч на кадр, создавая нагрузку на CPU. Vulkan и DirectX 12 позволяют высвободить ресурсы процессора, благодаря чему разработчики могут использовать больше объектов, текстур и эффектов на экране.

Тест 3DMark API Overhead постепенно наращивает количество запросов на отрисовку, пока в каждом из API частота кадров не снизится до 30 в секунду. Чем выше результирующее значение запросов, тем более эффективен тот или иной API на конкретной системе в данной задаче. Скачать 3DMark можно либо на сайте Futuremark, либо в Steam.

Google представила API для автоматического распознавания объектов на видео

В рамках конференции Cloud Next в Сан-Франциско Google анонсировала запуск нового прикладного программного интерфейса на базе машинного обучения, позволяющего автоматически распознавать объекты на видео и делать их доступными для поиска.

Video Intelligence API позволяет разработчикам создавать приложения, которые могут автоматически извлекать обнаруженные на видео объекты. До недавнего времени большинство похожих облачных API могли распознавать только изображения. Помимо извлечения метаданных, новый прикладной программный интерфейс позволяет помечать изменения в сценах.

Такие видеоролики должны храниться в облачном сервисе Google. Демонстрацию работы Video Intelligence API можно найти здесь. Разработчики могут подписаться на участие в закрытом бета-тестировании технологии по этой ссылке.

Как отметила главный научный сотрудник Google Cloud в сфере искусственного интеллекта и машинного обучения Фей-Фей Ли (Fei-Fei Li), мир пикселей выходит за рамки изображений. Работа с видео уже давно была проблемой для исследователей в сфере машинного обучения. Новый сервис же позволяет извлекать информацию из роликов с той же лёгкостью, что в и в случае с картинками.

В дополнение ко всему прочему Ли сообщила, что разработчикам по всему миру стал доступен Cloud Machine Learning Engine — инструмент компании для создания пользовательских моделей машинного обучения с использованием фреймворка TensorFlow.

Ли добавила, что компания хочет демократизировать технологии машинного обучения, создаваемые ею. Video Intelligence API — ещё один тому пример.

AMD Capsaicin & Cream на GDC 2017

AMD на конференции разработчиков игр GDC 2017 провела мероприятие Capsaicin & Cream с целью привлечь к себе внимание игроделов. Стоит помнить, что подразделение Radeon Technologies Group играет весьма важную роль на рынке консолей — графическая архитектура Graphics Core Next применяется уже несколько лет в обеих ключевых игровых приставках. С другой стороны, в секторе ПК доминирует по-прежнему NVIDIA с её 75 % рынка дискретной графики даже после некоторого возвращения позиций AMD с запуском GPU Polaris.

В этом году компания подготовила ряд любопытных анонсов для GDC. Все они прежде всего нацелены на разработчиков, но есть что рассказать даже рядовым пользователям и игрокам. По крайней мере, становится ясно, в каком направлении AMD прикладывает свои усилия.

Асинхронное репроецирование

В секторе виртуальной реальности компания сообщила о готовности запустить поддержку со стороны своих GPU функции асинхронного репроецирования (asynchronous reprojection) для шлемов HTC Vive и платформы SteamVR. Это аналог функции Oculus Asynchronous Timewarp (ATW), которая была представлена примерно год назад: техника создаёт кадры на основе прогноза движений пользователя, вставляя их между предыдущим и тем, который GPU ещё не успел рассчитать обычном образом.

Идея состоит в том, чтобы вместо повторного показа пользователю старого кадра обеспечить эффект более плавного движения и, соответственно, более глубокого погружения в VR. Эта уловка позволяет также снизить системные требования к компьютеру. Valve представила эту функцию в ноябре для владельцев Vive, но только на картах NVIDIA. В марте, с выходом нового драйвера Radeon Software, и владельцы ускорителей AMD смогут ею воспользоваться. AMD обещает, что поддержка в архитектуре GCN асинхронных вычислений позволяет добиться более качественного результата и быстрее выводить промежуточные кадры.

Упреждающий рендеринг в Unreal Engine 4.15

Кроме того, на GDC компания сообщила о новых сделках и партнёрских соглашениях. Например, в области VR было заявлено, что компания работает с Epic Games над улучшением поддержки виртуальной реальности в движке Unreal Engine. В частности, в Unreal Engine 4.15 была добавлена поддержка упреждающего рендеринга.

В последние годы традиционный упреждающий рендеринг вышел из моды в пользу популярной альтернативы — отложенного рендеринга, который позволяет накладывать менее ресурсоёмкие эффекты обработки кадра (объёмное освещение и так далее). Проблема отложенного рендеринга в том, что он почти не позволяет использовать «настоящие» методы полноэкранного сглаживания вроде MSAA. В традиционных играх это небольшая потеря — разработчики используют методы вроде FXAA, которые позволяют в достаточной мере компенсировать проблему. Но для VR этого мало — там нужно честное полноэкранное сглаживание на субпиксельном уровне для качественного преодоления алиасинга и других негативных эффектов на экране с относительно низким разрешением.

AMD считает, что возвращение упреждающего рендеринга в достаточно оптимизированном для высокой производительности виде позволит решить проблему полноэкранного сглаживания более эффективно, чем попытки реализовать эффект MSAA для отложенного рендеринга. Учитывая, что Unreal Engine остаётся одним из самых популярных игровых движков, это весьма важный шаг.

Стратегическое партнёрство с Bethesda

AMD также сообщила о подписании сделки с влиятельным издательством Bethesda. AMD называет соглашение первым в своём роде, ибо оно подразумевает не партнёрство на одну-две игры, а долговременное глубокое технологическое сотрудничество. Ключевая задача в данном случае — продвижение открытого низкоуровневого графического API Khronos Vulkan.

AMD и Bethesda собираются интегрировать поддержку Vulkan во все игры Bethesda, чтобы максимально задействовать преимущества низкоуровневого API, о которых в индустрии идёт речь уже несколько лет. Наиболее известная реализация поддержки Vulkan в настоящее время — это перезапуск Doom от Bethesda и id Software. Речь идёт не только об улучшении производительности видеокарт, но и о более эффективном использовании многоядерных процессоров — весьма кстати, ведь AMD представила 8-ядерные 16-поточные Ryzen.

Потоковая игровая служба от LiquidSky

Ещё один важный анонс — использование новых ускорителей AMD Vega в основе потоковой игровой службы LiquidSky (аналог GeForce Now). Компания LiquidSky уже создаёт и тестирует свою службу (пока это всего лишь бета). Она, как сообщатся, собирается использовать новую функцию Vega — Radeon Virtualized Encode. AMD не касается её подробно, но речь идёт об оптимизированном, более эффективном кодировании видео для виртуализированных окружений на графических ускорителях компании. Это логичное развитие блоков VCE в GPU Radeon.

Вообще AMD полагает, что её ускорители Vega будут всё активнее использоваться в облачных средах вроде Microsoft Azure или Amazon Web Services для различных высокопараллельных задач.

Khronos Group приступила к созданию стандарта OpenXR для VR и AR

Виртуальная и дополненная реальность получает всё большее распространение, пользуясь интересом со стороны потребителей и компаний, выпускающих оборудование, игры и ПО. Испытываются различные концепции и ищутся векторы развития: и хотя многие проекты находятся на уровне экспериментов, ряду компаний уже удалось построить бизнес на этом новом технологическом направлении.

В настоящее время для скорейшего развития рынка, адаптации технологий и продуктов необходимы объединение усилий и выработка общих правил взаимодействия для быстро растущего числа участников нового рынка. Из-за фрагментации API разработчикам приходится тратить значительно больше ресурсов для оптимизации своего ПО под разные аппаратные платформы. Учитывая, что даже крупным командам приходится концентрировать свои усилия на наиболее значимых устройствах, в самом тяжёлом положении находятся небольшие независимые группы.

Производителям оборудования тоже приходится прилагать больше усилий по привлечению к своей платформе разработчиков приложений, игр и движков. Ещё худшая ситуация складывается в сфере унификации оборудования и способов его взаимодействия. В конечном счёте разработчики склонны отказываться от поддержки непопулярного оборудования, а успех последнего напрямую зависит от контента и возможностей, которые устройство способно предложить покупателям. Возникают затруднения и у пользователей, вынужденных проверять совместимость своих устройств с играми и приложениями.

Некоторое решение разработчики нашли в промежуточном ПО, но по-прежнему требуется значительный объём дополнительной работы, чтобы расширить круг совместимого оборудования.

Принцип оптимизации приложений под оборудование сегодня, до внедрения OpenXR

Принцип оптимизации приложений под оборудование сегодня, до внедрения OpenXR

Объединение Khronos Group, ответственное за создание таких индустриальных стандартов, как Vulcan, OpenGL, OpenCL, WebGL, OpenVX и многих других, объявило об учреждении рабочей группы OpenXR, в которую войдут лидеры зарождающейся индустрии с целью выработки открытого стандарта приложений и устройств для VR- и AR-технологий.

OpenXR призван решить указанные проблемы и уменьшить количество вариантов оптимизаций под различные комбинации движков, программных платформ и устройств. Стандарт состоит из двух частей: API, который позволит разработчикам писать один код и запускать его где угодно, фокусируясь на развитии ПО, а не кроссплатформенных оптимизациях.

Вторая часть — аппаратный слой, призванный обеспечить совместимость нового оборудования с API, то есть своего рода драйверная модель. Производителям оборудования достаточно интегрировать код, соответствующий спецификациям аппаратного слоя, чтобы их продукт стал совместим с существующим набором приложений и игр для OpenXR.

Принцип оптимизации приложений под оборудование после внедрения OpenXR

Принцип оптимизации приложений под оборудование после внедрения OpenXR

В основу стандарта положен принцип широкого различия в производительности и возможностях VR- и AR-решений при сохранении единства экосистемы. В результате стандартизации конечный пользователь получит гораздо более широкий выбор совместимых аппаратных и программных продуктов.

В настоящее время в состав группы вошли Intel, AMD, ARM, Qualcomm, NVIDIA, MediaTek, Imagination, Samsung, LG, Oculus, Google, Unity, Epic Games, Valve, Sony Interactive Entertainment, Mozilla и другие компании. Хотя в объединении уже состоят столь важные игроки рынка, безусловно, это только начало расширения индустриального альянса. Например, в нём пока нет одного из лидеров на рынке аппаратных решений — компании HTC с её успешным набором виртуальной реальности Vive.

Khronos приглашает всех своих заинтересованных членов принять участие в разработке нового востребованного стандарта и обещает, что внедрение OpenXR начнётся в 2018 году.

Google закроет интерфейс программирования приложений Hangouts

Google без лишнего шума сообщила о закрытии интерфейса программирования приложений (API) Hangouts. С 25 апреля разработчики больше не смогут использовать его для создания приложений, также будут закрыты все существующие программы, базирующиеся на API. Компания не сообщала о закрытии в своём блоге, а просто внесла изменения в список часто задаваемых вопросов, а также уведомила разработчиков по почте.

TechCrunch

TechCrunch

В качестве примеров использования API Hangouts можно привести селфи-маски дополненной реальности, голосования и совместное рисование, как в приложении Scoot & Doodle. Однако теперь, когда место Hangouts как потребительского мессенджера заняло приложение Duo, Google больше не видит надобности в таком API.

«Для дальнейшего продвижения наших усилий мы закроем Google+ Hangouts API, позволяющий разработчикам создавать приложения для старых версий видеозвонков Hangouts, — написала Google в своём письме разработчикам. — Этот API изначально предназначался для поддержки социальных сценариев для пользователей в рамках Google+, однако теперь Hangouts направлен на корпоративное использование. Мы понимаем, что это окажет воздействие на разработчиков, сделавших вклад в нашу платформу. Мы внимательно рассмотрели это изменение и верим, что это позволит нам дать пользователям более точный опыт настольных видеозвонков Hangouts».

TechCrunch

TechCrunch

Среди возможностей, на которые закрытие API не распространяется — интеграция с корпоративными мессенджерами вроде Slack и собственными инструментами Google из разряда Hangouts on Air вроде Toolbox, Control Room и Cameraman.

В бета-версии Chrome для Android появилась поддержка виртуальной реальности

Виртуальная реальность с каждым днём становится всё популярнее, и теперь технология стала доступна веб-разработчикам и, соответственно, пользователям Сети. Благодаря этому к контенту виртуальной реальности можно легко и быстро получать доступ через разные браузеры и устройства. А разработчики могут быть уверены, что их веб-приложение смогут запустить на разных шлемах виртуальной реальности.

Очевидно, что пока технология ещё развивается, доступна она не во всех браузерах и не на всех устройствах. Своего рода первопроходцем здесь выступает Google, выпустившая бета-версию Chrome 56 для Android с поддержкой интерфейсов программирования приложений (API) WebVR и GamePad, на использование которых разработчики уже сейчас могут подписываться через программу Origin Trials.

API WebVR предоставляет доступ к возможностям ввода и вывода устройств виртуальной реальности вроде Daydream View, а также к данным о местоположении пользователя и направлении его движения. Благодаря этому веб-приложения могут обрабатывать стереоскопические 3D-сцены и переносить их на экраны шлемов. API GamePad, в свою очередь, даёт возможность использовать данные с контроллеров движений для обеспечения естественного взаимодействия в пределах виртуальной реальности.

Программа Origin Trials позволяет разработчикам временно активировать функции виртуальной реальности для всех пользователей, посещающих их сайты. API WebVR всё ещё развивается и, несомненно, претерпит ряд изменений на основе отзывов разработчиков, прежде чем будет активирован по умолчанию на всех страницах. В Chrome 57 в API будут внесены некоторые улучшения в плане производительности, а со временем WebVR станет доступен и в настольных версиях браузера, а также владельцам Google Cardboard.

Разработчики получили доступ к API Google Assistant

Ещё в октябре компания Google анонсировала свою новую платформу для разработчиков Actions on Google, которая позволяет раскрыть потенциал последних технологий искусственного интеллекта. Теперь эта платформа стала доступной разработчикам, позволяя им предоставлять свои сервисы через популярного Google-помощника.

Новое API даёт доступ к интеллектуальным функциям

Новое API даёт доступ к интеллектуальным функциям

Новая платформа в будущем позволит создавать два типа так называемых действий (Actions) — прямые (Direct) и диалоговые (Conversation). Примером прямого действия может быть просьба пользователя включить свет в большой комнате или выключить телевизор. То есть поступает запрос и интеллектуальная система выполняет требуемое действие. Диалоговое действие подразумевает прохождение пользователя через дополнительные вопросы. Например, пользователь просит вызвать такси. Google Assistant может спросить, какую службу такси предпочитает пользователь, какого класса такси вызвать, куда он поедет, сейчас вызвать такси или на другое время и т.д. Actions on Google пока поддерживает только действия типа Conversation.

На данный момент платформа полностью поддерживает только Google Home, но компания обещает в скором времени добавить поддержку действий в Pixel и Allo.

Продвижение Google on Assistant поможет Google усилить свои позиции против таких конкурентов, как Amazon.

Firefox перестанет поддерживать небезопасный API

Неожиданно Mozilla объявила о намерении отказаться от поддержки Battery Status API в своём браузере Firefox. По мнению разработчиков, этот шаг повысит безопасность данного продукта.

Battery Status API позволяет веб-сайтам получать всевозможную информацию о заряде батареи мобильного устройства, на котором используется Firefox, и своевременно сохранять критически важную информацию на жёстком диске до его отключения.

Однако со временем Mozilla стала замечать, что основными потребителями API являются рекламодатели, которые отслеживают посещаемость тех или иных сайтов по данным о заряде батареи и идентификаторам устройств пользователей.

Расценив подобные действия со стороны рекламщиков как угрозу конфиденциальности личной информации, Mozilla решила отказаться от использования Battery Status API в своём продукте. Компания подтвердила, что грядущие изменения вступят в силу вместе с выходом Firefox 52, который состоится 6 марта 2017 года.

Google поможет разработчикам приложений для Android эффективнее использовать данные геолокации

Компания Google создала единый API, который позволит делать программы более привязанными к контексту и информации о месторасположении пользователя. Так называемый Awareness API использует данные о месторасположении пользователя и другие контекстные данные (время, посещаемые места, использование наушников, общая активность и сведения о погоде) со смартфона, чтобы помочь приложениям создавать собственные модели поведения. Новоявленный API поможет снизить потребление смартфоном энергии батареи для увеличения показателя автономной работы. Awareness API состоит из двух отдельных API, способных работать обособленно друг от друга. Речь идёт о Fence и Snapshot.

Суть Fence API завязана на геолокации, что должно позволить разработчикам выгодно использовать сведения о месторасположении пользователя. Например, создатели приложений, завязанных на учёте тренировок, смогут предлагать пользователю запускать любимый плейлист, стоит только ему приблизиться к тренажёрному залу. Snapshot API создан для сбора другой информации с устройства пользователя.

На данный момент финальная версия Awareness API ещё не представлена. Но разработчики из Google уже начали принимать заявки на участие в предварительном тестировании.

Специалисты сходятся во мнении, что представленный API призван составить достойную конкуренцию предиктивной функции приложений для устройств Apple, которая, например, способна напомнить пользователю открыть приложение Starbucks, стоит только ему пройти мимо подобного заведения.  

Более подробную информацию об Awareness API можно получит на официальном сайте разработчиков. 

Microsoft раскрывает некоторые детали о Shader Model 6.0

Ключевым компонентом API Direct3D является так называемая Shader Model: от её воплощения и версии зависят возможности, доступные разработчикам игр. Последней на сегодня версией является Shader Model 5.0, остающаяся практически неизменной со времён начала внедрения DirectX 11 в 2009 году. Но для DirectX 12 и будущих приложений нужен новый подход. Microsoft понемногу раскрывает его тайны.

Новая шейдерная модель получила версию 6.0, что вполне закономерно. В сравнении с предыдущей версией она обеспечивает оптимальный путь шейдерного кода к финальной стадии — «железу», то есть графическому процессору. Предыдущая версия полагается в плане компиляции и оптимизации кода HLSL на офлайновый компилятор FXC и поддерживает версии HLSL с v1.4 до v5.1 включительно.

Shader Model 6.0 возлагает задачу первичной компиляции HLSL на транслятор Clang, а оптимизация кода осуществляется в несколько проходов на LLVM (Low Level Virtual Machine). Поскольку поддерживается HLSL-код версий 5.0 и выше, от внедрения Shader Model 6.0 могут выиграть существующие приложения DirectX 11 и DirectX 12. Игры и программы, использующие более ранние версии API, продолжат использовать путь Shader Model 5.0. Как будет внедряться новая шейдерная модель, пока не известно.