Теги → алгоритм
Быстрый переход

Facebook создала инструмент для распознавания дипфейков, позволяющий вычислить автора подделки

Для Facebook дипфейки (поддельные изображения, созданные ИИ) в настоящий момент не являются большой проблемой, однако компания продолжает финансировать исследования, связанные с этой технологией, чтобы иметь возможность защититься от потенциальных угроз в будущем. Одна из последних работ в этом направлении была проведена вместе с учёными из Университета штата Мичиган. Команда специалистов разработала метод декомпиляции дипфейков.

Специалисты объясняют, что их технология позволяет проводить анализ изображений, созданных алгоритмами ИИ, и выявлять идентифицирующие характеристики модели машинного обучения, с помощью которой была создана конкретная подделка.

Программа полезна тем, что в перспективе сможет помочь Facebook отслеживать злоумышленников, распространяющих дипфейки с различными преступными целями. Например, пользователей могут шантажировать с помощью поддельных интимных фото или видео. Отмечается, что разработка декомпилятора дипфейков ещё не завершена, поэтому программа пока не готова к развёртыванию.

Предыдущие исследования в этой области позволили определить, какая из известных моделей ИИ сгенерировала тот или иной дипфейк, однако новая разработка специалистов из Facebook и Университета штата Мичиган лучше подойдёт для практического применения. Она позволяет определять архитектурные особенности систем для создания дипфейков, основанные на неизвестных моделях. Эти характеристики, известные как гиперпараметры, присутствуют в каждой модели машинного обучения. В совокупности они создают уникальный отпечаток на готовом изображении, который затем можно использовать для определения источника дипфейка.

По словам ведущего специалиста Facebook Тала Хасснера (Tal Hassner), участвующего в проекте разработки декомпилятора дипфейков, возможность выявления особенностей неизвестных моделей очень важна, поскольку ПО для дипфейков очень легко изменять, что позволяет злоумышленникам эффективно заметать следы.

Несуществующие люди, созданные программой для генерации дипфейков (Изображение: The Verge)

Несуществующие люди, созданные программой для генерации дипфейков (Изображение: The Verge)

«Предположим, злоумышленник создаёт множество разных дипфейков и загружает их на разные платформы под видом разных пользователей. Если для создания дипфейков применялась новая модель ИИ, которую никто раньше не видел, то выяснить все детали, связанные с созданием изображения будет невозможно. С новой технологией мы можем определить, что загруженное на разные платформы изображение было создано одной и той же моделью машинного обучения. А получив доступ к ПК, на котором это изображение было создано, мы сможем уверенно указать на виновника», — объяснил Хасснер.

Хасснер сравнивает свою разработку с методом экспертно-криминалистического анализа, использующегося для определения модели фотоаппарата, с помощью которого были произведены снимки. Суть анализа заключается в поиске на этих снимках определённых закономерностей или оптических дефектов, создаваемых только конкретной моделью камеры.

«Не каждый может создать свою собственную камеру, но любой, кто обладает достаточным опытом и доступом к обычному ПК, может создать свою собственную модель для генерации дипфейков», — добавляет Хасснер.

Созданный учёными из Университета штата Мичиган и Facebook алгоритм способен не только определять черты той или иной генеративной модели, но также выяснять, какая из известных моделей могла применяться в создании дипфейка и является ли вообще представленное изображение подделкой. По словам Хасснера, система обладает весьма высоким показателем эффективности. Однако точных значений не приводит.

Следует указать, что даже самые современные алгоритмы определения дипфейков в настоящий момент далеки от совершенства. И сами специалисты, занимающиеся этим вопросом, прекрасно это осознают. Когда в прошлом году Facebook проводила конкурс, посвящённый поиску дипфейков, победителем оказался алгоритм, который мог определять недостоверность изображений только в 65,18 % случаев. Частично это объясняется тем, что область разработки генеративного ИИ очень активно развивается. Новые методы публикуются практически каждый день и фильтры распознавания попросту за ними не поспевают.

Разработчики TikTok откроют доступ к своему мощному алгоритму рекомендаций сторонним компаниям

Десятого июня компания ByteDance, владеющая TikTok, запустила бренд Volcano Engine, под которым будет предлагать сторонним компаниям свой алгоритм персонализированных рекомендаций. Таким шагом китайская компания продемонстрировала своё стремление выйти за рамки потребительского бизнеса.

Screen Shot

Screen Shot

Система рекомендаций, используемая в приложении TikTok, считается одним из главных секретов его успеха. Этот алгоритм стал одной из причин беспокойства администрации бывшего президента США Трампа, которая не могла отрицать, что TikTok оказывает сильное влияние на жителей Соединённых Штатов. После того, как в должность президента США вступил Джо Байден, его команда пересмотрела отношение к TikTok, WeChat и другим популярным китайским сервисам. Одним из условий продолжения присутствия ByteDance на рынке США стало требование открыть доступ к ключевым компонентам ПО. Китайская компания решила извлечь из этого выгоду, и теперь будет предлагать свой мощный алгоритм корпоративным клиентам.

До сих пор основной доход ByteDance приходился на потребительские продукты, такие как TikTok. Теперь компания нацелилась на корпоративный рынок. Volcano Engine, позиционируемый как интеллектуальная технологическая платформа, предоставляет обширный список вспомогательных инструментов, к которым могут получить доступ корпоративные клиенты. С их помощью компании смогут оптимизировать внутренние базы данных, производить сегментацию клиентов и тестировать продукты, и это далеко не все возможности алгоритма. К сожалению, в условиях высокой конкуренции на рынке IT, потенциал такого мощного продукта, как Volcano Engine, не может не вызывать опасений.

Screen Shot

Screen Shot

Сама ByteDance отмечает, что Volcano Engine фактически уже применяется сторонними компаниям около года. Алгоритмом успели воспользоваться торговая площадка JD.com, производитель смартфонов Vivo и автомобильная компания Geely. Теперь компания планирует расширить своё портфолио рядом общедоступных облачных вычислительных услуг, как сообщает Reuters. Сама ByteDance пока не прокомментировала свои планы касаемо облачных сервисов.

В России создан математический аппарат для распознавания кибератаки в электронном шуме

Группа ученых из Московского физико-технического института и Казанского национального исследовательского технологического университета им. А. Н. Туполева разработала математический аппарат, который может привести к прорыву в области сетевой безопасности. Математики помогли распознать злоумышленника при анализе электронного шума в линии передачи данных. Технология может работать на слабом оборудовании и предупреждать атаки, что раньше было невозможно.

Источник изображения: МФТИ

Источник изображения: МФТИ

Результаты работы опубликованы в журнале Mathematics. Учёные обобщили показатель Хёрста, добавив в него намного больше коэффициентов для более полного описания динамики анализируемого трафика. Подобный шаг позволяет анализировать и находить закономерности там, где их нет по определению из-за множества случайных факторов.

Фактически представлен математический аппарат для анализа электронного шума на линии, куда входит как полезный трафик, так и тепловой шум передатчика. Это как узнавать радиста по почерку. Благодаря этой технологии можно даже выстраивать криптозащиту, научив систему подтверждать доверенный источник передачи по тепловому шуму передатчика.

«Таким образом удается производить «на лету» выделение значимых признаков и применять элементарные методы машинного обучения для поиска сетевых атак. В совокупности получается точнее тяжелых нейронных сетей, и такой подход можно разворачивать на маломощных промежуточных устройствах», — сказано в пресс-релизе на сайте МФТИ.

Представленное российскими математиками решение позволяет задать параметры для анализа и провести анализ процессов, для которых нет точного математического описания. Это открывает серьёзные перспективы не только в области сетевой безопасности, но также в сфере прогнозирования и анализа сложных систем и не обязательно электронных. Развитие живых и, в том числе, наших организмов тоже не поддаётся точной математике, а понимать, что с ними происходит в динамике и к чему это приведёт — это заветная мечта каждого здравомыслящего человека.

NASA занялось картографированием воздушных течений в атмосфере Земли, что повысит точность прогнозов погоды

До сих пор при моделировании прогнозов погоды на Земле не учитывались такие глобальные явления, как перенос аэрозолей и легчайших частиц атмосферными течениями. Между тем, многие из воздушных «рек» имеют стабильные маршруты и переносят более-менее одинаковые аэрозоли из одних и тех же географических мест. Специалисты из NASA решили внести ясность в вопрос формирования погодных явлений атмосферными течениями и обещают повысить точность прогнозов.

Спутниковый снимок по переносу песка из Сахары на территорию США. Источник изображения: NASA

Спутниковый снимок по переносу песка из Сахары на территорию США. Источник изображения: NASA

В своём исследовании учёные использовали наблюдения за воздушными течениями с 1997 по 2014 год. В процессе изучения воздушных течений и перенесённых ими аэрозолей — пыли, сажи, пепла, морской соли и других частиц и водных соединений — был разработан алгоритм для оценки распространения взвешенных частиц в масштабах планеты.

За основу оценки распространения был взят алгоритм оценки движения водяного пара в атмосфере и изменён для слежения за частицами из жерл действующих вулканов (сульфитами), за сажей и пеплом от лесных пожаров и от сжигания ископаемого топлива, за распространением песка из пустынь и даже за переносом растительных патогенов, что может навредить фермерству. Затем алгоритм движения воздушных аэрозолей был наложен на цифровую погодную модель Земли, и исследователи впервые смогли оценить воздушные течения и перенос аэрозолей на глобальный климат нашей планеты.

Выяснилось, что от 40 % до 100 % аэрозолей воздушными атмосферными потоками переносятся в ходе не очень частых экстремальных погодных явлений. Поэтому такие атмосферные явления как пылевые облака, накрывающие города, или смог от горящих лесов случаются не так часто и не с такой интенсивностью, как это происходит на местах. Иными словами, интенсивность переноса аэрозолей воздушными потоками крайне неравномерная по времени. Также учёные выяснили, что одни и те же географические местности служат источником одних и тех же аэрозолей, например, пустыни пылят, а леса чадят.

Новый подход к анализу течений атмосферных рек в глобальном масштабе позволит исследователям начать изучение многочисленных характеристик целого ряда явлений, включая взаимодействие со штормами и глобальным потеплением. Также новый подход поможет учесть опасность распространения растительных патогенов и повысит продовольственную безопасность.

Китайцы сокрушили миф о квантовом превосходстве Google. Для этого понадобилось всего 60 видеокарт NVIDIA

Группа исследователей из пекинского Института теоретической физики Китайской академии наук повторила эксперимент компании Google по демонстрации квантового превосходства. На решение специфической задачи квантовая система Google Sycamore затратила 3 минуты и 20 секунд. Ту же самую задачу новый алгоритм китайских учёных без затей решил за 5 дней всего на 60 видеокартах компании NVIDIA. Квантового превосходства Google не случилось. Ждём нового.

Квантовая система Google Sycamore. Источник изображения: Google

Квантовая система Google Sycamore. Источник изображения: Google

О достижении квантового превосходства — способности быстро решать задачи, на которые классическим компьютерам требуется буквально вечность — Google сообщила в октябре 2019 года. По словам компании, её квантовая система Sycamore решила за 200 секунд задачу, на решение которой самому быстрому на тот момент суперкомпьютеру IBM Summit потребовалось бы 10 тыс. лет. В IBM оспорили это утверждение. Компания заявила, что улучшенный алгоритм мог бы решить квантовую задачу Google за 2,5 дня. Правда, компания не подтвердила эти слова практическим экспериментом.

Вместо IBM заявление Google о квантовом превосходстве опровергли учёные из Китая. Они разработали алгоритм, который на 60 видеокартах NVIDIA на графических процессорах V100 и A100 решил задачу Google примерно за пять дней. Тем самым, кстати, китайские исследователи показали, что суперкомпьютеры тоже не всегда самые лучшие инструменты, и важна не сама вычислительная мощность, а умение ею пользоваться. 

В то же время необходимо отметить, что поиск доказательств квантового превосходства той или иной квантовой платформы имеет больше спортивный характер, чем прикладной (китайцы тоже играют в эту игру). Но это позволяет нащупать границу между классическими и квантовыми вычислениями, ведь полной ясности в прикладных возможностях последней всё ещё нет. Китайцы, к слову, в новой пятилетке планируют перевести поиск квантовых алгоритмов из теоретической плоскости в практическую. Посмотрим, что из этого получится.

Deepfake можно распознать по неправильному отражению в глазах людей

Исследователи из Университета Буффало разработали инструмент для почти безошибочного определения дипфейков (Deepfake) на цифровых изображениях людей. Новый алгоритм ошибается всего в шести случаях из ста. Это может помочь в борьбе с ложной информацией, но алгоритм имеет ряд ограничений.

Анализ отражения в глазах показал, что все эти люди не настоящие. Источник изображения:

Анализ отражения в глазах показал, что все эти люди не настоящие. Источник изображения: University at Buffalo

Предложенный исследователями алгоритм исследует отражения в глазах людей на цифровых фотографиях. На настоящих изображениях отражения в глазах, как правило, одинаковые, тогда как нейросети в процессе создания дипфейка оперируют множеством цифровых изображений людей из обширной базы данных, что ведёт к синтезу разных отражений на одной и другой роговице глаза.

В частности, анализ базы данных сгенерированных нейросетью StyleGAN2 изображений ненастоящих людей показал, что алгоритм способен выявить дипфейк в 94 % случаев портретных изображений людей, сделанных с хорошим освещением и с достаточно большим разрешением. В то же время точность стремительно падала, если разрешение снижалось или освещения было недостаточно для формирования отражения от роговицы.

Также следует признать, что при определённом освещении отражения в глазах могут отличаться, как и нельзя данный алгоритм применить для случаев, когда второй глаз не виден или находится в тени. Тем не менее, любое продвижение по пути разоблачения дипфейков можно только приветствовать. Со временем распространение поддельной цифровой аудиовизуальной информацией обещает стать серьёзной проблемой.

Российские учёные установили новый мировой рекорд в области квантовой криптографии

Квантовая криптография с использованием квантового распределения ключей рассматривается как инструмент для длительной надёжной защиты данных и обеспечения безопасности переговоров на высшем уровне. Но по мере цифровизации повседневной жизни граждан области применения оборудования для квантового распределения ключей шифрования будут расширяться, о чём необходимо заботиться заранее.

Источник изображения: НИТУ «МИСиС»

Источник изображения: НИТУ «МИСиС»

Массовое применение квантовой криптографии требует совершенствования алгоритмов и повышения эффективности процессов обработки квантового распределения ключей. Группа российских учёных центра компетенций НТИ «Квантовые коммуникации» НИТУ «МИСиС», Российского квантового центра и научно-производственной компании QRate преуспели на этом направлении.

В частности, российские исследователи разработали алгоритмы, которые настолько повысили эффективность систем квантового распределения ключей в области так называемой классической постобработки, что достижение обновило мировой рекорд в этой области. Поясним, что классическая постобработка — это набор мер, направленных на исправление возможных ошибок в квантовых ключах, и исключение из них потенциально доступной злоумышленнику информации.

Кроме того, в рамках совершенствования алгоритмов коррекции ошибок в процессах с квантовым распределением ключей был предложен новый и более устойчивый к внешним воздействиям алгоритм. Для этого учёные обратились к так называемым полярным кодам (от слова поляризация), что позволило устройствам для квантового распределения ключей стабильно работать в условиях реальной жизни под воздействием различных факторов окружающей среды.

Источник изображения: НИТУ «МИСиС»

Источник изображения: НИТУ «МИСиС»

Как поясняют разработчики, за счёт использования полярных кодов работа системы не поддаётся влиянию скорости ветра, осадков, повышения или снижения температуры. Например, это поможет в будущем создать невзламываемую защиту беспилотного транспорта, который будет полагаться на качество и защищённость беспроводных каналов связи. Будущее рождается сегодня. Российские исследователи помогают этому как могут.

Военные США задумались о создании самоуправляемых машин для бездорожья

Современные автономные автомобильные платформы неплохо проявляют себя в предсказуемой (обжитой) среде, но в условиях бездорожья алгоритмы дают сбой. Быстрая смена окружения и хаос вокруг не позволяют автономным машинам передвигаться так же быстро, как если бы транспортным средством управлял человек. Военные США предлагают изменить ситуацию, в чём должна помочь программа DARPA RACER.

Агентство перспективных исследований МО США DARPA инициировало запуск четырёхлетней программы Robotic Autonomy in Complex Environments with Resiliency (RACER). Аббревиатура RACER (по-русски гонщик) расшифровывается как автономность роботов в сложных средах с отказоустойчивостью. В рамках программы предстоит создать полигон для испытания беспилотных машин с новыми алгоритмами вождения и сами алгоритмы, хотя испытания будут проводиться во всех уголках страны.

В ходе испытания предполагается выжать из существующих датчиков и методов ориентирования буквально все соки — выбрать все лимиты, ограничивающие современные сенсорные системы. Но основной упор будет на программное обеспечение. «Чтобы достичь целей RACER по повышению скорости и устойчивости, нам необходимо использовать подходы к обучению, которые автоматически настраивают параметры системы в реальном времени», — сказал Стюарт Янг, менеджер программы, возглавляющий проект RACER. «Успешное программное обеспечение будет извлекать функции из данных датчиков и использовать эту информацию для принятия решений о вождении на местности».

ByteDance предупредила США, что алгоритм TikTok не продаётся

Хотя до решающего дня, назначенного президентом США Дональдом Трампом в качестве крайнего срока для продажи видеосервиса TikTok, остались считаные дни, с этим вопросом по-прежнему нет ясности. Впрочем, как и с условиями будущей сделки (если, конечно, она состоится).

REUTERS

REUTERS

Как сообщает источник гонконгской газеты South China Morning Post, владеющая сервисом TikTok компания ByteDance из Пекина не собирается продавать или передавать алгоритм, лежащий в основе популярного приложения для обмена видео, в рамках какой-либо сделки по продаже или отчуждению. По крайней мере, так решили в ходе обсуждения в совете директоров китайской компании: «Можно продать машину, но не двигатель».

«Компания [ByteDance] не будет передавать исходный код любому покупателю из США, но технологическая команда TikTok в США может разработать новый алгоритм», — рассказал информатор South China Morning Post. По его словам, ByteDance уведомила власти США и потенциальных участников торгов о своём решении.

Если президент США отклонит это условие, то продажа TikTok будет сорвана, и видеосервис станет недоступным для американских пользователей после установленного крайнего срока продажи — 15 сентября.

Подключить человеческий мозг к компьютеру поможет искусственный интеллект

Заманчивая перспектива обеспечить прямую передачу данных в мозг из компьютера и обратно неизбежно упирается в чрезвычайную сложность работы человеческого мозга. Это как в облаке комаров попытаться расслышать звук конкретного насекомого. Но такие задачи по силам алгоритмам машинного обучения, что пытаются доказать исследователи из Сколтеха.

Источник изображения: iStock/mustafahacalaki

Источник изображения: iStock/mustafahacalaki

Группа учёных из Сколтеха вместе с коллегами из INRIA и RIKEN Advanced Intelligence Project провела исследование ряда современных алгоритмов машинного обучения, которые созданы решать задачи по определению умственной нагрузки и эмоциональных состояний человека. Попутно учёные создали два новых алгоритма, так модифицировав их прежние версии, что смогли улучшить компьютерное распознавание эмоций и интенсивности размышлений человека.

Для исследований были выбраны алгоритмы из двух категорий: классификаторов на основе римановой геометрии (RGC) и свёрточных нейронных сетей (CNN). Выбранные алгоритмы ранее уже показали свою эффективность при использовании в «умных» протезах для управления отсутствующими конечностями. Но это так называемые «активные интерфейсы». Для определения эмоционального состояния и умственных усилий чаще используются «пассивные интерфейсы» ИМК (интерфейс мозг-компьютер) при помощи электроэнцефалографии (ЭЭГ). Для этого не нужно прямого доступа к мозговым тканям живого человека, достаточно дистанционно измерять электрическую активность головного мозга.

В процессе обработки данных о состоянии активности мозга выяснилось, что алгоритмы с римановой оптимизацией неплохо проявили себя как с оценкой степени умственной нагрузки у испытуемых, так и при определении эмоционального состояния человека. Нейронная сеть же оказалась впереди по точности определения умственной нагрузки, но спасовала при оценке эмоций.

«На следующих этапах исследования мы планируем использовать более сложные методы на основе искусственного интеллекта (ИИ) и, в первую очередь, методы глубокого обучения, с помощью которых можно выявлять самые незначительные изменения в сигналах и паттернах мозга», ― сказал один из авторов исследования профессор Центра Сколтеха по научным и инженерным вычислительным технологиям для задач с большими массивами данных (CDISE) Анджей Чихоцкий (Andrzej Cichocki).

Суперкомпьютер «Жорес» Сколтеха помог вычислить главные факторы повышения урожайности даже по неполным данным

Исследователи из Сколтеха без полного набора данных о почвах и методах хозяйствования в Черноземье смогли вычислить главные факторы повышения урожайности. В этом им помог суперкомпьютер «Жорес», развёрнутый в Сколтехе два года назад. Предложенный алгоритм обещает оптимизировать выращивание сельскохозяйственных культур даже на основе ограниченных данных о сельскохозяйственной деятельности в определённом регионе.

В своих расчётах учёные использовали данные экспериментальных наблюдений за сезонным севооборотом сахарной свеклы (Beta vulgaris subsp. vulgaris), ярового ячменя (Hordeum vulgare) и сои (Glycine max) в Черноземье в период с 2011 по 2017 год. На основе этих данных и анализа шести основных параметров почвы была проведена калибровка цифровой модели MONICA для расчёта урожайности.

Фактически у учёных была только информация об урожаях и, вероятно, метеорологическая. Что и как происходит в почве: объёмы внесения удобрений, режимы обработки и так далее ― это тайна за семью печатями, хотя для корректного прогнозирования урожаев цифровые модели должны проходить калибровку, в том числе, исходя из состояния почв. Тем не менее, опыт превзошёл ожидания и учёные не только смогли понять, что и как влияет на урожайность в сочетании со многими факторами, но и запустить процесс моделирования с интенсивностью по полмиллиона циклов в час вместо одного вычислительного цикла за день, как это было раньше.

«В нашей стране получение информации о почвах ― крайне сложная проблема. К сожалению, данные о свойствах почв и урожайности не публикуются. Но мы нашли выход из ситуации, настроив суперкомпьютер "Жорес" для решения этой проблемы. Теперь мы можем моделировать все возможные варианты и определять наиболее важные параметры урожайности, не выполняя при этом трудоемких и дорогостоящих операций. Мы надеемся, что наши достижения будут способствовать дальнейшему внедрению цифровых технологий в российском земледелии», ― отметила одна из участниц проекта, старший преподаватель Мария Пукальчик.

Fujitsu и канадская Quantum Benchmark совместно разработают «безошибочные» квантовые алгоритмы

Квантовые расчёты носят вероятностный характер, поэтому ошибки в квантовых вычислениях ― это неизбежная данность. Другое дело, что их можно минимизировать. Вместе решать эту проблему будут исследователи из японской компании Fujitsu Laboratories и канадской Quantum Benchmark.

Сегодня компании Fujitsu Laboratories и Quantum Benchmark выпустили пресс-релиз, в котором объявили, что будут проводить совместные исследования в области разработки квантовых алгоритмов с использованием фирменной технологии подавления ошибок Quantum Benchmark. Это технология True-QTM. Компания Fujitsu внедрит её в фирменные вычислительные квантовые платформы на основе так называемого квантового отжига.

Квантовый отжиг, в свою очередь, опирается на решение вычислительных задач с помощью комбинаторной оптимизации. Для решения подобных квантовых задач подходят современные вычислительные платформы. У Fujitsu есть соответствующее оборудование и, что важно, проверенные алгоритмы. Это означает, что партнёрам нет нужды дожидаться выхода криогенных или иных квантовых систем. Ряд квантовых алгоритмов и задач можно будет решать на современных компьютерах.

Стартап Quantum Benchmark основан ведущими исследователями из Института квантовых вычислений Университета Ватерлоо. В активе молодой компании программные инструменты для выявления и классификации ошибок, подавления ошибок и проверки производительности оборудования для квантовых вычислений. В основе совместных исследований Fujitsu и Quantum Benchmark будет лежать практическая адаптация запатентованной технологии True-QTM компании Quantum Benchmark. Ожидается, что на выходе партнёры получат устойчивые к ошибкам квантовые алгоритмы для решения проблем в области материаловедения, разработки лекарств и финансов, которые трудно решить с помощью обычных компьютеров.

Первый период совместных работ продлится с апреля 2020 года по март 2021 года с планами продлить работы после апреля 2021 года. Если всё будет хорошо, к 2023 году партнёры планируют продемонстрировать новые приложения на 100+ кубитовом квантовом компьютере. На плечи Fujitsu Laboratories ляжет обязанность разработки квантового алгоритма для таких приложений, как квантовая химия и машинное обучение, а также создание технологии анализа производительности для квантовых алгоритмов в моделировании.

Компания Quantum Benchmark, в свою очередь, обещает помочь с внедрением технологии диагностики ошибок True-QTM в современные платформы квантовых вычислений и поддержать на них реализацию квантовых алгоритмов.

Toshiba разработала «квантовые» алгоритмы для запуска на современных компьютерах

Как недавно выяснилось, компании Toshiba не нужно ждать появления квантовых вычислительных систем, чтобы уже сегодня начать решать немыслимые для выполнения на современных компьютерах задачи. Для этого в Toshiba разработаны программные алгоритмы, аналогов которым нет ни у кого.

Впервые описание алгоритма было опубликовано в статье на сайте Science Advances в апреле 2019 года. Тогда, если верить сообщениям, многие эксперты со скептицизмом встретили заявление Toshiba. А суть этого заявления в том, что для решения ряда специфических задач, о которых мы скажем ниже, подойдёт обычное компьютерное «железо» ― серверное, для ПК или связки из видеокарт ― которое будет решать задачи до 10 раз быстрее, чем оптический квантовый компьютер.

После публикации статьи в течение 2019 года Toshiba провела ряд симуляций с использованием «квантового» алгоритма. Как отчитались в компании, на стенде на основе матрицы ПЛИС с 2000 узлами (которые играли роль переменных) и примерно 2 млн межузловых соединений решение вычислялось за 0,5 с. Запуск поиска решения на лазерном (оптическом) квантовом симуляторе решал задачу в 10 раз медленнее.

Эксперименты по симуляции арбитража в валютном трейдинге дали решение всего за 30 миллисекунд с 90-процентной вероятностью совершения прибыльной сделки. Надо ли говорить, что разработка сразу же заинтересовала финансовые круги?

И всё же, Toshiba пока не спешит предоставлять коммерческие услуги с использованием «квантовых» алгоритмов. Если верить декабрьскому сообщению Nikkei, Toshiba планирует создать дочернюю компанию для практического тестирования разработанных алгоритмов в сфере моментальных сделок на валютных биржах. Заодно немного заработает, если алгоритм настолько хорош, как про него рассказывают.

Что касается самого алгоритма, то он представляет собой моделирование (симуляцию) разветвлений или бифуркационные явления в сочетании с такими аналогами в классической механике, как адиабатические и эргодические процессы. Иначе и быть не может. Апеллировать напрямую к квантовой механике алгоритм не может, поскольку работает на классических ПК с фон-неймановской логикой.

Адиабатические процессы в термодинамике подразумевают непроходимые наружу или замкнутые в себе процессы, а эргодичность означает, что систему можно описать по наблюдению за одним из её элементов. В целом алгоритм ищет решения по так называемой комбинаторной оптимизации, когда из великого множества переменных нужно найти несколько оптимальных комбинаций. Прямым вычислением такие задачи решить невозможно. К таким задачам относится логистика, молекулярная химия, трейдинг и многое другое полезное и интересное. Широкое практическое применение своих алгоритмов Toshiba обещает начать в 2021 году. Она не желает ждать 10 или больше лет до появления квантовых компьютеров, чтобы решать «квантовые» задачи.

Arch Linux перешёл на архивы zstd: 1300% к скорости распаковки пакетов

Разработчики Arch Linux сообщили, что изменили схему упаковки пакетов с алгоритма. Ранее использовался алгоритм xz (.pkg.tar.xz). Теперь же задействован zstd (.pkg.tar.zst). Это позволило увеличить скорость распаковки на 1300 % ценой незначительного увеличения размера самих пакетов (примерно 0,8 %). Это позволит ускорить процесс установки и обновления пакетов в системе.

medium.com

medium.com

На данный момент говорится о переводе на zstd уже 545 пакетов. Остальные будут постепенно получать новый алгоритм сжатия по мере выхода обновлений. При этом важно отметить, что пакеты в формате .pkg.tar.zst автоматически поддерживаются при наличии обновлений pacman (5.2) и libarchive (3.3.3-1). Если же кто-либо из пользователей ещё не обновил libarchive, то новая версия доступна в отдельном репозитории.

Алгоритм zstd (zstandard) был разработан в 2015 году и впервые представлен годом позже. Он предусматривает сжатие без потерь и ориентирован на более высокую скорость сжатия и распаковки, чем обычно. При этом коэффициент сжатия должен быть сопоставим или превосходить существующие решения. Как отмечается, версия zstd 0.6 при максимальной степени сжатия показывала сходный с boz, yxz, tornado результат. При этом она превосходила lza, brotli и bzip2.

Российские учёные на порядок улучшили алгоритмы обработки изображений

Томский государственный университет (ТГУ) сообщает о разработке передового метода анализа сигналов и изображений в сложных телекоммуникационных и навигационных системах, на которые воздействуют случайные помехи.

Утверждается, что предложенная технология позволяет повысить точность оценивания информации на порядок, то есть в десять раз. Новые алгоритмы учитывают качественно более сложные шумы в моделях, чем существующие ранее.

«Всё в нашем проекте сфокусировано на задачах статистической радиофизики — это проблема передачи данных по каналам связи. Например, летит самолёт, передаёт сигнал. Во время передачи сигнала на него накладываются различные шумы и, соответственно, на приёмнике нужно получить данные, максимально близкие к тому, что было передано. Строятся оптимальные алгоритмы, которые позволяют на входе отсеять эти шумовые явления и получить сигнал, максимально близкий к реально передаваемому», — говорят российские учёные.

Предполагается, что новая технология найдёт применение в различных областях науки и техники. Это авиация, медицинские системы, анализ топографических снимков и пр.

В следующем году учёные планируют применить свои алгоритмы к анализу больших данных: это могут быть сведения социологических опросов, финансовая информация и пр. 

window-new
Soft
Hard
Тренды 🔥