Теги → ии
Быстрый переход

Apple купила канадский стартап Inductiv для дальнейшего совершенствования Siri

Apple купила Inductiv Inc., канадский стартап в области машинного обучения, с целью дальнейшего совершенствования голосового помощника Siri, а также технологий искусственного интеллекта и Data Science, сообщил редактор Bloomberg Марк Гурман (Mark Gurman).

«В последние недели команда инженеров из Inductiv (Ватерлоо, провинция Онтарио) присоединилась к Apple, чтобы заняться Siri, машинным обучением и Data Science. Apple подтвердила сделку, заявив, что „время от времени покупает небольшие технологические компании и обычно не обсуждает свои цели или планы“», — сообщил Гурман.

Помимо профилей сотрудников в LinkedIn, у стартапа нет присутствия в Интернете, но, согласно публикации, им разработана технология, которая использует ИИ для выявления и исправления ошибок в данных, что важно для машинного обучения и относится к области Data Science.

Ранее Apple наняла специалистов в этой области, в том числе ряд инженеров из консалтинговой компании Silicon Valley Data Science в 2018 году. Предполагается, что Apple продолжает модернизацию технологии, используемой в Siri, других продуктах и сервисах с поддержкой ИИ.

Как отмечает Гурман, в последние годы Apple приобрела целый ряд компаний, занимающихся ИИ и данными, в том числе Tuplejump, Laserlike, Turi и Perceptio. Только в этом году компания купила Voysis для улучшения распознавания речи интеллектуальным ассистентом Siri, стартап в сфере виртуальной реальности NextVR и разработчика популярного погодного приложения Dark Sky.

Холодильники начнут узнавать нас в лицо: Sony предлагает датчики изображений с ИИ

Лидер производства датчиков изображений компания Sony предчувствует насыщение этой продукцией главного потребителя ― рынка смартфонов. Компании нужны новые направления для сбыта датчиков. Этим направлением может стать рынок умных вещей с функциями эффективного отслеживания людей и объектов.

По мнению Sony, развитие сферы Интернета вещей упирается в ряд ограничений: это высокие задержки при обращении к облаку (которые только будут расти); предпосылки для нарушения приватности (плохо контролируемый рост утечек из облака); и увеличение энергопотребления (на канал связи и удалённые ресурсы). Всего этого можно избежать или значительно ослабить влияние этих факторов, если в каждый датчик изображения встроить свой ИИ. Тогда данные будут обрабатываться в режиме реального времени прямо в датчике без обращения к облаку.

Первой продукцией Sony в области датчиков изображений с ИИ стал 12,3-Мп сенсор IMX500, опытные поставки которого начались в апреле. Цена вопроса 10 тыс. иен ($93). Это стоимость сборки без упаковки. В корпусе чип будет предлагаться в виде микросхемы IMX501 по 20 тыс. иен ($186). Разницу между одним и другим исполнением можно увидеть на фото выше.

IMX500 состоит из собранных в стек двух кристаллов. Верхний кристалл ― это датчик изображения диагональю 7,857 мм (в формате 1/1,23), а нижний ― это чип с памятью, блоком ИИ и цифровым сигнальным процессором. Данные с датчика изображения попиксельно передаются на нижний чип и полностью на нём обрабатываются.

Сценарии использования датчиков изображдения с ИИ

Сценарии использования датчиков изображения с ИИ

Обработка ведётся в зависимости от записанной в память чипа модели для машинного обучения, а также по заранее определённому алгоритму. Это может быть подсчёт количества людей в кадре, определение поведения людей в кадре (анализ поз и жестов), анализ скопления людей с помощью инфракрасного сканирования, слежение за товарами на полках магазинов, определение момента засыпания водителя, реакция на конкретного человека и многое другое.

Модели обучения и алгоритмы могут быть переписаны по необходимости. Например, можно распределять обязанности даже между одинаковыми камерами наблюдения. Одна на входе подсчитывает посетителей, другая наблюдает за тем, что граждане делают в магазине, третья следит, чтобы на полках всегда был товар и так далее. Что во всём этом важно, данные остаются локально в датчике, а это обеспечивает приватность и защиту от утечек. Наружу для анализа выводятся метаданные ― короткие текстовые (семантические) сообщения с выводами или графиками после анализа встроенным ИИ. Эти данные не перегрузят каналы связи и не нагрузят облачные ресурсы. Впрочем, датчик позволяет также передавать обычные изображения и распознанные образы.

Обработка данных в кадре встроенным ИИ проводится мгновенно. Например, с использованием свёрточной нейросети MobileNet V1.2 данные в кадре обрабатываются за 3,1 мс. Предложенная Sony система способна с высокой эффективностью следить за подвижными объектами в режиме реального времени. Вот оно будущее.

Искусственному интеллекту запретили регистрировать изобретения в США

Управление США по патентам и торговым маркам (USPTO) постановило на этой неделе, что системы искусственного интеллекта не могут быть указаны в качестве изобретателя для регистрации патента.

James Bareham / The Verge

James Bareham / The Verge

Решение было принято в ответ на получение агентством заявок на регистрацию двух патентов, созданных системой ИИ под названием DABUS. В одном из патентов описывается контейнер для пищевых продуктов, второй касается световой сигнализации.

В числе аргументов агентства был приведен тот факт, что в патентном праве США неоднократно упоминаются изобретатели с использованием относящихся к человеку терминов, таких как «кто угодно» и таких местоимений как «он» и «она».

Податели заявок на регистрацию патентов утверждают, что ссылки закона на изобретателя как «человека» могут быть применены к машине, но USPTO назвало это толкование слишком широким. «Согласно действующему законодательству, только физические лица могут быть названы изобретателями в патентной заявке», — заключило агентство.

Патенты были поданы в прошлом году в рамках проекта «Искусственный изобретатель». Наряду с патентами, представленными в USPTO, группа также направила документы в Ведомство по интеллектуальной собственности Великобритании (IPO) и Европейское патентное ведомство (EPO).

IPO и EPO уже постановили, что DABUS, созданный исследователем искусственного интеллекта Стивеном Талером, не может быть включен в список изобретателей на основании аналогичных юридических толкований. В свою очередь USPTO в ноябре прошлого года обратилось с просьбой к общественности высказать мнение по этому поводу.

Авторы проекта «Искусственный изобретатель» не утверждают, что ИИ должен иметь патент, просто он должен быть указан в качестве изобретателя, отмечает ресурс MIT Technology Review. Это может понадобиться, когда сотни или даже тысячи сотрудников внесли код в систему, например суперкомпьютер IBM Watson, до того, как она сама смогла решить ту или иную проблему. Кроме того, авторы проекта считают, то включение ИИ в список изобретателей будет стимулировать инновации, поскольку ценность, которую эти машины добавляют, будет более определённо признана.

Новая статья: Как обучить модель за меньшие деньги? Сравниваем стоимость тренировки модели на разных GPU-платформах

Данные берутся из публикации Как обучить модель за меньшие деньги? Сравниваем стоимость тренировки модели на разных GPU-платформах

Google запустила службу звонков на основе ИИ Duplex в Австралии, Канаде и Британии

Согласно обновлённой странице поддержки, впечатляющая служба Google Duplex доступна теперь в Австралии, Канаде и Великобритании в дополнение к США и Новой Зеландии. Напомним: сервис создан, чтобы при помощи ИИ делать голосовые звонки от имени пользователя для автоматизации процесса заказа столов в ресторанах или записи, например, к косметологам или парикмахерам.

Duplex была запущена в качестве ранней бета-версии в США через Google Assistant в конце 2018 года после громкого, но неоднозначного дебюта на конференции разработчиков Google I/O. Существовали опасения по поводу использования Duplex без явного согласия ресторана или другого малого бизнеса и без надлежащего раскрытия того, что автоматический вызов совершается цифровым голосовым помощником, а не человеком.

Google постаралась решить эти проблемы, предупреждая собеседника в начале разговора, а также давая компаниям возможность отказаться от общения с ИИ и переключиться на разговор с человеком-оператором. Кроме того, у Duplex есть штат людей, которые прослушивают телефонные звонки и комментируют их, чтобы улучшить базовые алгоритмы машинного обучения сервиса и подключиться к разговору в случае, если вызов идёт не так, как надо.

Google также расширила Duplex, начинав с телефонов Pixel, постепенно расширив поддержку на iOS и затем на другие устройства Android. Первым международным рынком сервиса стала Новая Зеландия в октябре 2019 года.

Анализ DLSS 2.0 в Control — секретное оружие NVIDIA «выстрелило»

Десять лет назад сотрудники Digital Foundry размышляли над разрешением 960 × 540 в Alan Wake и задавались вопросом, не слишком ли это сильное сокращение количества пикселей? Сегодня можно играть в новейшую игру от той же студии Remedy с тем же внутренним разрешением, и в некоторых отношениях она будет выглядеть лучше, чем родное разрешение 1080p. DLSS от NVIDIA — масштабирование на основе глубинного обучения — получила версию 2.0, и результаты в Control просто поражают.

Известно, что технология DLSS имеет сложную историю: эффективность метода варьируется от одной игры к другой, но основные принципы остаются неизменными. Методы рендеринга следующего поколения, — в частности, трассировка лучей, — часто сопряжены со значительным ростом требований к вычислительным возможностям системы. DLSS работает по принципу повышения производительности за счёт уменьшения количества визуализируемых пикселей, а затем использует смесь обученной нейросети и временны́х методов для восстановления изображения в более высоком разрешении.

Как правило, DLSS 2.0 предлагает три предустановки: производительность, баланс и качество — которые реконструируют картинку из масштаба 50 %, 58 % и 67 % по обеим осям в играх вроде Wolfenstein: Youngblood. В Control подход немного другой: пользователь просто указывает внутреннее и выходное разрешения.

Конечно, это не первая реализация DLSS в Control. Фантастический боевик поставлялся изначально с достаточно приличной версией технологии, которая фактически не использовала тензорные ядра машинного обучения архитектуры NVIDIA Turing, вместо этого полагаясь на стандартные блоки CUDA. Она обеспечивала огромный прирост производительности и в целом выглядела тем лучше, чем выше исходное разрешение, но новая версия 2.0 предлагает качественные изменения, о чём уже рассказывала NVIDIA.

Временны́е ореолы стали куда менее выраженными, а артефакты с субпиксельными деталями и прозрачными текстурами сводятся к минимуму. Сотрудники Digital Foundry нашли примеры, в которых DLSS 2.0 с разрешением 1080p обеспечивает более высокое качество масштабирования до 4K по сравнению со старой версией, работавшей с исходной картинкой в 1440p. Также в Wolfenstein: Youngblood новый DLSS оказался способен почти идеально реконструировать полноценное разрешение рендеринга, даже если базовое изображение состояло лишь из 25 % от общего количества пикселей конечной картинки.

Есть несколько интересных эффектов от DLSS. На внутренних поверхностях текстуры дают больше деталей — иногда даже больше, чем в родном разрешении (порой меньше, хотя для сравнения придётся искать разницу буквально с лупой). И это не просто фактор регулировки или повышения контрастности. Также, в отличие от TAA, применение DLSS не повышает размытость картинки.

Вторым эффектом является работа с краями, где DLSS может демонстрировать некоторые незначительные недостатки, особенно на высококонтрастных участках. Также следует отметить, что края объектов могут получать небольшую степень резкости, создавая эффект ореола, который также наиболее заметен в областях с высокой контрастностью. Степень повышения резкости в нейронной сети, по-видимому, настраивается в режиме реального времени, поэтому в будущем пользователи наверняка получат возможность её настраивать, о чём уже говорит команда разработчиков NVIDIA.

Помимо этих небольших моментов, DLSS 2.0 на любом привычном расстоянии от экрана при любом разумном разрешении выглядит почти так же хорошо, как родное разрешение. На самом деле, лучший способ проверить, включена технология или нет — оценить производительность. При замерах журналистами в 4K масштабирование через DLSS из 1080p дало прибавку скорости в 150 %, а в качественном режиме при увеличении до 4K с родного 1440p частота кадров выросла на 67 %.

Виден огромный прирост частоты кадров, но он даётся не совсем бесплатно. Если сравнить производительность в родном разрешении 1080p и в масштабированном до 4K с помощью DLSS 2.0, то видно, что процесс требует примерно 11 % мощности ускорителя на GeForce RTX 2080 и около 15 % на RTX 2060. Очевидно, однако, что эта цифра незначительна, когда речь идёт о рендеринге в 4K.

Применение DLSS крайне важно для такой трудоёмкой области, как эффекты гибридной визуализации на основе трассировки лучей. Control обладает одной из самых полнофункциональных реализаций трассировки лучей, которую можно встретить сегодня, и даже при самой низкой настройке RTX добиться твёрдых 60 кадров/с в разрешении 1080p на RTX 2060 сложно. Но это не проблема для игры, которая может масштабироваться до 1080p из родного разрешения с 540p через DLSS — при этом в целом игра выглядит примерно так же, лишь артефакты ореола становятся чуть более заметными. При этом DLSS 2.0 позволяет на RTX 2060 более-менее комфортно играть с активной трассировкой лучей даже в 1440p.

Это делает функции DXR доступными даже на ускорителях RTX 2060 (владельцы которых подчас отключают трассировку лучей из-за требовательности этих эффектов). В конечном счёте, DLSS 2.0 обеспечивает гораздо лучшее качество изображения в Control, чем это было ранее. Качество восстановления изображения настолько хорошее, что трудно заметить, включена технология или нет (некоторые аспекты изображения могут выглядеть даже лучше), а выигрыш в области производительности огромен.

Может ли игра, работающая в том же разрешении, что и PlayStation Vita, действительно выглядеть так же хорошо, как исполняемая в родном разрешении 1080p? Можно поиграть в Control от Remedy на ПК и убедиться в этом.

ИИ DeepMind Agent57 проходит игры Atari лучше человека

Заставить нейронную сеть проходить несложные видеоигры — идеальный способ проверить эффективность её обучения благодаря простой возможности оценивать результаты прохождения. Разработанный в 2012 году компанией DeepMind (часть холдинга Alphabet) эталонный тест из 57 каноничных игр Atari 2600 стал лакмусовой бумажкой для проверки возможностей самообучающихся систем. И вот Agent57, передовой RL-агент (Reinforcement Learning — обучение с подкреплением) DeepMind, на днях показал огромный скачок по сравнению с предыдущими системами и стал первой итерацией ИИ, превосходящей базовые показатели игрока-человека.

J - показатель RL-агента Agent57

J - показатель RL-агента Agent57

ИИ Agent57 учитывает опыт предыдущих систем компании и объединяет алгоритмы эффективного исследования среды с мета-контролем. В частности, Agent57 доказал свои сверхчеловеческие навыки в Pitfall, Montezuma's Revenge, Solaris и Skiing — играх, которые были серьезным испытанием для предыдущих нейросетей. Согласно результатам исследований, для достижения лучших результатов Pitfall и Montezuma's Revenge заставляют ИИ больше экспериментировать. Solaris и Skiing сложны для нейросетей, потому что признаков успеха не так много — ИИ в течение длительного времени не знает, совершает ли он правильные действия. DeepMind основывалась на своих старых агентах ИИ, чтобы Agent57 мог принимать более правильные решения в отношении исследования среды и оценки результатов прохождение игр, а также оптимизировать компромисс между краткосрочным и долгосрочным поведением в таких играх как Skiing.

Результаты впечатляют, но ИИ ещё предстоит пройти долгий путь. Эти системы могут справиться только с одной игрой за раз, что, по словам разработчиков, противоречит возможностям человека: «Истинная гибкость, которая так легко даётся человеческому мозгу, всё ещё находится за пределами досягаемости ИИ».

Чтение мыслей в режиме реального времени: ИИ и вживлённые в мозг электроды показывают чудеса

Учёные давно смогли зарегистрировать связь между нервной деятельностью головного мозга и речью. Правда, распознавания сигналов и трансляция их в слова и выражения слишком сложны и страдают неточностью, если сравнивать их с обычной речью. Между тем перевод на лету нервных импульсов мозга в речь мог бы помочь людям с травмами конечностей и речевого аппарата, а это общение и возможность пользоваться электроникой и информацией.

Несколько поколений имплантов компании Neuralink

Несколько поколений нейронных зондов компании Neuralink

На днях на сайте журнала Nature Neuroscience появилась статья группы учёных из Калифорнийского университета в Сан-Франциско, в которой рассказывается, как с помощью рекурентной нейросети и вживлённых в мозг электродов можно научиться быстро переводить нервные сигналы в головном мозге человека в понятные слова и выражения.

Отметим, вживить 250 электродов в мозг ― дело нешуточное, но в данном случае никто ничего специально не вживлял. В эксперименте приняли участие четыре пациента с эпилепсией, и электроды им были вживлены для отслеживания приступов. Так получилось, что часть электродов оказались в зонах мозга, в которых происходит подбор слов, составление выражений и осуществляется обратная связь с участками мозга воспринимающими собственную речь человека.

Испытуемым было предложено мысленно, а затем вслух произнести от 30 до 50 предложений с ограниченным набором слов. Одновременно снимались сигналы с имплантированных в мозг датчиков. Полученные данные были переданы в нейронную сеть для обучения, а полученный промежуточный результат был отдан для анализа другой нейронной сети. Оказалось, что новый алгоритм распознавания сигналов мозга сводит вероятность ошибочного определения слов до 3 %.

Более того, когда один из испытуемых мысленно проговаривал выражения вне предложенного набора слов, то вероятность ошибочного определения слов уменьшалась на 30 %. Это означает, что систему можно тренировать для переноса на других пациентов, что снижает время тренировки для каждого по отдельности.

Секрет в успехе своего опыта учёные видят в том, что они подошли к проблеме трансляции мыслей в слова с точки зрения переводчика. Система анализирует контекст и тем самым снижает вероятность ошибки. Работа на уровне распознавания предложений, а не отдельных слов, даёт возможность устранить негативное влияние акцента, неправильно или невнятно произнесённых слов и других неопределённостей в речи, что до сих пор затрудняло трансляцию нервных сигналов в речь.

Тайваньский университет разрабатывает нейросеть для выявления рака крови

Исследовательская группа Тайбэйского медицинского университета занимается разработкой анализа общих данных крови на основе ИИ для выявления случаев с высоким риском развития рака крови.

Команда университета использует машинное обучение для анализа данных о клеточной популяции в рамках теста CBP (complete blood picture — полная картина крови), полученных в рамках регулярного анализа крови с помощью флеботомии. Об этом сообщил руководитель группы доцент Тайбэйского университета Сайед Абдул Шаббир (Syed Abdul Shabbir).

По словам господина Шаббира, команда сотрудничает с медицинским центром южнокорейского университета Конкука, который предоставляет образцы крови для обучения машины.

В анализе на основе ИИ использовались семь алгоритмов машинного обучения: SGD (stochastic gradient descent), SVM (support vector machine), RF (random forest), DT (decision tree), линейная регрессия, логистическая регрессия и ANN (artificial neural network). По словам исследователей, согласно тестам 882 случаев, метод ANN продемонстрировал наивысший уровень точности — 93,5 %.

NVIDIA работает над настраиваемой пользователем резкостью для DLSS 2.0

NVIDIA недавно выпустила новую версию своей технологии интеллектуального масштабирования — DLSS 2.0. Этот метод уже используется в таких проектах, как Deliver Us The Moon, Wolfenstein: Youngblood, Control и MechWarrior 5. И, согласно команде разработчиков, в перспективе будет добавлена пользовательская регулировка уровня резкости.

Как сообщается, в настоящее время существует скрытая команда для DLSS 2.0 — r.NGX.DLSS.Sharpness, но её вызов ничего не даёт. Однако, согласно NVIDIA, речь идёт о регулируемом пользователем уровне резкости, который вскоре будет добавлен в DLSS 2.0:

«В настоящее время мы усердно трудимся над обкаткой настраиваемого пользователем уровня резкости, чтобы он хорошо сочетался с внутренним значением резкости, создаваемым нейросетями DLSS — дабы на выходе получался всегда высококачественный результат, но со значительным уровнем гибкости в отношении резкости, которую предпочитает пользователь. В настоящее время эта возможность доступна только в качестве функции отладки в предварительных сборках DLSS».

Это, несомненно, порадует тех игроков, которые считают результат работы DLSS 2.0 слишком резким (или, напротив, недостаточным) на свой вкус. К сожалению, NVIDIA не указала, когда эта функция будет доступна в реальных играх с DLSS 2.0 и будет ли она поддерживаться уже вышедшими проектами.

Платформа Huawei MindSpore для вычислений в области ИИ стала открытой

Вычислительная платформа Huawei MindSpore похожа на Google TensorFlow. Но у последней есть преимущество, поскольку это платформа с открытым исходным кодом. Следуя по стопам конкурента, Huawei тоже сделала среду Mindspore открытой. Компания объявила об этом во время мероприятия Huawei Developer Conference Cloud 2020.

Китайский технологический гигант Huawei впервые представил платформу MindSpore для вычислений в области ИИ в августе 2019 года вместе со своим специализированным процессором Ascend 910. MindSpore преследует три основные цели: простота разработки, эффективное исполнение кода и возможность адаптации к любым сценариям соответственно.

Поскольку конфиденциальность стала проблемой в современном мире, большое внимание при разработке MindSpore было уделено защите данных и отсутствию прямого доступа к личной информации. Инфраструктура MindSpore может использоваться во всех сценариях, на всех устройствах: как на конечных терминалах вроде смартфонов, так и облачной среде.

Благодаря тому, что в типичных нейронных сетях для NLP (Natural Language Processing) MindSpore требует на 20 % меньше строк основного кода, чем другие платформы, эффективность разработки, как утверждает компания, повышается минимум на 50 %. Инфраструктура Huawei MindSpore поддерживает не только собственные найропроцессоры вроде упомянутого Ascend 910, но и другие доступные на рынке процессоры и графические ускорители.

C помощью нейросетей съёмка Нью-Йорка 1911 года превращена в цветное видео 4k/60p

В 1911 году шведская компания Svenska Biografteatern сделала видеозапись поездки в Нью-Йорк, в результате чего было получено более восьми минут видео, которое в своём первоначальном виде имеет довольно слабое разрешение и низкую нестабильную частоту кадров.

В течение ряда лет предпринимались различные попытки улучшить разрешение, частоту кадров, цвета и другие детали. Результаты получались разные, но одним из лучших на сегодня стала работа Дениса Ширяева (Denis Shiryaev), который недавно поделился улучшенным видео на Reddit и своём канале YouTube.

Видео Нью-Йорка 1911 года в 4K/60p

Согласно описанию видео, а также комментарию, оставленному Ширяевым в Reddit, в проекте были задействованы четыре нейронные сети, включая DeOldify NN (для колоризации). В целом, различным нейронным сетям удалось увеличить частоту кадров до 60 в секунду, поднять разрешение до 4K, повысить резкость и даже провести автоматическое оцветнение.

Исходное видео Нью-Йорка 1911 года с наложением озвучки и откорректированной скоростью воспроизведения

Результат куда лучше оригинала, однако с автоматическим оцветнением нейросеть явно не справилась. Наложенные звуки позволяют глубже погрузиться в атмосферу деловой столицы США более чем 100-летней давности. Мы уже писали о том, как Денис Ширяев визуально улучшил знаменитую короткометражку братьев Люмьер «Прибытие поезда» 1896 года. На его канале есть и другие любопытные работы, включая лунную миссию «Аполлона-16»:

Microsoft направит в течение 5 лет $40 млн на развитие здравоохранения с помощью ИИ

Microsoft наращивает усилия и внимание к области технологий здравоохранения и теперь в значительной степени полагается на технологии машинного обучения. В этой связи компания запустила программу «ИИ для здоровья» стоимостью $40 миллионов, которая должна помочь исследователям и ключевым организациям улучшить качество жизни людей по всей планете.

hadynyah / Getty Images

hadynyah / Getty Images

В рамках 5-летней инициативы искусственный интеллект, как можно догадаться, будет использоваться для улучшения диагностики, профилактики и лечения. Но ИИ также будет применяться для исследований в области медицины в глобальном масштабе и улучшения доступа к здравоохранению в тех местностях, где зачастую это дорого или труднодоступно.

Деньги будут направлены на объединение некоммерческих организаций, исследователей, профессионалов отрасли и правительств, предоставляя партнёрам доступ к искусственному интеллекту и облачным инструментам, данным учёных Microsoft и денежным грантам.

Заявленные проекты направлены на улучшение понимания синдрома внезапной младенческой смерти; активизации усилий по борьбе с проказой; обновление средств борьбы с предотвратимой слепотой и расширение доступа к информации о раке. Microsoft также развивает сотрудничество с BRAC, PATH и Детской исследовательской больницей Св. Иуды для ускорения развития в таких областях, как материнская смертность, туберкулез и рак у детей.

Как отмечает компания, некоторые из этих усилий могут быть жизненно важными. Медицинские работники часто перегружены большим количеством пациентов, с которыми приходится иметь дело, и в редких случаях задействуется ИИ для оказания помощи этим специалистам. По словам Microsoft, только 3 % профессионалов по искусственному интеллекту работают в организациях здравоохранения.

Хотя финансирование в $40 млн не являются такой уж огромной суммой, учитывая масштабы проблем здравоохранения во всём мире, они всё же могут помочь врачам лечить больше пациентов и повысить качество медицинской помощи.

Covariant.ai создала складского робота, сортирующего различные предметы не хуже человека

Стартап из Калифорнии Covariant.ai создал складского робота с поддержкой ИИ, способного управляться с сортировкой предметов различной величины и формы не хуже людей.

Образец такого робота настоящее время тестируется на складе компании Obeta на окраине Берлина (Германия).

Используя три присоски на конце длинной «руки», робот выполняет сортировку предметов с высокой скоростью и точностью. Эта работа ранее была под силам только людям. Имеющиеся на данный момент складские роботы не справляются с задачей сортировки различных предметов — от одежды и обуви до электронного оборудования — чтобы каждый товар можно было упаковать и отправить по назначению клиентам.

«Я проработал в сфере логистики более 16 лет и никогда не видел ничего подобного», — отметил Питер Пухвайн (Peter Puchwein), вице-президент австрийской компании Knapp, поставляющей технологии автоматизации для складов.

ИИ предупреждал о смертельном коронавирусе в Ухане ещё в прошлом году

9 января Всемирная организация здравоохранения (ВОЗ) уведомила общественность о вспышке коронавируса в Китае: в Ухане было зарегистрировано несколько случаев заболевания, сходных с пневмонией, — возможно, от диких животных с рынка морепродуктов. Центры США по контролю и профилактике заболеваний (ЦКЗ) обнародовали эту информацию 6 января. Но канадская платформа мониторинга здоровья на основе искусственного интеллекта BlueDot обошла их, сообщив своим клиентам о вспышке болезни уже 31 декабря.

Nicolas Asfouri/Getty Images

Nicolas Asfouri/Getty Images

BlueDot использует алгоритм на основе машинного обучения, который просматривает новости на иностранных языках, сети по болезням животных и растений и официальные заявления, чтобы заранее предупреждать своих клиентов о желательности избегать опасных зон вроде Уханя.

Скорость реакции имеет большое значение во время вспышек болезней, а китайские официальные лица не склонны делиться информацией о болезнях, загрязнении воздуха или стихийных бедствиях. Но чиновники из ВОЗ и ЦКЗ вынуждены полагаться на китайских коллег при мониторинге заболеваний. Так что в данном случае ИИ обнаружил информацию быстрее остальных. «Мы знаем, что правительства не могут полагаться на своевременное предоставление информации, — отметил основатель и глава BlueDot Камран Хан (Kamran Khan). — Мы можем получать новости о возможных вспышках, анализировать небольшие разговоры, информацию с форумов или блогов о признаках происходящих необычных событий».

Господин Хан говорит, что алгоритм не использует публикации в социальных сетях, потому что эти данные слишком беспорядочные. Но у него имеется одна хитрость: доступ к глобальным данным о билетах авиакомпаний, которые могут помочь предсказать, куда и когда направятся инфицированные. Эпидемиологический ИИ правильно предсказал, что вирус из Уханя появится в Бангкоке, Сеуле, Тайбэе и Токио в последующие дни после его обнаружения.

Работая специалистом по инфекционным болезням в больнице в Торонто во время эпидемии атипичной пневмонии 2003 года, Камран Хан мечтал найти более надёжный способ отслеживания заболеваний. Тот вирус зародился в провинциальном Китае и перекинулся в Гонконг, а затем в Торонто, где убил 44 человека. «Сейчас у меня возникает некоторое чувство дежавю, — отметил он о текущей вспышке коронавируса (штамм 2019-nCoV). — В 2003 году я наблюдал, как вирус распространяется по городу и заполняет больными госпитали. Была огромная умственная и физическая усталость, и я подумал: „Нужно не допустить повторения подобного“».

После тестирования нескольких прогностических программ Хан запустил BlueDot в 2014 году и привлёк венчурное финансирование на сумму $9,4 млн. В настоящее время в компании работают 40 сотрудников — врачей и программистов, которые разрабатывают аналитическое ПО для отслеживания заболеваний с использованием методов обработки естественной речи и машинного обучения, позволяющих просматривать новости на 65 языках, а также данные авиакомпаний и сообщения о вспышках болезней животных.

По словам господина Кхана, после того, как автоматизированный отбор данных завершается, в дело вступают профессиональные аналитики. Эпидемиологи проверяют, имеют ли выводы смысл с научной точки зрения, а затем отчёт направляется правительству, компаниям и учреждениям общественного здравоохранения. Отчёты BlueDot получают должностные лица общественного здравоохранения в дюжине стран (включая США и Канаду), авиакомпании и больницы первой линии, где могут оказаться заражённые пациенты. BlueDot пока не продаёт свои данные широкой публике, но работает над этим.

BlueDot — не первая, кто пытается получать данные в обход чиновников из структур общественного здравоохранения, но она надеется добиться большего успеха, чем проект Google Flu Trends, который был свёрнут после недооценки серьёзности гриппа в 2013 году на 140 процентов. BlueDot ранее успешно предсказала местонахождение вспышки вируса Зика в Южной Флориде. Насколько будет BlueDot успешна на этот раз, ещё не ясно.

В то же время некоторые эксперты в области общественного здравоохранения говорят, что, несмотря на то, что в 2002 году вспышка атипичной пневмонии скрывалась в течение нескольких месяцев, на этот раз официальные лица Китая отреагировали гораздо быстрее. В настоящее время в Китае район, включающий восемь городов и 35 миллионов человек, находится на карантине. Пока, согласно прогнозам, вспышка коронавируса будет только усиливаться.

На момент написания материала количество подтверждённых случаев заболевания коронавирусом 2019-nCoV составило уже 2885 (2825 — в Китае), причём количество смертей увеличилось до 81 человека, а выздоровевших — до 59. Данные также можно отслеживать на сайте Bloomberg.

window-new
Soft
Hard
Тренды 🔥