Теги → нейросеть

Нейросеть «Beeline AI - Поиск людей» поможет найти пропавших

«Билайн» разработал специализированную нейронную сеть, которая поможет в поиске пропавших: платформа получила название «Beeline AI - Поиск людей».

Решение призвано упростить работу поисково-спасательного отряда «Лиза Алерт». С 2018 года эта команда применяет беспилотные летательные аппараты для поисковых операций, проводимых в лесу и на промышленных территориях городов. Однако анализ снимков, получаемых с камер дронов, требует вовлечения большого количества волонтеров. К тому же на это уходит очень много времени.

Нейросеть «Beeline AI - Поиск людей» как раз и призвана автоматизировать процесс обработки фотографий. Утверждается, что специализированные алгоритмы позволяют сократить время на просмотр и сортировку полученных снимков в два с половиной раза.

Платформа использует технологии свёрточных нейронных сетей, что повышает эффективность работы средств машинного зрения. Обучение нейросети проходило на реальных подборках изображений. Испытания показали, что точность модели на тестовых изображениях приближается к 98 %.

Первостепенной задачей «Beeline AI - Поиск людей» является сортировка «пустых» и неинформативных фотографий, на которых точно нет человека или атрибутов, указывающих, что в этом месте был человек. Это позволяет группе анализа сразу сосредоточиться на потенциально результативных снимках.

Система может адаптироваться к различным условиям. Она одинаково точно находит объекты как с высот 30–40 метров, так и с высоты полёта 100 метров. При этом нейросеть способна обрабатывать изображения с высоким уровнем визуального «шума» — деревья, природный ландшафт, сумерки и т. д.

«Потенциально нейронная сеть способна находить людей и предметы во всех местах поиска, таких как лес, болота, поля, города, независимо от времени года и одежды человека, так как алгоритм настраивается на работу в любое время года и потенциально сможет распознавать нестандартное положение тела в пространстве, например, сидящего, лежащего или частично укрытого листвой человека», — отмечает «Билайн». 

Нейросети помогут в синтезе углеродных нанотрубок

Российские исследователи предложили технологию, позволяющую контролировать рост углеродных нанотрубок с помощью нейронных сетей. Ожидается, что это поможет в создании электронных устройств нового поколения.

Авторы работы — специалисты Лаборатории наноматериалов Сколтеха. Учёные объясняют, что тонкие плёнки из углеродных нанотрубок представляют собой самый перспективный на сегодняшний день материал для использования в оптоэлектронике, энергетике и медицине будущего. Однако существует проблема: контролировать многофазный процесс производства нанотрубок крайне сложно.

Российские специалисты предлагают использовать нейросети для анализа экспериментальных данных и предсказания эффективности синтеза однослойных углеродных нанотрубок.

В частности, метод предполагает применение искусственных нейронных сетей, обученных на таких экспериментальных параметрах, как температура, давление газов и скорость потока вещества, для контроля характеристик производимых плёнок из нанотрубок.

Учёные считают, что технология поможет создать эффективное производство углеродных нанотрубок, что откроет новые перспективы их применения. Результаты исследования опубликованы в журнале Carbon

Российская нейроплатформа E-Boi поможет повысить реакцию киберспортсменов

Российские исследователи из МГУ имени М.В. Ломоносова разработали нейроинтерфейсную платформу под названием E-Boi, предназначенную для тренировки киберспортсменов.

Предложенная система использует интерфейс мозг — компьютер. Создатели говорят, что решение позволяет повысить скорость реакции у любителей компьютерных игр и увеличить точность управления.

Схема применения платформы выглядит следующим образом. На первом этапе киберспортсмен проходит тестирование на скорость и точность в специально разработанном приложении. При этом с помощью электроэнцефалографических сенсоров система регистрирует активацию сенсомоторных участков коры больших полушарий мозга. Кроме того, выполняется калибровка платформы.

На следующем этапе осуществляется собственно тренировка. Киберспортсмен должен представлять, как выполняет задачи, не совершая при этом никаких движений. В это время в мозге происходит улучшение связи между нейронами коры и двигательными нейронами. После окончания «мысленной» тренировки исследователи вновь замеряют показатели пользователя в приложении.

МГУ

МГУ

«Наше предложение — оценивать по степени активации сенсомоторных зон коры то, насколько правильно человек представляет движения. Контролировать это можно как раз при помощи нейроинтерфейса, считывающего мозговую активность и оценивающего её интенсивность», — говорят разработчики.

Новой системой, как отмечается, уже заинтересовались российские киберспортивные клубы. Кроме того, в перспективе решение может помочь в реабилитации пациентов, перенёсших инсульт или нейротравму. 

Сервис для «раздевания» человека с помощью нейросетей DeepNude продают за $30 тысяч

Эстонские разработчики нашумевшего приложения DeepNude, которое позволяет «раздевать» человека с помощью нейросетей, инициировали продажу сервиса и сопутствующих активов. Об этом сообщается в официальном Twitter.

flippa.com

flippa.com

В числе покупок предлагается учётная запись в социальной сети, собственно коды и алгоритмы DeepNude, приложение и база данных, а также домен deepnude.com. Стартовой ценой названа сумма в $30 тысяч, а продажа осуществляется на платформе Flippa.

Разработчики ищут инвестора, который сможет реализовать потенциал приложения и обеспечить профессиональное развитие системы. Сами создатели отметили, что не могут гарантировать этого, поскольку вскоре после выхода DeepNude программу взломали. Это и стало причиной продажи.

Напомним, что сервис стартовал в этом году, но спустя несколько дней закрылся. Дело в том, что в июне о приложении рассказали СМИ, после чего последовал взлом. Разработчики заявили, что «мир ещё не готов к DeepNude». При этом только за минувший месяц сервисом воспользовались порядка 95 тысяч человек.

При этом отметим, что ряд сайтов, в том числе Pornhub и другие, запретил размещение и использование фейковых видео у себя. Ведь современные нейросети позволяют менять лица, создавать «цифровых двойников» и так далее.

Не исключено, что в скором будущем эти технологии позволят создавать полностью анимированные цифровые копии актёров, которые сложно будет отличить от реальных людей. Но это же одновременно открывает возможность для создания фейков.

Приложение FaceApp получило доступ к более чем 100 миллионам лиц и имён

Приложение FaceApp существует уже не первый год, и многие пользователи установили его, а также предоставили разрешение на использование фотографий и прочих данных. В Google Play его скачали более 100 миллионов человек, а магазине приложений iOS программа находится в топе в 121 стране.

esquire.com

esquire.com

Однако, как сообщается, приложение может нарушать целый набор аспектов безопасности и конфиденциальности. Судя по тексту пользовательского соглашения, все, кто устанавливает FaceApp, соглашаются на предоставление своих данных. При этом речь идёт не только о сохранении фото, но также о возможности их публикации, распространения, изменения и так далее.

Проще говоря, разработчики FaceApp открыто заявляют, что оставляют за собой право использовать фото и производные данные, как им будет нужно. При этом на iOS система требует предоставить доступ не только к фотографиям, но также к голосовому помощнику Siri и поиску.

Отмечается, что данные с пользовательских устройств передаются в Россию, а в политике конфиденциальности приложения отдельно сообщается, что безопасность данных не гарантирована. Поэтому американский сенатор Чак Шумер уже обратился в ФБР и Федеральную комиссию по торговле с просьбой проверить приложение на предмет нарушения им  конфиденциальности граждан США. 

Отметим, что разработчиком программы выступает компания Wireless Lab, которая расположена в Санкт-Петербурге. Её руководителем является экс-глава «Яндекса» Ярослав Гончаров. Также следует отметить, что в компании уже заявили о безопасности приложения. По словам разработчиков, фото хранятся в облаках AWS и Google Cloud. А спустя 48 часов после загрузки они удаляются. Впрочем, похоже, это не убедило чиновников за океаном. 

Появилась утилита для удаления движущихся объектов с видео

На сегодняшний день для многих уже не является проблемой удаление мешающего элемента с фотографии. Базовые навыки работы в Photoshop или модные сегодня нейросети могут решить проблему. Однако в случае с видео ситуация осложняется, ведь нужно обработать минимум 24 кадра на одну секунду видео.

pixabay.com

pixabay.com

И вот на Github появилась утилита, которая автоматизирует эти действия, позволяя удалять любые движущиеся объекты с видео. Достаточно просто выделить лишний объект рамкой с помощью курсора, а система сделает всё остальное. Утилита называется незамысловато — video-object-removal. Однако в её основе лежат продвинутые технологии.

Система использует нейросеть, которая обрабатывает видео покадрово, заменяя ненужный объект или человека фоном. Программа может менять до 55 кадров в секунду, достраивая фон на основе окружающего изображения. Хотя при ближайшем рассмотрении становится ясно, что метод удаления объектов далеко не идеален, результаты впечатляют.

На некоторых кадрах видно, что на месте «удалённого» человека остаётся прозрачный или полупрозрачный фантомный след. Дело в том, что система анализирует лишь доступный фон и пока что не всегда адекватно может дорисовывать его. Это зависит от сложности фона — чем он проще и однороднее, тем лучше конечный результат.

Для тестирования использовалась ОС Ubuntu 16.04, Python 3.5, Pytorch 0.4.0, CUDA 8.0, а обработка шла на видеокарте NVIDIA GeForce GTX 1080 Ti. Сами исходники открыты и могут использоваться всеми. При этом отметим, что такая технология может применяться и в злонамеренных целях. Например, чтобы «скрыть» нарушения правил дорожного движения или другие преступления, попавшие на камеры.

Российские разработчики научили нейросеть «оживлять» портреты

Отечественные исследователи из московского Центра искусственного интеллекта Samsung разработали алгоритм, позволяющий создавать «живые портреты» на основе небольшого количества кадров. В большинстве случаев система успешно формирует поддельные видео, основываясь всего на одном исходном снимке.  

Исследователи говорят о том, что созданный ими алгоритм способен создать достаточно убедительное видео на основе всего одного изображения. Если же используется несколько кадров, то конечный результат становится более качественным. Учитывая то, что алгоритму достаточно всего одного портрета, исследователи смогли «оживить» картины и портреты людей, которые жили задолго до появления кинокамер.

В качестве примера такой работы предлагается небольшое видео с Ф. М. Достоевским, который реалистично двигается и шевелит губами, как будто рассказывает что-то. Еще одним экспериментальным материалом стал портрет Моны Лизы, который подвергся обработке нейросетью, после чего девушка с портрета начала шевелить губами, улыбаться и переводить взгляд. Достаточно реалистичный ролик получился на основе фотоснимка Сальвадора Дали.  

Применяемая нейронная сеть в процессе обучения обрабатывала большое количество изображений, на которых были запечатлены лица людей. За счёт этого нейросеть научилась определять характерные черты, в том числе глаза, форму носа и рта и др. Система снимает маску лица с исходного кадра и переносит его на другие изображения, за счет чего в конечном итоге получается реалистичная анимация.

В настоящее время получаемые анимированные ролики могут содержать артефакты и некоторую искусственность движений. В дальнейшем разработчики намерены совершенствовать алгоритм, чтобы устранить эти недочёты.   

ИИ компании Disney создаёт мультфильмы по текстовому описанию

Нейросети, которые создают оригинальные видео по текстовому описанию, уже существуют. И хотя пока они не в состоянии заменить кинематографистов или мультипликаторов полностью, подвижки в этом направлении уже есть. Disney Research и Rutgers разработали нейросеть, которая может создать грубую раскадровку и видео по текстовому сценарию.

pixabay.com

pixabay.com

Как отмечается, система работает с естественным языком, что позволит применять её в ряде областей вроде создания учебных видеороликов. Также эти системы помогут сценаристам визуализировать их идеи. При этом заявлено, что цель — не заменить писателей и художников, а сделать их работу более эффективной и менее утомительной.

Разработчики заявляют, что перевод текста в анимацию является непростой задачей, поскольку данные на входе и выходе не имеют фиксированной структуры. Потому большинство подобных систем не могут обрабатывать сложные предложения. Чтобы обойти ограничения предыдущих подобных программ, разработчики построили модульную нейронную сеть, состоящую из нескольких компонентов. В их число входит модуль обработки естественного языка, модуль разбора сценариев, а также модуль, генерирующий анимацию.

venturebeat.com

venturebeat.com

Для начала система анализирует текст и переводит сложные предложения в простые. После этого создаётся 3D-анимация. Для работы используется библиотека из 52 анимированных блоков, список которых был расширен до 92 за счёт добавления похожих элементов. Для создания анимации используется игровой движок Unreal Engine, который опирается на предварительно загруженные объекты и модели. Из них система выбирает подходящие элементы и формирует видеоролик.

venturebeat.com

venturebeat.com

Для обучения системы исследователи составили набор описаний из 996 элементов, взятых из более чем 1000 сценариев с IMDB, SimplyScripts и ScriptORama5. После этого были проведены качественные тесты, в которых 22 участникам довелось оценить 20 анимаций. При этом 68 % сказали, что система создала вполне достойную анимацию на основе входных текстов.

Тем не менее, команда признала, что система не идеальна. Её список действий и объектов не является исчерпывающим, и иногда лексическое упрощение не сопоставляет глаголы с аналогичными анимациями. Исследователи намерены устранить эти недостатки в дальнейшей работе.

КиноПоиск научили распознавать лица персонажей в фильмах и сериалах

На КиноПоиске запустили нейросеть DeepDive, которая умеет распознавать внешность актёров в фильмах и сериалах. Это позволяет узнать, кто из актёров сейчас на экране и какие роли он играл. Технология базируется на наработках «Яндекса» в области машинного зрения и программных разработках КиноПоиска в сфере машинного обучения. Базой данных выступает энциклопедия ресурса.

Достаточно поставить видео на паузу, чтобы DeepDive проанализировала кадр и выдала информацию об актёрах, в том числе в сложном гриме. Как сообщается, система может распознать Роберта Дауни-младшего в первом «Железном человеке» (2008) и «Мстители: Война бесконечности» (2018). Также неросеть распознаёт Зои Салдану в роли Гаморы в «Стражах Галактики». При этом она в зелёном гриме.

В некоторых случаях DeepDive не только распознает актеров, но и сообщает имена их персонажей, даёт справку о герое и так далее. Это помогает, если предыдущий сезон или серия были давно. Описания персонажей составляет редакция КиноПоиска.

Как отмечается, на текущий момент система работает в более чем полутора сотнях фильмов и сериалов, доступных по подпискам. В их числе «Чудотворцы», «Академия смерти», «Манифест», «Проект „Синяя книга“», «Перевал». По ссылке доступен полный перечень. Также со вчерашнего вечера, 11 апреля, технологию запустили в веб-приложении КиноПоиска.

Отметим, что нейросети всё чаще применяются для автоматизации рутинных операций во всех сферах. Как ожидается, в будущем они смогут взять на себя ещё больше задач, начиная от распознавания лиц для идентификации до создания полноценных автопилотов и роботов.

window-new
Soft
Hard
Тренды 🔥