Сегодня 22 февраля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → обучение
Быстрый переход

Учёные создали искусственный мозг из клубка серебряных нанонитей

Учёные из США и Австралии создали нейроморфный процессор из множества серебряных нанонитей. Тысячи нанопроводков уложили друг на друга в случайном порядке, и весь этот хаос поместили на группу обычных входных и выходных контактов. Всё вместе превратилось в нейроморфную сеть, которую удалось научить распознавать рукописные цифры с невероятной точностью.

 Источник изображения: Zhu et al. / Nature Communications

Источник изображения: Zhu et al. / Nature Communications

В процессе подачи входных сигналов на пересечениях тысяч нитей возникли сотни тысяч контактов. В этих контактах стали протекать реакции электрохимической гальванизации и возникло что-то вроде памяти. Для обучения «мозга» учёные воспользовались базой MNIST, которая содержит множество вариантов рукописного написания цифр. Каждое прохождение входных данных сопровождалось множеством переходных процессов в клубке нанонитей. Скорее всего, исследователи даже не выясняли что, где и каким образом работает на результат.

После обучения система стала распознавать рукописные цифры с точностью 93,4 %, о чём рассказано в свежей статье в журнале Nature Communications. Такой искусственный мозг не обладает памятью для более сложной обработки результата. Он работает в режиме онлайн, передавая на выход распознанную информацию, что для ряда приложений будет достаточно. Преимущества решения очевидны — оно копеечное в отличие от ускорителей ИИ баснословной стоимости. То же самое касается потребления энергии для решения прикладной задачи. «Мозг» из нанонитей будет потреблять крайне мало.

Эта разработка Калтеха и Сиднейского университета пока ещё сырая, но потенциал её может быть огромным с учётом простоты изготовления и заявленных возможностей. Как минимум, можно распознавать старые капчи.

Meta✴ обучила ИИ-помощника на общедоступных публикациях в Facebook✴ и Instagram✴

Для обучения своего виртуального помощника Meta AI компания Meta воспользовалась общедоступными публикациями в Facebook и Instagram, но исключила из массива посты с ограниченным доступом, которые пользователи открывали только друзьям и членам семьи из уважения к конфиденциальности этих пользователей, рассказал представитель компании в интервью Reuters.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Meta также не стала использовать в качестве обучающих данных личную переписку и предприняла меры по исключению личной информации из массива, заявил президент Meta по международным вопросам Ник Клегг (Nick Clegg) в кулуарах мероприятия Connect. «Мы постарались исключить наборы данных, в которых преобладает личная информация», — заверил топ-менеджер и добавил, что «подавляющее большинство» данных, использованных Meta для обучения ИИ, было общедоступным. Из соображений конфиденциальности компания преднамеренно исключила платформу LinkedIn.

Попавшие в обучающий массив Meta AI общедоступные публикации в Facebook и Instagram включали как текст, так и фотографии, рассказал Клегг: первый использовался для обучения большой языковой модели Llama 2, а вторые — модели Emu, которая легла в основу генератора изображений. В Meta действуют ограничения, регламентирующие, что может генерировать ИИ-помощник: например, запрещено создавать фотореалистичные изображения общественных деятелей.

Компания также готова к многочисленным судебным разбирательствам, поскольку до сих пор нет единого мнения о том, подпадает ли обучение ИИ под действие доктрины о добросовестном использовании — она допускает ограниченное использование защищённых авторским правом произведений для публикации комментариев, исследовательских работ и пародий. В Meta предполагают, что подпадает, но не исключают судебных разбирательств по данному вопросу.

Чтобы избежать конфликтов такого характера, компания OpenAI минувшим летом подписала с Shutterstock шестилетнее соглашение на использование библиотек изображений, видео и музыки для обучения ИИ. Meta подошла к данному вопросу с другой стороны, запретив пользователям своих платформ создавать контент, нарушающий конфиденциальность и авторские права.

Строительство фабрики чипов Intel в Германии споткнулось о кадровый голод и дорогую электроэнергию

На строительство первой фазы своего производственного комплекса в немецком Магдебурге компания Intel отвела себе от четырёх до пяти лет, но существенные масштабы инвестиций (до 30 млрд евро) и длительные сроки ожидания должны быть компенсированы внедрением на этой площадке передовой литографии. Между тем, уже сейчас реализация проекта тормозится множеством проблем, специфичных для Европы и Германии.

 Источник изображения: Intel

Источник изображения: Intel

В частности, как отмечает The Wall Street Journal, поиск достаточного количества квалифицированных сотрудников для новых предприятий в Германии может представлять определённую проблему для Intel. Местные вузы в окрестностях Магдебурга, численность населения которого не превышает 240 000 человек, достаточно вяло участвуют в подготовке кадров для полупроводниковой промышленности. Компания Intel будет вынуждена отправлять проходящих трёхлетнюю программу обучения будущих сотрудников на предприятия в Ирландию, где они будут стажироваться на протяжении последнего года своей подготовки.

Первое предприятие строящегося комплекса первоначально планировалось ввести в эксплуатацию в 2027 году, но всего Intel потребуется около 3000 квалифицированных сотрудников, которые работали бы на нём на постоянной основе. Пока местные вузы начали готовить только 20 специалистов, собираясь позже увеличить численность группы десятикратно. Окрестные университеты задумались о необходимости привлечения квалифицированного преподавательского состава. Для стажировки обучаемых на месте потребовалось бы около 30 млн евро на строительство учебной лаборатории, но если Intel предоставит дополнительное финансирование на цели подготовки кадров, то размеры лаборатории могут быть увеличены с запасом.

После объединения двух частей Германии в 1990 году значительная часть промышленного потенциала Магдебурга была утрачена, и сейчас город по уровню своего развития уступает тем же Берлину и Мюнхену. Англоговорящих жителей здесь немного, а из действующих студентов только два человека получают образование, имеющее отношение к полупроводниковой сфере. В местной политической среде довольно сильны националистические настроения, и это может стать проблемой для Intel, поскольку компании придётся от 30 до 40 % штата будущего предприятия привлекать из-за пределов Германии.

Высокая стоимость энергоресурсов тоже усложняет экономику будущего предприятия. Производственные площадки подобного масштаба в других регионах планеты потребляют до 300 млн кВт·ч каждый квартал. Во второй половине прошлого года стоимость 1 кВт·ч в Германии достигала 19 центов, превышая уровень Франции и Польши на 40 %. Местные власти пытаются нивелировать озабоченность Intel этой проблемой, предлагая построить обособленную электростанцию, вырабатывающую энергию за счёт ветра, но пока в конкретные планы эта идея не превратилась. На уровне правительства также рассматривается возможность субсидирования стоимости электроэнергии для крупных промышленных предприятий, но некоторые экономисты выступают против таких мер. Тем более, что на строительство предприятий Intel уже будет выделено около 10 млрд евро.

Муниципальные власти Магдебурга убеждены, что инвестиции в инфраструктуру будут полезны всем местным жителям, а не только компании Intel. Попытка возродить промышленное производство в Германии в целом будет сопровождаться высокими расходами, но в долгосрочной перспективе должна себя оправдать, как считают местные чиновники.

OpenAI проведёт в ноябре первую конференцию для разработчиков — на ней покажут новые продукты

Компания OpenAI объявила о планах провести первую конференцию для разработчиков OpenAI DevDay. Однодневное мероприятие, запланированное на 6 ноября, соберёт в Сан-Франциско (Калифорния, США) разработчиков со всего мира. Они смогут принять участие в технических сессиях и демонстрациях новых продуктов.

 Источник изображения: Neowin

Источник изображения: Neowin

Посредством конференции OpenAI стремится укрепить свои отношения с сообществом разработчиков. Это играет ключевую роль в быстром внедрении технологий искусственного интеллекта.

«Однодневное мероприятие соберёт сотни разработчиков со всего мира вместе с командой OpenAI, чтобы изучить новые инструменты и обменяться новыми идеями. Участники конференции также смогут присоединиться к секционным заседаниям, которые будут проводиться техническими специалистами OpenAI. Мы с нетерпением ждём возможности показать наши последние решения, которые позволят разработчикам создавать новые продукты», — отметила компания.

Сегодня более двух миллионов разработчиков используют модели OpenAI, такие как GPT-4, GPT-3.5, Dall-E и Whisper, в своих приложениях и продуктах. На конференции OpenAI DevDay компания, вероятно, представит обновления диалогового агента ChatGPT, использующего языковые модели GPT-4 и GPT-3.5.

Хотя те же Google и Microsoft стремятся не отставать от конкурента и предлагают свои модели ИИ, OpenAI называет себя авангардом инноваций в области искусственного интеллекта. Недавно компания запустила корпоративную версию ChatGPT Enterprise с дополнительными функциями и средствами защиты конфиденциальности, которые недоступны в обычных версиях ChatGPT.

Подробную информацию о регистрации для участников конференции OpenAI предоставит позже. Компания также планирует транслировать основную часть DevDay в прямом эфире.

В платформе «VK Звонки» добавили автоматические субтитры и текстовую расшифровку созвонов

Социальная сеть «ВКонтакте» представила новые функции платформы «VK Звонки», которые будут полезны для тех, кто использует сервис для делового общения или в условиях, когда важно соблюдать тишину. Речь идёт о текстовой расшифровке встреч, которая автоматически переводит звуковую дорожку встречи в текст с сохранением в чате звонка, а также об автосубтитрах, которые дублируют речь участников чата.

 Источник изображения: «ВКонтакте»

Источник изображения: «ВКонтакте»

Функцию текстовой расшифровку может включить любой из участников группового звонка, при этом остальные собеседники получат об этом уведомление. После завершения общения файл с текстом поступит в чат звонка и будет сохранён в специальном разделе в профиле пользователя, включившего текстовую расшифровку. В файле автоматически расставляются тайм-коды и имена говорящих.

Что касается автоматических субтитров, то они будут показываться в реальном времени только у тех пользователей, которые включили эту опцию. Текстовая расшифровка может выполняться одновременно с субтитрами и записью звонка.

Для перевода речи в текст «ВКонтакте» использует собственные нейросетевые разработки, которые соцсеть применяет для расшифровки голосовых сообщений и создания автосубтитров в видео. Для обеспечения высокого качества расшифровки аудиопоток обрабатывается в несколько этапов. Сначала запись очищается от фоновых звуков с использованием интеллектуального шумоподавления, после чего нейросеть распознаёт слова, формируя текст, который потом делит на предложения в соответствии с конкретным спикером. Нейросети постоянно совершенствуются, проходя обучение, в том числе, на актуальной разговорной речи и сленге.

Новыми функциями можно также воспользоваться в сессионных залах и в звонках от имени сообщества. В настоящее время функции доступны только для русского языка, но в дальнейшем будут добавлены и другие языки. Также в ближайшее время планируется запуск новых функций в звонках один на один и возможность настройки администратором того, кто из участников встречи сможет запускать расшифровку.

Как отметила «ВКонтакте», новые функции будут особенно полезны тем, кто использует «VK Звонки» для делового общения, позволяя быстро расшифровать интервью, отправить ключевые тезисы после встречи или рассказать об итогах звонка коллегам, которые не были на встрече. Субтитры будут полезны в ситуации, когда важно соблюдать тишину и у пользователя не оказалось наушников. «Кроме того, это шаг к формированию доступной цифровой среды для слабослышащих пользователей: они смогут участвовать во встречах без ограничений», — подчеркнула пресс-служба соцсети.

Tesla запустила суперкомпьютер на 10 тыс. ускорителей NVIDIA H100 — на нём будут учить автопилот

Компания Tesla сообщила о запуске на этой неделе нового суперкомпьютера для решения ресурсоемких задач, связанных с ИИ. В его основе используются 10 тыс. специализированных графических ускорителей NVIDIA H100.

 Источник изображений: HPC Wire

Источник изображений: HPC Wire

Отмечается, что система обеспечивает пиковую производительность в 340 Пфлопс в операциях FP64 для технических вычислений и 39,58 Эфлопс в операциях INT8 для задач ИИ. Таким образом, по производительности FP64 кластер превосходит суперкомпьютер Leonardo, который располагается на четвёртой позиции в нынешнем мировом рейтинге суперкомпьютеров Тор500 с показателем 304 Пфлопс.

Новый суперкомпьютер Tesla с ускорителями NVIDIA H100 является одной из самых мощных платформ в мире. На формирование кластера потрачено около $300 млн. Он подходит не только для обработки алгоритмов ИИ, но и для НРС-задач. Благодаря данной системе компания рассчитывает значительно расширить ресурсы для создания полноценного автопилота.

На фоне сформировавшегося дефицита ускорителей NVIDIA H100 компания хочет диверсифицировать вычислительные мощности. Для этого Tesla ведёт разработку своего собственного проприетарного суперкомпьютера Dojo. В проект планируется инвестировать $1 млрд. Уже к октябрю следующего года Tesla рассчитывает преодолеть барьер в 100 Эфлопс производительности, что более чем в 60 раз мощнее самого производительного суперкомпьютера в мире на сегодняшний день.

Помимо простого аппаратного обеспечения, новая вычислительная инфраструктура предоставит Tesla преимущество в обработке огромных наборов данных, что имеет решающее значение для реальных сценариев обучения ИИ.

Google Cloud представила пятое поколение тензорных процессоров для обучения ИИ

На очередной ежегодной конференции Cloud Next компания Google Cloud объявила о выпуске пятого поколения своих тензорных процессоров (TPU) для обучения нейросетей — TPU v5e. Google анонсировала предыдущую, четвертую версию этих процессоров в 2021 году, но разработчикам они стали доступны только в 2022 году.

 Источник изображения: Frederic Lardinois / TechCrunch

Источник изображения: Frederic Lardinois / TechCrunch

Компания отмечает, что при создании новой версии чипа особое внимание уделялось его эффективности. По сравнению с предыдущим поколением, новый процессор обещает двукратное улучшение производительности в пересчёте на доллар для обучения больших языковых моделей (LLM) и генеративных нейросетей, а также 2,5-кратное улучшение производительности по тому же критерию для инференс-систем.

«Это самый экономичный и доступный облачный TPU на сегодняшний день», — заявил на пресс-конференции перед сегодняшним анонсом Марк Ломейер (Mark Lohmeyer), вице-президент и генеральный директор по вычислительной и ML-инфраструктуре Google Cloud.

 Источник изображения: Google

Источник изображения: Google

В то же время он подчеркнул, что компания не экономила на технических характеристиках TPU v5e в угоду рентабельности. Кластеры могут включать до 256 чипов TPU v5e, объединённых высокоскоростным интерконнектом с совокупной пропускной способностью более 400 Тбит/с. Производительность такой платформы составляет 100 Попс (Петаопс) в INT8-вычислениях.

«Мы предоставляем нашим клиентам возможность легко масштабировать свои модели искусственного интеллекта за пределы физических границ одного модуля TPU или одного кластера TPU. Другими словами, одна большая рабочая нагрузка искусственного интеллекта теперь может распределяться на несколько физических кластеров TPU, масштабируясь буквально до десятков тысяч чипов. При этом работа будет выполняться экономически эффективно. В результате, используя облачные графические процессоры и облачные TPU, мы действительно предоставляем нашим клиентам большой выбор, гибкость и дополнительные возможности для удовлетворения потребностей широкого набора рабочих задач, связанных с ИИ, которые, как мы видим, продолжают множиться», — добавил он.

В дополнение к анонсу нового поколения TPU компания Google также объявила, что в следующем месяце сделает общедоступными для разработчиков виртуальные кластеры A3, оснащённые специализированными графическими процессорами Nvidia H100.

Годовая выручка разработчика ChatGPT приблизилась к $1 млрд

Годовая выручка компании OpenAI, занимающейся разработкой и лицензированием технологий на основе машинного обучения, приближается к $1 млрд, пишет Bloomberg. Технологии компании используются в основе ChatGPT — генеративного бота с искусственным интеллектом, получившего значительную популярность среди множества компаний и привлекшего значительную волну инвестиций в область ИИ.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Стартап, поддерживаемый компанией Microsoft, зарабатывает около $80 миллионов ежемесячно, сообщил изданию источник, проинформированный по этому вопросу, но попросивший об анонимности. Впервые о доходах OpenAI сообщило издание The Information, в частности, отметив, что в 2022 году компания потеряла около 540 миллионов долларов на разработке языковой модели GPT-4 и чат-бота ChatGPT.

OpenAI считается одной из нескольких компаний, находящихся в авангарде разработок генеративного искусственного интеллекта, способного создавать контент, от видео до стихов, с помощью нескольких простых пользовательских команд. С момента дебюта своего бота в ноябре OpenAI лицензирует его молодым компаниям и крупным корпорациям, а также помогает внедрять технологию в их экосистемы бизнеса, продуктов и сервисов.

В этом месяце компания запустила корпоративную версию ChatGPT с дополнительными функциями и средствами защиты конфиденциальности. Это самая значительная попытка стартапа привлечь широкий круг бизнес-клиентов и увеличить доходы от своего самого известного продукта.

Внедрение ChatGPT Enterprise — шаг вперёд в планах OpenAI по зарабатыванию денег на своём сверхпопулярном, но весьма дорогом в вопросе внедрения и эксплуатации продукте. Для работы модели искусственного интеллекта требуются значительные специализированные вычислительные мощности. Компания уже реализовала несколько моделей получения дохода с ChatGPT, например, предложив клиентам премиальную подписку, а также платный доступ к интерфейсу программирования ПО, который разработчики могут использовать для добавления чат-бота в другие приложения.

«Креативность невозможна без разума» — Стивен Кинг заявил, что пока что ИИ не заменит писателей

Писатель Стивен Кинг (Stephen King), признанный мастер жанра ужасов, заявил, что противостоять искусственному интеллекту бесполезно. Более того, некоторые ИИ-модели обучались в том числе на его произведениях, и маэстро не возражает.

 Источник изображения: twitter.com/StephenKing

Источник изображения: twitter.com/StephenKing

Журналисты The Atlantic выяснили, что работы Стивена Кинга использовались для обучения моделей ИИ, но в отличие от многих представителей творческой отрасли писатель не усматривает в этом ничего плохого, о чём он заявил в авторской колонке на страницах издания. Он считает, что тексты, написанные искусственным интеллектом, и, возможно, другие творческие форматы тоже, на первый взгляд могут выглядеть неплохо, но они никогда не достигнут уровня произведений, созданных талантливым человеком. Вопреки высказываемому иногда мнению, что ИИ может положить конец человечеству, Стивен Кинг не видит в нём угрозы. Творчество требует наличия разума — некоторые считают, что ИИ уже достиг таких высот, но писатель настроен скептически.

«Креативность невозможна без разума, и сейчас существуют аргументы в пользу того, что некоторые ИИ действительно разумны. Если это так сейчас или в будущем, тогда творчество [в исполнении ИИ] станет возможным. Я рассматриваю эту возможность с некоторым жутким восхищением», — отметил Кинг.

Сопротивляться нарастающему присутствию ИИ, по его мнению, бесполезно: возможно, и стоит насторожиться, когда ИИ обретёт разум, но и запрещать использовать свои работы для его обучения было бы бессмысленно. Так же средневековый датский король Кнуд Великий пытался остановить морской прилив, а английские луддиты уничтожали ткацкие станки. Его позицию разделают далеко не все представители творческой индустрии — объявившие забастовку представители американских сценаристов и актёров протестовали в том числе против угроз, которые их профессиям несёт ИИ. А некоторые издания запретили вход на свои сайты роботу OpenAI, который обходит ресурсы, собирая данные для обучения ИИ.

Кинг приходит к выводу, что ИИ не хватает способностей к настоящему творчеству, но не решается давать прогнозов о том, когда он станет таким же разумным, как человек.

Учёные с помощью ИИ в четыре раза ускорили преобразование мыслей в речь через нейроинтерфейс

В журнале Nature вышли две статьи, в которых учёные рассказали о новых методиках трансляции мыслей пациентов с поражениями мозга в речь и эмоции. Преобразование мозговой активности в текст и голосовое общение происходит с помощью алгоритма машинного обучения. Учёным удалось увеличить скорость преобразования почти в четыре раза с 18 слов в минуту до 78. Это ниже среднего для обычного разговора темпа в 160 слов в минуту, но кратно быстрее, чем было до этого.

 Источник изображений: Noah Berger/UCSF

Источник изображений: Noah Berger/UCSF

Нейродегенеративные заболевания, инсульты или травмы способны лишить человека речи разными способами, но один из них достаточно легко поддаётся исправлению. Современные технологии позволяют создать мостик между здоровыми участками мозга, отвечающими за речь или мысленное произношение, и мышцами, управляющими мимикой и позволяющими говорить. Естественный канал коммуникации между мышцами и мозгом может быть разорван в случае болезни или травмы, и тогда на помощь приходит интерфейс человек-компьютер и обучаемый алгоритм.

В мозг пациента встраивается датчик или несколько датчиков с электродами, входящими в зоны активности мозга человека, ответственные за произношение и речь (хотя учёные пока не до конца понимают, какие это зоны). В одном случае, например, учёные установили на речевую область сенсомоторной коры и на область верхней височной извилины женщины после инсульта 253 электрода. После болезни она не могла говорить и даже печатать.

В течение нескольких недель ИИ обучался на примере произношения пациенткой 1024 слов из специально подобранного словаря. Для упрощения работы алгоритма он разбивал все слова на фонемы, которых было всего 39. Затем словарный запас женщины был расширен до 125 тыс. слов. Машинный алгоритм смог распознавать мысленное произношение женщины с ошибками на уровне 25 %, но со скоростью до 78 слов в минуту.

Алгоритм также научили распознавать эмоции пациентки — горе, радость, удивление. Наконец, используя старую видеозапись женщины, учёные создали её компьютерный образ — аватар — и заставили его транслировать текстовые сообщения в голосовые. По сути, они вернули пациентке возможность разговаривать.

Сегодня подобные процедуры восстановления сопряжены с длительным обучением ИИ и необходимостью быть постоянно подключённым к компьютеру. Учёные из Калифорнийского университета в Сан-Франциско (UCSF) и Калифорнийского университета в Беркли, которые реализовали представленную методику, теперь работают над беспроводными вариантами транслятора. Когда-нибудь это повысит социальную вовлечённость людей с подобными медицинскими проблемами.

Hitachi считает, что ИИ сможет на производстве стать наставником для молодых специалистов

Интерактивные тренажёры используются в самых разных областях подготовки персонала, и японская компания Hitachi решила поставить технологии искусственного интеллекта на службу в сфере обучения специалистов безопасным приёмам работы и тренировки последовательности действий в аварийных ситуациях. Такая система поможет решить проблему передачи опыта между поколениями рабочих в условиях демографического кризиса.

 Источник изображения: Hitachi

Источник изображения: Hitachi

Не секрет, что японская экономика уже сейчас сталкивается с проблемой старения нации. К 2030 году более 30 % населения страны будет пребывать в возрасте старше 65 лет, а нехватка рабочих рук в промышленности и сфере обслуживания будет измеряться 6,44 млн вакантных позиций. Представители Hitachi рассказали Nikkei Asian Review, что корпоративный исследовательский центр сейчас разрабатывает систему интерактивного обучения персонала рабочих специальностей, которая учитывала бы опыт предыдущих происшествий для моделирования аварийной обстановки на промышленных объектах. Молодые кадры, по замыслу создателей, в этом случае почувствуют своё погружение в сложную ситуацию и получат необходимые для правильных действий навыки. Ранее подобной работой обычно занимались опытные наставники, но по мере уменьшения их количества в силу естественных причин японским корпорациям приходится полагаться на искусственный интеллект.

Hitachi собирается создать учебный класс площадью около 10 квадратных метров, на полу и стенах которого будут проецироваться создаваемые компьютером изображения соответствующих элементов обстановки на производственном объекте после чрезвычайного происшествия. Система искусственного интеллекта по запросу оператора сможет генерировать самые разные ситуации и наглядно отображать их на проекции. Затем обучаемые получат необходимые рекомендации по действиям в таких условиях, обретя нужный опыт без взаимодействия с живым наставником.

Систему генеративного искусственного интеллекта Hitachi также хочет научить давать подсказки персоналу промышленных объектов в тех или иных нештатных ситуациях. Например, управляющий электростанцией диспетчер сможет получить от системы рекомендации по поиску и устранению неисправности, в зависимости от индикации на табло системы управления. Даже если человек заучивал инструкции и правила, в состоянии стресса он может просто забыть о каких-то нюансах, и искусственный интеллект предоставит ему своевременную подсказку. Hitachi сперва намеревается использовать такие системы для обучения собственного персонала, но в случае успеха эксперимента готова предложить их и сторонним заказчикам.

Сотрудничество NVIDIA и ИИ-стартапа Hugging Face поможет упростить облачное обучение ИИ-моделей

Чипмейкер NVIDIA объявил на ежегодной конференции SIGGRAPH 2023 о партнёрстве со стартапом в области ИИ Hugging Face. В рамках партнёрства NVIDIA обеспечит поддержку новой услуги Hugging Face под названием Training Cluster as a Service (Кластер обучения как услуга), которая упростит создание и настройку новых пользовательских генеративных моделей ИИ для корпоративных клиентов, использующих собственную платформу и NVIDIA DGX Cloud для инфраструктуры, делая это одним щелчком мыши.

 Источник изображения: Hugging Face

Источник изображения: Hugging Face

Запуск сервиса Training Cluster as a Service намечен на ближайшие месяцы. Он будет базироваться на DGX Cloud, облачном ИИ-суперкомпьютере NVIDIA, предлагающем выделенные ИИ-кластеры NVIDIA DGX с ПО NVIDIA.

DGX Cloud предоставляет доступ к инстансу с восемью ускорителями NVIDIA H100 или A100 и 640 Гбайт памяти, а также ПО NVIDIA AI Enterprise для разработки приложений ИИ и больших языковых моделей (LLM). Также предоставляется возможность консультирования у экспертов NVIDIA.

Разработчики также получат доступ к новой рабочей среде NVIDIA AI Workbench, которая позволит им быстро создавать, тестировать и настраивать предварительно обученные модели генеративного ИИ и LLM.

Компании могут подписаться на сервис DGX Cloud самостоятельно — стоимость инстансов DGX Cloud начинается от $36 999/мес. Однако сервис Training Cluster as a Service объединяет облачную инфраструктуру DGX с платформой Hugging Face, включающей более 250 000 моделей и более 50 000 наборов данных, что будет полезно при работе над любым проектом ИИ.

По словам гендиректора Hugging Face Клемана Деланга (Clément Delangue), платформу стартапа использует более 15 000 компаний.

Zoom обновил условия обслуживания и начал обучать свой ИИ на данных пользователей

Zoom обновил условия обслуживания, дав себе право обучать собственный ИИ на основе данных пользователей. Это изменение вызывает споры о том, насколько допустимо использовать личные данные клиентов для обучения ИИ, даже если они агрегированы или анонимизированы.

 Источник изображения: Alexandra_Koch / Pixabay

Источник изображения: Alexandra_Koch / Pixabay

Согласно недавно обновлённым условиям обслуживания, Zoom намерен обучать собственные ИИ-модели, используя данные пользователей. Нововведение, вступившее в силу 27 июля, подтверждает право компании использовать информацию о продукте, телеметрические и диагностические данные, а также другой контент или данные, собранные компанией. Такой подход к пользовательским данным со стороны технологических компаний не является новым, однако новые условия являются важным шагом в реализации стратегии Zoom в области ИИ.

Условия Zoom гласят: «Вы даёте согласие на доступ, использование, сбор, создание, изменение, распространение, обработку, совместное использование, обслуживание и хранение генерируемых Службой данных компанией Zoom в любых целях, в объёме и в порядке, разрешённых действующим законодательством, в том числе в целях разработки продуктов и услуг, маркетинга, аналитики, обеспечения качества, машинного обучения или искусственного интеллекта (в том числе в целях обучения и настройки алгоритмов и моделей), обучения, тестирования, улучшения Служб, Программного обеспечения или других продуктов, услуг и программного обеспечения компании Zoom или любой их комбинации, а также в соответствии с другими положениями настоящего Соглашения».

Контент пользователей, такой как сообщения, файлы и документы, в эту категорию, по-видимому, не входит. В блоге компании представитель Zoom уточнил: «Для ИИ мы не используем аудио, видео или чат без согласия клиента». Ключевая фраза здесь — «без согласия клиента».

В июне Zoom на бесплатной основе представил две новые функции генеративного ИИ — инструмент для составления резюме встречи и инструмент для создания сообщений в чате. Однако при активации этих функций Zoom просит пользователей подписать форму согласия на обучение своих ИИ-моделей с использованием их контента. Представитель компании заявил, что пользователи Zoom сами решают, следует ли им активировать функции генеративного ИИ и делиться индивидуальным контентом с Zoom для улучшения продукта. «Ваш контент используется исключительно для улучшения производительности и точности этих ИИ-услуг», — пояснил предствитель Zoom в блоге.

Обновление условий произошло на фоне растущей обеспокоенности, в какой степени ИИ должен обучаться на данных отдельных лиц, независимо от того, насколько они агрегированы или анонимизированы. Инструменты, такие как ChatGPT — OpenAI, Bard — Google и Bing — Microsoft, обучаются на больших объёмах текста или изображений из интернета. В секторе генеративного ИИ недавно были поданы иски от писателей и художников, которые утверждают, что их произведения были незаконно использованы техногигантами для обучения своих ИИ-моделей.

Обновление условий обслуживания Zoom подчёркивает растущую роль ИИ в современных технологиях и вызывает вопросы о балансе между инновациями и конфиденциальностью данных. Пока компании стремятся улучшить свои услуги с помощью ИИ, важно помнить о необходимости защиты личной информации пользователей.

В Tinkoff Research придумали, как ускорить обучение искусственного интеллекта в 20 раз

Учёные из лаборатории исследований искусственного интеллекта Tinkoff Research разработали SAC-RND — новый алгоритм для обучения ИИ. На робототехнических симуляторах было достигнуто повышение скорости обучения в 20 раз по сравнению со всеми существующими аналогами при возросшем на 10 % качестве. Оптимизация крайне ресурсоёмкого процесса обучения ИИ ускорит развитие многих сфер, где применяется ИИ.

 Источник изображения: Tinkoff

Источник изображения: Tinkoff

Разработчики утверждают, что SAC-RND может «повысить безопасность беспилотных автомобилей, упростить логистические цепочки, ускорить доставку и работу складов, оптимизировать процессы горения на энергетических объектах и сократить выбросы вредных веществ в окружающую среду. Открытие не только улучшает работу узкоспециализированных роботов, но и приближает нас к созданию универсального робота, способного в одиночку выполнять любые задачи».

Результаты исследования были представлены в конце июня на 40-й Международной конференции по машинному обучению (ICML) в Гонолулу, Гавайи. Эта конференция является одной из трёх крупнейших в мире в сфере машинного обучения и искусственного интеллекта.

Одним из наиболее перспективных видов обучения ИИ является обучение с подкреплением (RL), позволяющее ИИ учиться методом проб и ошибок, адаптироваться в сложных средах и изменять поведение на ходу. Обучение с подкреплением может использоваться во всех сферах: от регулирования пробок на дорогах до рекомендаций в социальных сетях.

При этом ранее считалось, что использование случайных нейросетей (RND) не применимо для офлайн-обучения с подкреплением. В методе RND используются две нейросети — случайная и основная, которая пытается предсказать поведение первой. Свойство нейросети определяются её глубиной — количеством слоёв, из которых она состоит. Основная сеть должна содержать больше слоёв, чем случайная, иначе моделирование и обучение становится нестабильным или даже невозможным.

Использование неправильных размеров сетей привело к ошибочному выводу, что метод RND не умеет дискриминировать данные — отличать действия из датасета от прочих. Исследователи из Tinkoff Research обнаружили, что при использовании эквивалентной глубины сетей, метод RND начинает качественно различать данные. Затем исследователи приступили к оптимизации ввода и научили роботов приходить к эффективным решениям при помощи механизма слияния, основанного на модуляции сигналов и их линейном отображении. До этого при использовании метода RND поступающие сигналы не подвергались дополнительной обработке.

На визуализации ниже в верхнем ряду показаны предыдущие попытки применения метода RND, в нижнем — метод SAC-RND. Стрелки на изображении должны вести робота в одну точку — они указывают направление к правильному действию. Метод Tinkoff Research во всех случаях стабильно приводит робота в нужную точку

 Визуализация принятия решения роботами, обученными с помощью разных алгоритмов. Источник изображения: Tinkoff Research

Визуализация принятия решения роботами, обученными с помощью разных алгоритмов. Источник изображения: Tinkoff Research

Метод SAC-RND был протестирован на робототехнических симуляторах и показал лучшие результаты при меньшем количестве потребляемых ресурсов и времени. Открытие поможет ускорить исследования в области робототехники и обучения с подкреплением, поскольку оно снижает время получения устойчивого результата в 20 раз и является важным шагом на пути к созданию универсального робота.

Tinkoff Research — российская исследовательская некоммерческая группа. Учёные из Tinkoff Research исследуют наиболее перспективные области ИИ: обработку естественного языка (NLP), компьютерное зрение (CV), обучение с подкреплением (RL) и рекомендательные системы (RecSys). Команда курирует исследовательскую лабораторию «Тинькофф» на базе МФТИ и помогает талантливым студентам совершать научные открытия.

«Яндекс Практикум» обновил ключевые курсы по веб-разработке и открыл набор на программы «Фронтенд-разработчик» и «Фулстек-разработчик»

«Яндекс Практикум» провёл большое обновление курсов веб-разработки. Теперь у студентов появилась возможность выбрать одну из двух самостоятельных программ, которые объединили базовые и углублённые направления. Так, основной курс «Веб-разработчика» превратился в программу «Фронтенд-разработчик», а «Веб-разработчик плюс» перешел в «Фулстек-разработчик».

Фронтенд-разработчик

Новый курс «Фронтенд-разработчик» сфокусирован на углублённом изучении фронтенда. Благодаря дополнению программы студенты смогут стать уверенными фронтенд-разработчиками и откликаться на соответствующие вакансии. На курсе изучается HTML, CSS, JavaScript, TypeScript, React, Redux и другие технологии, а также необходимые инструменты Git, Bash, сборщики, шаблонизаторы и процессоры кода.

Сергей Котов, Lead Product Manager:

«Сейчас мы полностью обновили модуль по вёрстке, более основательно переписали ООП, упрощаем часть по React, пытаясь найти идеальный баланс между тем, чтобы научить всему самому важному и сделать это максимально доступным языком.

А ещё добавили обновлённый модуль про TypeScript, без знаний которого сейчас не найти практически ни одной вакансии в топовых компаниях. Также, по рекомендации наставников, методистов и текущих студентов, мы убрали дипломный проект, чтобы освободить время на более глубокое изучение важных технологий, и обновили большую часть проектов программы».

Курс веб-разработки, которому уже четыре года, обновляется постоянно — программы корректируются и дополняются, исходя из отзывов студентов, развития технологий и рынка.

Фулстек-разработчик

Несмотря на распространённое разделение ролей фронтендера и бэкендера, весомую роль на рынке все чаще занимают IT-компании, которые требуют от разработчика единовременного погружения в обе сферы. В результате не только фронтенд-, но и фулстек-специалисты на данный момент очень востребованы, и эта тенденция будет только расти, если внимательно посмотреть на описание вакансий по фронтенд разработке на hh.

На курсе «Фулстек-разработчик» студенты получат навыки работы с фронтендом и бэкендом, технологиями Node.js, Express, MongoDB, PostgreSQ, Nest.js, Docker современным стеком, который часто упоминается в вакансиях. Кроме того, в трек теперь добавлен модуль по алгоритмам, который позволит соискателям проходить собеседования в компании уровня Яндекса.

Никита Мищенко, продакт-менеджер курсов:

«Перед обновлением программы мы провели серии интервью с нанимающими менеджерами и действующими senior-разработчиками. На основе их реального опыта и нашей образовательной экспертизы получилась программа, которая будет актуальна и в 2023 году, и ещё как минимум несколько лет. К тому же, чтобы быстрее обновлять программы, мы делаем их более мобильными: контент легко бьётся на смысловые блоки и пересобирается, не теряя в качестве. В будущем это позволит быстрее адаптировать и менять их под текущие реалии».

Кроме обновления изучаемых стеков технологий для курсов также был пересмотрен процесс создания образовательного контента и заложена методология 4C/ID, которая выстраивает программу вокруг реальных ситуаций будущих рабочих задач.

Полина Муштукова, методист направления:

«Мы задались вопросом: с какими проблемами столкнётся фронтенд- или фулстек-разработчик, выйдя с нашего курса, в ближайшие полгода работы? Отталкиваясь от этих проблем, мы и проектировали обучение. Анализировали, как интегрировать в учебный контекст каждую проблему, не потеряв её аутентичность. Так, отстраивая процесс от рабочих задач, мы хотим помочь студентам с меньшим стрессом перейти из учебного контекста в рабочий».

Стоимость курса «Фронтенд-разработчик» — 140 000 руб., а курса «Фулстек-разработчик» — 252 000 руб. Начать обучение по каждой из программ можно бесплатно — у каждого курса есть вводная часть, чтобы понять, подходит ли он вам. Пойти учиться на фулстек-разработку можно будет и после окончания фронтенда — пройдённые темы зачтутся, и студента переведут по учебному треку сразу на нужную часть курса.

Узнать подробности и подать заявку на обучение по программе «Фронтенд-разработчик» можно на сайте, а по программе «Фулстек-разработчик» здесь.

window-new
Soft
Hard
Тренды 🔥
World of Goo 2 обойдёт стороной Steam — дата выхода и новый геймплей 7 ч.
«Группа Астра» выпустила решение для управления мобильными устройствами в корпоративной среде 7 ч.
«"Стражи галактики", но в шкуре Borderlands»: первый трейлер фильма «Бордерлендс» вызвал неоднозначную реакцию фанатов 8 ч.
Microsoft раскрыла, какие эксклюзивы Xbox и когда выйдут на PlayStation и Switch 9 ч.
Анонсирована Shin Megami Tensei V: Vengeance с новым контентом и повсеместными улучшениями — в том числе для Steam и на русском языке 10 ч.
Больше Dark Souls, чем Diablo: авторы Ori рассказали о боевой системе ролевого экшена No Rest for the Wicked в новом геймплейном видео 11 ч.
Геймплейный трейлер Elden Ring: Shadow of the Erdtree подтвердил дату выхода масштабного аддона — в российском Steam доступен предзаказ 12 ч.
Google представила Gemma — открытую версию ИИ-модели Gemini 13 ч.
Meta и Microsoft попросили ЕС отклонить новую политику Apple App Store — она «обременительная» 13 ч.
Кондуктор всегда прав: анонсирована Beholder: Conductor про смотрителя поезда, который станет вершителем судеб пассажиров и коллег 13 ч.
Компания Mercedes-Benz обогнала Tesla и вернула себе позицию самого дорогого автомобильного бренда в мире 4 мин.
В прошлом году выручка NVIDIA выросла на 126 % до $60,9 млрд 2 ч.
ИИ для защиты 5G: Nokia представила ассистента Telco GenAI, который поможет быстро выявить и нейтрализовать атаки на сети связи 5 ч.
Новая статья: Обзор трёх кулеров ID-Cooling новой серии Frozn: A410, A610 и A620 Black 7 ч.
Microsoft заказала у Intel Foundry производство процессоров по техпроцессу Intel 18A 7 ч.
С помощью Honor Magic6 Pro показали, как можно удалённо управлять автомобилем одним лишь взглядом 7 ч.
Intel анонсировала техпроцесс Intel 14A — его запустят в 2027 году с использованием литографии High-NA EUV 8 ч.
Китайские учёные создали оптический диск объёмом 200 Тбайт 9 ч.
Итальянские военные захотели создать группировку спутников-суперкомпьютеров 10 ч.
Sony выпустила беспроводную гарнитуру Pulse Elite за $150 для PS5, ПК и Mac 10 ч.