Опрос
|
реклама
Быстрый переход
Cerebras представила гигантский процессор WSE-3 c 900 тысячами ядер
13.03.2024 [19:58],
Николай Хижняк
Американский стартап Cerebras Systems представил гигантский процессор WSE-3 для машинного обучения и других ресурсоёмких задач, для которого заявляется двукратный прирост производительности на ватт потребляемой энергии по сравнению с предшественником. Площадь нового процессора составляет 46 225 мм2. Он выпускается с использованием 5-нм техпроцесса компании TSMC, содержит 4 трлн транзисторов, 900 000 ядер и объединён с 44 Гбайт набортной памяти SRAM. Его производительность в операциях FP16 заявлена на уровне 125 Пфлопс. Один WSE-3 составляет основу для новой вычислительной платформы Cerebras CS-3, которая, по утверждению компании, обеспечивает вдвое более высокую производительность, чем предыдущая платформа CS-2 при том же энергопотреблении в 23 кВт. По сравнению с ускорителем Nvidia H100 платформа Cerebras CS-3 на базе WSE-3 физически в 57 раз больше и примерно в 62 раза производительнее в операциях FP16. Но учитывая размеры и энергопотребление Cerebras CS-3, справедливее будет сравнить её с платформой Nvidia DGX с 16 ускорителями H100. Правда, даже в этом случае CS-3 примерно в 4 раза быстрее конкурента, если речь идёт именно об операциях FP16. Одним из ключевых преимуществ систем Cerebras является их пропускная способность. Благодаря наличию 44 Гбайт набортной памяти SRAM в каждом WSE-3, пропускная способность новейшей системы Cerebras CS-3 составляет 21 Пбайт/с. Для сравнения, Nvidia H100 с памятью HBM3 обладает пропускной способностью в 3,9 Тбайт/с. Однако это не означает, что системы Cerebras быстрее во всех сценариях использования, чем конкурирующие решения. Их производительность зависит от коэффициента «разрежённости» операций. Та же Nvidia добилась от своих решений удвоения количества операций с плавающей запятой, используя «разреженность». В свою очередь Cerebras утверждает, что добилась улучшения примерно до 8 раз. Это значит, что новая система Cerebras CS-3 будет немного медленнее при более плотных операциях FP16, чем пара серверов Nvidia DGX H100 при одинаковом энергопотреблении и площади установки, и обеспечит производительность около 15 Пфлопс против 15,8 Пфлопс у Nvidia (16 ускорителей H100 выдают 986 Тфлопс производительности). Cerebras уже работает над внедрением CS-3 в состав своего суперкластера Condor Galaxy AI, предназначенного для решения ресурсоёмких задач с применением ИИ. Этот проект был инициирован в прошлом году при поддержке компании G42. В его рамках планируется создать девять суперкомпьютеров в разных частях мира. Две первые системы, CG-1 и CG-2, были собраны в прошлом году. В каждой из них сдержится по 64 платформы Cerebras CS-2 с совокупной ИИ-производительностью 4 экзафлопса. В эту среду Cerebras сообщила, что построит систему CG-3 в Далласе, штат Техас. В ней будут использоваться несколько CS-3 с общей ИИ-производительностью 8 экзафлопсов. Если предположить, что на остальных шести площадках также будут использоваться по 64 системы CS-3, то общая производительность суперкластера Condor Galaxy AI составит 64 экзафлопса. В Cerebras отмечают, что платформа CS-3 может масштабироваться до 2048 ускорителей с общей производительностью до 256 экзафлопсов. По оценкам экспертов, такой суперкомпьютер сможет обучить модель Llama 70B компании Meta✴ всего за сутки. Помимо анонса новых ИИ-ускорителей Cerebras также сообщила о сотрудничестве с компанией Qualcomm в вопросе создания оптимизированных моделей для ИИ-ускорителей Qualcomm с Arm-архитектурой. На потенциальное сотрудничество обе компании намекали с ноября прошлого года. Тогда же Qualcomm представила свой собственный ИИ-ускорители Cloud AI100 Ultra формата PCIe. Он содержит 64 ИИ-ядра, 128 Гбайт памяти LPDDR4X с пропускной способностью 548 Гбайт/с, обеспечивает производительность в операциях INT8 на уровне 870 TOPS и обладает TDP 150 Вт. В Cerebras отмечают, что вместе с Qualcomm они будут работать над оптимизацией моделей для Cloud AI100 Ultra, в которых будут использоваться преимущества таких методов, как разреженность, спекулятивное декодирование, MX6 и поиск сетевой архитектуры. «Как мы уже показали, разрежённость при правильной реализации способна значительно повысить производительность ускорителей. Спекулятивное декодирование предназначено для повышения эффективности модели при развёртывании за счёт использования небольшой и облегченной модели для генерации первоначального ответа, а затем использования более крупной модели для проверки точности этого ответа», — отметил гендиректор Cerebras Эндрю Фельдман (Andrew Feldman). Обе компании также рассматривают возможность использования метода MX6, представляющего собой форму сжатия размера модели путём снижения её точности. В свою очередь, поиск сетевой архитектуры представляет собой процесс автоматизации проектирования нейронных сетей для конкретных задач с целью повышения их производительности. По словам Cerebras, сочетание этих методов способствует десятикратному повышению производительности на доллар. В Китае искусственный интеллект навёл порядок на железной дороге — она заработала лучше, чем новая
13.03.2024 [12:10],
Геннадий Детинич
Чат-боты, сгенерированные картинки, видео и другие подобные развлечения с искусственным интеллектом — это интересно и местами полезно. Но более важным станет практическое внедрение ИИ в производство, транспорт и материальную экономику в целом. В конечном итоге выиграет тот, кто буквально будет «пахать и строить» на ИИ, заменив человека в производственной сфере. Китай сделал важный шаг к этому: благодаря ИИ там смогли навести порядок на железной дороге. Простой обыватель даже не может себе представить, чего стоит содержать дорогу, инфраструктуру и парк техники в порядке, а также обеспечивать движение составов. Это потенциально убыточные мероприятия с огромной ответственностью. Китай, как и другие страны, вскоре ощутит проблемы со стареющим населением. При этом железнодорожная сеть в стране растёт и предполагает соединение высокоскоростными ж/д магистралями все города с населением свыше 500 тыс. человек. Скорость подвижного состава также растёт, что делает человеческий фактор наиболее слабым звеном. Протокол управления данными для внедрения ИИ-алгоритмов на железной дороге в Китае был внедрён оператором национальной сети железных дорог — китайской государственной компанией China State Railway Group — в 2022 году. Доступ к данным должен был быть ограничен и защищён от стороннего вмешательства и утечек. Алгоритмы управления были проверены людьми, и только после этого они были внедрены. Масштабные испытания начались в 2023 году. Результат ошеломил — железная дорога стала работать даже лучше, чем новая (сразу после ввода участков и составов в строй). Датчики установлены на объектах инфраструктуры, на колёсные пары, на вагоны, чтобы учитывать вибрации, ускорение и амплитуды и это не говоря об обычной сигнальной автоматике. Объём собираемых для анализа данных достиг 200 Тбайт, а ведь это не картинки или видео, а обычные состояния регистров. Человек и сколь угодно большой коллектив не смог бы оперативно обрабатывать такой объём информации. Всё это данные о 45 тыс. км путей — это длиннее, чем экватор Земли. Обслужить всё это не хватит никакой рабочей силы. Размещённая в Пекине система искусственного интеллекта в режиме реального времени обрабатывает огромные объёмы данных со всей страны и может предупреждать ремонтные бригады о нештатных ситуациях в течение 40 минут с точностью до 95 %. Рекомендации обычно направлены на предотвращение неисправностей — на профилактику потенциальных проблем. ИИ во всём этом потоке данных научили находить связи между событиями, которые недоступны для осознания в реальном масштабе времени. За прошедший год ни одна из действующих высокоскоростных железнодорожных линий Китая не получила ни единого предупреждения о необходимости снижения скорости из-за серьёзных проблем с неровностями пути, в то время как количество мелких неисправностей на путях сократилось на 80 % по сравнению с предыдущим годом. Алгоритмы действуют настолько чётко, что даже повышают плавность хода в условиях сильных ветров и на мостах, снижая амплитуду колебаний составов и уменьшая нагрузку на пути и инфраструктуру. Звучит, как фантастика. Подобные решения не только уменьшают потребность в обслуживающем персонале, но также снижают финансовую нагрузку на содержание железных дорог и, что самое важное, повышают безопасность движения. В Китае признают своё отставание от США в плане развития искусственного интеллекта, но если США не сможет конвертировать возможности ИИ в повышение производительности труда в материальной сфере, то это их преимущество будет лишь иллюзией. Нейросети помогут в поиске мелкого космического мусора
06.03.2024 [17:39],
Павел Котов
Европейские учёные предложили адаптировать популярные ИИ-алгоритмы систем машинного зрения для анализа сделанных при помощи радаров снимков околоземного пространства и обнаружения на них миниатюрных частиц космического мусора. Исследователи провели эксперимент, применив существующие нейросети, используемые в системах машинного зрения, для анализа данных с европейского радара TIRA — это 47-метровая радиотарелка, которая помогает наблюдать за околоземным пространством и получать изображения, на которых производится поиск космического мусора. Авторы проекта попытались заменить стандартные алгоритмы анализа данных TIRA нейросетями семейства YOLO, которые применяются для поиска движущихся объектов на снимках. Версии нейросетей YOLOv5 и YOLOv8 обучили при помощи массива из 3000 снимков околоземного пространства и проверили их эффективность на примере 600 изображений с радаров, на которых были от одного до трёх частиц космического мусора. Обе нейросети корректно обнаружили от 85 % до 97 % частиц размером от сантиметра при минимальном числе ложных срабатываний. Результат оказался выше того, что демонстрирует стандартный алгоритм TIRA. Учёные сделали вывод, что системы машинного зрения могут успешно применяться для поиска космического мусора в околоземном пространстве и для его отслеживания в реальном времени. Это поможет снизить число инцидентов, связанных с попаданием частиц космического мусора в работающие орбитальные аппараты. По оценкам экспертов, на орбите Земли могут находиться более 170 млн частиц космического мусора. ChatGPT научился читать свои ответы вслух
05.03.2024 [10:12],
Николай Хижняк
Компания OpenAI добавила в свой ИИ-бот ChatGPT функцию «Чтение вслух», которая озвучивает ответы на запросы пользователей с помощью одним из пяти голосов. Функция может пригодиться, например, в дороге, когда отвлечься на экран устройства для чтения ответа на запрос может оказаться невозможно. Новая функция «Чтение вслух» уже доступна как в веб-версии ChatGPT, так и в приложениях ChatGPT для iOS и Android. Функция «Чтение вслух» поддерживает 37 языков и автоматически определяет язык ответа. Она доступна как для чат-ботов на базе GPT-4, так и для GPT-3.5. Следует добавить, что аналогичные возможности для своих ИИ-моделей ранее добавила компания Anthropic, один из основных конкурентов OpenAI. В сентябре минувшего года ChatGPT запустил функцию голосового запроса, благодаря которой пользователи могут голосом проговаривать запрос для чат-бота, не печатая его в форме. Новая же функция позволяет настроить чат-бота таким образом, чтобы он всегда устно отвечал на запросы пользователя. Для работы функции «Чтение вслух» в мобильных приложениях необходимо нажать и удерживать поле введённого запроса. В результате откроется специальный плеер «Чтение вслух», где можно выбрать настройки воспроизведения, приостановки или перемотки аудио-ответа. В веб-версии чат-бота для активации функции «Чтение вслух» под текстом ответа отображается значок динамика. Китайская Geely запустила 11 спутников для точной навигации беспилотных авто
03.02.2024 [11:53],
Владимир Фетисов
Китайский автопроизводитель Geely заявил об успешном выведении на низкую околоземную орбиту 11 спутников, предназначенных для обеспечения точной навигации её автономных транспортных средств. План компании состоит в том, чтобы к 2025 году нарастить численность своей спутниковой группировки до 72 аппаратов, а всего в неё должный войти 240 спутников. Нынешний пуск стал для Geely вторым и был выполнен с площадки космодрома Сичан, который находится в юго-западной китайской провинции Сычуань. До этого спутники Geely выводились на низкую околоземную орбиту в июне 2022 года. Согласно имеющимся данным, помимо обеспечения поддержки высокоточного позиционирования беспилотных автомобилей спутниковая группировка Geely будет задействована для выполнения ряда других коммерческих функций, таких как обеспечение связи в секторе бытовой электроники. Кроме того, спутники могут использоваться для дистанционного зондирования Земли с использование ИИ-алгоритмов. В спутниковых сетях Китая по-прежнему доминируют военные, но с 2014 года правительство Поднебесной разрешило частные инвестиции в космическую отрасль. С тех пор в этот сектор устремились коммерческие компании, некоторые из которых поддерживаются местными властями. Основная часть коммерческих компаний сосредоточилась на производстве спутников, тогда как некоторые из них разрабатывают небольшие ракеты-носители, в том числе многоразовые. По данным источника, в распоряжении Китая более 400 спутников, включая аппараты коммерческих компаний. В Китае вживили человеку более безопасную альтернативу мозгового имплантата Neuralink
01.02.2024 [15:27],
Геннадий Детинич
Группа учёных из Университета Цинхуа сообщила, что разработанный ими мозговой имплантат вернул давно парализованному пациенту подвижность руки. Отмечается, что китайская разработка менее опасна для тканей мозга, чем имплантат компании Neuralink Илона Маска (Elon Musk). Имплантат Маска проникает в нервную ткань и разрушает часть нервных клеток в месте установки, тогда как китайский датчик накладывается поверх нервной ткани. На днях Илон Маск признался, что компания Neuralink провела первую операцию по установке мозгового имплантата в голову человека. Датчик Neuralink заглубляет в нервную ткань коры головного мозга тончайшие иглы. Заглубление происходит всего на 2 мм, но оно, без сомнения, разрушает часть нервных клеток в месте установки. Китайские учёные пошли по другому пути. Около 10 лет команда из Цинхуа разрабатывала имплантат, который сохранял бы достаточную к мозговым сигналам чувствительность и не повреждал бы корковые нейроны, которые лишними не могут быть по определению, поскольку отвечают, в том числе, за память и навыки. Поэтому датчик Neural Electronic Opportunity или NEO, как они назвали свою разработку, помещается в эпидуральное пространство между мозгом и черепом. Оно также заполнено живыми тканями и сосудами, но нервной ткани в них нет. Датчик NEO не имеет собственного питания. Оно у него беспроводное. Высокочастотная передающая антенна для передачи питания и блок управления, а также передатчик сигналов мозга на смартфон или компьютер смонтированы на внешней стороне черепа. Платформа работает через систему машинного обучения, которая совершенствует свои способности по мере реабилитационных мероприятий. Первый имплантат был установлен пациенту 24 октября 2023 года. К настоящему времени учёные наблюдают «впечатляющий прогресс». Человек, который последние 14 лет после перенесённой травмы не мог двигать своими руками и ногами, с помощью мозгового имплантата научился управлять элементом экзоскелета на руке настолько, что смог самостоятельно принимать пищу. В декабре была проведена операция на другом пациенте, но он пока проходит стадию восстановления. «Следующим этапом исследования является разработка нового протокола активной реабилитации с поддержкой интерфейса мозг-компьютер для ускорения роста нервной ткани на месте повреждённых сегментов спинного мозга», — сообщили в университете. Только лечением травм и заболеваниями нервной системы учёные не ограничатся. В перспективе они мечтают соединить мозг и компьютер таким интерфейсом, чтобы одно стало продолжением другого. MSI представила читерский монитор MEG 321URX — он сам находит врагов в League of Legends
10.01.2024 [22:59],
Николай Хижняк
Компания MSI представила на выставке CES 2024 необычный игровой 32-дюймовый QD-OLED-монитор MEG 321URX. Его главной особенностью является встроенный ИИ, который не только улучшает качество работы дисплея, но также обладает функцией обнаружения врагов в League of Legends и показывает место на карте, откуда они могут появиться. Позже монитору добавят возможность помогать игрокам и в других играх. Компания называет эту технологию SkySight. По словам производителя, SkySight анализирует мини-карту на экране и предсказывает, откуда может появиться противник, отображая эту информацию в виде красного пятна на дисплее. Опытные игроки способны делать что-то подобное самостоятельно, но для новичков эта функция может оказаться крайне полезной. Неизвестно, нарушает ли такой подход правила League of Legends, однако распознать работу SkySight вряд ли смогут даже самые продвинутые алгоритмы против читеров. Дело в том, что анализ ИИ и генерация второго слоя изображения на экране выполняются специальным чипом, встроенным в сам монитор. Функция работает независимо от операционной системы и программного обеспечения компьютера. Ещё одной особенностью монитора стала светодиодная полоска внизу дисплея, которая дублирует полоску очков здоровья персонажа в игре. MSI говорит, что к началу продаж MEG 321URX весной этого года выпустит специальное ПО, которое позволит обучать встроенный ИИ-алгоритм монитора для обнаружения врагов и шкал здоровья в любых других играх. Для первоначального обучения ИИ-алгоритма это программное обеспечение будет использовать ресурсы ПК. Однако потом всю обработку, анализ и отображение на экране будет выполнять сам монитор. В MSI пока не говорят, какой именно ИИ-процессор используется в MEG 321URX и как он хранит набор данных для обучения. Кроме этого, в монитор встроены технологии умного прицела и оптического зума — первая автоматически меняет цвет прицела так, чтобы он не сливался с окружением, а зум при нажатии горячих клавиш превращает любое оружие в снайперскую винтовку, приближая и увеличивая врагов на экране. Даже если пользователю не нужны все эти читерские ИИ-функции, то MEG 321URX сам по себе обладает отличными характеристиками. Его экран поддерживает разрешение 3840 × 2160 пикселей, частоту обновления 240 Гц, имеет 99-процентный охват цветового пространства DCI-P3, обладает контрастностью 1 500 000:1 и имеет сертификацию DisplayHDR True Black 400. Кроме того, он поддерживает технологию OLED Care 2.0, которая снижает вероятность выгорания экрана. В оснащение монитора входят разъёмы HDMI 2.1, DisplayPort 2.1, USB 2.0 и USB-C. Последний может работать в альтернативном режиме DisplayPort, а также передавать до 90 Вт мощности на внешнее устройство. Стоимость монитора MEG 321URX производитель пока не сообщает. AMD представила чипы XA Versal AI Edge и Ryzen Embedded V2000A для расширения ИИ-функций автомобилей
05.01.2024 [21:40],
Николай Хижняк
Компания AMD представила продукты, предназначенные для расширения ИИ-возможностей автомобилей. Первым является серия однокристальных платформ XA Versal AI Edge, который оснащены ИИ-движками и массивом векторных процессоров. Их основное предназначение — повышение безопасности и эффективности работы датчиков LiDAR, радаров, камер и прочих сенсоров на базе ИИ. Также была представлена серия процессоров Ryzen Embedded V2000A для расширения возможностей мультимедийных систем авто. Примечательная особенность серии SoC AMD XA Versal AI Edge и процессоров Ryzen Embedded V2000A заключается в том, что это первые 7-нм чипы, сертифицированные для использования в автомобильной отрасли. В целом же XA Versal AI Edge и Ryzen Embedded V2000A призваны улучшить водительский и пассажирский опыт использования различных систем автомобиля, позволяя реализовать в них поддержку различных ИИ-функций. XA Versal AI Edge — это адаптивная платформа, отвечающая за поддержку искусственного интеллекта и предназначенная для управления различными датчиками авто. XA Versal AI Edge отвечает за повышение точности и отзывчивости автомобильных датчиков LiDAR, радаров и камер, что является критически важным для принятия быстрых и точных решений ИИ-системами. Одним из преимуществ платформы XA Versal AI Edge является её масштабируемость. Например, в составе флагманского SoC XAVE2602 используются 152 ИИ-движка с 820 тыс. логическими ячейками, а также 984 цифровых сигнальных процессоров (DSP). AMD заявляет для этого чипа производительность до 89 TOPS (триллионов операций в секунду) в вычислениях INT8. Компания также сможет предложить платформы XA Versal AI Edge с показателями производительности от 5 до 171 TOPS, предназначенные для разных сегментов и задач. Основой XA Versal AI Edge служит APU в парой ядер Arm Cortex-A72, а также двуядерный модуль Arm Cortex-R5F RPT. Показатель энергопотребления чипов XA Versal AI Edge варьируется от 6–9 Вт (платформа XAVE2002) до внушительных 75 Вт (платформа XAVE2802). Серия процессоров Ryzen Embedded V2000A предназначена для расширения ИИ-возможностей мультимедийных систем авто как для водителя, так и для пассажиров. Эти процессоры могут использоваться для управления цифровым салоном автомобилей — от информационно-развлекательной консоли до пассажирских дисплеев. В составе этих процессоров, производящихся с применением 7-нм техпроцесса, используются ядра на архитектуре Zen 2. Новые чипы пришли на смену четырёхъядерному и восьмипоточному APU Ryzen Embedded V1000 на архитектуре Zen первого поколения. Ryzen Embedded V2000A предлагают до шести ядер Zen 2 с поддержкой до 12 виртуальных потоков и оснащены встроенной графикой Radeon Vega 7 с семью исполнительными блоками. Согласно AMD, новые процессоры до 88 % производительнее предшественников. Чипы Ryzen Embedded V2000A поддерживают подключение до четырёх 4K-дисплеев, работу двух гигабитных сетевых интерфейсов и сертифицированы по стандартам AEC-Q100 со строгими требованиями к качеству и надёжности. Компания обещает 10-летнюю поддержку этих процессоров. Ряд партнёров AMD, включая Tesla, Ecarx, Luxoft, BlackBerry/QNX, Xylon, Cognata и других, уже заинтересовались новыми платформами XA Versal AI Edge и Ryzen Embedded V2000A. По словам AMD, первый SoC XAVE1752 в рамках серии XA Versal AI Edge станет доступен в начале 2024 года. Остальные чипы серии будут выпущены до конца этого года. Компания также отмечает, что подготовила для потенциальных клиентов тестовый комплект AXVEK 280 для оценки возможностей новых SoC. Intel наняла выходца из HPE, чтобы он помог ей конкурировать с NVIDIA в сфере ИИ-ускорителей
04.01.2024 [22:58],
Николай Хижняк
Компания Intel назначила исполнительного директора Hewlett Packard Enterprise Джастина Хотарда (Justin Hotard) главой своей группы, занимающейся разработкой технологий для центров обработки данных и искусственного интеллекта. Тем самым она привлекла для управления одним из своих ключевых подразделений стороннего специалиста. В Hewlett Packard Enterprise Хотард отвечал за высокопроизводительные вычисления, искусственный интеллект и управление лабораториями HPE. В Intel он будет курировать разработку и поддержку некоторых наиболее важных продуктов компании, включая серверные процессоры Xeon, которые ранее доминировали в сегменте ЦОД, но уступили значительную долю рынка конкурирующим предложениям. До HPE Хотард также возглавлял компании NCR и Motorola Inc. В Intel он возглавит направление ИИ, специализированных графических процессоров и ускорителей и постарается вывести компанию на достойный уровень конкуренции с NVIDIA, которая в настоящий момент безоговорочно доминирует в этом направлении. Восстановление своего лидирующего положения на рынке продуктов для центров обработки данных имеет решающее значение для планов генерального директора Пэта Гелсингера (Pat Gelsinger) по восстановлению превосходства Intel в индустрии производства микросхем. Хотя чипы для ЦОД составляют относительно небольшую часть отрасли, сами по себе специализированные процессоры и ускорители на их основе могут продаваться за десятки тысяч долларов каждый, что делает их чрезвычайно прибыльными. Хотард, который приступит к своей работе в Intel с 1 февраля, сменит ветерана компании Сандру Риверу (Sandra Rivera). Ривера с понедельника перешла на должность главы подразделения программируемых решений Intel (Programmable Solutions Group, PSG), которое компания выделила в отдельный бизнес и планирует вывести на биржу в течение двух-трёх лет. Intel отдельно объявила, что ещё один топ-менеджер её подразделения ЦОД и ИИ Арун Субраманьян (Arun Subramaniyan) возглавил новую софтверную компанию Articul8, специализирующуюся на внедрении машинного обучения и больших языковых моделей (LLM). Она была создана Intel совместно с инвестиционными компаниями DigitalBridge Group и Mindset Ventures. LG представила домашнего двуногого ИИ-робота на колёсиках — он поддержит диалог, будет охранять дом и не только
27.12.2023 [16:19],
Николай Хижняк
Компания LG представила компактного робота-помощника для дома Smart Home AI Agent. Новинка полагается на технологии искусственного интеллекта и машинного обучения для передвижения, управления предметами «умного дома», а также изучения дома и общения с хозяевами и другими людьми. В основе робота LG Smart Home AI Agent используется платформа Qualcomm Robotics RB5. Компактный двухколёсный робот-помощник оснащён камерой, динамиком, а также набором различных сенсоров, позволяющих ему следить за обстановкой в доме и собирать информацию об окружающем пространстве, включая температуру, влажность и качество воздуха. Машина работает в автономном режиме. Он может общаться с домочадцами и их гостями, и через различные движения демонстрировать различные эмоции. Для этого он оснащён мультимодальной технологией искусственного интеллекта, объединяющей функции распознавания голоса и изображений, а также возможность обработки естественного языка. Всё это позволяет роботу LG Smart Home AI Agent улавливать контекст разговора, а также намерения владельца, и активно участвовать в общении с пользователями. Возможности и особенности робота LG Smart Home AI Agent:
О стоимости домашнего робота-помощника Smart Home AI Agent компания LG пока ничего не сообщила. Производитель собирается продемонстрировать новинку на международной выставке электроники CES 2024 с 9 по 12 января. Microsoft открыла бесплатный доступ к мощнейшей нейросети GPT-4 Turbo через Bing Chat, но только избранным
25.12.2023 [14:20],
Николай Хижняк
Нейросеть GPT-4 Turbo доступна на платной основе по подписке ChatGPT Plus. Однако компания Microsoft предоставила возможность попробовать её функции совершенно бесплатно. Правда, для этого необходимо случайным образом оказаться в числе отобранных тестировщиков. В настоящий момент Microsoft тестирует интеграцию ChatGPT-4 Turbo, а также поддержку плагинов в своём собственном чат-боте Bing Chat (Microsoft Copilot). Microsoft также планирует обновить функцию Code Interpreter, чтобы привести её в соответствие с возможностями платформы OpenAI. Это означает, что Code Interpreter в Microsoft Copilot вскоре сможет отвечать на более сложные вопросы, связанные с программированием или обработкой данных. GPT-4 Turbo — это новая модель ChatGPT от OpenAI, основанная на существующей модели GPT-4. Языковая модель обучена на общедоступной информации до апреля 2023 года, поэтому может более точно отвечать на вопросы пользователя о недавних событиях. GPT-4 доступен только для подписчиков тарифа Plus и не является бесплатным. Со ссылкой на источники в Microsoft портал Windows Latest сообщает, что компания внедряет новейшую модель ChatGPT в свой Bing Chat. Правда, GPT-4 Turbo в этом случае используется не постоянно, а в зависимости от того или иного запроса, а также настроек плагинов. При использовании стандартных настроек Bing Chat может переключаться между своей актуальной ИИ-моделью и GPT-4 Turbo. Возможность протестировать GPT-4 Turbo в составе Bing Chat пока полностью зависит от удачи, поскольку функция доступна только тем, кто был отобран для её тестирования. Однако в Microsoft подтвердили, что планируют расширить развертывание в ближайшие недели. Также стоит отметить, что при отборе тестировщиков Microsoft не отдает предпочтение конкретным учетным записям или регионам. Отбор происходит полностью случайным образом и работает по принципу A/B-тестирования. Узнать, получил ли пользователь доступ к GPT-4 Turbo в составе Bing Chat, можно несколькими способами. Самый простой — на ПК или ноутбуке зайти по ссылке Bing.com/chat в браузере, создать новую тему и посмотреть исходный код веб-страницы. Затем, используя функцию «Найти на странице» в браузере Edge или Chrome, необходимо через поиск найти dlgpt4t. Если в результате запроса в исходном коде веб-страницы будут обнаружены упоминания dlgpt4t, то это означает, что пользователь имеет доступ к GPT-4 Turbo. На мобильных устройствах подтвердить своё право на бесплатное использование GPT-4 Turbo в рамках тестирования можно, загрузив в чат-бот Bing Chat какое-нибудь изображение (желательно абстрактное) и попросить ИИ-чат-бота описать эмоции, которые вызывает это изображение. В отличие от предыдущих моделей GPT новейшая модель GPT-4 Turbo в составе Bing Chat может распознавать эмоции и свободно о них говорить. В Bing Chat также появились настройки плагинов. При желании через эту настройку можно отключить поиск через поисковую платформу Bing в рамках запроса для Bing Chat. При отключении плагина «Поиска в Bing» чат-бот Bing Chat не будет сканировать ссылки в Bing для поиска ответов на запрос. Вместо этого он будет полностью полагаться на свои собственные данные, полученные в ходе обучения. Способность Bing Chat отвечать на запросы, связанные с событиями в период с января по апрель 2023 года, также подтверждает, что для ответа на запросы используется модель GPT-4 Turbo. Робот с ИИ очень быстро научился проводить шарик через лабиринт — и даже нашёл способ жульничать
19.12.2023 [20:49],
Сергей Сурабекянц
Компьютеры уже победили людей в покере, го и шахматах. Теперь они принялись осваивать физические навыки, стремясь опередить человека в играх, где требуются хорошая реакция, интуиция, ловкость и координация. Исследователи из ETH Zurich создали робота CyberRunner, который, по их словам, превзошёл людей в популярной игре «Лабиринт». Он провёл небольшой металлический шарик через лабиринт, наклоняя его и избегая ловушек, причём освоил игрушку всего за шесть часов. CyberRunner стал одним из первых случаев, когда ИИ победил человека в непосредственном физическом соревновании, рассказали учёные Рафаэлло Д’Андреа (Raffaello D’Andrea) и Томас Би (Thomas Bi). Во время эксперимента робот использовал две ручки для управления игровой поверхностью, что требовало мелкой моторики и пространственного мышления. Сама игра предъявляет высокие требования к стратегическому планированию в реальном времени, быстроте принятия решений и точности действий. Результаты эксперимента опубликованы во вторник в научной статье. Робот был построен на основе последних достижений в области, называемой машинным обучением с подкреплением, в процессе которого ИИ учится вести себя в динамической среде методом проб и ошибок. CyberRunner во время обучения обнаружил удивительные способы «обмануть» игру, пропуская части лабиринта, так что исследователям пришлось вмешаться и потребовать соблюдать правила. Промышленные роботы десятилетиями выполняли повторяющиеся и точные производственные задачи, но корректировки на ходу, подобные тем, что продемонстрировал CyberRunner, — это новый уровень, уверены исследователи. Система может анализировать, учиться и саморазвиваться, выполняя физические задачи, которые раньше считались достижимыми только с помощью человеческого интеллекта. «Мы размещаем нашу работу на платформе с открытым исходным кодом, чтобы показать, что это возможно, делимся подробностями о том, как это делается, и как удешевить разработку, — рассказал Д'Андреа. — Скоро появятся тысячи таких систем искусственного интеллекта, которые будут проводить совместные эксперименты, общаться и обмениваться передовым опытом». Проект с открытым исходным кодом теперь доступен на сайте исследователей. За 200 долларов разработчики готовы помочь пользователям координировать масштабные эксперименты с помощью платформы CyberRunner. «Это не сделанная на заказ платформа, которая стоит больших денег, — подчёркнул Д’Андреа. — Самое интересное то, что мы делаем это на платформе, которая открыта для всех и практически ничего не стоит для дальнейшего продвижения работы». Любопытно отметить, что Рафаэлло Д’Андреа далеко не новичок в роботостроении и машинном обучении — ранее он основал стартап Kiva Systems, который был приобретён компанией Amazon Robotics. Одна из его прежних разработок — «Танцующий склад» — представлена на видео ниже. Amazon представила свой ИИ-генератор изображений Titan Image Generator
30.11.2023 [06:10],
Николай Хижняк
На конференции AWS re:Invent компания Amazon представила собственный ИИ-генератор изображений Titan Image Generator на платформе Bedrock. Он предназначен для создания изображений на основе текстовых запросов, а также предлагает поддержку различных дополнительных функций редактирования уже готовых изображений. По словам Amazon, инструмент способен генерировать «огромные объёмы реалистичных изображения студийного качества при низкой цене». Компания заявляет, что Titan Image Generator способен создавать изображения на основе сложных текстовых подсказок, одновременно обеспечивая при этом точность композиции генерируемых объектов на изображении с минимальными искажениями. По мнению разработчиков Amazon, это поможет «сократить объёмы создания вредного контента и смягчить распространение дезинформации». Функции Titan Image Generator также позволяют редактировать отдельные элементы на изображении, удаляя или добавляя дополнительные детали. Например, инструмент позволяет заменить задний фон на изображении, а также заменить или удалить предмет, который может находиться в руках человека, изображенного в кадре. Использующиеся в составе Titan Image Generator ИИ-алгоритмы также могут расширять композицию изображения, добавляя дополнительные искусственные детали, аналогично функции Generative Expand в Photoshop. В компании отмечают, что их ИИ-генератор изображений Titan накладывает на каждое созданное им изображение невидимый невооружённому глазу специальный водяной знак. По мнению компании, эта функция поможет «уменьшить распространение дезинформации, предоставив незаметный механизм для идентификации изображений, созданных ИИ, а также будет способствовать безопасному, надежному и прозрачному развитию технологий искусственного интеллекта». Amazon заявляет, что эти водяные знаки невозможно удалить или изменить. Согласно опубликованному видео с демонстрацией работы Titan Image Generator, инструмент также может создавать описания изображений или релевантный текст для последующего использования в публикации в социальных сетях. Amazon представила ИИ-чат-бот Amazon Q — он поможет миллионам людей в повседневных рабочих задачах
29.11.2023 [04:33],
Николай Хижняк
У OpenAI есть ChatGPT. У Google есть ИИ-чат-бот Bard. У Microsoft есть различные версии ИИ-помощников Copilot, предназначенные для разных задач. Компания Amazon во вторник наконец-то анонсировала своего ИИ-помощника — Amazon Q. Он разработан подразделением облачных вычислений Amazon и предназначен не для обычных потребителей, а для корпоративных пользователей. Среди функций Amazon Q отмечаются возможность кратко формулировать содержание важных документов, заполнение заявок для внутренней поддержки компаний, ответы на вопросы о политике компании, помощь в редактировании и т.д. Он будет конкурировать с другими корпоративными чат-ботами включая Copilot, Google Duet AI и ChatGPT Enterprise. В интервью изданию The New York Times исполнительный директор Amazon Web Services Адам Селипски (Adam Selipsky, на фото выше) выразил надежду, что Amazon Q имеет все шансы стать важным помощником для миллионов людей в их повседневных рабочих задачах. За минувший год с момента выпуска ChatGPT компанией OpenAI многие другие ведущие технологические гиганты, включая Google и Microsoft, успели поддаться всеобщему буму ИИ и выпустить свои варианты чат-ботов, на основе технологий больших языковых моделей, вложив в эти разработки миллиарды долларов. Компания Amazon в свою очередь лишь недавно начала говорить о своём интересе к подобным технологиям, а также планах развития в этом направлении. Например, в сентябре Amazon сообщила, что инвестирует до $4 млрд в компанию Anthropic, конкурента OpenAI, и будет заниматься вместе с ней разработкой специализированных ИИ-процессоров. Также Amazon ранее представила сервис, который способен предоставлять доступ к разным ИИ-системам в рамках единой платформы. Являясь одним из ведущих операторов облачных вычислений, компания Amazon имеет большую пользовательскую базу среди корпоративных клиентов, которые хранят огромные объёмы информации на её облачных серверах. По словам Селипски, её клиенты заинтересованы в использовании чат-ботов на рабочих местах, но они хотят быть уверены в том, что ИИ-помощники будут обладать достаточным уровнем защиты от утечек корпоративных данных. «Многие компании в разговоре со мной отметили, что они запретили своим сотрудникам использовать ИИ-чат-боты из соображений безопасности и конфиденциальности», — заявил Селипски. Ответом Amazon стала разработка Amazon Q — корпоративного чат-бота с повышенной защитой конфиденциальных данных по сравнению с потребительскими чат-ботами. Например, для Amazon Q можно выставить те же разрешения безопасности, которые бизнес-клиенты облачного сервиса Amazon уже настроили для своих пользователей. Если в компании сотрудник отдела маркетинга не имеет доступа к конфиденциальным финансовым прогнозам, Amazon Q может имитировать эти прогнозы, без предоставления официальных финансовых данных. Кроме того, компании, использующие Amazon Q, также могут устанавливать разрешения на использование своих корпоративных данных чат-ботом, не находящихся на серверах Amazon, например, через подключение Slack и Gmail. В отличие от ChatGPT и Bard, Amazon Q не основан на какой-то конкретной языковой модели искусственного интеллекта. Вместо этого он использует платформу Amazon Bedrock, которая объединяет несколько систем искусственного интеллекта, включая собственный Titan от Amazon, а также модели ИИ, разработанные Anthropic и Meta✴. Цены на Amazon Q начинаются с 20 долларов США за одного пользователя сервиса в месяц. Для сравнения, Microsoft и Google взимают 30 долларов в месяц за каждого пользователя своих корпоративных чат-ботов, которые могут работать с электронной почтой и предлагают другие функции, повышающие общую производительность сотрудников на рабочих местах. Вместе с анонсом Amazon Q компания сообщила о планах расширения своей облачной инфраструктуры, связанной с технологиями ИИ. В частности, Amazon заявила о продлении сотрудничества с компанией NVIDIA и анонсировала разработку ИИ-серверов на основе новых специализированных графических процессоров, в которых используется Arm-архитектура. МТС начала тестировать «Рой 9» — машинное обучение силами устройств пользователей
24.11.2023 [13:55],
Павел Котов
Одна из входящих в МТС структур запустила проект «Рой 9», который предполагает развитие и обучение моделей искусственного интеллекта на сторонних устройствах. Данную инициативу можно сравнить с добычей криптовалют в пулах, когда устройства разных клиентов объединяют вычислительные мощности для общей цели. Только здесь вместо криптовалюты на выходе будет натренированная нейросеть. В компании сообщили, что широкий запуск проекта пока не планируется, и сейчас это всего лишь проверка гипотез, сообщает «Коммерсант». Работой над проектом занимается принадлежащее оператору ООО «Серенити Сайбер Секьюрити», которое 1 ноября зарегистрировало доменное имя roy9.ru. «Рой 9» предлагает пользователям предоставлять свои компьютеры и мобильные устройства для обучения моделей машинного обучения — в настоящий момент на платформе обучаются четыре нейросети. «Новые модели AI помогут людям в новых открытиях, вы можете стать частью этого движения. Кроме того, помогая в обучении моделей, вы делаете мир интереснее», — говорится в описании сохранённой изданием страницы. Представитель МТС заявил, что сайт был запущен исключительно для проверки гипотез в области ИИ и машинного обучения — он предназначался только для внутренних нужд, и никаких связанных с ним общедоступных проектов не планировалось. Тестированием занимается центр инноваций МТС Future Crew, и к настоящему моменту сайт закрыт. Крупные российские игроки уже запускали службы для развития систем машинного обучения: к примеру, в инфраструктуре VK Cloud Solutions действует сервис для тестирования гипотез, работы с данными и других целей; у «Яндекса» есть сервис для разработки и тестирования алгоритмов машинного обучения DataSphere. А МТС весной прошлого года запустил систему CICADA 8, предназначенную для тестирования инфраструктуры компании на устойчивость. В России наблюдается дефицит мощностей для обучения ИИ, и модель краудфандинга стала бы частичным решением вопроса, считает опрошенный «Коммерсантом» эксперт. В случае с МТС участвующие в проекте абоненты оператора могли бы получать, например, скидку на услуги связи или дополнительные пакеты трафика или минут. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |