Сегодня 19 марта 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный интеллект
Быстрый переход

Слухи о появлении нейросети Google Gemini в будущих iPhone привели к росту акций Alphabet и Apple

Сегодня информационное агентство Bloomberg сообщило, что Alphabet и Apple «ведут активные переговоры» об использовании некоторых функций искусственного интеллекта Google Gemini в следующем поколении iPhone, которое будет представлено в 2024 году. После этого сообщения акции Alphabet и Apple подорожали более чем на 7 % и 2 % соответственно.

 Источник изображения: Freepik

Источник изображения: Freepik

Генеральный директор Apple Тим Кук (Tim Cook) во время ежегодного собрания акционеров компании в феврале заявил, что Apple «инвестирует значительные средства» в искусственный интеллект. «Позже в этом году я с нетерпением жду возможности поделиться с вами тем, как мы откроем новые горизонты в области генеративного искусственного интеллекта, ещё одной технологии, которая, по нашему мнению, может переопределить будущее», — сказал Кук.

По данным источников Bloomberg, Apple также недавно провела переговоры с OpenAI, на которых рассмотрела возможность использования её моделей ИИ. Однако утверждается, что «обе стороны ещё не определились с условиями или брендом соглашения об ИИ, а также не определились с тем, как оно будет реализовано».

Следующее большое обновление Apple для iPhone, iOS 18, ожидается во время Всемирной конференции разработчиков. Именно тогда компания сможет больше рассказать о своих планах по внедрению генеративного искусственного интеллекта и последних новинках программного обеспечения для iPhone, которые потребители смогут увидеть осенью.

Другие информационные агентства не смогли независимо проверить сообщение Bloomberg. Apple отказалась от комментариев, Alphabet также не ответила на вопросы журналистов.

Adobe запустила ИИ-генератор текстур для 3D-моделирования

В то время как многие разработчики придумывают способы использования генеративного ИИ для создания целых 3D-объектов «с нуля», Adobe уже использует свою модель ИИ Firefly для оптимизации существующих процессов при работе с 3D-моделями. Сегодня компания представила две новые функции для своего пакета программного обеспечения для 3D-дизайна Substance, которые позволяют быстро создавать ресурсы из текстовых описаний.

 Источник изображений: Adobe

Источник изображений: Adobe

Функция Text to Texture умеет, по утверждению Adobe, генерировать «фотореалистичные или стилизованные текстуры» на основе текстовых подсказок, таких как «чешуйчатая кожа» или «тканый материал». Эти текстуры затем можно накладывать непосредственно на 3D-модели, избавляя дизайнеров от необходимости искать подходящую текстуру в справочниках и базах готовых изображений.

Инструмент Generative Background позволяет дизайнерам использовать текстовые подсказки для создания фоновых изображений для 3D-объектов. Нужно отметить, что обе эти функции фактически используют технологию создания 2D-изображений, как и предыдущие инструменты Adobe на базе Firefly в Photoshop и Illustrator. Firefly не создаёт 3D-модели или файлы — вместо этого Substance использует 2D-изображения, созданные на основе текстовых описаний, и применяет их так, чтобы они выглядели объёмными.

Новые функции доступны в бета-версиях Substance 3D Sampler 4.4 и Stager 3.0 соответственно. Глава Adobe по 3D и метавселенной Себастьян Деги (Sebastien Deguy) сообщил, что обе функции были обучены на ресурсах, принадлежащих Adobe, включая справочные материалы, созданные компанией. В настоящее время новые инструменты находятся в фазе бета-тестирования и доступны всем пользователям бесплатно.

Samsung запустит доступ к петабайтным хранилищам на SSD в виде услуги по подписке

Для систем искусственного интеллекта на данном этапе эволюции важнее наличие скоростной оперативной памяти, а не быстрых хранилищ данных, поэтому наблюдаемый на рынке высокий спрос на микросхемы HBM не сопровождается заметным оживлением рынка 3D NAND, но компания Samsung в рамках расширения возможностей для своих клиентов готова запустить доступ к ёмким хранилищам данных на SSD по подписке.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Как поясняет Business Korea, соответствующий анонс состоится на следующей неделе, когда начнёт работу технологическая конференция Nvidia GTC 2024. Намерения Samsung выступить в этой ситуации в качестве партнёра Nvidia с трибуны данного мероприятия говорят о том, что корейский гигант ориентирует новый сервис на клиентов, заинтересованных в развитии собственных систем искусственного интеллекта.

Во-первых, на конференции GTC 2024 компания Samsung Electronics собирается представить систему хранения данных на SSD объёмом 1 петабайт, что соответствует 1000 терабайт. Во-вторых, Samsung объявит о намерениях предложить клиентам в США во втором квартале этого года новую услугу доступа к подобным системам хранения данных по подписке. По замыслу, она заинтересует тех клиентов, которые не желают тратить крупные суммы на доступ к скоростным хранилищам данных большого объёма единовременно. Подписка в данном случае позволит гибко управлять услугой в соответствии с меняющимися запросами клиента и конъюнктурой рынка. Все заботы по обслуживанию системы хранения данных Samsung при этом берёт на себя.

Ryzen 7 7840U разгромил Core Ultra 7 155H в скорости работы с ИИ, показали тесты AMD

Компания AMD опубликовала результаты собственных тестов ИИ-производительности мобильного процессора Ryzen 7 7840U с номинальным энергопотреблением 15 Вт и конкурирующего Intel Core Ultra 7 155H с TDP 28 Вт при работе с большими языковыми моделями (LLM) Llama 2 и Mistral Instruct 7B. Сравнение оказалось не в пользу чипа Intel. Несмотря на меньший показатель энергопотребления процессор AMD оказался эффективнее.

 Источник изображений: AMD

Источник изображений: AMD

Для сравнения двух чипов компания AMD установила на ноутбуки с конкурирующими процессорами приложение LM Studio для работы с различными языковыми моделями. Перед последними были поставлены задачи написать историю, написать скрипт игры на движке Unity, а также написать стихотворение. Для выполнения задач использовались ИИ-модели Llama 2 7B от Meta и Mistral Instruct 7B с поддержкой 7 млрд параметров. Последняя является разработкой выходцев из Meta и компании DeepMind.

За показатель ИИ-производительности AMD взяла время с момента отправки запроса до начала выдачи ответа (Time to first token), а также количество выданных токенов в секунду. Компания напомнила, что для решения ИИ-задач процессоры Ryzen могут использовать три типа ядер: специальный ИИ-движок NPU, встроенное графическое ядро RDNA 3, а также вычислительные ядра Zen 4. По словам AMD, победным результатам Ryzen 7 7840U против конкурента в указанных задачах также способствовала поддержка её чипом инструкций AVX512 и VNNI. Ранее Intel также обеспечивала поддержку этих инструкций в потребительских чипах, но после отказалась от этого.

На фоне публикации внутренних тестов AMD также сообщила в своём официальном блоге, как запустить инструмент LM Studio для работы с различными языковыми моделями на ПК с процессорами Ryzen AI или ПК с видеокартами Radeon RX 7000, расписав всё в виде подробного руководства.

Как пишет портал Tom’s Hardware, Intel хорошо осведомлена об относительно невысокой ИИ-производительности её семейства процессоров Meteor Lake. Именно поэтому компания уже заявила, что будущие процессоры Arrow Lake и Lunar Lake, выпуск которых ожидается во второй половине этого года, предложат втрое больше ИИ-быстродействия для GPU и NPU.

Microsoft рассказала, какие у Google преимущества в сфере генеративного ИИ

Microsoft заявила, что доступ к огромным объёмам данных и наличие оптимизированных под искусственный интеллект чипов дают Google преимущество в сфере генеративных нейросетей. Таким образом софтверный гигант попытался подчеркнуть наличие конкуренции в сегменте генеративных нейросетей. В январе этого года Еврокомиссия, основной отраслевой регулятор Евросоюза, начала проверку с целью выявления нарушений антимонопольного законодательства в этой сфере.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Сегмент генеративных нейросетей развивается быстрыми темпами. Появление чат-ботов на основе искусственного интеллекта, таких как ChatGPT от OpenAI и Gemini от Google, вызывает опасения по поводу того, что подобные технологии могут использоваться для создания фейковых новостей и распространения дезинформации. На этом фоне Еврокомиссия начала изучать сегмент, чтобы убедиться в том, что все игроки находятся в одинаковых условиях.

«Сегодня только одна компания — Google — вертикально интегрирована таким образом, что обеспечивает ей силу и независимость на всех уровнях ИИ — от чипов до процветающего магазина мобильных приложений. Все остальные вынуждены полагаться на партнёрские отношения, чтобы внедрять инновации и конкурировать», — говорится в докладе Microsoft, который был направлен в Еврокомиссию.

В Microsoft считают, что способность Google самообеспечивать себя оптимизированными под ИИ чипами даст ей конкурентные преимущества на ближайшие несколько лет. В это же время огромные массивы данных из поискового индекса Google и YouTube позволят компании обучать свою языковую модель Gemini. «YouTube предоставляет беспрецедентный набор видеоконтента: на платформе размещено около 14 млрд видеороликов. У Google есть доступ к этому контенту, а у других разработчиков в сфере ИИ — нет», — заявила Microsoft.

В компании также отметили, что голосовые помощники, такие как Google Assistant и Apple Siri, дают обеим компаниям преимущество. «Они имеют все возможности для развития и использования существующих голосовых помощников, чтобы занять лидирующие позиции в сфере генеративных нейросетей. Новые участники рынка и конкуренты Google и Apple не смогут воспользоваться теми же преимуществами», — сказано в сообщении Microsoft.

ОАЭ готовы выделить Сэму Альтману средства на разработку ИИ-чипов и борьбу с монополией Nvidia

Издание Financial Times сообщает, что инициативу основателя OpenAI Сэма Альтмана (Sam Altman) по созданию стартапа для разработки и выпуска ускорителей вычислений, работающих в системах искусственного интеллекта, готова поддержать новая инвестиционная компания MGX из ОАЭ, деятельность которой контролирует руководство страны. Власти ОАЭ также рассчитывают привлечь в регион Илона Маска.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

По данным осведомлённых источников, поддерживаемая государством MGX ведёт переговоры с OpenAI, которую возглавляет Сэм Альтман, на тему предоставления финансовых ресурсов для реализации его инициатив по снижению зависимости от Nvidia с точки зрения поставок чипов для ускорителей вычислений. Как отмечалось ранее, Альтман выступил с предложением построить десятки новых предприятий по выпуску таких чипов и передать их в управление TSMC. От арабских инвесторов в этой схеме ожидается предоставление финансовых ресурсов на сумму $7 трлн.

По информации Financial Times, компания MGX по сути своей является инвестиционным фондом, ориентированным на сферу искусственного интеллекта, её возглавляет брат главы ОАЭ и советник по национальной безопасности шейх Тахнун ибн Заид аль-Нахайян (Tahnoon bin Zayed Al Nahyan). Министр ОАЭ по вопросам искусственного интеллекта Омар Султан аль-Олама (Omar Sultan Al Olama) признался в комментариях Financial Times, что основавший свой стартап xAI соответствующей направленности Илон Маск (Elon Musk) проявляет интерес к сотрудничеству с правительством ОАЭ. Министр познакомился с этим американским миллиардером, который недавно выступил с критикой в адрес основателей OpenAI, ещё в 2017 году, и с тех пор встречался несколько раз, как пояснил Аль-Олама. В составе правительства ОАЭ должность министра по вопросам искусственного интеллекта появилась ещё в 2017 году, в стране с 2019 года действует специализированный университет, готовящий профильных специалистов.

По словам арабского министра, ОАЭ располагает определённым запасом ускорителей вычислений Nvidia, которые собирается использовать для развития национальной экосистемы искусственного интеллекта. Как он отмечает, страна вынуждена всё время наращивать данный запас, чтобы соответствовать темпам развития данной отрасли.

Амбиции ОАЭ в данной сфере даже стали источником претензий со стороны властей США, которые рекомендовали своим ближневосточным партнёрам отказаться от инвестиций в китайские компании, связанные с искусственным интеллектом. После визита шейха Тахнуна в Вашингтон в июне этого года подконтрольная ему компания G42 прекратила сотрудничать с китайскими партнёрами, но сам советник главы ОАЭ настаивает, что подобные решения принимаются исходя из экономических соображений, а не политической конъюнктуры. Придерживаться какого-то одного партнёра власти ОАЭ не намерены, их решения всегда будут определяться экономической целесообразностью. В идеале ОАЭ хотели бы назначать своих представителей в руководство тех компаний в сфере ИИ, в развитие которых они инвестируют средства, как подчеркнул чиновник, но в общем случае для правительства важно выбирать лучшего партнёра из имеющихся в мире.

Nvidia покажет ИИ-ускоритель нового поколения уже на следующей неделе в рамках GTC 2024

Генеральный директор и соучредитель Nvidia Дженсен Хуанг (Jensen Huang) в понедельник 18 марта выйдет на сцену хоккейной арены Кремниевой долины, чтобы представить новые решения, включая ИИ-чипы нового поколения. Поводом для этого станет ежегодная конференция разработчиков GTC 2024, которая станет первой очной встречей такого масштаба после пандемии. Nvidia ожидает, что это мероприятие посетят 16 000 человек, что примерно вдвое превысит число посетителей в 2019-м.

 Источник изображения: Getty Images

Источник изображения: Getty Images

Рыночная капитализация Nvidia превысила $2 трлн в конце февраля, и теперь ей не хватает «всего» $400 млрд, чтобы превзойти Apple, которая занимает второе место по капитализации после лидера фондового рынка Microsoft. Аналитики ожидают, что выручка Nvidia в этом году вырастет на 81 % до $110 млрд, поскольку технологические компании на волне бума ИИ десятками тысяч скупают её новейшие ускорители ИИ для разработки и обучения чат-ботов, генераторов изображений и других нейросетей.

Новое поколение высокопроизводительных ИИ-чипов от Nvidia, которое предположительно получит обозначение B100, должно стать основой для дальнейшего укрепления рыночных позиций компании. В рамках предстоящей GTC компания Nvidia вряд ли раскроет все характеристики и назовёт точную цену нового ускорителя, которая не в последнюю очередь зависит от размера партии и сроков поставки. Очевидно, B100 будет намного быстрее своего предшественника и, вероятно, будет стоить дороже, хотя цена актуальных H100 может превышать $20 000. Поставки нового чипа ожидаются позднее в этом году.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Спрос на текущие ускорители Nvidia превысил предложение: разработчики программного обеспечения месяцами ждут возможности использовать кластеры ускорителей ИИ у облачных провайдеров. Реагируя на высокий спрос, акции Nvidia выросли на 83 % в этом году после более чем утроения их стоимости в прошлом. И даже после этого стремительного роста акции Nvidia торгуются с прибылью, в 34 раза превышающей ожидаемую. Аналитики значительно повысили оценки будущих доходов компании, но, если их прогнозы окажутся слишком оптимистичными, акции Nvidia рискуют ощутимо просесть в цене.

«Самое большое беспокойство вызывает то, что цифры стали настолько большими и настолько быстрыми, что вы просто беспокоитесь, что они не продлятся долго, — считает аналитик Bernstein Стейси Расгон (Stacy Rasgon). — Чем больше у них появляется новых продуктов с более высокими характеристиками и более высокими ценами, тем больше у них возможностей для взлёта».

Nvidia также, вероятно, представит на GTC 2024 множество обновлений своего программного обеспечения CUDA, которое предоставляет разработчикам инструменты для запуска своих программ на ускорителях компании, ещё сильнее привязывая их к чипам Nvidia. Глубокое погружение в использование CUDA усложняет для разработчика переход на «железо» конкурентов, таких как AMD, Microsoft и Alphabet.

В прошлом году Nvidia начала предлагать процессоры и программное обеспечение в виде облачных сервисов и продолжает развивать успех. Аналитики полагают, что «возможно, поставщики облачных услуг и программного обеспечения нервничают из-за того, что Nvidia действует на их игровой площадке».

Nvidia располагает ощутимым технологическим преимуществом над китайскими конкурентами. США отрезали Китаю доступ к самым передовым чипам Nvidia, поэтому самыми передовыми китайскими ускорителями ИИ являются чипы Huawei, которые по производительности соответствуют процессорам Nvidia A100, выпущенным в далёком 2020 году. Ни один китайский ускоритель ИИ даже близко не может сравниться с флагманским чипом Nvidia H100, выпущенным в 2022 году, а предстоящий B100 ещё более увеличит отрыв. Эксперты полагают, что «со временем этот разрыв станет экспоненциально большим».

Бурный рост ИИ споткнётся о дефицит электроэнергии, предсказал Илон Маск

В конце прошлого месяца во время выступления на конференции Bosch ConnectedWorld глава Tesla и SpaceX Илон Маск (Elon Musk) заявил, что уже в следующем году сдерживающим развитие систем искусственного интеллекта станет глобальный дефицит электроэнергии. Система электроснабжения перестанет поспевать за бурным ростом количества центров обработки данных.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По данным Boston Consulting Group, на которые ссылается Barron’s, центры обработки данных к 2030 году будут потреблять 7,5 % всей электроэнергии, доступной на территории США. Строящиеся для систем ИИ центры обработки данных могут потреблять сотни мегаватт электроэнергии на один объект. Как считают аналитики, с 2022 по 2030 годы энергопотребление ЦОД на территории США увеличится с 126 до 390 тераватт в час, такого количества электроэнергии хватило бы для обеспечения 40 млн американских домохозяйств.

По оценкам 650 Group, объёмы поставок серверных систем для нужд ИИ за период с прошлого до 2028 года увеличатся в шесть раз до 6 млн штук. По прогнозам Gartner, среднее энергопотребление одного ускорителя вычислений в их составе вырастет с нынешних 650 до 1000 Вт. Другими словами, энергопотребление будет расти не только за счёт увеличения количества серверов, но и в удельном выражении. Попытки оптимизировать энергозатраты за счёт внедрения искусственного интеллекта в сферу контроля за энергопотреблением позволят несколько сдержать эту тенденцию, но не решат проблему полностью. Переход на жидкостное охлаждение серверных систем будет неизбежен в большинстве случаев. Операционные расходы на содержание центра обработки данных можно сократить на величину более 40 %, отказавшись от традиционного воздушного охлаждения в пользу жидкостного, как утверждает Super Micro.

Проблема усугубляется неравномерным развитием региональных сетей энергоснабжения. Кроме того, не везде существует возможность эффективно передавать генерируемую электроэнергию к месту расположения крупных потребителей. Эксперты утверждают, что в США генерируется достаточно электроэнергии для развития систем искусственного интеллекта, но существует проблема с сетями распределения.

ChatGPT обрёл тело — OpenAI и Figure сделали умного робота-гуманоида, который полноценно общается с людьми

Американский стартап Figure показал первые плоды сотрудничества с компанией OpenAI по расширению возможностей гуманоидных роботов. Figure опубликовала новое видео со своим роботом Figure 01, ведущим диалог с человеком в режиме реального времени. Машина на видео отвечает на вопросы и выполняет его команды.

 Источник изображения: Figure

Источник изображения: Figure

Стремительный темп развития проекта Figure 01 и компании Figure в целом не может не впечатлять. Бизнесмен и основатель стартапа Бретт Эдкок (Brett Adcock) «вышел из тени» год назад, после того как компания привлекла внимание крупных игроков на рынке робототехники и технологий искусственного интеллекта, включая Boston Dynamics, Tesla Google DeepMind, Archer Aviation и других, и поставила цель «создать первого в мире коммерчески доступного гуманоидного робота общего назначения».

К октябрю того же года Figure 01 «встал на ноги» и продемонстрировал свои возможности в выполнении базовых автономных задач. К концу всё того же 2023 года робот обрёл возможность обучаться выполнению различных задач. К середине января Figure подписала первый коммерческий контракт на использование Figure 01 на автомобильном заводе компании BMW в североамериканском штата Северная Каролина.

В прошлом месяце Figure опубликовала видео, на котором Figure 01 выполняет работу на складе. Практически сразу после этого компания анонсировала разработку второго поколения машины и объявила о сотрудничестве с OpenAI «по разработке нового поколения ИИ-моделей для гуманоидных роботов». Сегодня Figure поделилась видео, в котором демонстрируются первые результаты этого сотрудничества.

Через свою страницу в X (бывший Twitter) Адкок сообщил, что встроенные в Figure 01 камеры отправляют данные в большую визуально-языковую модель ИИ, обученную OpenAI, в то время как собственные нейросети Figure «также через камеры робота захватывает изображение окружения с частотой 10 Гц». Алгоритмы OpenAI также отвечают за возможность робота понимать человеческую речь, а нейросеть Figure преобразует поток полученной информации в «быстрые, низкоуровневые и ловкие действия робота».

Глава Figure утверждает, что во время демонстрации робот не управлялся дистанционно и видео показано с реальной скоростью. «Наша цель — научить мировую модель ИИ управлять роботами-гуманоидами на уровне миллиардов единиц», — добавил руководитель стартапа. При таком темпе развития проекта ждать осталось не так уж и долго.

Cerebras представила гигантский процессор WSE-3 c 900 тысячами ядер

Американский стартап Cerebras Systems представил гигантский процессор WSE-3 для машинного обучения и других ресурсоёмких задач, для которого заявляется двукратный прирост производительности на ватт потребляемой энергии по сравнению с предшественником.

 Cerebras WSE-3. Источник изображений: Cerebras

Cerebras WSE-3. Источник изображений: Cerebras

Площадь нового процессора составляет 46 225 мм2. Он выпускается с использованием 5-нм техпроцесса компании TSMC, содержит 4 трлн транзисторов, 900 000 ядер и объединён с 44 Гбайт набортной памяти SRAM. Его производительность в операциях FP16 заявлена на уровне 125 Пфлопс.

Один WSE-3 составляет основу для новой вычислительной платформы Cerebras CS-3, которая, по утверждению компании, обеспечивает вдвое более высокую производительность, чем предыдущая платформа CS-2 при том же энергопотреблении в 23 кВт. По сравнению с ускорителем Nvidia H100 платформа Cerebras CS-3 на базе WSE-3 физически в 57 раз больше и примерно в 62 раза производительнее в операциях FP16. Но учитывая размеры и энергопотребление Cerebras CS-3, справедливее будет сравнить её с платформой Nvidia DGX с 16 ускорителями H100. Правда, даже в этом случае CS-3 примерно в 4 раза быстрее конкурента, если речь идёт именно об операциях FP16.

 Cerebras CS-3. Источник изобажений: Cerebras

Cerebras CS-3

Одним из ключевых преимуществ систем Cerebras является их пропускная способность. Благодаря наличию 44 Гбайт набортной памяти SRAM в каждом WSE-3, пропускная способность новейшей системы Cerebras CS-3 составляет 21 Пбайт/с. Для сравнения, Nvidia H100 с памятью HBM3 обладает пропускной способностью в 3,9 Тбайт/с. Однако это не означает, что системы Cerebras быстрее во всех сценариях использования, чем конкурирующие решения. Их производительность зависит от коэффициента «разрежённости» операций. Та же Nvidia добилась от своих решений удвоения количества операций с плавающей запятой, используя «разреженность». В свою очередь Cerebras утверждает, что добилась улучшения примерно до 8 раз. Это значит, что новая система Cerebras CS-3 будет немного медленнее при более плотных операциях FP16, чем пара серверов Nvidia DGX H100 при одинаковом энергопотреблении и площади установки, и обеспечит производительность около 15 Пфлопс против 15,8 Пфлопс у Nvidia (16 ускорителей H100 выдают 986 Тфлопс производительности).

 Одна из установок Condor Galaxy AI

Одна из установок Condor Galaxy AI

Cerebras уже работает над внедрением CS-3 в состав своего суперкластера Condor Galaxy AI, предназначенного для решения ресурсоёмких задач с применением ИИ. Этот проект был инициирован в прошлом году при поддержке компании G42. В его рамках планируется создать девять суперкомпьютеров в разных частях мира. Две первые системы, CG-1 и CG-2, были собраны в прошлом году. В каждой из них сдержится по 64 платформы Cerebras CS-2 с совокупной ИИ-производительностью 4 экзафлопса.

В эту среду Cerebras сообщила, что построит систему CG-3 в Далласе, штат Техас. В ней будут использоваться несколько CS-3 с общей ИИ-производительностью 8 экзафлопсов. Если предположить, что на остальных шести площадках также будут использоваться по 64 системы CS-3, то общая производительность суперкластера Condor Galaxy AI составит 64 экзафлопса. В Cerebras отмечают, что платформа CS-3 может масштабироваться до 2048 ускорителей с общей производительностью до 256 экзафлопсов. По оценкам экспертов, такой суперкомпьютер сможет обучить модель Llama 70B компании Meta всего за сутки.

Помимо анонса новых ИИ-ускорителей Cerebras также сообщила о сотрудничестве с компанией Qualcomm в вопросе создания оптимизированных моделей для ИИ-ускорителей Qualcomm с Arm-архитектурой. На потенциальное сотрудничество обе компании намекали с ноября прошлого года. Тогда же Qualcomm представила свой собственный ИИ-ускорители Cloud AI100 Ultra формата PCIe. Он содержит 64 ИИ-ядра, 128 Гбайт памяти LPDDR4X с пропускной способностью 548 Гбайт/с, обеспечивает производительность в операциях INT8 на уровне 870 TOPS и обладает TDP 150 Вт.

 Источник изображения: Qualcomm

Источник изображения: Qualcomm

В Cerebras отмечают, что вместе с Qualcomm они будут работать над оптимизацией моделей для Cloud AI100 Ultra, в которых будут использоваться преимущества таких методов, как разреженность, спекулятивное декодирование, MX6 и поиск сетевой архитектуры.

«Как мы уже показали, разрежённость при правильной реализации способна значительно повысить производительность ускорителей. Спекулятивное декодирование предназначено для повышения эффективности модели при развёртывании за счёт использования небольшой и облегченной модели для генерации первоначального ответа, а затем использования более крупной модели для проверки точности этого ответа», — отметил гендиректор Cerebras Эндрю Фельдман (Andrew Feldman).

Обе компании также рассматривают возможность использования метода MX6, представляющего собой форму сжатия размера модели путём снижения её точности. В свою очередь, поиск сетевой архитектуры представляет собой процесс автоматизации проектирования нейронных сетей для конкретных задач с целью повышения их производительности. По словам Cerebras, сочетание этих методов способствует десятикратному повышению производительности на доллар.

Google представила ИИ, который сможет пройти любую игру — он учится играть как человек

Google DeepMind представила ИИ-агента SIMA, обучающегося играть в видеоигры как человек. Название SIMA (Scalable, Instructable, Multiworld Agent) расшифровывается как «масштабируемый, обучаемый, мультимировой агент». Пока SIMA находится только в стадии исследования, но со временем он сможет научиться играть в любую нелинейную видеоигру с открытым миром. Создатели описывают SIMA как «ещё одного игрока, который хорошо вписывается в вашу группу».

 Источник изображений: Google DeepMind

Источник изображений: Google DeepMind

При обучении и тестировании SIMA лаборатория DeepMind сотрудничала с восемью разработчиками игр, включая Hello Games, Embracer, Tuxedo Labs, Coffee Stain. Исследователи подключили SIMA к таким играм, как No Man’s Sky, Teardown, Valheim и Goat Simulator 3. Разработчики утверждают, что SIMA не нуждается в специальном API для запуска игр или доступе к исходному коду.

SIMA сочетает обучение естественному языку с пониманием трёхмерных миров и распознаванием изображений. «SIMA не обучен побеждать в игре, он обучен запускать игру и делать то, что ему говорят», — говорит исследователь Google DeepMind Тим Харли (Tim Harley). Команда выбирала игры, которые больше ориентированы на открытый мир, чем на повествование, чтобы помочь SIMA освоить общие игровые навыки. К примеру, суть игры Goat Simulator — в совершении случайных, спонтанных поступков, и именно такой спонтанности разработчики хотели добиться от своего ИИ-агента.

Команда сгенерировала новую игровую среду при помощи «движка» Unity, в которой агентам было поручено создавать скульптуры, чтобы проверить их понимание манипулирования объектами. Перед этим были записаны совместные действия в этой среде пар игроков-людей, один из которых давал инструкции, а другой выполнял их. Затем записывался процесс самостоятельной игры, чтобы люди могли продемонстрировать получающийся результат. На базе этой информации SIMA обучался предсказывать дальнейшие действия участников игры.

В настоящее время SIMA изучил порядка 600 базовых игровых навыков, таких как движение вперёд-назад, повороты, подъём по лестнице и открытие меню для использования карты. Со временем разработчики планируют поручать SIMA выполнение более сложных функций в игре. На данный момент задачи типа «найти ресурсы и построить лагерь» не под силу ИИ-агенту.

По замыслу создателей, SIMA должен стать ещё одним полноправным участником игры, влияющим на результат. Разработчики считают, что пока преждевременно говорить о том, какое применение подобные агенты ИИ могут принести в игры за пределами исследовательской сферы. Они полагают, что благодаря более совершенным моделям ИИ SIMA в конечном итоге сможет выполнять сложные задачи и стать идеальным членом игровой партии, который приведёт её к победе.

Созданное с помощью ИИ лекарство впервые начали испытывать на людях — оно поможет от смертельного заболевания лёгких

Гонконгская компания Insilico Medicine сообщила, что разработанный с её помощью препарат для лечения идиопатического лёгочного фиброза (ИЛФ) стал первым в мире созданным с помощью искусственного интеллекта лекарством, разрешённым для клинических испытаний. Препарат проходит проверку на 60 пациентах в клиниках США и Китая. На его разработку ушло всего 18 месяцев, тогда как обычно такая работа требует многих лет работ.

 Источник изображения: Insilico Medicine

Источник изображения: Insilico Medicine

Болезнь ИЛФ буквально забирает жизни возрастных пациентов, а её природа до сих пор неизвестна. В случае развития заболевания пациенты сталкиваются с лёгочной недостаточностью и умирают. Компания Insilico Medicine, созданная в 2012 году в Гонконге учёным-предпринимателем Александром Александровичем Жаворонковым, с самого начала стала практиковать использование генеративных моделей искусственного интеллекта для синтеза молекул по заданным критериям.

На днях в журнале Nature Biotechnology вышла статья Жаворонкова, в которой он сообщил буквально следующее: «Эта работа [поиск мишени и её ингибитора] была завершена примерно за 18 месяцев от обнаружения мишени до доклинического выдвижения кандидата и демонстрирует возможности нашей генеративной системы поиска лекарств, управляемой искусственным интеллектом».

Для начала исследователи на собственной ИИ-платформе обучили алгоритм идентифицировать мишени, ответственные за деструктивные процессы в лёгких. Для этого использовались общедоступные данные и публикации о фиброзе. Это заболевание приводит к утолщению или рубцеванию тканей, что может снизить эластичность органов и лёгких в частности. Фиброз тесно связан с процессом старения, в результате которого возникает хроническое воспаление, приводящее часто к смертельному исходу.

С помощью предиктивной аналитики был выявлен белок TNIK, который стал главной антифибротической мишенью. Затем исследователи использовали генеративный химический алгоритм для создания около 80 кандидатов-молекул. Среди них был найден оптимальный ингибитор, получивший название INS018_055. Это лекарство допущено для клинических испытаний «второй» фазы изучения всех новых препаратов. В клиниках США и Китая препарат и его фармакологические свойства проверяются на 60 пациентах.

Разработка новых лекарств с помощью искусственного интеллекта может быть значительно ускорена на начальных этапах проведения исследовательских работ. Но на этапе клинического испытания работы ускорить нельзя. Пройдёт немало времени, прежде чем даже созданные ИИ лекарства окажутся доступными для повсеместного применения.

В Китае искусственный интеллект навёл порядок на железной дороге — она заработала лучше, чем новая

Чат-боты, сгенерированные картинки, видео и другие подобные развлечения с искусственным интеллектом — это интересно и местами полезно. Но более важным станет практическое внедрение ИИ в производство, транспорт и материальную экономику в целом. В конечном итоге выиграет тот, кто буквально будет «пахать и строить» на ИИ, заменив человека в производственной сфере. Китай сделал важный шаг к этому: благодаря ИИ там смогли навести порядок на железной дороге.

 Источник изображения: Xinhua

Источник изображения: Xinhua

Простой обыватель даже не может себе представить, чего стоит содержать дорогу, инфраструктуру и парк техники в порядке, а также обеспечивать движение составов. Это потенциально убыточные мероприятия с огромной ответственностью. Китай, как и другие страны, вскоре ощутит проблемы со стареющим населением. При этом железнодорожная сеть в стране растёт и предполагает соединение высокоскоростными ж/д магистралями все города с населением свыше 500 тыс. человек. Скорость подвижного состава также растёт, что делает человеческий фактор наиболее слабым звеном.

Протокол управления данными для внедрения ИИ-алгоритмов на железной дороге в Китае был внедрён оператором национальной сети железных дорог — китайской государственной компанией China State Railway Group — в 2022 году. Доступ к данным должен был быть ограничен и защищён от стороннего вмешательства и утечек. Алгоритмы управления были проверены людьми, и только после этого они были внедрены. Масштабные испытания начались в 2023 году. Результат ошеломил — железная дорога стала работать даже лучше, чем новая (сразу после ввода участков и составов в строй).

Датчики установлены на объектах инфраструктуры, на колёсные пары, на вагоны, чтобы учитывать вибрации, ускорение и амплитуды и это не говоря об обычной сигнальной автоматике. Объём собираемых для анализа данных достиг 200 Тбайт, а ведь это не картинки или видео, а обычные состояния регистров. Человек и сколь угодно большой коллектив не смог бы оперативно обрабатывать такой объём информации. Всё это данные о 45 тыс. км путей — это длиннее, чем экватор Земли. Обслужить всё это не хватит никакой рабочей силы.

Размещённая в Пекине система искусственного интеллекта в режиме реального времени обрабатывает огромные объёмы данных со всей страны и может предупреждать ремонтные бригады о нештатных ситуациях в течение 40 минут с точностью до 95 %. Рекомендации обычно направлены на предотвращение неисправностей — на профилактику потенциальных проблем. ИИ во всём этом потоке данных научили находить связи между событиями, которые недоступны для осознания в реальном масштабе времени.

За прошедший год ни одна из действующих высокоскоростных железнодорожных линий Китая не получила ни единого предупреждения о необходимости снижения скорости из-за серьёзных проблем с неровностями пути, в то время как количество мелких неисправностей на путях сократилось на 80 % по сравнению с предыдущим годом. Алгоритмы действуют настолько чётко, что даже повышают плавность хода в условиях сильных ветров и на мостах, снижая амплитуду колебаний составов и уменьшая нагрузку на пути и инфраструктуру. Звучит, как фантастика.

Подобные решения не только уменьшают потребность в обслуживающем персонале, но также снижают финансовую нагрузку на содержание железных дорог и, что самое важное, повышают безопасность движения. В Китае признают своё отставание от США в плане развития искусственного интеллекта, но если США не сможет конвертировать возможности ИИ в повышение производительности труда в материальной сфере, то это их преимущество будет лишь иллюзией.

Apple позволила ИИ решать, где и кому показывать рекламу в App Store

Компания Apple, известная своей осторожностью в вопросах рекламы, приступила к тестированию платформы для размещения рекламы на основе искусственного интеллекта (ИИ). Теперь ИИ определяет, где именно в App Store будут размещаться рекламные объявления, что, несомненно, вызовет интерес как в профессиональном сообществе, так и среди пользователей.

 Источник изображения: Mohamed_hassan / Pixabay

Источник изображения: Mohamed_hassan / Pixabay

Тестирование новинки проводится с ограниченным кругом партнёров Apple. На данный момент технология используется для повышения эффективности рекламных кампаний в поиске по App Store. Однако, как предполагает издание Business Insider, в будущем эта технология может найти применение и в других сервисах Apple, что постепенно расширит спектр услуг компании с поддержкой рекламы.

Технология размещения рекламы с помощью ИИ не является новинкой на рынке рекламы. Аналогичные системы уже внедрены компаниями Google и Facebook, но для Apple, обладающей ограниченным набором рекламных форматов, разработка такого инструмента кажется несколько неожиданным шагом. В App Store разработчики приложений могут заплатить за то, чтобы появиться на вкладке «Сегодня», вкладке «Поиск», в верхней части результатов поиска и в нижней части страниц других приложений. Компания также предлагает рекламные кампании для приложений «Новости» и «Акции», хотя большая часть этих услуг осуществляется через посредников, таких как NBCUniversal.

С течением времени Apple, вероятно, предложит ещё больше слотов для рекламы в поиске по App Store и может расширить области размещения рекламы на другие мобильные приложения. В этом контексте инструмент размещения рекламы на основе ИИ становится значительно актуальнее.

Несколько лет назад Марк Гурман (Mark Gurman) из Bloomberg сообщил о планах Apple расширить рекламный бизнес на другие приложения, такие как Apple Maps, а также на сервисы, включая «Книги» и «Подкасты». Однако на данный момент официальных заявлений от компании не последовало.

Инициатива Apple по внедрению ИИ в рекламные стратегии вызывает вопросы о будущем рекламы в мобильных приложениях и о том, как это повлияет на пользовательский опыт. Компания, долгое время придерживавшаяся стратегии минимального количества рекламы, теперь может пересмотреть свой подход, что, безусловно, окажет влияние на рынок мобильной рекламы в целом.

Новая статья: Microsoft Copilot крупным планом: как активировать ИИ-ассистента в России и стоит ли игра свеч

Данные берутся из публикации Microsoft Copilot крупным планом: как активировать ИИ-ассистента в России и стоит ли игра свеч


window-new
Soft
Hard
Тренды 🔥
Всё своё ношу с собой: Nvidia представила контейнеры NIM для быстрого развёртывания оптимизированных ИИ-моделей 4 ч.
Nvidia AI Enterprise 5.0 предложит ИИ-микросервисы, которые ускорят развёртывание ИИ 5 ч.
NVIDIA запустила облачную платформу Quantum Cloud для квантово-классического моделирования 6 ч.
NVIDIA и Siemens внедрят генеративный ИИ в промышленное проектирование и производство 6 ч.
SAP и NVIDIA ускорят внедрение генеративного ИИ в корпоративные приложения 6 ч.
Microsoft проведёт в мае презентацию, которая положит начало году ИИ-компьютеров 7 ч.
Амбициозная ролевая игра Wyrdsong от бывших разработчиков Fallout: New Vegas и Skyrim в опасности — в студии прошли массовые увольнения 7 ч.
THQ Nordic раскрыла системные требования Alone in the Dark на все случаи жизни — для игры на «ультра» понадобится RTX 4070 Ti 8 ч.
Сливать игры до релиза станет опаснее — создатели Denuvo рассказали о технологии TraceMark for Games 8 ч.
Календарь релизов 18–24 марта: Dragon's Dogma 2, Rise of the Ronin, Horizon Forbidden West на ПК 10 ч.