Сегодня 21 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Meta✴ и IBM объединили силы для создания открытого Альянса ИИ

Meta и IBM присоединились к более чем 40 компаниям и организациям для создания отраслевой группы, ориентированной на разработку ИИ на основе открытого исходного кода. Эта инициатива, получившая название AI Alliance, направлена на обмен технологиями и уменьшение рисков в этой динамично развивающейся отрасли.

 Источник изображения: geralt / Pixabay

Источник изображения: geralt / Pixabay

Альянс ИИ сфокусирован на ответственном развитии технологий ИИ, что подразумевает разработку инструментов их защиты и безопасности. Согласно заявлению, группа также стремится увеличить количество открытых ИИ-моделей, контрастируя с проприетарными ИИ-системами, которые предпочитают некоторые компании. В рамках инициативы планируется разработка нового оборудования, сотрудничество с академическими кругами и исследовательскими организациями.

Приверженцы технологии ИИ с открытым исходным кодом считают этот подход более эффективным для разработки сложных систем. В последние месяцы Meta представила открытые версии своих больших языковых моделей, которые лежат в основе ИИ-чат-ботов. «Мы считаем, что разработка ИИ должна быть открытой — так большее количество людей сможет получить доступ к преимуществам, создавать инновационные продукты и работать над безопасностью», — заявил Ник Клегг (Nick Clegg), президент Meta по международным вопросам.

Помимо Meta и IBM в числе участников Альянса ИИ значатся такие технологические компании, как Oracle, AMD, Intel и Stability AI, а также академические и исследовательские учреждения, такие как Университет Нотр-Дам (UND) и Массачусетский открытый облачный Альянс (MOC Alliance). Предполагается создание управляющего совета и технического надзорного комитета для координации деятельности и разработки стандартов.

Недавние события в компании OpenAI, повлёкшие увольнение и последующее восстановление в должности генерального директора Сэма Альтмана (Sam Altman), усилили споры о необходимости прозрачности в разработке мощных ИИ-технологий. Тем не менее, OpenAI не упоминается среди участников новоиспечённого альянса.

Упомянутая инициатива может стать значительным шагом на пути к более открытому и безопасному будущему ИИ, способствуя балансу между инновациями и этическими стандартами в стремительно развивающейся сфере.

ChatGPT отучили раскрывать свои обучающие данные в ответ на просьбу вечно повторять одно слово

Просьба к ИИ-боту ChatGPT компании OpenAI повторять определённые слова «вечно» теперь помечается как нарушение условий предоставления услуг и политики в отношении контента чат-бота. Ранее стало известно, что таким незамысловатым способом можно извлекать огромные количества данных, на которых обучался чат-бот.

 Источник изображения: Rolf van Root/unsplash.com

Источник изображения: Rolf van Root/unsplash.com

Исследователи подразделения Google DeepMind и ряда университетов предложили ChatGPT 3.5-turbo повторять определённые слова «вечно». После определённого количества повторений слова, бот начинал выдавать огромные объёмы обучающих данных, взятых из интернета. Используя этот метод, исследователи смогли извлечь несколько мегабайт обучающих данных и обнаружили, что в ChatGPT включены большие объёмы личных данных, которые иногда могут быть возвращены пользователям в качестве ответов на их запросы. Как сообщил ранее ресурс arXiv, с помощью повторения слова «стихотворение» (poem), учёные добились получения от ChatGPT контактных данных реального человека, включая номер телефона и адрес электронной почты.

 Источник изображений: 404 Media

Источник изображений: 404 Media

А при просьбе к ChatGPT повторить слово «книга», он сначала повторял его несколько раз, а затем начинал выдавать случайный контент. Часть его была взята непосредственно с сайтов CNN и Goodreads, блогов WordPress, вики-сайтов Fandom, а также там были дословные выдержки из соглашений об условиях предоставления услуг, исходный код Stack Overflow, защищённые авторским правом юридические заявления об отказе от ответственности, страницы «Википедии», веб-сайт оптовой торговли казино, новостные блоги, случайные комментарии в интернете и многое другое.

«Мы показываем, что злоумышленник может извлекать гигабайты обучающих данных из языковых моделей с открытым исходным кодом, таких как Pythia или GPT-Neo, полуоткрытых моделей, таких как LLaMA или Falcon, и закрытых моделей, таких как ChatGPT», — отметили исследователи из Google DeepMind. Они сообщили, что 30 августа известили OpenAI об уязвимости и что компания её исправила. И лишь после этого исследователи сочли возможным поделиться информацией об уязвимости чат-бота с общественностью.

Как рассказал ресурс 404 Media, теперь в ответ на просьбу к ChatGPT 3.5 «вечно» повторять слово «компьютер», бот несколько десятков раз выдаёт слово «компьютер», а затем отображает сообщение об ошибке: «Этот контент может нарушать нашу политику в отношении контента или условия использования. Если вы считаете, что это ошибка, отправьте свой отзыв — ваш вклад поможет нашим исследованиям в этой области».

Meta✴ научила ИИ-модель SeamlessM4T переводить текст и речь быстрее и естественнее

Meta обновила свою ИИ-модель SeamlessM4T, предназначенную для перевода речи и текста. Теперь платформа поддерживает переводы почти на 100 языках, включая русский, в текстовом формате и на 36 — в устной речи. С новой архитектурой решения технологический гигант стремится сделать перевод более естественным и выразительным, что обещает стать прорывом в коммуникациях между людьми и производстве контента.

 Источник изображения: ***

Источник изображения: Meta

Meta построила SeamlessM4T на основе своей архитектуры многофункциональной модели UnitY на базе PyTorch, которая выполняет различные модальные переводы, а также автоматическое распознавание речи. Она использует систему BERT 2.0 для аудиокодирования, разбивая входные данные на составляющие токены для анализа, и HiFi-GAN unit vocoder для генерации голосовых ответов.

Первая из двух новых функций SeamlessM4T называется SeamlessExpressive. Как можно понять из названия, она переносит эмоциональные интонации голоса в переведённую речь. Система учитывает такие составляющие, как тон речи, её громкость, эмоциональный окрас (возбуждение, печаль или шёпот), темп речи и паузы. Всё это делает переводы менее механическими и более живыми. Поддерживаются английский, испанский, немецкий, французский, итальянский и китайский языки.

Вторая функция, SeamlessStreaming, начинает переводить речь, пока говорящий ещё не закончил предложение, что позволяет другим слушателям быстрее услышать перевод. Задержка составляет чуть менее двух секунд. По словам Meta, основной трудностью здесь было различие в структуре предложений разных языков, поэтому был разработан специальный алгоритм, который анализирует неполные аудиофрагменты и решает, достаточно ли контекста для начала генерации перевода или стоит ещё послушать говорящего.

Как и большинство предыдущих разработок Meta в области машинного перевода, будь то Llama 2, Massively Multilingual Speech (MMS), Universal Speech Translator (UST) или амбициозный проект No Language Left Behind (NLLB), SeamlessM4T находится в открытом доступе на GitHub. «Мы считаем, что SeamlessM4T является важным прорывом в стремлении сообщества ИИ к созданию универсальных многофункциональных систем», — написала команда исследователей.

Развитие компанией Meta ИИ-технологий перевода с различных языков открывает новые перспективы в области межъязыкового общения. Эти инновации могут значительно превзойти существующие решения, такие как инструменты перевода, разработанные компаниями Google и Samsung. Пока нет точной информации о сроках внедрения Meta этих функций, но их потенциальное применение, например, в умных очках Meta, обещает сделать их незаменимыми в повседневной жизни и профессиональной сфере.

Владелец TikTok запустит платформу для создания индивидуальных ИИ-чат-ботов

В минувшие выходные стало известно, что OpenAI задерживает открытие магазина приложений для индивидуальных моделей искусственного интеллекта до следующего года. Помимо создателей ChatGPT, этой темой интересуются и разработчики TikTok из китайской компании ByteDance, как сообщает издание South China Morning Post.

 Источник изображения: ByteDance

Источник изображения: ByteDance

В конце текущего месяца, как сообщает источник со ссылкой на служебную рассылку ByteDance, платформа для разработки чат-ботов будет выпущена в публичной бета-версии. Данная инициатива призвана помочь ByteDance в поиске новых продуктов, имеющих отношение к сегменту генеративного искусственного интеллекта, а также изучении возможностей их интеграции с уже существующими.

Специалисты ByteDance уже работают над созданием собственного аналога Midjourney — системы искусственного интеллекта, позволяющей создавать графические изображения по словесному описанию. Принято считать, что ByteDance во многом обязана успехом социальной сети TikTok своим рекомендательным алгоритмам, а потому наличие у китайских разработчиков серьёзных амбиций в сфере систем генеративного искусственного интеллекта интригует.

Подразумевается, что будущая платформа ByteDance позволит клиентам создавать чат-боты, адаптированные под свои конкретные нужды. Для этого от клиентов не будет требоваться наличие навыков программирования. Baidu в марте этого года запустила платформу Qianfan, которая позволяет корпоративным клиентам создавать собственные большие языковые модели и связанные с ними услуги. В октябре подобные услуги начала предлагать своим клиентам компания Alibaba Cloud. В Китае и Гонконге OpenAI до сих пор не предлагает свои услуги, как и Google, хотя Microsoft со своим Copilot сделала исключение для Гонконга.

Google отложила запуск своего ответа GPT-4 на январь — Gemini плохо справляется с неанглоязычными запросами

Google объявила о переносе запуска своей новейшей ИИ-системы Gemini на январь 2024 года. Изначально планировалось, что запуск ответа нейросети GPT-4 состоится на следующей неделе. Это решение связано с необходимостью доработки нейросети для лучшей работы с неанглоязычными запросами.

 Источник изображения: geralt / Pixabay

Источник изображения: geralt / Pixabay

На ежегодной конференции I/O 2023 корпорация Google анонсировала свою новейшую ИИ-модель Gemini, в работе над которой принимал участие соучредитель Google и холдинга Alphabet Сергей Брин (Sergey Brin). По информации издания The Information, компания планировала представить Gemini уже на следующей неделе в рамках мероприятий в Калифорнии, Нью-Йорке и Вашингтоне, ориентированных на политиков и законодателей. Однако теперь запуск нейросети отложен до января следующего года.

Решение о переносе запуска новаторской ИИ-системы принял генеральный директор Google, Сундар Пичаи (Sundar Pichai). Причиной стала недостаточно надёжная работа Gemini с запросами на языках, отличных от английского. Поддержка многоязычности является приоритетом для Google, так как она стремится достичь и даже превзойти уровень ИИ-модели GPT-4 компании OpenAI. По словам источников, в некоторых аспектах Google уже достигла этого стандарта. В ноябре Пичаи заявил, что Google сосредоточена на скорейшем выпуске Gemini 1.0, стремясь к созданию конкурентоспособного и передового продукта. Однако на текущий момент компания все ещё работает над финальной версией Gemini.

Ранее в рамках конференции I/O 2023 корпорация Google отметила, что Gemini будет обладать впечатляющими мультимодальными способностями, превосходящими возможности предыдущих ИИ-моделей. Кроме понимания текста и изображений, Gemini будет нацелена на эффективную интеграцию с API и другими инструментами, что сделает её привлекательной для разработчиков различных приложений. Google также сообщила о разработке нескольких вариантов Gemini, включая мобильную версию Gecko, и подчеркнула, что Gemini создана для поддержки будущих инноваций, включая функции памяти и планирования.

Вопрос о том, как быстро Gemini будет интегрирована в такие сервисы Google, как Bard, Поиск и Workspace, пока остаётся открытым.

Стартап Stability AI начал поиск покупателя на фоне финансовых трудностей и давления инвесторов

Британский стартап в области ИИ — Stability AI, известный своим генератором изображений Stable Diffusion, ведёт переговоры с потенциальными покупателями бизнеса. Инициатива по продаже возникла на фоне возрастающего давления со стороны инвесторов, в частности Coatue Management, которые выражают обеспокоенность финансовым состоянием компании.

 Источник изображения: stability.ai

Источник изображения: stability.ai

Стартап Stability AI, расположенный в Лондоне и известный своей генеративной ИИ-моделью Stable Diffusion, в последние недели активно ищет покупателя. Это происходит на фоне усиливающегося давления со стороны инвесторов, особенно со стороны Coatue Management, которая требует отставки главы компании, Эмада Мостака (Emad Mostaque). Требование Coatue Management об отставке Мостака последовало спустя год после того, как они помогли привлечь финансирование для Stability AI, оценив стартап в $1 млрд.

Stability AI провела предварительные переговоры с несколькими потенциальными покупателями, но источники, близкие к ситуации, предупреждают, что до заключения сделки ещё далеко и процесс может быть остановлен в любой момент. В то же время представитель Stability AI подчеркнул, что компания сосредоточена на разработке новых продуктов в области ИИ, включая модель генерации видео Stable Video Diffusion, и не стремится к продаже.

В августе доходы стартапа составили $1,2 млн, тогда как в текущем месяце ожидается их увеличение до $3 млн. Однако ежемесячные расходы компании на оплату счетов и зарплат достигают $8 млн. В октябре прошлого года стартап привлёк инвестиции в размере примерно $50 млн от корпорации Intel, направленные на дальнейшее развитие бизнеса.

Отношения между Stability AI и её инвесторами остаются напряжёнными. Генеральный партнёр Coatue Management, Шри Вишванат (Sri Vishwanath), покинул пост директора в результате инвестиций Intel в Stability, так как Coatue Management владеет значительным пакетом акций конкурента Intel — компании AMD. Партнёр из Lightspeed Venture Partners также ушёл с поста наблюдателя в совете директоров стартапа.

Intel, в свою очередь, в сентябре назвала Stability AI «якорным клиентом» для своего нового суперкомпьютера, ориентированного на ИИ. Согласно двум источникам, знакомым с условиями сделки, инвестиции Intel были частично обусловлены использованием процессоров Intel в вычислениях Stability AI.

Текстовый редактор iA Writer научился выделять текст от ChatGPT

В последней версии минималистичного мультиплатформенного текстового редактора iA Writer 7 появилась функция Autorship — маркировка текста, созданного системами генеративного искусственного интеллекта вроде ChatGPT.

 Источник изображения: ia.net

Источник изображения: ia.net

Введённый пользователем текст отображается чёрным цветом, но при желании созданные ИИ фрагменты могут выводиться серым. Это делается для того, чтобы при последующем редактировании машинного творчества автор мог отследить, какая часть финального текста является оригинальной работой, а какая была сгенерирована ИИ. Это поможет избавиться от опасений, что ИИ способен стать «писателем-призраком», который когда-нибудь «возьмёт верх» и заставит человека «лишиться собственного голоса» — новая функция ограничивает роль ИИ как «партнёра в диалоге», который «побуждает думать и писать лучше».

Функция Autorship автоматизирована не полностью: если скопировать из диалогового интерфейса в буфер обмена и вопрос к ИИ, и его ответ, то последний без дополнительных команд вставится серым цветом. Если же скопирован только ответ, то при вставке придётся выбрать соответствующую опцию в выпадающем подменю. «Вам решать, насколько честными вы хотите быть с самим собой», — пояснили такую работу функции разработчики iA Writer.

Иными словами, она предназначена не для выявления плагиата или принудительной маркировки сгенерированного ИИ контента, а для того, чтобы у представителей творческих профессий был инструмент, позволяющий увидеть грань между собственным текстом и работой ИИ. Пока Autorship доступна в приложениях для macOS, iOS и iPadOS, а в перспективе появится в версиях под Windows и Android. Примечательно, что создатели iA Writer опубликовали спецификацию функции на GitHub, предложив интегрировать её и разработчикам других приложений, «в идеале» задав новый стандарт.

iPhone разрушил ткань реальности — он запечатлел три версии одной девушки на одном фото

Британская актриса Тесса Коутс (Tessa Coates) рассказала, как у неё «разрушилась ткань реальности», когда она сфотографировалась на iPhone во время примерки свадебного платья. Всё дело в том, что на снимке девушка и два отражения в зеркалах приняли три разные положения рук.

 Источник изображений: Tessa Coates

Источник изображений: Tessa Coates

На снимке сама Коутс стоит, держа одну руку опущенной вниз, а другую — согнутой в локте. На фотографии у отражения слева опущенными оказались обе руки, так же как обе оказались согнутыми в локтях в отражении справа. Женщина отметила, что не пользовалась никакими имеющимися на iPhone специальными режимами — это была «обычная фотография», и это привело её в ужас. «Я взглянула на фото, и у меня случилась настоящая паническая атака [прямо] на улице», — написала она в соцсети.

В попытке разгадать тайну Коутс отправилась в магазин Apple. Там консультант по имени Роджер пояснил ей, что «iPhone — это не фотоаппарат, а компьютер». «Он очень быстро делает серию снимков, даже если отключены панорамная и [собственно] серийная съёмка», — пояснила актриса. Роджер сказал, что в тот момент она двигала руками, а камера делала снимки, продвигаясь слева направо, поэтому на противоположных сторонах фотографии получились разные изображения. Сведением снимков занимался алгоритм искусственного интеллекта.

Роджер пояснил также, что с выходом смартфона Google Pixel 8, который при съёмке быстро делает несколько фотографий, а потом выбирает лучшую, Apple начала тестировать аналогичную функцию. Но причудливый эффект, какого Коутс случайно добилась в магазине свадебных платьев, выпадает «раз на миллион».

За последние годы производители смартфонов значительно продвинулись в качестве съёмки, но такие результаты нельзя объяснить совершенствованием аппаратной части устройств. Наибольшее влияние на качество фото оказали различные алгоритмы — вычислительная фотография. К примеру, при нажатии кнопки спуска затвора смартфон делает несколько снимков и быстро выбирает лучший. А при наличии матрицы с высоким разрешением объединяются данные нескольких соседних пикселей, повышая общее качество изображения при слабом освещении.

Meizu представила платформу Flyme 10.5 со встроенной нейросетью и ИИ-помощником Aicy

Китайский производитель смартфонов Meizu представил программную платформу Flyme 10.5 на базе Android 13, в которую интегрирована большая языковая модель искусственного интеллекта и интеллектуальный помощник Aicy на её основе. Кроме того, новая система получила расширенные средства взаимодействия с автомобильной платформой Flyme Auto.

 Источник изображения: Meizu

Источник изображения: Meizu

Следуя актуальной моде на системы ИИ, Meizu обеспечила Flyme 10.5 собственной большой языковой модели Flyme AI и основанным на ней ИИ-помощником Aicy. Ассистент, уточнил разработчик, обладает обширными познаниями и может отвечать на различные вопросы из области естественных наук, о здоровье или эмоциональных переживаниях. Система помогает в написании различных текстов — это может быть переписка по электронной почте или создание постов для соцсетей.

Aicy поддерживает работу с графикой, предлагая как редактирование готовых изображений, так и создание новых. При редактировании готовых изображений используются ИИ-алгоритмы, позволяющие свободно удалять с фото людей или другие объекты, а также дорисовывать снимки, например, чтобы расширить композицию. При генерации новых изображений система придерживается любого выбранного пользователем жанра — это может быть, например, фотореализм либо произведение художника.

Flyme 10.5 получила интеграцию с ОС Flyme Auto, которая устанавливается на некоторые транспортные средства. Подключение производится при помощи службы Flyme Link, после чего Aicy позволяет удалённо контролировать машину или пользоваться навигационными функциями при движении. Ассистент поможет в обслуживании транспортного средства, даст консультацию по соблюдению правил дорожного движения, поможет спланировать туристическую поездку, организовать проживание, питание, зарядку для электромобиля или приобрести билеты, если они нужны для посещения достопримечательностей.

Flyme 10.5 поставляется предустановленной на новых смартфонах серии Meizu 21, а владельцы устройств Meizu 20 смогут записаться на её тестирование с 1 декабря. В начале следующего месяца также стартует тестирование Flyme AI.

IBM поможет NASA в создании ИИ-основы для погодных и климатических приложений

Национальное управление по аэронавтике и исследованию космического пространства (NASA) и компания IBM объединились, чтобы создать базовую модель искусственного интеллекта для погодных и климатических приложений. Объединение научных знаний с технологиями искусственного интеллекта, как ожидается, позволит создать модель, которая предложит «значительные преимущества по сравнению с существующими технологиями».

 Источник изображения: TheDigitalArtist / Pixabay

Источник изображения: TheDigitalArtist / Pixabay

Современные ИИ-модели, такие как GraphCast и Fourcastnet, генерируют прогнозы быстрее, чем традиционные метеорологические модели. Однако IBM отмечает, что всё это эмуляторы искусственного интеллекта, а не базовые модели, которые лежат в основе генеративных алгоритмов. Эмуляторы искусственного интеллекта способны формировать прогнозы погоды на основе используемых для обучения данных, но они лишены других приложений и возможностей, которыми можно наделить базовую модель.

NASA и IBM планируют создать ИИ-модель, которая будет иметь расширенную доступность по сравнению с уже используемыми технологиями, а также сумеет обрабатывать больше типов данных. Ещё одной ключевой целью является повышение точности прогнозирования. Ожидается, что алгоритм будет успешно справляться с прогнозированием метеорологических явлений, а также определением условий, способствующих формированию различных явлений, от турбулентности самолёта до лесных пожаров.

Ранее в этом году NASA и IBM выпустили другую ИИ-модель, которая использует данные со спутников аэрокосмического ведомства для геопространственной разведки и является крупнейшей геопространственной моделью на базе ИИ с открытым исходным кодом. С момента запуска эта модель использовалась для отслеживания и визуализации деятельности по посадке и выращиванию деревьев в Кении. Она также задействована для анализа климатических условий на территории ОАЭ.

Исследователи обманом заставили ChatGPT выдать информацию из обучающего массива

Учёные из подразделения Google DeepMind и ряда крупных университетов установили, что системы искусственного интеллекта «запоминают» как минимум часть полученной при обучении информации и могут выдавать её в исходном виде, включая персональные данные людей. Для этого, в частности, используется метод «атаки дивергенции» (Divergence Attack) — большой языковой модели отдаётся команда повторять одно и то же слово. Объяснения этому эффекту пока нет.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

Когда в ответах ИИ начали появляться фрагменты материалов, использованных при обучении, исследователи задались целью понять, какой объём данных ИИ запоминает и может воспроизвести, и какого рода может быть эта информация. Они также решили установить, может ли сторонний субъект извлечь данные из обучающего массива, не зная наперёд, что в нём содержится. Учёные провели серию экспериментов с различными языковыми моделями, включая наиболее известные, такие как GPT-Neo, LLaMA и ChatGPT. Они сгенерировали миллиарды токенов — слов или символов, в зависимости от модели — и сравнили, соответствуют ли ответы данным, которые использовались при обучении этих моделей. В ходе работы был обнаружен уникальный метод тестирования ChatGPT, предполагающий повторение одного слова большое количество раз, после чего ИИ внезапно начинает генерировать случайный контент.

Как выяснилось, эти модели не только запоминают фрагменты обучающих данных, но и способны воспроизводить их в исходном виде по правильной команде. Не стал исключением и ChatGPT, разработчики которого провели отдельную настройку для предотвращения подобного эффекта. Исследователи обращают внимание разработчиков на острую необходимость всестороннего тестирования моделей ИИ — оно должно касаться не только аспектов взаимодействия с широким кругом пользователей в веб-интерфейсе, но также лежащей в основе сервиса нейросети и системы взаимодействия по API. Целостный подход к безопасности необходим для выявления скрытых уязвимостей, которые в противном случае остаются незамеченными.

 Источник изображения: arxiv.org

Источник изображения: arxiv.org

В ходе экспериментов учёные извлекали исходные обучающие данные различных типов: от подробного доклада об инвестиционном исследовании до конкретного кода на Python, решающего задачи в области машинного обучения. Наибольший интерес представляет обнаруженная при взаимодействии с ChatGPT «атака дивергенции» — если заставить систему повторять одно и то же слово, она начинает выдавать полученные при обучении данные. Чтобы проиллюстрировать этот эффект, учёные показали, что при повторении слова «стихотворение» (poem) ChatGPT внезапно выдал список контактных данных реального человека. Персональные данные в этом исследовании учёных встречались довольно часто — они выделили 15 тыс. сгенерированных подстрок, которые пришлось проанализировать отдельно: в 16,9 % случаев это были персональные данные, которые ИИ в исходном виде «запомнил» при обучении; в 85,8 % случаев это были прочие совпадения с реальными данными.

По мнению исследователей, это указывает на серьёзные проблемы ИИ-моделей с конфиденциальностью. И разработчикам систем ИИ необходимо понимать, что исправить конкретные уязвимости в алгоритмах пользовательского интерфейса недостаточно — необходимо вмешательство в архитектуру самих моделей. То есть можно установить фильтр ввода-вывода на выдачу персональных данных при ответах, преднамеренных и случайных, но он не решит более серьёзной проблемы: модель склонна запоминать и в принципе способна раскрывать фрагменты обучающих данных, которые носят конфиденциальный характер. Это значит, что требуется дополнительная работа по дедупликации (удалению повторяющихся элементов) данных и понимание влияния ёмкости модели на эффект запоминания. Необходима также выработка надёжных методов проверки запоминания.

Основатель NVIDIA: искусственный интеллект сможет соперничать с человеком уже лет через пять

Издание The New York Times провело в американском городе, подарившем ему название, конференцию DealBook, и основатель NVIDIA Дженсен Хуанг (Jensen Huang) оказался в числе приглашённых бизнесменов. По его мнению, сильный искусственный интеллект (AGI) на уровне способности отвечать на вопросы тестов сможет соперничать с человеком уже лет через пять, но достигать способности делать последовательные логические выводы он будет ещё долго.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По информации CNBC, генеральный директор NVIDIA сказал буквально следующее: «Если расценивать сильный искусственный интеллект как компьютер, способны выполнять определённые тесты на сопоставимом с человеческим разумом уровне, то в перспективе пяти лет, очевидно, ИИ сможет выполнять эти тесты». Глава компании пояснил, что современные системы искусственного интеллекта достигли неплохих результатов в распознавании образов или восприятии информации, последовательные логические выводы они пока делать неспособны, и на достижении именно этой цели в ближайшие годы будут сосредоточены основные усилия компаний и исследователей.

Современные языковые модели и искусственный интеллект имеют отношение к подобным способностям, но их всё-таки нельзя уравнивать с человеческим разумом, как признался глава NVIDIA. На этой конференции он также отказался давать оценку потенциалу компаний, работающих в сфере ИИ, назвав их своими друзьями. Хуанг вспомнил ещё один интересный эпизод, относящийся к периоду деятельности Илона Маска (Elon Musk) в контексте развития OpenAI. До того, как Маск вышел из проекта в 2018 году, он успел заказать у NVIDIA суперкомпьютер для ускорения вычислений в сфере искусственного интеллекта, который и был успешно поставлен.

Коснулся основатель NVIDIA и недавней истории с отставкой главы OpenAI Сэма Альтмана (Sam Altman). По его словам, ситуация показывает несовершенство структуры управления этого стартапа. Сама NVIDIA за время своего тридцатилетнего существования пережила многое, но грамотное управление позволило избежать неприятных последствий, как заявил Дженсен Хуанг.

Amazon представила свой ИИ-генератор изображений Titan Image Generator

На конференции AWS re:Invent компания Amazon представила собственный ИИ-генератор изображений Titan Image Generator на платформе Bedrock. Он предназначен для создания изображений на основе текстовых запросов, а также предлагает поддержку различных дополнительных функций редактирования уже готовых изображений.

 Источник изображения: Amazon

Источник изображения: Amazon

По словам Amazon, инструмент способен генерировать «огромные объёмы реалистичных изображения студийного качества при низкой цене». Компания заявляет, что Titan Image Generator способен создавать изображения на основе сложных текстовых подсказок, одновременно обеспечивая при этом точность композиции генерируемых объектов на изображении с минимальными искажениями. По мнению разработчиков Amazon, это поможет «сократить объёмы создания вредного контента и смягчить распространение дезинформации».

Функции Titan Image Generator также позволяют редактировать отдельные элементы на изображении, удаляя или добавляя дополнительные детали. Например, инструмент позволяет заменить задний фон на изображении, а также заменить или удалить предмет, который может находиться в руках человека, изображенного в кадре. Использующиеся в составе Titan Image Generator ИИ-алгоритмы также могут расширять композицию изображения, добавляя дополнительные искусственные детали, аналогично функции Generative Expand в Photoshop.

В компании отмечают, что их ИИ-генератор изображений Titan накладывает на каждое созданное им изображение невидимый невооружённому глазу специальный водяной знак. По мнению компании, эта функция поможет «уменьшить распространение дезинформации, предоставив незаметный механизм для идентификации изображений, созданных ИИ, а также будет способствовать безопасному, надежному и прозрачному развитию технологий искусственного интеллекта». Amazon заявляет, что эти водяные знаки невозможно удалить или изменить.

Согласно опубликованному видео с демонстрацией работы Titan Image Generator, инструмент также может создавать описания изображений или релевантный текст для последующего использования в публикации в социальных сетях.

Нейросеть Google придумала 2,2 млн новых кристаллов — тысячи из них можно воплотить в лаборатории

Исследователи Google DeepMind объявили, что им с помощью искусственного интеллекта удалось открыть 2,2 млн ранее неизвестных кристаллических материалов, из которых 380 тыс. признаны стабильными. Многие из них могут быть полезны в разных технологических областях: от батарей до сверхпроводников. Учёные с помощью роботизированной лаборатории смогли воспроизвести части этих материалов. Прежде на это ушли бы годы, а сейчас — полмесяца.

 Источник изображения: Google

Источник изображения: Google

Лаборатория A-Lab с помощью роботов оперирует самыми разными ингредиентами, такими как оксид никеля и карбонат лития, предназначена для получения новых и интересных экспериментальных материалов, некоторые из которых могут найти применения в будущих аккумуляторах. Результаты могут быть непредсказуемыми. Даже ученый-человек обычно не создаёт то, что нужно с первого раза. Поэтому иногда роботы производят просто красивый порошок. В других случаях это расплавленное клейкое месиво, или всё испаряется, и ничего не остаётся.

«В этот момент человеку придется принимать решение: Что мне теперь делать?», — говорит Гербранд Седер (Gerbrand Ceder), материаловед из Лаборатории Лоренса Беркли (LBL, Laboratory of Lawrence Berkeley) в Калифорнийском университете Беркли. Роботы должны то же самое. Они анализируют то, что получилось, корректируют рецепт и пробуют снова. И ещё раз. И снова. «Утром вы даёте им несколько рецептов, а когда возвращаетесь домой, у вас может получиться новое прекрасное суфле, — отмечает материаловед Кристин Перссон (Kristin Persson), сотрудница Седера в LBL. — А может быть, вы вернётесь в сгоревший беспорядок! Но, по крайней мере, завтра они сделают суфле намного лучше».

Недавно ассортимент «блюд», доступных роботам в LBL, вырос в геометрической прогрессии благодаря программе искусственного интеллекта, разработанной Google DeepMind. Алгоритм, получивший название GNoME, был обучен на основе данных из проекта «Материалы» — бесплатной базы данных, содержащей 150 000 известных материалов, которую курирует Перссон. Используя эту информацию, система искусственного интеллекта предложила проекты материалов, содержащие 2,2 миллиона новых кристаллов, из которых 380 000 были признаны стабильными. Они не разлагаются и не взрываются, а значит, наиболее подходят для синтеза в лаборатории, что расширило диапазон известных стабильных материалов почти в 10 раз. В статье, опубликованной сегодня в Nature, авторы пишут, что в этой расширенной базе данных может скрываться следующий инновационный твердотельный электролит, или материал для солнечных батарей, или высокотемпературный сверхпроводник.

Поиск иголок в стоге сена начинается с их изготовления, что является ещё одной причиной для быстрой и непрерывной работы. В ходе недавних экспериментов автономная лаборатория Седера в LBL смогла создать 41 теоретический материал с помощью GNoME за 17 дней, что помогло подтвердить дееспособность как модели ИИ, так и роботизированных методов лаборатории.

При принятии решения о том, можно ли на самом деле изготовить материал, будь то человеческими руками или руками робота, одним из первых вопросов является вопрос о его стабильности. Как правило, это означает, что совокупность атомов находится в минимально возможном энергетическом состоянии. В противном случае кристалл захочет превратиться во что-то другое. На протяжении тысячелетий люди постоянно пополняли список стабильных материалов, первоначально наблюдая за теми, что встречаются в природе, или открывая их благодаря элементарной химической интуиции или случайности. В последнее время материалы стали разрабатывать с помощью компьютеров.

Проблема, по мнению Перссон, заключается в предвзятости: со временем коллективные знания стали отдавать предпочтение определенным знакомым структурам и элементам. Материаловеды называют это «эффектом Эдисона»: знаменитый изобретатель активно использовал метод проб и ошибок при создании нити накаливания. В ходе подбора материала для неё были испытаны тысячи видов углерода, прежде чем учёный пришел к разновидности, полученной из бамбука. Венгерской группе потребовалось ещё десять лет, чтобы придумать использовать вольфрам. «Он был ограничен своими знаниями, — утверждает Перссон. — Он был предвзят, он был предубеждён».

Подход DeepMind призван преодолеть эти предубеждения. Команда начала с 69 000 материалов из базы данных, которая является бесплатной и финансируется Министерством энергетики США. Это было хорошее начало, поскольку база данных содержит подробную энергетическую информацию, необходимую для понимания того, почему одни материалы стабильны, а другие — нет. Но этих данных недостаточно, чтобы преодолеть то, что исследователь Google DeepMind Экин Догус Кубук (Ekin Dogus Cubuk) называет «философским противоречием» между машинным обучением и эмпирической наукой.

Как и Эдисон, ИИ борется за то, чтобы генерировать действительно новые идеи, выходящие за рамки того, что он видел раньше. «В физике вы никогда не займётесь изучением того, что уже знаете, — говорит он. — Вы почти всегда хотите обобщить то, что вам уже известно, — будь то открытие другого класса материалов для батарей или новой теории сверхпроводимости».

GNoME использует подход, называемый активным обучением. Сначала графовая нейронная сеть (GNN) использует базу данных материалов для изучения закономерностей в стабильных структурах и выяснения того, как минимизировать энергию атомных связей в новых структурах. Используя весь диапазон периодической таблицы Менделеева, она выдает тысячи потенциально стабильных кандидатов в материалы. Следующий шаг — их проверка и корректировка с помощью метода квантовой механики, называемого теорией функционала плотности, или DFT. На следующем этапе эти уточнённые результаты снова подключаются к обучающим датасетам, и процесс повторяется.

 Источник изображения: Jenny Nuss/Berkeley Lab

Источник изображения: Jenny Nuss/Berkeley Lab

Исследователи обнаружили, что при многократном повторении этот подход позволяет генерировать более сложные структуры, чем те, которые изначально были в датасете Materials Project, включая некоторые, состоящие из пяти или шести уникальных элементов. (Датасет, использовавшийся для обучения ИИ, в основном ограничивался четырьмя). Эти типы материалов включают так много сложных атомных взаимодействий, что они обычно не поддаются человеческой интуиции.

Но DFT — это только теоретическое обоснование. Следующий шаг — это реальное создание чего-либо. Поэтому команда Седера выбрала 58 теоретически возможных кристаллов для создания в лаборатории A-Lab. Учитывая возможности лаборатории и доступные компоненты, выбор был случайным. И поначалу, как и ожидалось, роботы терпели неудачи, а затем система неоднократно корректировала рецепты. После 17 дней экспериментов A-Lab удалось получить 41 стабильный материал, или 71 % от изначально выбранного перечня, причём иногда после опробования десятка различных рецептов.

Тейлор Спаркс (Taylor Sparks), материаловед из Университета Юты, не принимавший участия в исследовании, говорит, что видеть, как автоматика работает над синтезом новых типов материалов, многообещающе. Но использование искусственного интеллекта для предложения тысяч новых гипотетических материалов, а затем погоня за ними с помощью автоматики, просто нецелесообразна, добавляет он. GNN широко используются для разработки новых идей для материалов, но обычно исследователи хотят направить свои усилия на создание материалов с полезными свойствами, а не на слепое воспроизведение сотен тысяч таких материалов. «У нас уже есть слишком много вещей, которые мы хотели бы исследовать, но физически не смогли, — говорит он. — Я думаю, проблема в том, приближается ли этот масштабный синтез к количеству предсказанных материалов? Даже близко нет».

Лишь часть из 380 000 материалов, описанных в статье Nature, может быть создана на практике. Некоторые из них включают радиоактивные элементы, слишком дорогие или редкие. Некоторые потребуют синтеза в экстремальных условиях, которые невозможно создать в лаборатории, а каким-то нужны составляющие, которые учёным просто неоткуда взять. Это, скорее всего, относится даже к материалам, которые могут стать потенциально полезными при создании фотоэлектрического элемента или батареи следующего поколения. «Мы придумали много классных материалов, – утверждает Перссон. – Их изготовление и тестирование неизменно оказываются узким местом, особенно если речь идет о материале, который ещё никто не делал. Число людей, которым я могу позвонить из своего круга друзей и сказать: «Конечно, давайте я займусь этим для вас», – всего лишь один или два человека». «Действительно, неужели так много?» – с улыбкой спрашивает Седер.

Даже если материал может быть создан, предстоит долгий путь превращения базового кристалла в продукт. Перссон приводит в пример электролит внутри литийионного аккумулятора. Предсказания об энергии и структуре кристалла могут быть применены для решения таких задач, как определение того, насколько легко ионы лития могут перемещаться по нему – это ключевой аспект производительности. Но что не так легко предсказать, так это то, вступит ли этот электролит в реакцию с соседними материалами и не разрушит ли он всё устройство? К тому же, как правило, полезность новых материалов становится очевидной только в сочетании с другими материалами или при манипулировании ими с помощью химических добавок.

Тем не менее, расширение спектра материалов увеличивает возможности синтеза, а также предоставляет больше данных для будущих программ искусственного интеллекта, говорит Анатоль фон Лилиенфельд (Anatole von Lilienfeld), материаловед из Университета Торонто, который также не принимал участия в исследовании. Кроме того, это помогает материаловедам отвлечься от своих предубеждений и устремиться к неизведанному. «Каждый новый шаг, который вы делаете, – это фантастика, – восхищается он. – Этот шаг может открыть новый класс соединений».

Google также заинтересована в изучении возможностей новых материалов, созданных GNoME, говорит Пушмит Кохли (Pushmeet Kohli), вице-президент по исследованиям в Google DeepMind. Он сравнивает GNoME с AlphaFold, программным обеспечением компании, которое поразило структурных биологов своим успехом в предсказании того, как складываются белки. Обе программы решают фундаментальные проблемы, создавая архив новых данных, которые ученые могут изучать и расширять. Далее компания планирует заняться более конкретными проблемами, такими как поиск интересных свойств материалов и использование искусственного интеллекта для ускорения синтеза.

Обе эти задачи являются сложными, поскольку для начала обычно имеется гораздо меньше данных, чем для прогнозирования стабильности. Кохли говорит, что компания изучает возможности более непосредственной работы с физическими материалами, будь то привлечение сторонних лабораторий или продолжение академического партнерства. Он также добавил, что компания может создать собственную лабораторию, ссылаясь на Isomorphic Labs, подразделение DeepMind, занимающееся разработкой лекарств и основанное в 2021 году после успеха AlphaFold.

Всё может стать сложнее для исследователей, пытающихся применить материалы на практике. Проект «Материалы» популярен как среди академических лабораторий, так и среди корпораций, поскольку он допускает любой тип использования, включая коммерческие предприятия. Кандидаты в материалы, созданные Google DeepMind, выпускаются под отдельной лицензией, которая запрещает коммерческое использование. «Они выпускаются для академических целей, – поясняет Кохли. – Если люди захотят исследовать и изучить возможность коммерческого партнерства, мы будем рассматривать их заявки индивидуально в каждом конкретном случае».

Многие ученые, работающие с новыми материалами, отметили, что неясно, какое право голоса будет иметь компания, если тестирование в академической лаборатории приведет к возможному коммерческому использованию материала, созданного GNoME. Идея нового кристалла, не имеющая конкретного применения, как правило, не подлежит патентованию, и отследить её происхождение по базе данных может быть непросто.

Кохли также говорит, что, хотя данные и публикуются, в настоящее время нет планов выпускать модель GNoME. Он ссылается на соображения безопасности – по его словам, программное обеспечение теоретически может быть использовано для создания опасных материалов, – а также на неопределенность стратегии Google DeepMind в отношении материалов. «Трудно делать прогнозы относительно того, каким будет коммерческий эффект», – поясняет Кохли.

Спаркс ожидает, что его коллеги-ученые будут возмущаться отсутствием кода для GNoME в открытом доступе, как это делали биологи, когда AlphaFold была первоначально опубликована без полной модели. (Позже компания выпустила ее). «Это неприемлемо», – возмущается он. Другие материаловеды, вероятно, захотят воспроизвести полученные результаты и изучить способы улучшения модели или её адаптации к конкретным условиям использования. Но без модели они не смогут сделать ни того, ни другого.

Тем временем исследователи Google DeepMind надеются, что сотен тысяч новых материалов будет достаточно, чтобы теоретики и синтезаторы — как люди, так и роботы — не остались без дела. «Любая технология может быть улучшена с помощью лучших материалов. Это узкое место, – поясняет Кубук. – Вот почему мы должны развивать эту область, открывая новые материалы и помогая людям производить их ещё больше».

Amazon представила ИИ-чат-бот Amazon Q — он поможет миллионам людей в повседневных рабочих задачах

У OpenAI есть ChatGPT. У Google есть ИИ-чат-бот Bard. У Microsoft есть различные версии ИИ-помощников Copilot, предназначенные для разных задач. Компания Amazon во вторник наконец-то анонсировала своего ИИ-помощника — Amazon Q. Он разработан подразделением облачных вычислений Amazon и предназначен не для обычных потребителей, а для корпоративных пользователей.

 Источник изображения: Associated Press

Источник изображения: Associated Press

Среди функций Amazon Q отмечаются возможность кратко формулировать содержание важных документов, заполнение заявок для внутренней поддержки компаний, ответы на вопросы о политике компании, помощь в редактировании и т.д. Он будет конкурировать с другими корпоративными чат-ботами включая Copilot, Google Duet AI и ChatGPT Enterprise.

В интервью изданию The New York Times исполнительный директор Amazon Web Services Адам Селипски (Adam Selipsky, на фото выше) выразил надежду, что Amazon Q имеет все шансы стать важным помощником для миллионов людей в их повседневных рабочих задачах.

За минувший год с момента выпуска ChatGPT компанией OpenAI многие другие ведущие технологические гиганты, включая Google и Microsoft, успели поддаться всеобщему буму ИИ и выпустить свои варианты чат-ботов, на основе технологий больших языковых моделей, вложив в эти разработки миллиарды долларов. Компания Amazon в свою очередь лишь недавно начала говорить о своём интересе к подобным технологиям, а также планах развития в этом направлении. Например, в сентябре Amazon сообщила, что инвестирует до $4 млрд в компанию Anthropic, конкурента OpenAI, и будет заниматься вместе с ней разработкой специализированных ИИ-процессоров. Также Amazon ранее представила сервис, который способен предоставлять доступ к разным ИИ-системам в рамках единой платформы.

Являясь одним из ведущих операторов облачных вычислений, компания Amazon имеет большую пользовательскую базу среди корпоративных клиентов, которые хранят огромные объёмы информации на её облачных серверах. По словам Селипски, её клиенты заинтересованы в использовании чат-ботов на рабочих местах, но они хотят быть уверены в том, что ИИ-помощники будут обладать достаточным уровнем защиты от утечек корпоративных данных. «Многие компании в разговоре со мной отметили, что они запретили своим сотрудникам использовать ИИ-чат-боты из соображений безопасности и конфиденциальности», — заявил Селипски.

 Источник изображения: AWS

Источник изображения: AWS

Ответом Amazon стала разработка Amazon Q — корпоративного чат-бота с повышенной защитой конфиденциальных данных по сравнению с потребительскими чат-ботами. Например, для Amazon Q можно выставить те же разрешения безопасности, которые бизнес-клиенты облачного сервиса Amazon уже настроили для своих пользователей. Если в компании сотрудник отдела маркетинга не имеет доступа к конфиденциальным финансовым прогнозам, Amazon Q может имитировать эти прогнозы, без предоставления официальных финансовых данных. Кроме того, компании, использующие Amazon Q, также могут устанавливать разрешения на использование своих корпоративных данных чат-ботом, не находящихся на серверах Amazon, например, через подключение Slack и Gmail.

В отличие от ChatGPT и Bard, Amazon Q не основан на какой-то конкретной языковой модели искусственного интеллекта. Вместо этого он использует платформу Amazon Bedrock, которая объединяет несколько систем искусственного интеллекта, включая собственный Titan от Amazon, а также модели ИИ, разработанные Anthropic и Meta.

Цены на Amazon Q начинаются с 20 долларов США за одного пользователя сервиса в месяц. Для сравнения, Microsoft и Google взимают 30 долларов в месяц за каждого пользователя своих корпоративных чат-ботов, которые могут работать с электронной почтой и предлагают другие функции, повышающие общую производительность сотрудников на рабочих местах.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Вместе с анонсом Amazon Q компания сообщила о планах расширения своей облачной инфраструктуры, связанной с технологиями ИИ. В частности, Amazon заявила о продлении сотрудничества с компанией NVIDIA и анонсировала разработку ИИ-серверов на основе новых специализированных графических процессоров, в которых используется Arm-архитектура.


window-new
Soft
Hard
Тренды 🔥
Microsoft придумала, как ускорить загрузку в играх до 10 раз — разработан новый метод компиляции шейдеров 26 мин.
Paradox объяснила, почему за два из шести кланов на релизе Vampire: The Masquerade — Bloodlines 2 придётся платить 2 ч.
Microsoft отключила китайским компаниям оповещения об уязвимостях в ПО 2 ч.
Разработчики Subnautica 2 подали в суд на бывших руководителей — в том числе за кражу 172 тысяч конфиденциальных файлов 3 ч.
«Катастрофа»: Elden Ring на Nintendo Switch 2 шокировала журналистов ужасной производительностью 4 ч.
Олдскульный хоррор на выживание Tormented Souls 2 в антураже чилийской глубинки обзавёлся датой релиза 4 ч.
В Steam стартовало открытое тестирование Militsioner — сюрреалистической игры о побеге от милиционера-великана 5 ч.
ИИ-помощник Google Gemini Live научился видеть мир через камеру смартфона — точно и без задержек 5 ч.
Национальный мессенджер Max обяжут предустанавливать на все новые смартфоны в России с 1 сентября 5 ч.
«Google Фото» научились редактировать фото по голосовым и текстовым командам 6 ч.
Kioxia разогнала флеш-память до 64 Гбайт/с в прототипе SSD будущего 14 мин.
Vivo представила ответ Apple Vision Pro — лёгкую MR-гарнитуру Vision с 8K-дисплеями Micro-OLED 31 мин.
В России стартовали продажи смартфона Poco M7 с батареей на 7000 мА·ч по цене от 13,5 тыс. рублей 2 ч.
Состоялся пятый успешный запуск лёгкой ракеты-носителя «Ангара-1.2» 2 ч.
Xiaomi скатилась на девятое место среди крупнейших производителей электромобилей в мире 2 ч.
Доступность колокейшн-ЦОД в Северной Америке установила антирекорд — 2,3 % 2 ч.
В США создали роботов-геодезистов — они разметят участок в любую погоду без перерывов на обед 3 ч.
Автопилот оказался бесполезен в городе: его приходится подстраховывать каждые 9 минут 3 ч.
В России стало больше интернет-провайдеров после массовых сбоев мобильного интернета 4 ч.
Робопёс с крошечным человеческим мозгом научился избегать препятствий 4 ч.