Сегодня 11 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

ИИ-чат-бот Google Bard научился показывать ответы в реальном времени и его можно оборвать на середине фразы

Чат-бот Google Bard теперь может отвечать на вопросы пользователя в режиме реального времени: если раньше он отправлял ответ, лишь когда заканчивал его формировать, то сейчас за написанием ответа можно наблюдать прямо по мере его генерации. Кроме того, появилась возможность оборвать ответ на середине фразы или на полуслове.

 Источник изображения: Google

Источник изображения: Google

Показ ответов Bard в реальном времени активируется в настройках системы, которые открываются по нажатии значка с шестерёнкой в правом верхнем углу окна: можно переключаться между опциями «Отвечать в реальном времени» и «Отвечать по завершении». Bing Chat, аналогичный чат-бот от Microsoft, также даёт ответы в реальном времени.

 Опции вывода в реальном времени и по завершении генерации. Источник изображения: 9to5google.com

Опции вывода в реальном времени и по завершении генерации. Источник изображения: 9to5google.com

Если пользователю не нравится ответ чат-бота, его можно оборвать в любой момент: когда он начинает генерировать текст, на экране над окном для запросов появляется кнопка «Пропустить ответ». По её нажатии Bard прекратит генерировать текст, а пользователь получит возможность ввести другой вопрос или получить другой ответ, не дожидаясь окончания первого.

 Кнопка «Пропустить ответ». Источник изображения: theverge.com

Кнопка «Пропустить ответ». Источник изображения: theverge.com

Пользователям также предлагается кнопка «Посмотреть другие варианты» (View other drafts), по нажатии на которую можно ознакомиться с альтернативными ответами. Предлагаемый чат-ботом текст можно изменить, выбрав «повседневную» или «профессиональную» форму. В нижней строке меню есть кнопка с логотипом Google – эта функция позволяет сверять ответы Bard с информацией в поиске.

Теперь, если отправить другому пользователю переписку с Bard, то этот пользователь увидит прилагаемые к чату изображения. Наконец, Google увеличила число писем, сводки которых чат-бот может составлять при работе с Gmail.

Samsung рассказала о технологии ISOCELL Zoom Anyplace для масштабирования кадра при видеосъёмке без потери качества

Одной из интересных новых возможностей процессора Qualcomm Snapdragon 8 Gen 3 стала поддержка функции ISOCELL Zoom Anyplace — её разработала компания Samsung для смартфонов с 200-мегапиксельными сенсорами. Это решение позволяет автоматически отслеживать движущиеся объекты при видеосъёмке и масштабировать картинку без потери качества.

 Источник изображения: samsung.com

Источник изображения: samsung.com

Технология ISOCELL Zoom Anyplace позволяет пользователю во время съёмки видео на смартфон выбрать интересующий объект, чтобы камера самостоятельно его отслеживала — фокусироваться на объекте самостоятельно больше не требуется. Функция основана на алгоритме искусственного интеллекта и поддерживается процессором Qualcomm Snapdragon 8 Gen 3. Даже если объект движется очень быстро, он остаётся в кадре, а оператору не требуется перемещать смартфон самостоятельно, значит, изображение не дёргается.

Ещё одним преимуществом ISOCELL Zoom Anyplace является динамическое масштабирование картинки прямо во время видеосъёмки: если раньше увеличенный объект проигрывал в качестве полному кадру, то с новой функцией это в обоих случаях настоящее разрешение 4K без ущерба качеству. Более того, поддерживается одновременная съёмка полной сцены и её фрагмента в высоком разрешении, то есть в большем числе ракурсов. Поддерживается и динамическое масштабирование: можно начать съёмку с «наезда» на объект, после чего постепенно уменьшить его в кадре или сделать наоборот.

Функция ISOCELL Zoom Anyplace поддерживает масштабирование без ущерба для качества: прежде цифровой четырёхкратный зум для 12,5-мегапиксельной картинки приводил к изображению с разрешением 0,78 мегапикселя (12,5 Мп / 16), но с 200-мегапиксельным сенсором таких жертв уже не требуется. Нужная оператору область выбирается из всего кадра и перерисовывается, а сенсор работает в исходном разрешении. Не потребуется и смена камеры, которая ранее производилась при масштабировании более трёхкратного — из-за этого менялись качество картинки и угол обзора. Сенсору на 200 мегапикселей это не требуется ни при двух-, ни при четырёхкратном увеличении.

Qualcomm Snapdragon 8 Gen 3 обеспечит Samsung работу ещё одной технологии под названием End-to-End (E2E) AI Remosaic. Традиционная схема съёмки включает несколько этапов: получение исходного изображения с сенсора, его обработка ISP (Image Signal Processor) и вывод результата в формате JPEG — все они выполняются последовательно. E2E AI Remosaic предполагает выстраивание и обработку изображения параллельно, то есть готовый результат получается вдвое быстрее. Пользователи делают снимки оперативнее, а качество фото страдает меньше, поскольку из-за задержек больше нет потери данных. Новые функции, вероятно, дебютируют с выходом смартфонов серии Samsung Galaxy S24 — их анонс ожидается в начале 2024 года.

Запущен открытый проект Open Empathic по созданию ИИ с распознаванием человеческих эмоций

Некоммерческая организация LAION сообщила о запуске проекта Open Empathic — открытой платформы для разработки модели искусственного интеллекта с распознаванием человеческих эмоций. К созданию массива обучающих данных привлекли добровольцев.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Организация LAION (Large-scale Artificial Intelligence Open Network) приступила к работе в начале 2021 года. Её основал немецкий школьный учитель Кристоф Шуман (Christoph Schuhmann) при содействии единомышленников с сервера Discord для энтузиастов в области ИИ. LAION существует за счёт пожертвований, государственных исследовательских грантов, а также отраслевых партнёрских проектов, таких как стартап Hugging Face и компания Stable Diffusion. Последней она создавала массив данных для обучения генеративного ИИ — с изображениями и их текстовыми описаниями.

Целью проекта Open Empathic является создание ИИ, который понимает не только слова человека. «Мы стремимся, чтобы он улавливал нюансы выражений и изменения интонации, что сделает взаимодействие человека с ИИ более аутентичным и эмпатичным», — пояснил господин Шуман.

На начальном этапе проекта в LAION запустили сайт, на котором добровольцам предлагается составлять описания к видеозаписям на YouTube. На этих роликах обычно демонстрируется речь одного человека — часть видео подобрана командой LAION, а некоторые предлагают добровольцы. По каждому клипу заполняется список полей: расшифровка текста; описание изображения и звука; возраст, пол и языковой акцент героя видео; уровень эмоционального возбуждения; психологический вектор («удовольствие» или «недовольство»). Есть и технические поля, в которых предлагается указать качество звука и наличие либо отсутствие посторонних шумов. Но основное внимание уделяется эмоциональной стороне.

Добровольцы выбирают подходящие к видео эмоции из готового перечня в выпадающем списке. Авторы проекта Open Empathic говорят, что этот механизм поможет создать обширную базу эмоциональных аннотаций с учётом различных языков и культур. После отправки отчёта доброволец может повторить процесс — количество клипов для участника проекта не ограничивается. В ближайшие время LAION предполагает собрать базу из 10 тыс. записей, чтобы к следующему году её объём составил при оптимистическом сценарии от 100 тыс. до 1 млн.

Некоторые правозащитные организации ранее призывали к полному запрету на разработку и применение систем распознавания эмоций — соответствующая норма есть и в европейском «Законе об ИИ», и она не допускает внедрение таких технологий правоохранительными органами, пограничниками, на рабочих местах и в школах. От подобных проектов перед лицом недовольства общественности ранее отказались некоторые компании, включая Microsoft. Но в LAION уверены, что открытый характер проекта даёт им моральное право продолжать работу над Open Empathic — в качестве примера приводится поддерживаемая силами сообщества «Википедия».

Байден подпишет указ о контроле над нейросетями и заманивании ИИ-специалистов в США

Администрация Байдена подготовила указ об ИИ, который станет самой значительной попыткой США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всём мире. Этот документ усилит роль правительства США как ведущего заказчика технологий. Передовые модели ИИ будут проходить оценку, прежде чем они смогут быть использованы федеральными служащими. Указ также снимет иммиграционные барьеры для высококвалифицированных специалистов.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Белый дом впервые объявил о планах принятия указа в июле, а Байден рассказал о нём в сентябре на встрече с Советом президентских экспертов по науке и технологиям в Сан-Франциско. «Этой осенью я собираюсь принять исполнительные меры, и моя администрация будет продолжать работать с двухпартийным законодательством, чтобы Америка проложила путь к ответственным инновациям в области искусственного интеллекта», — заявил Байден.

Указ будет обнародован в понедельник на мероприятии «Безопасный, надёжный и заслуживающий доверия ИИ», организованном администрацией президента США. Он будет основан на ряде добровольных обязательств в отношении ИИ, подписанных 15 компаниями, включая OpenAI, Google, Adobe и NVIDIA при посредничестве Белого дома в сентябре. Одним из важнейших пунктов является обязательство предоставлять данные о безопасности ИИ правительству и учёным.

Ожидается, что экспертная оценка больших языковых моделей будет проводиться Национальным институтом стандартов и технологий (NIST). В этом году NIST выпустил систему управления рисками, связанными с ИИ, и регулярно сотрудничает с другими государственными учреждениями в области ИИ. Федеральные правительственные агентства, в том числе Министерство обороны, Министерство энергетики и разведывательные службы, оценят возможность использования ИИ в своей работе, уделяя особое внимание укреплению национальной киберзащиты.

Установление контроля над ИИ представляет собой ключевое испытание для администрации Байдена, в свете предвыборных обещаний ограничить злоупотребления в Кремниевой долине. Три года спустя администрация добилась некоторого прогресса в снижении вреда от социальных сетей, нарушений конфиденциальности и воздействия технологий на детей. Антимонопольные органы США выиграли несколько громких исков об ограничении конкуренции против некоторых самых влиятельных компаний в технологическом секторе, включая Amazon, но также потерпели и жестокие поражения в судах.

Недавние быстрые достижения в области ИИ повысили ставки. Политики во всём мире все больше обеспокоены тем, что внедрение ИИ может значительно усилить влияние технологий на рабочие места, надзор и демократию, особенно в преддверии выборов. Ранее правительство уже предпринимало меры, чтобы добиться усиления цифрового контроля. Указ по кибербезопасности от 2021 года поручил Министерству торговли разработать стандарты для компаний, продающих услуги программного обеспечения.

Ожидается, что правительство пойдёт навстречу предложениям технологических компаний по снижению барьеров для инженеров и других высококвалифицированных рабочих на фоне жёсткой конкуренции за технические таланты. Источники утверждают, что эта работа уже ведётся. Предполагается внести изменения в программу H-1B получения виз для высококвалифицированных специалистов. Госдепартамент также запустит новую программу, ориентированную на таланты в области ИИ.

Опубликование указа произойдёт накануне международного саммита в Великобритании, посвящённого рискам, которые ИИ представляет для общества. В саммите планируют принять участие лидеры правительств, высшие руководители Кремниевой долины и представители гражданского общества. ЕС к концу года должен окончательно одобрить «Закон об искусственном интеллекте» — широкомасштабный пакет мер, направленный на защиту потребителей от потенциально опасных применений ИИ. Законодатели США все ещё находятся на ранних стадиях разработки подобного документа.

OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной

Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные.

Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов.

Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели.

Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению.

Google ужесточит модерацию ИИ-контента в Android-приложениях с 2024 года

Google установит новые требования к модерации контента для приложений на Android, использующих ИИ. С начала следующего года разработчики таких приложений должны внедрить функцию для жалоб на оскорбительный или спорный материал непосредственно в пользовательском интерфейсе. Эти изменения затронут не только чат-боты на основе ИИ, но и приложения, создающие визуальный и аудио контент. Инициатива направлена на борьбу с недопустимым контентом, в том числе с дипфейками и дезинформацией.

 Источник изображения: dassel / Pixabay

Источник изображения: dassel / Pixabay

Google уточнила, что новая политика будет применяться не ко всем приложениям с ИИ. Она коснётся чат-ботов, приложений для создания изображений, голосового и видеоконтента. Приложения, которые только хранят сгенерированный ИИ-контент или используют ИИ для обобщения текстовых материалов, останутся вне зоны действия новых правил.

Google акцентирует внимание на определённых категориях контента, требующих строжайшей модерации. В этот список входят фальшивые видео или изображения, созданные без согласия изображённых на них людей, а также записи реальных людей, применяемые в мошеннических целях.

Кроме того, компания будет особенно внимательно следить за распространением ложной или вводящей в заблуждение информации, связанной с выборами. Не менее строгий контроль установлен и для приложений, в которых генеративный ИИ используется преимущественно для сексуального удовлетворения, а также создания вредоносного кода.

В своём заявлении Google подчеркнула, что генеративный ИИ является быстро развивающейся категорией приложений, что даёт основания полагать, что компания может пересмотреть свою политику в области ИИ по мере дальнейшего развития технологии. Помимо новых правил в отношении контента, генерируемого ИИ, Google также расширила политику разрешений на использование фото- и видеоматериалов в Play Store, ограничивая доступ Android-приложений к данным.

«Фотоматериалы и видеозаписи на устройствах пользователей являются их личной и конфиденциальной информацией, требующей максимально ответственного отношения, — подчеркнула компания в своём заявлении. — Такие данные создают потенциальную уязвимость для пользователей в случае утечек или других форм эксплуатации. Ограничение доступа к ним не только повышает уровень безопасности пользователей, но и снижает нагрузку на разработчиков в части обработки чувствительной информации».

Глава Microsoft намекнул, что Copilot заменит кнопку «Пуск» в будущих версиях Windows

Microsoft настолько высоко оценивает роль искусственного интеллекта, что Copilot может занять место кнопки «Пуск» в следующей версии Windows. Генеральный директор компании Сатья Наделла (Satya Nadella), похоже, считает Copilot более эффективным способом взаимодействия с операционной системой, чем привычный список приложений. Он дал это понять во время видеочата с исполнительным директором Qualcomm Криштиану Амоном (Cristiano Amon).

 Источник изображения: Microsoft

Источник изображения: Microsoft

«Copilot похож на кнопку «Пуск, — заявил Наделла. — Он становится организатором всего вашего взаимодействия с приложением. Так, например, я просто захожу в систему и выражаю своё намерение, и либо попадаю в нужное приложение, либо приложение обрабатывается Copilot, что помогает мне учиться, запрашивать и создавать — и, я думаю, полностью меняет привычки пользователей».

Наделла сделал это заявление во время обсуждения с Амоном перспектив нового процессора Qualcomm Snapdragon X Elite. До этого руководители долгое время тесно сотрудничали, чтобы позволить Windows полноценно использовать возможности нового чипа и стимулировать создание программного обеспечения, использующего преимущества современных нейронных процессоров (NPU).

Microsoft сделала серьёзную ставку на использование ИИ, центральным элементом которого стал Copilot, работающий как в самой ОС Windows, так и в приложениях. «И поэтому в некотором смысле существует новое поколение компьютеров с искусственным интеллектом, которое, я думаю, уже создаётся, — уверен Наделла. — Итак, работа, которую мы делаем, объединит этот опыт, который невозможно выполнить без какой-то новой системной архитектуры».

Возможно, Наделла имел в виду следующую итерацию Windows, предположительно под номером 12. Пока что имеется лишь информация о высокой степени модульности будущей ОС и глубокой интеграции с технологиями искусственного интеллекта Microsoft.

Наделла, похоже, предполагает, что при использовании Copilot пользователи не будут просить ИИ открыть конкретное приложение, а просто захотят «отредактировать фотографию» или «получить помощь с финансовым планированием». Copilot может стать как способом запуска приложений, так и способом предложить решение стоящей перед пользователем задачи. Сможет ли он когда-нибудь заменить культовую кнопку «Пуск» Windows? Будущее покажет…

Исследователи придумали «отравленные картинки», которыми художники смогут бороться с нейросетями

Команда исследователей из Чикагского университета создала инструмент под названием Nightshade, с помощью которого художники смогут защитить свои работы от генеративных нейросетей, использующих для обучения изображения в интернете. Он позволяет добавить к изображениям невидимые глазу человека пиксели, которые эффективно искажают данные для обучения ИИ-алгоритмов.

 Источник изображения: petapixel.com

Источник изображения: petapixel.com

Стремительный рост популярности генеративных нейросетей, способных создавать изображения по текстовому описанию, также привёл к многочисленным судебным искам со стороны современных художников в адрес компаний, занимающихся разработкой ИИ-алгоритмов. Дело в том, что для обучения генеративных нейросетей обычно используются изображения, опубликованные на разных веб-ресурсах. За счёт этого генеративные нейросети способны рисовать изображения не хуже человека и даже копировать стили известных художников.

Алгоритм Nightshade призван помочь художникам защитить свои работы от сканирования нейросетями. Он особым образом обрабатывает изображения, и, если в дальнейшем они используются для обучения нейросетей, то последние теряют способность должным образом обрабатывать пользовательский запрос и выдают неверный результат. Фактически такая доработка картинок заставляет нейросети неправильно распознавать изображённые на них предметы. Например, там, где нарисованы шляпы, алгоритм распознаёт торты, а сумки — распознаются как тостеры. Повреждённые таким образом данные очень сложно удалить, поскольку разработчикам генеративных алгоритмов придётся кропотливо находить каждый такой фрагмент вручную.

Художники, которые хотят поделиться своими работами в интернете, но при этом также намерены защитить их, могут задействовать Nightshade в сочетании с другим инструментом под названием Glaze (разработан той же группой исследователей и предназначен для модификации изображений таким образом, что нейросеть не сможет эффективно обучаться с их помощью). Согласно имеющимся данным, Nightshade и Glaze будут доступны для бесплатного использования, а первый из них будет иметь открытый исходный код, благодаря чему другие разработчики смогут улучшать его.

Google не смогла объяснить инвесторам, когда и как окупятся вложения в ИИ

Владеющий Google холдинг Alphabet отчитался о доходах по итогам III квартала: в частности, выяснилось, что расходы на инфраструктуру систем искусственного интеллекта увеличились, а рост сегмента облачных технологий оказался незначительным. В этой связи у инвесторов возникли вопросы, как руководство Alphabet планирует монетизировать связанные с ИИ проекты.

 Источник изображения: Rajeshwar Bachu / unsplash.com

Источник изображения: Rajeshwar Bachu / unsplash.com

По итогам III квартала Alphabet нарастила выручку на 11 % — это первый двузначный показатель более чем за год. Но этого инвесторам оказалось недостаточно, и из-за слабой динамики в облачном сегменте акции Alphabet подешевели. Капитальные затраты компании за отчётный период достигли $8 млрд — этого потребовали системы ИИ. Непростой разговор с инвесторами возник спустя без малого год после выхода ChatGPT — сервис породил бум ИИ. Застигнутая врасплох Google начала активно действовать: выпустила собственный чат-бот Bard и интегрировала некоторые функции ИИ в свои продукты. Аналитики и технические эксперты тем временем подсчитали, что обучение больших языковых моделей при рекордных массивах данных у Google оказывается чрезвычайно дорогостоящим.

Пожалуй, наиболее близким к фактическому развёртыванию для всех пользователей Google сегодня является набор инструментов SGE — он в сочетании с Bard вызвал у инвесторов наибольшее любопытство. Представитель Deutsche Bank Ллойд Уолмсли (Lloyd Walmsley) поинтересовался, как компания предполагает «сбалансировать внедрение продукта и его принятие пользователями с монетизацией». Управляющий директор Morgan Stanley Брайан Новак (Brian Nowak) конкретизировал свои вопросы: «Я знаю, что пока рано, но есть ли какие-то примеры у SGE и Bard, демонстрирующие более высокие полезность и коэффициенты конверсии? Большую вовлечённость? Хотя бы что-то, что будет своего рода сигналом о прибыли, которую можно получить от этих инвестиций?».

 Источник изображения: Pawel Czerwinski / unsplash.com

Источник изображения: Pawel Czerwinski / unsplash.com

Ответы главы Alphabet Сундара Пичаи (Sundar Pichai) в отношении SGE не касались финансовой стороны вопроса: «Что касается первой части нашего SGE, мы всё ещё находимся на очень раннем этапе в плане того, насколько мы его развернули. Но мы определённо донесли его до достаточного числа людей, как географически, так и в разных сегментах пользователей — и достаточно, чтобы знать, что продукт работает хорошо. <..> Очевидно, что мы рассматриваем ИИ как фундаментальное изменение платформы, и нас воодушевляют возможности, которые открываются для нашего бизнеса. И я очень доволен отзывами пользователей об SGE».

Для оценки потенциала ИИ в экосистеме Google господин Пичаи призвал инвесторов обратиться, в частности, к опыту YouTube. Новые инструменты ИИ направлены на то, чтобы представители бизнеса находили «свою идеальную аудиторию по минимально возможной цене» — при этом «первые тесты обеспечили увеличенный на 54 % охват при снижении затрат на 42 %». А в рекламном сервисе Google Ads появился новый тип кампании Performance Max, который предлагает рост конверсии на 18 % при тех же затратах. Уже 80 % рекламодателей Google используют как минимум одну функцию поиска на базе ИИ, заключил Пичаи.

Подготовка «Закона об искусственном интеллекте» в ЕС затянулась — его хотели принять в этом году

Европейские законодатели не могут договориться о механизмах регулирования базовых моделей ИИ. Эта неопределённость ставит под угрозу принятие в этом году «Закона об искусственном интеллекте» (AI Act) в Европейском Союзе (ЕС). Испания, которая в настоящее время председательствует в ЕС, выступает за регулярные проверки на уязвимости и многоуровневую систему регулирования. Возможная задержка в принятии закона вызывает опасения на мировой арене, поскольку многие страны, в том числе и США, рассматривают европейский опыт как пример для подражания.

 Источник изображения: Ralphs_Fotos / Pixabay

Источник изображения: Ralphs_Fotos / Pixabay

«Закон об искусственном интеллекте», разрабатываемый Еврокомиссией уже два года, продолжает вызывать дебаты среди европейских законодателей. Поэтому вероятность его принятия до декабря текущего года крайне мала. Испания, текущий председатель ЕС, настаивает на регулярных проверках моделей ИИ на уязвимости и предлагает ввести многоуровневую систему регулирования, которая будет зависеть от количества пользователей каждой конкретной ИИ-модели.

Трёхсторонние дискуссии между Европейским парламентом, Советом Европейского Союза и Европейской комиссией прошли уже три раунда. Четвёртый раунд ожидается на этой неделе. В случае отсутствия соглашения новая встреча будет запланирована на декабрь.

Один из вариантов законопроекта требует от разработчиков базовых ИИ-моделей проведения оценки рисков, тестирования моделей на всех этапах разработки и после выхода на рынок, а также публикации технической документации до их официального появления.

Компании, занимающиеся разработкой ПО с открытым исходным кодом, призывают законодателей учитывать интересы небольших коллективов. Они утверждают, что некоторым разработчикам может быть сложно соблюдать новые правила. Поэтому необходимо проводить различие между коммерческими ИИ-моделями и исследователями в этой сфере.

Многие страны, включая США, рассматривают европейский законопроект как пример для создания собственных нормативных актов в области ИИ. Однако, в отличие от Китая, который уже принял схожий закон в августе этого года, ЕС не демонстрирует значительного прогресса.

Превосходство Китая над США по количеству ИИ-патентов достигло 76 %

По данным Всемирной организации интеллектуальной собственности, с 2017 года Китай стабильно опережает США по количеству зарегистрированных патентных заявок в области искусственного интеллекта, и к прошлому году разрыв уже измерялся 80-процентным преимуществом в пользу КНР. При этом на данную страну пришлось 40 % патентных заявок в этой сфере в масштабах мира.

 Источник изображения: Huawei Technologies

Источник изображения: Huawei Technologies

По сравнению с 2021 годом, если опираться на опубликованную Bloomberg статистику, Китай увеличил количество поданных патентных заявок в области искусственного интеллекта с 29 000 до 29 583 штук, тогда как США продемонстрировали отрицательную динамику, сократив количество зарегистрированных патентных заявок с 17 786 до 16 805 штук. Более того, в США подобная тенденция наблюдается с 2019 года. Япония в этом отношении пика достигла в 2017 году с 14 437 поданными заявками, а по итогам прошлого скатилась до 8870 заявок.

Южная Корея, если не считать весьма удачные с этой точки зрения 2016 и 2017 годы, в последующие периоды колебалась по количеству зарегистрированных патентных заявок в районе до 8000 штук. В прошлом году их количество не превысило 7899. Активность китайских изобретателей в этом смысле вызывает уважение, но в этой тенденции важна и роль государства, которое стимулирует китайские компании поддерживать высокие темпы развития научно-технического прогресса в условиях усиливающихся санкций со стороны США и их союзников. Крупные интернет-компании КНР и некоторые стартапы сейчас работают над созданием альтернативы зарубежному чат-боту ChatGPT. Китайский бизнес в этой сфере может вдохновляться достижениями Huawei Technologies, которая обладает внушительным патентным портфелем.

Аналитики считают, что от внедрения ИИ в игровой индустрии выиграют издатели AAA-игр

В игровой индустрии ИИ становится всё более влиятельным фактором. По мнению аналитиков Morgan Stanley, наибольшую выгоду из этого извлекут Xbox и PlayStation. Их платформодержатели не только устойчивы к потенциальным рискам, связанным с ИИ, но, вероятно, станут основными каналами для распространения инструментов на основе ИИ. В то время как крупные издатели AAA-игр, такие как Ubisoft Entertainment SA, Nexon Co. и Take-Two Interactive Software Inc., получат снижение затрат и рост прибыли, для мелких издателей перспективы остаются неопределёнными.

 Источник изображения: tungnguyen0905 / Pixabay

Источник изображения: tungnguyen0905 / Pixabay

ИИ всё активнее проникает в игровую индустрию. Аналитики из Morgan Stanley под руководством Мэтью Коста (Matthew Cost) считают, что платформы Microsoft Xbox и Sony PlayStation станут наиболее явными бенефициарами применения ИИ. К этой же группе выгодоприобретателей они относят компании Unity Software Inc., Roblox Corp. и Tencent Holdings Ltd. Эти платформы, по мнению экспертов, не только устойчивы к рискам дестабилизации отрасли из-за внедрения ИИ, но и, вероятно, станут ключевыми каналами для распространения ИИ-инструментов. Это позволит им сохранить и даже укрепить свои позиции на рынке.

ИИ предлагает новые перспективы для пересмотра устаревших и избыточных бизнес-моделей. «Новые инструменты на основе ИИ кардинально изменят подход к созданию игр», — подчеркивают аналитики Morgan Stanley.

Однако не все издатели смогут в равной мере воспользоваться преимуществами ИИ. Для крупных издателей AAA-игр ИИ снизит стоимость разработки и эксплуатации на 15 %, но в то же время увеличит уровень конкуренции на рынке. Эксперты Morgan Stanley видят ясный бычий сценарий для крупных издателей AAA-игр: они могут ожидать роста прибыли на 10 % за счёт снижения затрат.

В то же время мелкие издатели, такие как Playtika Holding Corp., извлекут меньше выгоды и могут столкнуться со снижением барьеров для входа на рынок. В любом случае, ИИ уже является неотъемлемой частью этой индустрии, и его роль, без сомнения, будет только усиливаться.

Apple усердно работает над расширением применения искусственного интеллекта

Заявления Тима Кука (Tim Cook) о вовлечении Apple в разработку систем генеративного искусственного интеллекта на протяжении многих лет, по словам известного колумниста Bloomberg Марка Гурмана (Mark Gurman) скрывают неприглядную правду о судорожных попытках компании встроиться в новую рыночную тенденцию. С конца прошлого года Apple буквально пытается наверстать упущенное в этой сфере.

 Источник изображения: Apple

Источник изображения: Apple

По словам источника, Apple буквально «проморгала» момент начала бума систем искусственного интеллекта, и теперь прилагает максимум усилий к тому, чтобы найти применение соответствующим технологиям в различных сферах своей деятельности. Старший вице-президент Apple по машинному обучению и стратегии в сфере ИИ Джон Джанандреа (John Giannadrea), по данным Bloomberg, в тандеме со старшим вице-президентом по разработке ПО Крейгом Федериги (Craig Federighi) курируют инициативу компании по внедрению технологий искусственного интеллекта. Эдди Кью (Eddie Cue), старший вице-президент по услугам, также привлечён к этой работе.

Подчинённые Джанандреа, например, создают усовершенствованную версию голосового ассистента Siri, которая подразумевает более глубокую интеграцию с искусственным интеллектом и должна быть выпущена в следующем году. Одновременно ведётся интеграция технологий ИИ в код операционной системы iOS, для чего развивается фирменная большая языковая модель Apple. В частности, взаимодействие Siri и программы для работы с сообщениями Messages должно стать более совершенным, система получит возможность обрабатывать более сложные вопросы и более эффективно завершать начатые предложения за пользователя. Кроме того, в помощь разработчикам ПО для платформы iOS может быть предложен фирменный ИИ-ассистент, как это случилось с Microsoft Copilot.

Эдди Кью, по данным источника, намерен наделить элементами ИИ как можно большее количество фирменных приложений. Apple Music, например, получит возможность автоматически генерировать списки воспроизведения, искусственный интеллект также поможет пользователю составлять слайды презентаций. Внутренние бизнес-процессы Apple в сфере взаимодействия с пользователями по технической поддержке тоже будут оптимизироваться с использованием систем искусственного интеллекта. На нужды разработки такого ПО компания готова тратить по $1 млрд в год, как минимум. Сейчас внутри Apple ведутся активные споры по поводу выбора схемы работы корпоративных систем искусственного интеллекта: какую часть вычислительной нагрузки следует доверить периферийным устройствам, а какую оставить в «облаке».

Популярные модели ИИ провалили тест на прозрачность: их разработчики скрыли всё, что смогли

Стремясь приоткрыть завесу над нейросетями, работающими по принципу «чёрного ящика», Стэнфордский университет в сотрудничестве с Массачусетским технологическим институтом и Принстоном разработал оценочный «Индекс прозрачности базовой модели» (Foundational Model Transparency Index, FMTI). Новая система оценки ранжирует 10 крупнейших моделей ИИ на основе общедоступных сведений о них. Результаты удручающие, лишь модели с открытым исходным кодом дарят некоторую надежду.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«В то время как социальное влияние моделей ИИ растёт, их прозрачность снижается, отражая секретность, которая сопровождала предыдущие цифровые технологии, такие как социальные сети», — утверждает соавтор исследования Саяш Капур (Sayash Kapoor). А низкая прозрачность, по мнению учёных, затрудняет «потребителям понимание ограничений модели или возмещение причинённого вреда».

FMTI оценивает 10 крупнейших моделей ИИ по 100 различным критериям, связанным с прозрачностью и открытостью. Сюда входит, например, их структура, информация, на которой они обучались, и потребность в вычислительных ресурсах. Также учитываются политики использования модели, защиты данных и снижения рисков. Полный список показателей и методологии можно найти в сопроводительном 110-страничном документе к исследованию.

 Источник изображений: Stanford University, The Center for Research on Foundation Models

Источник изображений: Stanford University, The Center for Research on Foundation Models

Перед публикацией отчёта исследователи обсуждали результаты теста совместно с руководителями каждой компании, давая им возможность аргументированно «оспаривать оценки, с которыми они не согласны». Если команда находила аргументы создателей ИИ убедительными, производилась корректировка оценок. Даже с учётом столь взвешенного подхода средняя оценка по всем моделям составила всего 37 баллов из 100 (37 %). На основании этого результата исследователи пришли к выводу, что ни одна из моделей на сегодняшний день не обеспечивает адекватной прозрачности.

Модель Llama 2 от Meta заняла первое место с результатом 54 %. Bloomz от Hugging Face, заняла второе место с 53 %, за ней следует GPT-4 от OpenAI, получившая 48 %. «OpenAI, в названии которой есть слово “открытый”, чётко показала отсутствие прозрачности в отношении большинства аспектов своей флагманской модели GPT-4», — прокомментировали этот результат исследователи. Модель Stable Diffusion 2 компании Stability AI заняла четвёртое место с 47 %. Модель PaLM2 от Google, на которой основан чат-бот Bard, замыкает пятёрку лучших, получив 40 %.

«Один из самых острых политических споров в области ИИ сегодня заключается в том, должны ли модели ИИ быть открытыми или закрытыми», — говорят исследователи. Открытые модели в целом получили более высокий рейтинг, чем закрытые. Модель считается «открытой», если её код размещается публично как открытое программное обеспечение. К открытым моделям относятся такие модели ИИ как Llama 2 и Bloomz, к закрытым — GPT-4. Стэнфордский университет продемонстрировал преимущества открытых моделей, создав свою собственную модель ИИ Alpaca на основе открытого программного кода Llama от Meta.

Исследователи надеются, что FMTI окажет позитивное влияние на политику создателей ИИ, и в дальнейшем планирует публиковать рейтинг FTMI ежегодно. Девять из десяти участников рейтинга ранее уже присоединились к инициативам правительства США по ответственному использованию ИИ. FMTI может стать дополнительным мотивирующим фактором для выполнения ими своих обязательств.

Данные рейтинга FMTI также могут пригодиться Европейскому Союзу при разработке следующей редакции «Закона об искусственном интеллекте». Исследователи полагают, что использование нового индекса даст законодателям большую ясность в отношении положения дел в области ИИ и того, что они потенциально могут изменить с помощью регулирования.

OpenAI отказалась от энергоэффективной ИИ-модели Arrakis — её разработка зашла в необъяснимый тупик

Ответственная за нейросеть GPT-4 и службу ChatGPT компания OpenAI работала над новой моделью искусственного интеллекта Arrakis, которая предлагала более высокую эффективность и, соответственно, более низкую себестоимость обслуживания. Но проект пришлось приостановить из-за проблем с качеством.

 Источник изображения: Zac Wolff / unsplash.com

Источник изображения: Zac Wolff / unsplash.com

Предполагалось, что Arrakis будет иметь возможности, сравнимые с GPT-4, но окажется более дешёвой в развёртывании — её спроектировали с использованием так называемого принципа разрежённости. Это значит, что обработка входящих данных производится только частью нейросети, тогда как традиционные «плотные модели» задействуют все её участки. Принцип разрежённости используется, например, Google в проекте Pathways.

Разработка Arrakis началась прошлой осенью, а обучение модели начали этой весной. Но разработчики OpenAI быстро поняли, что система действует слишком медленно. В течение месяца они пытались произвести настройку модели, но затем руководство закрыло проект. Причины сбоя установить пока не удалось: принцип разрежённости хорошо работал в ранних тестах, но в более крупной модели проявить себя не сумел.

Несмотря на неудачу, OpenAI сможет использовать наработки Arrakis и мультимодальной модели Gobi в других проектах. Большие надежды на Arrakis возлагали и в Microsoft: сейчас софтверный гигант переключился на разработку менее дорогих языковых моделей, поскольку высокая себестоимость обслуживания генеративного ИИ начала угрожать её бизнесу.

Arrakis генерировала не только текст, но также изображения и видео; у неё было меньше галлюцинаций, чем у GPT-4; и она могла работать в качестве автономного агента. Модель была частично обучена на синтетических данных, а её выход планировался на 2024 год. Проект мог вылиться в целую систему создания более эффективных моделей — есть версия, что он способствовал разработке нейросети GPT-3.5 Turbo.


window-new
Soft
Hard
Тренды 🔥