Сегодня 24 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

OpenAI представила основные правила поведения для ИИ-моделей

Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций.

«Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств.

Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам.

Проект документа также включает в себя несколько правил:

  • Следуйте цепочке командования.
  • Соблюдайте применимое законодательство.
  • Не представляйте информационную опасность.
  • Уважайте авторов и их права.
  • Защищайте конфиденциальность людей.
  • Не отвечайте с использованием NSFW-контента (Not Safe For Life), то есть содержащего ненормативную лексику, обнажённую натуру и т.д.

Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность.

OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования.

Google представила мощную нейросеть AlphaFold 3 для предсказания структуры белков — её может опробовать каждый

Подразделение Google DeepMind представило новую версию модели искусственного интеллекта AlphaFold, которая предсказывает форму и поведение белков. AlphaFold 3 отличается не только более высокой точностью — теперь система предсказывает взаимодействие белков с другими биологическими молекулами; кроме того, её ограниченная версия теперь бесплатно доступна в формате веб-приложения.

 Источник изображения: blog.google

Источник изображения: blog.google

С выхода первой нейросети AlphaFold в 2018 году она стала ведущим методом прогнозирования структуры белков на основе последовательностей аминокислот, из которых они состоят. Понимание структуры и основ взаимодействия белков лежит в основе почти всей биологии. Классические методы моделирования белков имеют значительные ограничения: даже зная форму, которую примет последовательность аминокислот, нельзя сказать наперёд, с какими другими молекулами она будет связываться и как. И если необходимо достичь какой-то практической цели, требуется кропотливая работа по моделированию и тестированию — ранее на это уходили несколько дней, а иногда даже недель и месяцев.

AlphaFold решает эту задачу, предсказывая вероятную форму молекулы белка по заданной последовательности аминокислот, указывая, с какими другими белками она сможет взаимодействовать. Особенность новой AlphaFold 3 состоит в её способности предсказывать взаимодействие белков с другими биологическими молекулами, в том числе с цепочками ДНК и РНК, а также необходимыми для этого ионами.

Большой проблемой AlphaFold, как и других инструментов на основе ИИ, является сложность в их развёртывании. Поэтому в Google DeepMind запустили бесплатное веб-приложение AlphaFold Server — оно доступно для некоммерческого использования. Платформа достаточно проста в работе: осуществив вход с учётной записью Google, можно ввести несколько последовательностей и категорий, после чего она выдаст результат в виде трёхмерной молекулы, окрашенной в цвет, который отражает уверенность модели в своей правоте. На вопрос о том, есть ли существенная разница между общедоступной версией модели и той, что используется внутри компании, глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis) заверил, что «мы сделали доступными большинство функций новой модели», но подробностей не привёл.

США захотели ограничить доступ России и Китая к GPT-4 и другим мощным моделям ИИ

Министерство торговли США рассматривает возможность принятия новых нормативных мер по ограничению доступа Китая, России и некоторых других стран к проприетарных моделям искусственного интеллекта (ИИ), таким как GPT-4, пишет агентство Reuters со ссылкой на свои источники.

 Источник изображения: flutie8211/Pixabay

Источник изображения: flutie8211/Pixabay

В настоящее время нет никаких препятствий для продажи американскими разработчиками самых мощных систем ИИ с закрытым исходным кодом кому угодно. OpenAI, поддерживаемая Microsoft, Google DeepMind холдинга Alphabet или Anthropic абсолютно законно могут продать свои ИИ-модели практически любому пользователю или компании.

Вместе с тем исследователи из государственного и частного секторов США выражают обеспокоенность тем, что противники Соединённых Штатов могут использовать ИИ-модели, способные анализировать огромные объёмы текста и изображений для обобщения информации и создания контента, для проведения мощных кибератак, создания биологического оружия и других целей. По словам одного из источников Reuters, любое ужесточение контроля экспорта ИИ-технологий, скорее всего, будет относиться к таким странам, как Россия, Китай, Северная Корея и Иран.

Как сообщают источники, для экспортного контроля над ИИ-моделями США могут использовать пороговое значение вычислительной мощности, необходимой для обучения модели. В случае достижения порогового значения, разработчик должен будет сообщить о планах разработки ИИ-модели и предоставить результаты испытаний Министерству торговли США.

По мнению двух американских чиновников и источника Reuters, осведомлённого о ходе обсуждений, этот показатель может стать основой для определения того, какие ИИ-модели подпадают под экспортные ограничения. Если этот подход возьмут за основу, ограничения коснутся экспорта будущих ИИ-моделей, поскольку ни одна из существующих ИИ-моделей не достигла этого порога, хотя по данным исследовательского института EpochAI, Gemini Ultra от Google близка к нему.

По мнению Тима Фиста (Tim Fist), эксперта по политике в области ИИ из аналитического центра CNAS в Вашингтоне (округ Колумбия), пороговое значение «является хорошей временной мерой, пока не будут разработаны более эффективные методы измерения возможностей и рисков новых моделей». Он отметил, что Китай, по всей видимости, примерно на два года отстаёт от Соединённых Штатов в сфере ИИ и разрабатывает собственное программное обеспечение для этих технологий.

В свою очередь Джамиль Джаффер (Jamil Jaffer), бывший чиновник Белого дома и Министерства юстиции США считает, что лучше использовать контроль, основанный на возможностях модели и предполагаемом применении. «Лучше сосредоточиться на угрозе национальной безопасности, а не на технологических порогах, потому что это более долгосрочно и сосредоточено на угрозе», — сказал он.

Независимо от порогового значения, экспорт моделей ИИ будет трудно контролировать, говорит Фист. Многие модели имеют открытый исходный код, а это означает, что они будут неподконтрольны регулятору.

Через год сегодняшний ChatGPT будет выглядеть смехотворно плохо, заявил директор OpenAI

Брэд Лайткап (Brad Lightcap), главный операционный директор OpenAI, рассказал на Глобальной конференции в Институте Милкена о будущем компании и её планах на следующие 6–12 месяцев. По его мнению, нынешние системы искусственного интеллекта (ИИ), такие как ChatGPT, являются «смехотворно плохими» по сравнению с тем, что ждёт человечество впереди. Он подчеркнул, что будущие версии ИИ будут настолько продвинутыми, что изменят саму суть взаимодействия с пользователями.

 Источник изображения: JuliusH / Pixabay

Источник изображения: JuliusH / Pixabay

Лайткап описал нынешнюю версию ChatGPT как начальный этап в эволюции ИИ, предназначенного для выполнения простых задач. «Я думаю, что через год мы оглянемся назад и поймём, насколько несовершенными они были», — заявил Лайткап, когда его спросили о бизнесе OpenAI через 6–12 месяцев. В перспективе он предвидит эволюцию ИИ в направлении более сложных задач, где ИИ станет отличным напарником, способным на равных общаться с людьми, как друг или коллега.

Кроме технологических аспектов Лайткап прокомментировал социальные последствия развития ИИ. Он опроверг мнение о том, что развитие ИИ приведёт к массовым увольнениям людей, утверждая, что новые ИИ-системы наоборот спровоцируют спрос на ещё не существующие вакансии. По его мнению, экономика станет более разнообразной и устойчивой, а рынок труда адаптируется к технологическим изменениям.

В свете этих заявлений интересно, что генеральный директор OpenAI Сэм Альтман (Sam Altman) также высказывался о будущем ChatGPT на семинаре в Стэнфордском университете, назвав GPT-4 самой глупой моделью, с которой людям придётся работать когда-либо в будущем. Такие заявления вероятно намекают на то, что будущие обновления ChatGPT станут переломными и приведут к значительному улучшению функциональности продуктов OpenAI.

OpenAI позволит правообладателям запретить использование контента для обучения ИИ

OpenAI сообщила, что разрабатывает инструмент под названием Media Manager, который позволит создателям и владельцам контента отметить свои работы для компании и указать, как можно ли их включать в массив данных для исследований и обучения ИИ, или же нельзя.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Инженеры OpenAI намереваются разработать этот инструмент к 2025 году. Сейчас компания сотрудничает с «создателями контента, правообладателями и регуляторами» над выработкой стандарта. «Создание первого в своём роде инструмента, который поможет нам идентифицировать текст, аудио и видео, защищённые авторским правом, в нескольких источниках и отразить предпочтения создателей, потребует передовых исследований в области машинного обучения. Со временем мы планируем внедрить дополнительные возможности и функции», — сообщила OpenAI в своём блоге.

Media Manager, вероятно, станет ответом компании на критику в отношении её подхода к разработке искусственного интеллекта. Она в значительной степени использует общедоступные данные из интернета, но совсем недавно несколько крупных американских изданий подали на OpenAI в суд за нарушение прав интеллектуальной собственности: по версии истцов, компания украла содержимое их статей для обучения моделей генеративного ИИ, которые затем коммерциализировались без компенсации и упоминания исходных публикаций.

OpenAI считает, что невозможно создавать полезные модели ИИ без защищённых авторским правом материалов. Но в стремлении унять критику и защититься от вероятных исков компания предприняла несколько шагов, чтобы пойти навстречу создателям контента. В прошлом году она позволила художникам удалять свои работы из наборов обучающих данных для генераторов изображений, а также ввела директиву для файла robots.txt, которая запрещает её поисковому роботу копировать содержимое сайтов для дальнейшего обучения ИИ. OpenAI продолжает заключать соглашения с крупными правообладателями на предмет использования их материалов.

OpenAI превратит ChatGPT в ИИ-поисковик и будет конкурировать с Google

Компания OpenAI ведёт разработку функции интернет-поиска для своего чат-бота ChatGPT. Алгоритм сможет находить интересующую пользователей информацию, а также предоставлять ссылки на источники. Об этом пишет издание Bloomberg со ссылкой на собственный осведомлённый источник, который также отметил намерение OpenAI конкурировать в сфере веб-поиска с Google и принадлежащим Alphabet поисковым стартапом Perplexity.

 Источник изображения: Pixabay

Источник изображения: Pixabay

В сообщении сказано, что ChatGPT сможет включать в ответы на пользовательские запросы информацию из интернета вместе с ссылками на источники, такие как «Википедия» и публикации в блогах. По данным издания, одна из версий продукта также сможет выдавать вместе с текстовым ответом релевантные изображения в случаях, когда это будет актуально. К примеру, если пользователь поинтересуется, как заменить дверную ручку, то ответ может содержать изображение, иллюстрирующее процесс решения данной задачи.

СМИ писали о намерении OpenAI выпустить некий поисковый продукт ещё в феврале этого года, но подробности о том, как он будет функционировать, до сих пор оставались загадкой. Официальные представители OpenAI отказались от комментариев по данному вопросу.

OpenAI стремится расширить возможности собственного ИИ-бота, поскольку конкуренция в этом сегменте становится всё более ожесточённой. Стартап Perplexity уже успел завоевать популярность благодаря собственной поисковой системе на базе искусственного интеллекта, которая делает упор на точность ответов и цитируемость. Гигант интернет-поиска Google также стремится переосмыслить свой поисковик, добавляя в него ИИ-функции. Ожидается, что компания расскажет о своих планах и дальнейшем будущем алгоритмов Gemini на ежегодной конференции I/O, которая пройдёт на следующей неделе.

OpenAI научилась распознавать сгенерированные своим ИИ изображения, но не без ошибок

OpenAI объявила о начале разработки новых методов определения контента, созданного искусственным интеллектом (ИИ). Среди них — новый классификатор изображений, который определяет, было ли изображение сгенерировано ИИ, а также устойчивый к взлому водяной знак, способный маркировать аудиоконтент незаметными сигналами.

 Источник изображения: Placidplace / Pixabay

Источник изображения: Placidplace / Pixabay

Новый классификатор изображений способен с точностью до 98 % определять, было ли изображение создано ИИ-генератором изображений DALL-E 3. Компания утверждает, что их классификатор работает, даже если изображение было обрезано, сжато или была изменена его насыщенность. В то же время эффективность этой разработки OpenAI в распознавании контента, созданного другими ИИ-моделями, такими как Midjourney, значительно ниже — от 5 до 10 %.

Также OpenAI ввела водяные знаки для аудиоконтента, созданного с помощью своей платформы преобразования текста в речь Voice Engine, находящейся на стадии предварительного тестирования. Эти водяные знаки содержат информацию о создателе и методах создания контента, что значительно упрощает процесс проверки их подлинности.

OpenAI активно участвует в работе Коалиции по происхождению и аутентичности контента (C2PA), в состав которой также входят такие компании, как Microsoft и Adobe. В этом месяце компания присоединилась к руководящему комитету C2PA, подчеркивая свою роль в разработке стандартов прозрачности и подлинности цифрового контента.

Для этих целей OpenAI интегрировала в метаданные изображений так называемые учётные данные контента от C2PA. Эти учётные данные, фактически являясь водяными знаками, включают информацию о владельце изображения и способах его создания. OpenAI уже много лет работает над обнаружением ИИ-контента, однако в 2023 году компании пришлось прекратить работу программы, определяющей текст, сгенерированный ИИ, из-за её низкой точности.

Разработка классификатора изображений и водяного знака для аудиоконтента продолжается. В OpenAI подчёркивают, что для оценки эффективности этих инструментов крайне важно получить отзывы пользователей. Исследователи и представители некоммерческих журналистских организаций имеют возможность протестировать классификатор изображений на платформе доступа к исследованиям OpenAI.

Microsoft создала секретный генеративный ИИ для спецслужб США — он полностью изолирован от интернета

Корпорация Microsoft запустила предназначенную для спецслужб США модель генеративного искусственного интеллекта на суперкомпьютере, полностью изолированном от интернета. Теперь Малдер и Скалли смогут безопасно использовать современные технологии для анализа сверхсекретной информации.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

По словам представителя Microsoft, впервые большая языковая модель генеративного ИИ на основе GPT-4 полностью отделена от интернета. Большинство подобных моделей, включая ChatGPT от OpenAI, полагаются на облачные сервисы для обучения и определения закономерностей, но Microsoft хотела предоставить разведывательному сообществу США «по-настоящему безопасную систему».

Разведывательные службы всех стран рассчитывают, что генеративный ИИ поможет в анализе быстро растущих объёмов ежедневно генерируемой секретной информации, но им необходимо сбалансировать обращение к большим языковым моделям с риском утечки или взлома. В прошлом году ЦРУ запустило службу, подобную ChatGPT, для работы с несекретными документами, но спецслужбам требовалось обрабатывать гораздо более конфиденциальные данные.

«Идёт гонка по внедрению генеративного ИИ в разведывательные данные, — заявила помощник директора Центра транснациональных и технологических миссий ЦРУ Шитал Патель (Sheetal Patel). — Первая страна, которая будет использовать генеративный ИИ, выиграет эту гонку. И я хочу, чтобы это были мы».

Microsoft потратила 18 месяцев на разработку и внедрение системы, включая капитальные доработки существующего суперкомпьютера в Айове. Представленная модель GPT4 является статической, то есть она может только анализировать информацию, но не обучаться на этих данных. Таким образом, правительство может сохранить свою модель «чистой» и предотвратить утечку секретной информации. Прогнозируется, что доступ к системе получат около 10 000 сотрудников со специальным допуском.

ИИ научил робопса балансировать на шаре — он тренирует роботов эффективнее, чем люди

Группа учёных Пенсильванского университета разработала систему DrEureka, предназначенную для обучения роботов с использованием больших языковых моделей искусственного интеллекта вроде OpenAI GPT-4. Как оказалось, это более эффективный способ, чем последовательность заданий в реальном мире, но он требует особого внимания со стороны человека из-за особенностей «мышления» ИИ.

 Источник изображения: eureka-research.github.io

Источник изображения: eureka-research.github.io

Платформа DrEureka (Domain Randomization Eureka) подтвердила свою работоспособность на примере робота Unitree Go1 — четвероногой машины с открытым исходным кодом. Она предполагает обучение робота в симулированной среде, используя рандомизацию основных переменных: показатели трения, массы, демпфирования, смещения центра тяжести и других параметров. На основе нескольких пользовательских запросов ИИ сгенерировал код, описывающий систему вознаграждений и штрафов для обучения робота в виртуальной среде. По итогам каждой симуляции ИИ анализирует, насколько хорошо виртуальный робот справился с очередной задачей, и как её выполнение можно улучшить. Важно, что нейросеть способна быстро генерировать сценарии в больших объёмах и запускать их выполнение одновременно.

ИИ создаёт задачи с максимальными и минимальными значениями параметров на точках отказа или поломки механизма, достижение или превышение которых влечёт снижение балла за прохождение учебного сценария. Авторы исследования отмечают, что для корректного написания кода ИИ требуются дополнительные инструкции по безопасности, в противном случае нейросеть при моделировании начинает «жульничать» в стремлении к максимальной производительности, что в реальном мире может привести к перегреву двигателей или повреждению конечностей робота. В одном из таких неестественных сценариев виртуальный робот «обнаружил» что способен передвигаться быстрее, если отключит одну из ног и начнёт передвигаться на трёх.

Исследователи поручили ИИ соблюдать особую осторожность с учётом того, что обученный робот будет проходить испытания и реальном мире, поэтому нейросеть создала дополнительные функции безопасности для таких аспектов как плавность движений, горизонтальная ориентация и высота положения туловища, а также учёт величины крутящего момента для электродвигателей — он не должен превышать заданных значений. В результате система DrEureka справилась с обучением робота лучше, чем человек: машина показала 34-процентный прирост в скорости движения и 20-процентное увеличение расстояния, преодолеваемого по пересечённой местности. Такой результат исследователи объяснили разницей в подходах. При обучении задаче человек разбивает её на несколько этапов и находит решение по каждому из них, тогда как GPT проводит обучение всему сразу, и на это человек явно не способен.

В результате система DrEureka позволила перейти от симуляции напрямую к работе в реальном мире. Авторы проекта утверждают, что могли бы дополнительно повысить эффективность работы платформы, если бы сумели предоставить ИИ обратную связь из реального мира — для этого нейросети потребовалось бы изучать видеозаписи испытаний, не ограничиваясь анализом ошибок в системных журналах робота. Среднему человеку требуются до 1,5 лет, чтобы научиться ходить, и лишь немногие способны передвигаться верхом на мяче для йоги. Обученный DrEureka робот эффективно справляется и с этой задачей.

Google создала ИИ-инструмент для быстрого реагирования на киберугрозы

Google представила новое решение в сфере кибербезопасности Threat Intelligence, которое позволит клиентам «получать ценную информацию и защищать корпоративную IT-инфраструктуру от угроз быстрее, чем когда-либо прежде», используя аналитические данные подразделения кибербезопасности Mandiant, службы анализа угроз VirusTotal в сочетании с возможностями ИИ-модели Gemini AI.

 Источник изображения: Google

Источник изображения: Google

«Бесспорно, что сегодня Google обеспечивает два наиболее важных столпа анализа угроз в отрасли — VirusTotal и Mandiant. Интеграция обоих в единое предложение, дополненное ИИ и анализом угроз Google, предлагает командам безопасности новые средства для использования актуальных сведений об угрозах для лучшей защиты своих организаций», — отметил Дэйв Грубер (Dave Gruber), главный аналитик Enterprise Strategy Group.

Согласно Google, подразделение Mandiant, предоставляющее услуги по обнаружению и устранению киберугроз, ежегодно расследует около 1100 случаев взлома. Новый сервис Google Threat Intelligence также использует VirusTotal, краудсорсинговую базу данных вредоносных программ, которая насчитывает более 1 млн пользователей. Кроме того, Threat Intelligence включает собираемые Google данные о кибератаках, нацеленных на 1,5 млрд учётных записей пользователей Gmail и 4 млрд устройств.

Google отметила, что основным преимуществом Threat Intelligence является предоставление специалистам по безопасности ускоренной аналитики за счёт использования генеративного ИИ. Задействованная в решении большая языковая модель Gemini 1.5 Pro, по словам Google, сокращает время, необходимое для анализа вредоносного ПО и раскрытия его исходного кода.

Компания отметила, что вышедшей в феврале версии Gemini 1.5 Pro потребовалось всего 34 секунды, чтобы проанализировать код вируса WannaCry, программы-вымогателя, с помощью которой хакеры в 2017 году атаковали множество компаний по всему миру.

Также Gemini позволяет ускорить сбор информации о хакерской группе, её целях, тактике взлома и связанных с ней деталях. Кроме того, Gemini обеспечивает обобщение отчётов об угрозах на естественном языке в Threat Intelligence, что позволяет компаниям оценить, как потенциальные атаки могут на них повлиять, и расставить приоритеты, на чём следует сосредоточиться.

Microsoft запустила разработку собственной большой языковой модели ИИ — это добавит независимости от OpenAI

Вложившая в капитал стартапа OpenAI более $10 млрд американская корпорация Microsoft, по данным The Information, занялась разработкой собственной большой языковой модели ИИ, которая добавит компании независимости от той же OpenAI и усилит конкуренцию с Google. Модель получила обозначение MAI-1 и создаётся с использованием собственных ресурсов.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Руководит этой инициативой в Microsoft, как отмечает первоисточник, Мустафа Сулейман (Mustafa Suleyman), который занимался разработкой систем искусственного интеллекта в Google, а также возглавлял стартап Inflection, прежде чем его не поглотила Microsoft, заплатив $650 млн в марте этого года. Впрочем, источники подчёркивают, что Microsoft самостоятельно разрабатывает MAI-1, не опираясь на существовавшие в Inflection программные решения. Впрочем, использование каких-то технологий этого стартапа в том или ином виде не исключается.

MAI-1 станет значительно более крупной языковой моделью по сравнению с теми разработками с открытым исходным кодом, которые до сих пор использовала Microsoft. Она потребует не только большего количества входных данных, но и более значимых вычислительных ресурсов. MAI-1 будет использовать около 500 млрд параметров. Если учесть, что передовая ChatGPT-4 стартапа OpenAI использует 1 трлн параметров, для собственной модели Microsoft это будет существенный прорыв в сложности модели. Назначение MAI-1 пока не определено и будет выбрано в зависимости от промежуточных успехов в её разработке. Microsoft может рассказать подробности об этой инициативе на конференции Build ближе к концу текущего месяца.

Opera добавила ИИ-функцию краткой сводки веб-страниц для Android

Браузер Opera для Android получил удобный ИИ-инструмент для быстрого ознакомления с содержанием веб-страниц. Новая функция генерирует краткое резюме длинных статей и сообщений, позволяя экономить время на понимание темы и поиск ключевых деталей. Для использования функции «Сводка» нужно обновить Opera для Android до последней версии и войти в учётную запись.

 Источник изображения: Opera

Источник изображения: Opera

Инструмент реферирования текста основан на встроенном в Opera помощнике искусственного интеллекта Aria. Пользователю достаточно открыть любую текстовую страницу в Opera, нажать на три точки в правом верхнем углу и выбрать пункт «Сводка» (Summarize) рядом с иконкой Aria. После этого откроется диалог, в котором будет представлено краткое резюме статьи, обычно умещающееся на одном экране.

Такое резюме помогает быстро понять суть, выделить основные моменты и решить, стоит ли тратить время на полное прочтение. Это действительно удобно, когда нужно быстро ознакомиться с большим количеством информации, найденной в интернете. Также помощник теперь может зачитывать текстовые ответы вслух.

Напомним, помощник искусственного интеллекта Aria был интегрирован в браузер Opera около года назад. Он работает как чат-бот, отвечая на вопросы пользователей и является альтернативой традиционному поиску в интернете. А совсем недавно в Aria была добавлена возможность генерировать изображения на основе текстовых запросов с использованием технологии Imagen 2 компании Google.

Разработчики постоянно расширяют функциональность Aria с помощью специальной программы обновлений AI Feature Drops, чтобы пользователи получали все последние улучшения для комфортного использования всех опций интеллектуального браузера.

Apple разрабатывает собственные серверные чипы для систем искусственного интеллекта

Не так давно подобная идея уже высказывалась аналитиками Bank of America, а теперь издание The Wall Street Journal сообщает, что Apple занимается разработкой собственных процессоров серверного назначения для использования в системах искусственного интеллекта. Сроки их появления на рынке и сама такая вероятность пока не определены.

 Источник изображения: Apple

Источник изображения: Apple

У данного проекта, по словам первоисточника, уже появилось собственное имя ACDC — от английского Apple Chips in Data Center, то есть, «чипы Apple в центре обработки данных». Компания уже располагает коллективом разработчиков процессоров, которые нашли применение в смартфонах, планшетах, умных часах, и в последние годы успешно вытесняли продукцию Intel в компьютерах Apple семейства Mac.

Следующим шагом эволюции вычислительных решений Apple могло бы стать как раз появление процессоров серверного назначения, которые изначально заточены под актуальную потребность работы с системами искусственного интеллекта. Представители Bank of America даже предположили, что такие чипы могли бы оснащаться памятью типа HBM, но о реальных намерениях инженеров Apple остаётся только догадываться. Amazon, Microsoft и Meta Platforms свой путь к совершенствованию серверной инфраструктуры начинали с модифицированных процессоров Intel, но постепенно они втянулись в разработку собственных чипов. Apple вполне может пойти по этому пути, поскольку компания имеет потребность в развитии собственной инфраструктуры для обслуживания систем искусственного интеллекта.

Медицинский ИИ от Google превзошёл GPT-4 и даже живых докторов

Google Research и исследовательская лаборатория Google в области искусственного интеллекта DeepMind сообщили подробности о семействе передовых больших языковых моделей Med-Gemini, разработанных для применения в сфере здравоохранения.

 Источник изображения: geralt/Pixabay

Источник изображения: geralt/Pixabay

ИИ-модели всё ещё находятся на стадии исследования, но авторы разработок утверждают, что Med-Gemini, основанные на модели Google Gemini, превосходят конкурирующие модели, такие как GPT-4 от OpenAI, обладают огромным потенциалом в клинической диагностике и превосходят отраслевые стандарты в 14 популярных профильных бенчмарках. В частности, в тесте MedQA (USMLE) модель Med-Gemini достигла точности 91,1 %, используя стратегию поиска, основанную на неопределённости, превзойдя медицинскую LLM Med-PaLM 2 компании Google на 4,5 %. Набор моделей также превзошёл людей в обобщении медицинских текстов и составлении рекомендаций, причём врачи в половине случаев оценивали ответы Med-Gemini-M 1.0 как хорошие или даже лучше, чем ответы экспертов.

Med-Gemini — это семейство больших мультимодальных моделей (LMM), каждая из которых имеет своё предназначение. В отличие от больших языковых моделей, которые «демонстрируют неоптимальные клинические рассуждения в условиях неопределённости», страдают галлюцинациями и предвзятостью, Med-Gemini дают «фактически более точные, надёжные и детальные результаты для сложных задач клинического обоснования», чем их конкуренты, включая GPT-4, утверждает Google.

По семи мультимодальным бенчмаркам, включая проверку по изображениям New England Journal of Medicine (NEJM), модель Med-Gemini показала гораздо лучшие результаты, чем GPT-4.

Чтобы проверить способность Med-Gemini понимать и рассуждать на основе длинной контекстной медицинской информации, исследователи с успехом выполнили с её помощью так называемую задачу поиска «иголки в стоге сена», используя большую общедоступную базу данных Medical Information Mart for Intensive Care (MIMIC-III), содержащую обезличенные данные о состоянии здоровья пациентов, поступивших в отделение интенсивной терапии.

Поддержка Med-Gemini эффективного поиска в базе данных электронных медицинских карт Electronic Health Record (EHR) позволит «значительно снизить когнитивную нагрузку и расширить возможности врачей за счёт эффективного извлечения и анализа важной информации из огромных объёмов данных пациентов», утверждает Google.

По словам исследователей, Med-Gemini также показывают хорошие результаты в медицинских тестах, медицинских знаниях, клинических рассуждениях, геномике, медицинской визуализации, медицинских записях и видео.

Вместе с тем Google заявила, что её модели нуждаются в большей доработке и специализации, прежде чем их можно будет использовать в здравоохранении.

YouTube протестирует на платных подписчиках перемотку видео сразу на самое интересное место

YouTube тестирует новую функцию, которая позволяет пользователю быстро переключаться на самый интересный момент просматриваемого ролика. Для этого используются данные о просмотрах видео и искусственный интеллект (ИИ). Эксперимент продлится до 1 июня, и его результаты могут оказать значительное влияние на общую стратегию сервиса.

 Источник изображения: muhammadsaqii786 / Pixabay

Источник изображения: muhammadsaqii786 / Pixabay

YouTube начал тестировать упомянутую функцию в марте текущего года с участием небольшой группы пользователей, но теперь сделал её доступной для подписчиков YouTube Premium. Принцип работы довольно прост: когда пользователь дважды нажимает, чтобы перемотать видео вперёд, появляется кнопка, которая перемещает его к тому месту, до которого обычно перематывают большинство зрителей.

Для определения наиболее просматриваемых эпизодов функция использует ИИ и данные о просмотрах видео. Для получения доступа к функции необходимо быть подписчиком YouTube Premium и также включить экспериментальные функции сервиса. В настоящее время нововведение доступно только в США для приложения YouTube на Android и только для видео на английском языке, по которым есть достаточно данных, чтобы определить любимые моменты зрителей.

Согласно информации на сайте YouTube, тестирование функции продлится до 1 июня. После этого, предположительно, будет собрана обратная связь от пользователей, и на основе неё будет принято решение о более широком внедрении функции. Если вы хотите проверить, доступна ли эта функция вам, перейдите в раздел «Настройки» и выберите «Попробовать экспериментальные новые функции».

В целом, новая функция YouTube представляет собой интересный эксперимент в области улучшения пользовательского опыта. Она может значительно упростить процесс просмотра видео, особенно для тех, кто хочет быстро перейти к самым важным или вирусным моментам. Однако, как и любая новая функция, она требует дальнейшего тестирования и оптимизации, и будет интересно узнать, как она будет принята пользователями и как повлияет на общую стратегию YouTube.


window-new
Soft
Hard
Тренды 🔥
Эмитент USDT может подорожать до $500 млрд — это поставит Tether в один ряд со SpaceX и OpenAI 2 мин.
Gearbox отложила релиз Borderlands 4 для Nintendo Switch 2 на неопределённый срок и отменила цифровые предзаказы 21 мин.
ИИ-генерируемые игры не за горами: Epic Games выпустила превью Unreal Engine 5.7 c процедурной генерацией уровней 53 мин.
Платформа «Астра Мониторинг» дополнилась средствами контроля инфраструктуры «1С» 3 ч.
Valve сделала магазин Steam более динамичным и персонализированным — переработанное меню вышло из «беты» 5 ч.
YouTube объявил амнистию для блогеров, заблокированных за фейки о COVID-19 и выборах 6 ч.
Японский Amazon рассекретил дату выхода Nioh 3 до официального анонса 6 ч.
«Google Фото» теперь редактирует снимки по голосовым командам — функция вышла за пределы Pixel 8 ч.
Yakuza Kiwami 3 выйдет с переводом на русский и сюжетным дополнением про главного злодея — дата релиза и первый трейлер ремейка Yakuza 3 9 ч.
Китайский пользователь первым в истории Steam собрал на аккаунте более 40 000 игр 19 ч.
OpenAI арендует, а не купит чипы у NVIDIA в рамках $100-млрд сделки 54 мин.
Представлены смартфоны Xiaomi 15T и 15T Pro с чипами MediaTek и камерами Leica — от €650 до €1000 2 ч.
«Яндекс» строит во Владимирской области новый ЦОД, где разместится новая зона доступности Yandex Cloud 3 ч.
Китайская Innosilicon представила видеокарту Fenghua 3 — CUDA, DX12, трассировка лучей и более 112 Гбайт HBM 3 ч.
SK hynix ускорит закупку EUV‑сканеров, чтобы не отдать Samsung лидерство на рынке HBM 3 ч.
Переход на 5G привёл к ухудшению качества связи в некоторых городах Европы и Северной Америки 4 ч.
Samsung прибрала к рукам Bowers & Wilkins, Denon, Marantz и ещё пятёрку брендов аудиотехники 4 ч.
Logitech представила беспроводную клавиатуру, которая заряжается от лампочки — Signature Slim Solar Plus K980 5 ч.
Raspberry Pi готовит вычислительный модуль CM0 с поддержкой Wi-Fi 4 и Bluetooth 4.2 LE 5 ч.
На краю Солнечной системы засекли вероятный взрыв первичной чёрной дыры — это приблизит учёных к пониманию тёмной материи 5 ч.