|
Опрос
|
реклама
Быстрый переход
Глава OpenAI опроверг слухи о запуске ИИ-поисковика на следующей неделе
11.05.2024 [07:30],
Николай Хижняк
Глава OpenAI Сэм Альтман (Sam Altman) опроверг сообщение Reuters о том, что компания в следующий понедельник, за день до конференции Google I/O, представит свой собственный ИИ-поисковик, который будет позиционироваться как потенциальный конкурент поисковику Google и ИИ-поисковику стартапа Perplexity.
Источник изображения: OpenAI На своей станице в соцсети X Альтман подтвердил, что компания действительно собирается представить некий новый продукт, который, по его мнению, «ощущается словно магия», но это «не GPT-5 и не поисковый движок». ![]() Альтман также ретвитнул сообщение официального канала OpenAI, в котором говорится, что компания в понедельник, в 10:00 утра по местному времени (20:00 мск) расскажет о свежих обновлениях для чат-бота ChatGPT и языковой модели GPT-4. По информации The Verge, OpenAI активно пытается переманивать сотрудников Google в свою команду, которая ведёт разработку некоего нового продукта. Издания Bloomberg и The Information ранее сообщали, что речь может идти о разработке поисковой системы. Появление функций ChatGPT в iOS 18 — вопрос почти решённый
11.05.2024 [06:56],
Алексей Разин
Сфера систем искусственного интеллекта с точки зрения практического его использования и реализации разного рода сотрудничества в последнее время полна событиями как более или менее явными, так и скрытыми. К последним Bloomberg относит почти достигнутую Apple договорённость об использовании чат-бота ChatGPT компании OpenAI в операционной системе iOS 18.
Источник изображения: Unsplash, Solen Feyissa Об этом событии агентство Bloomberg традиционно сообщает со ссылкой на собственные источники, но с учётом близости конференции для разработчиков WWDC 2024, которая начнёт работу в середине июня, подобная новость достаточно скоро может получить официальное подтверждение. По данным источника, Apple и OpenAI уже находятся на заключительных этапах подписания соглашения о сотрудничестве, которое позволит первой использовать элементы ChatGPT в операционной системе Apple iOS 18. Попутно отмечается, что переговоры Apple с Google о внедрении чат-бота Gemini в экосистему первой из компаний успехом пока не увенчались, хотя попытки продолжаются. Как поясняет Bloomberg, на данном этапе нет твёрдых гарантий, что о соглашении между Apple и OpenAI будет объявлено официально в ближайшие недели, но скорое начало конференции WWDC 2024 вполне предсказуемо подгоняет первую из сторон. Сотрудничество с OpenAI может стать одним из шагов Apple по развитию собственной экосистемы искусственного интеллекта. Ранее сообщалось, что она собирается не только развивать способность фирменных процессоров ускорять работу искусственного интеллекта с использованием аппаратных ресурсов клиентских устройств, но и до конца года внедрить процессоры M2 Ultra в серверную инфраструктуру соответствующего назначения. При этом часть облачной экосистемы Apple продолжит опираться на мощности сторонних провайдеров из соображений экономической целесообразности. Apple обновит Siri: виртуальный помощник устарел и отстаёт от конкурентов
11.05.2024 [05:51],
Анжелла Марина
Компания Apple осознала, что её виртуальный помощник Siri безнадёжно отстаёт от конкурентов, в частности от ChatGPT, разработанного OpenAI. Это привело к масштабной реорганизации внутри компании и срочным усилиям по модернизации Siri с использованием новейших технологий ИИ. Apple сосредоточится на улучшении существующей функциональности Siri, а не на создании нового чат-бота.
Изображение: Kandinsky В начале прошлого года топ-менеджеры Apple по программному обеспечению пришли к выводу, что виртуальный помощник Siri нуждается в переменах. Siri слишком часто неправильно понимает вопросы и не может вести диалоги. Поводом для этого стало тестирование нового чат-бота ChatGPT компании OpenAI. Использование передовых технологий генеративного искусственного интеллекта, способного создавать стихи, код и вести диалог с пользователями, заставило Siri выглядеть устаревшей. Осознав отставание Siri, руководство Apple во главе с Тимом Куком (Tim Cook) решило сделать модернизацию виртуального помощника приоритетным проектом компании и догнать конкурентов в сфере AI любой ценой. Apple уже работает над тем, чтобы виртуальный помощник смог вести диалог по принципу чат-ботов, а не просто отвечать на отдельные запросы. Сможет ли Siri сочинять стихи и писать код, пока не известно. В любом случае, все подробности станут известны на ежегодной конференции Apple для разработчиков 10 июня. Стоит отметить, что модернизация Siri — это лишь часть более масштабных планов Apple по интеграции технологий генеративного ИИ в свои продукты и сервисы. В частности, компания планирует увеличить объём памяти в новых моделях iPhone, чтобы поддерживать расширенные возможности Siri. Кроме того, обсуждается приобретение лицензий на использование передовых моделей ИИ таких компаний как Google, Cohere и OpenAI. Как сообщает The New York Times, топ-менеджмент Apple обеспокоен тем, что новые технологии ИИ могут подорвать доминирующие позиции компании на рынке смартфонов. В частности, есть опасения, что генеративный ИИ может со временем стать альтернативной мобильной операционной системой, вытеснив полностью iOS. Кроме того, ИИ открывает путь для создания экосистемы «интеллектуальных агентов», способных заменить множество приложений из AppStore. Чтобы не допустить такого развития событий, Apple решила сконцентрироваться на усилении собственных позиций в сфере ИИ. В частности, не так давно компания отменила проект по созданию беспилотных автомобилей стоимостью 10 млрд долларов и вместо этого сотни инженеров были переведены на разработку в области ИИ. Хотя Apple не планирует создавать аналог ChatGPT, основные усилия сосредоточены на расширении возможностей Siri как помощника для решения повседневных задач. Помимо улучшенного диалога, обновленная Siri сможет точнее устанавливать таймеры, планировать встречи, составлять списки покупок и резюмировать тексты. При этом в Apple подчёркивают, что новая Siri будет более приватной, чем конкурирующие ИИ, так как обработка запросов будет производиться непосредственно на iPhone, а не на удалённых серверах. 64 пикселя за 20 минут: на 40-летнем компьютере Commodore 64 запустили ИИ-генератор изображений
10.05.2024 [17:58],
Павел Котов
В августе 1982 года вышел компьютер Commodore 64, которому было суждено стать одним из самых продаваемых ПК всех времён. Как оказалось, оборудование той эпохи и может справляться и с современными алгоритмами искусственного интеллекта — конечно, с некоторыми оговорками.
Источник изображения: github.com/nickbild Энтузиаст Ник Бильд (Nick Bild) разработал для Commodore 64 систему генеративного ИИ, способную создавать изображения размером 8 × 8 пикселей, которые затем преобразуются в картинки 64 × 64 точки. Эти изображения призваны служить источником вдохновения при разработке концепций игрового дизайна. Как оказалось, современную модель генеративного ИИ действительно можно запускать на таком старом оборудовании. На выполнение 94 итерации для построения окончательного изображения у Commodore 64 ушли 20 минут — и это, пожалуй, совсем неплохо, учитывая возраст компьютера. О проектах уровня OpenAI речи, конечно, не идёт, но и «вероятностный алгоритм PCA», запущенный на 40-летней машине, в реальности был обучен на современном компьютере. Таким образом, хотя модель и по-честному работала на Commodore 64, для её запуска всё равно оказался необходим современный ПК. В США разработан законопроект, который позволит ограничивать экспорт моделей ИИ
10.05.2024 [16:55],
Павел Котов
Американские парламентарии разработали законопроект, который облегчит администрации президента установление экспортного контроля над моделями искусственного интеллекта — это очередная попытка США защитить свои технологии от посягательств считающихся недружественными стран.
Источник изображения: Brian Penny / pixabay.com Документ подготовлен представителями обеих крупнейших политических партий США — она также предоставит Министерству торговли полномочия запрещать американским специалистам сотрудничество с иностранцами при разработке систем ИИ, если те представляют угрозу для национальной безопасности страны. Законопроект призван защитить любые будущие нормы экспортного контроля в отношении ИИ от юридических проблем — в его разработке участвовали чиновники администрации президента. В политической среде США растут опасения, что считающиеся недружественными страны будут использовать американские модели ИИ для проведения кибератак или создания мощного биологического оружия. В минувшую среду стало известно, что США готовятся открыть новый фронт санкционной войны с Россией и Китаем и начали изучать план по введению экспортного контроля в отношении передовых моделей ИИ. В соответствии с действующим законодательством курирующему экспортную политику Минторгу США значительно сложнее контролировать экспорт открытых моделей ИИ, которые можно свободно загрузить. Принятие закона устранит препятствия на пути регулирования экспорта открытых моделей ИИ — такие препятствия накладывает действующий «Закон о чрезвычайных международных экономических полномочиях», — а Минторг получит особые полномочия по регулированию систем ИИ. В марте китайские государственные СМИ распространили заявление Пекинской академии искусственного интеллекта, согласно которому большинство моделей ИИ в стране были созданы с использованием открытых моделей Meta✴✴ Llama, и это большая проблема для китайских разработчиков. В ноябре считавшийся перспективным китайский стартап 01.AI, учреждённый бывшим топ-менеджером Google Ли Кай-фу (Lee Kai-fu) подвергся резкой критике, когда инженеры в области ИИ обнаружили, что разработанная стартапом модель также была построена на основе Llama. В серверах Apple чипы M2 Ultra пропишутся до конца этого года
10.05.2024 [08:06],
Алексей Разин
Несколько дней назад издание The Wall Street Journal сообщило, что Apple разрабатывает собственные процессоры серверного класса для ускорения задач, связанных с работой искусственного интеллекта. Представителям Bloomberg этого повода оказалось достаточно, чтобы определить высокую вероятность появления чипов M2 Ultra в центрах обработки данных Apple к концу текущего года.
Источник изображения: Apple По крайней мере, таким видит последовательность внедрения компанией Apple процессоров собственной разработки в серверную инфраструктуру известный специалист по планам этого разработчика Марк Гурман (Mark Gurman). О нововведениях iOS 18, влияющих на способность устройств Apple работать с искусственным интеллектом, представители Apple должны рассказать в следующем месяце на WWDC 2024, а вот поддержать внедрение этих функций на уровне серверной инфраструктуры компания пока готова лишь с помощью процессоров M2 Ultra — не самых новых, но достаточно производительных для решения таких задач. Apple будет делегировать разные функции работы с ИИ разным аппаратным решениям. Простые задачи будут выполняться с использованием локальных ресурсов процессоров, установленных в iPhone, iPad и Mac, а более сложные потребуют использования серверных процессоров. Обобщение пропущенных текстовых сообщений относится к первому типу задач, а вот анализ больших объёмов информации или генерация изображений будет происходить на стороне серверов Apple. При этом представители компании считают, что уже существующие процессоры серии M обеспечивают достаточную степень защиты получаемой от клиентов информации, чтобы обрабатывать её на стороне сервера. Кстати, Apple продолжит использовать сторонние облачные мощности даже после того, как вложится в развитие собственной инфраструктуры, поскольку исключительно своими силами она все потребности не покроет. Процессоры семейства M4 со временем тоже появятся в серверной экосистеме Apple, но сперва им предстоит до конца текущего года прописаться в Mac mini, iMac и MacBook Pro, а в следующем году их получат MacBook Air, Mac Studio и Mac Pro. Развивать собственный чат-бот с генеративным искусственным интеллектом Apple пока не готова, но в этой сфере она собирается сотрудничать с OpenAI или Google, причём первый вариант более вероятен. Alibaba представила большую языковую модель, которая отчасти превзошла GPT-4
10.05.2024 [00:45],
Анжелла Марина
Компания Alibaba Cloud анонсировала выпуск улучшенной версии своей большой языковой модели Qwen2.5. Новая нейросеть продемонстрировала превосходство над GPT-4 от OpenAI по некоторым параметрам, таким как логические рассуждения и понимание текста.
Источник изображения: Alibaba Cloud По словам технического директора Alibaba Cloud Цзинжэня Чжоу (Jingren Zhou), новая модель демонстрирует значительные улучшения в области рассуждений, понимания кода и естественного языка по сравнению с предыдущей версией Qwen2.0. Согласно анализу платформы OpenCompass, проведённому в марте, модель Qwen2.5 превосходит GPT-4 от OpenAI по языковым и творческим возможностям. Однако она уступает в таких аспектах, как знания, логические рассуждения и математические способности. Напомним, большие языковые модели (LLM), к которым относится и Qwen, используются в приложениях искусственного интеллекта. Они обучаются на огромных объёмах данных, чтобы затем генерировать ответы на запросы пользователей на естественном языке. После выхода ChatGPT в 2022 году, вызвавшего ажиотаж во всём мире, компания Alibaba представила Tongyi Qianwen в апреле 2023 года. А в октябре последовал выпуск обновлённой версии с расширенными возможностями понимания сложных инструкций, написания текстов, логических рассуждений и запоминания информации. По сообщению Alibaba Cloud, сервисами ИИ на базе Qwen, такими как DingTalk (аналог Slack от Alibaba), уже воспользовались более 2,2 млн корпоративных пользователей. Кроме того, компания представила сообществу разработчиков ряд открытых моделей Qwen и модернизировала свою генеративную платформу Model Studio, добавив дополнительные средства для создания ИИ. В Китае, как и во всем мире, наблюдается бум интереса к чат-ботам и моделям генеративного ИИ. Наряду с Alibaba свои решения выпустили Baidu и Tencent. Например, чат-бот Baidu Ernie к апрелю 2023 года привлёк более 200 млн пользователей после получения разрешения на публичное использование в августе 2022 года. Компания Alibaba Cloud заявила, что её обновлённая языковая модель Qwen2.5 была развёрнута более чем в 90 000 компаниях разных отраслей, и она намерена дальше сотрудничать с клиентами и разработчиками для использования возможностей генеративного ИИ и внедрение этой технологии в разработку роботов-гуманоидов в Китае, где эти роботы смогут помогать на заводах и заменить ручной труд человека там, где это возможно. McAfee продемонстрировала детектор звуковых дипфейков
09.05.2024 [15:08],
Павел Котов
На мероприятии RSA Conference компания McAfee продемонстрировала систему Deepfake Detector, работа над которой ведётся при участии Intel. Система, первоначально называвшаяся Project Mockingbird, предназначена для обнаружения звуковых дипфейков — аудиоподделок, созданных при помощи искусственного интеллекта.
Источник изображения: S. Keller / pixabay.com Технический директор McAfee Стив Гробман (Steve Grobman) показал работу Deepfake Detector на примере двух видеороликов — показ видео сопровождается информацией от ИИ-детектора, которая выводится в строке состояния. При запуске видеоролика, не подвергавшегося обработке, система показала нулевую вероятность подделки. Далее было запущено явно фейковое видео, на которое система сразу отреагировала показателем в 60 %, и по мере просмотра вероятность выросла до 95 %. С момента первой демонстрации на CES 2024 инженеры McAfee оптимизировали систему для работы с ИИ-ускорителями Intel NPU на чипах Meteor Lake, что позволило увеличить производительность на 300 %. Можно запускать несколько процессов Deepfake Detector для одновременного анализа нескольких видеороликов; хотя и видеозаписями возможности системы не ограничиваются — она может анализировать звук любого приложения в системе. А локальный режим её работы вместо запуска из облака означает высокую конфиденциальность — анализируемые данные не покидают компьютера. Авторы проекта преднамеренно ограничились работой со звуком: специалисты McAfee по борьбе с угрозами обнаружили, что во многих публикуемых мошенниками видеороликах используется настоящее видео с поддельным звуком. Фальшивый звук сопровождает и поддельное видео, а значит, постоянной величиной чаще всего оказывается подделка аудио. Сейчас компания работает над адаптацией технологии для потребителей — для этого управление программой будет необходимо сделать предельно простым и понятным. OpenAI представила основные правила поведения для ИИ-моделей
09.05.2024 [14:01],
Владимир Мироненко
Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем.
Источник изображения: Andrew Neel/unsplash.com Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций. «Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств. Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам. Проект документа также включает в себя несколько правил:
Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность. OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования. Google представила мощную нейросеть AlphaFold 3 для предсказания структуры белков — её может опробовать каждый
09.05.2024 [12:38],
Павел Котов
Подразделение Google DeepMind представило новую версию модели искусственного интеллекта AlphaFold, которая предсказывает форму и поведение белков. AlphaFold 3 отличается не только более высокой точностью — теперь система предсказывает взаимодействие белков с другими биологическими молекулами; кроме того, её ограниченная версия теперь бесплатно доступна в формате веб-приложения.
Источник изображения: blog.google С выхода первой нейросети AlphaFold в 2018 году она стала ведущим методом прогнозирования структуры белков на основе последовательностей аминокислот, из которых они состоят. Понимание структуры и основ взаимодействия белков лежит в основе почти всей биологии. Классические методы моделирования белков имеют значительные ограничения: даже зная форму, которую примет последовательность аминокислот, нельзя сказать наперёд, с какими другими молекулами она будет связываться и как. И если необходимо достичь какой-то практической цели, требуется кропотливая работа по моделированию и тестированию — ранее на это уходили несколько дней, а иногда даже недель и месяцев. AlphaFold решает эту задачу, предсказывая вероятную форму молекулы белка по заданной последовательности аминокислот, указывая, с какими другими белками она сможет взаимодействовать. Особенность новой AlphaFold 3 состоит в её способности предсказывать взаимодействие белков с другими биологическими молекулами, в том числе с цепочками ДНК и РНК, а также необходимыми для этого ионами. Большой проблемой AlphaFold, как и других инструментов на основе ИИ, является сложность в их развёртывании. Поэтому в Google DeepMind запустили бесплатное веб-приложение AlphaFold Server — оно доступно для некоммерческого использования. Платформа достаточно проста в работе: осуществив вход с учётной записью Google, можно ввести несколько последовательностей и категорий, после чего она выдаст результат в виде трёхмерной молекулы, окрашенной в цвет, который отражает уверенность модели в своей правоте. На вопрос о том, есть ли существенная разница между общедоступной версией модели и той, что используется внутри компании, глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis) заверил, что «мы сделали доступными большинство функций новой модели», но подробностей не привёл. США захотели ограничить доступ России и Китая к GPT-4 и другим мощным моделям ИИ
09.05.2024 [00:41],
Владимир Мироненко
Министерство торговли США рассматривает возможность принятия новых нормативных мер по ограничению доступа Китая, России и некоторых других стран к проприетарных моделям искусственного интеллекта (ИИ), таким как GPT-4, пишет агентство Reuters со ссылкой на свои источники.
Источник изображения: flutie8211/Pixabay В настоящее время нет никаких препятствий для продажи американскими разработчиками самых мощных систем ИИ с закрытым исходным кодом кому угодно. OpenAI, поддерживаемая Microsoft, Google DeepMind холдинга Alphabet или Anthropic абсолютно законно могут продать свои ИИ-модели практически любому пользователю или компании. Вместе с тем исследователи из государственного и частного секторов США выражают обеспокоенность тем, что противники Соединённых Штатов могут использовать ИИ-модели, способные анализировать огромные объёмы текста и изображений для обобщения информации и создания контента, для проведения мощных кибератак, создания биологического оружия и других целей. По словам одного из источников Reuters, любое ужесточение контроля экспорта ИИ-технологий, скорее всего, будет относиться к таким странам, как Россия, Китай, Северная Корея и Иран. Как сообщают источники, для экспортного контроля над ИИ-моделями США могут использовать пороговое значение вычислительной мощности, необходимой для обучения модели. В случае достижения порогового значения, разработчик должен будет сообщить о планах разработки ИИ-модели и предоставить результаты испытаний Министерству торговли США. По мнению двух американских чиновников и источника Reuters, осведомлённого о ходе обсуждений, этот показатель может стать основой для определения того, какие ИИ-модели подпадают под экспортные ограничения. Если этот подход возьмут за основу, ограничения коснутся экспорта будущих ИИ-моделей, поскольку ни одна из существующих ИИ-моделей не достигла этого порога, хотя по данным исследовательского института EpochAI, Gemini Ultra от Google близка к нему. По мнению Тима Фиста (Tim Fist), эксперта по политике в области ИИ из аналитического центра CNAS в Вашингтоне (округ Колумбия), пороговое значение «является хорошей временной мерой, пока не будут разработаны более эффективные методы измерения возможностей и рисков новых моделей». Он отметил, что Китай, по всей видимости, примерно на два года отстаёт от Соединённых Штатов в сфере ИИ и разрабатывает собственное программное обеспечение для этих технологий. В свою очередь Джамиль Джаффер (Jamil Jaffer), бывший чиновник Белого дома и Министерства юстиции США считает, что лучше использовать контроль, основанный на возможностях модели и предполагаемом применении. «Лучше сосредоточиться на угрозе национальной безопасности, а не на технологических порогах, потому что это более долгосрочно и сосредоточено на угрозе», — сказал он. Независимо от порогового значения, экспорт моделей ИИ будет трудно контролировать, говорит Фист. Многие модели имеют открытый исходный код, а это означает, что они будут неподконтрольны регулятору. Через год сегодняшний ChatGPT будет выглядеть смехотворно плохо, заявил директор OpenAI
08.05.2024 [13:51],
Дмитрий Федоров
Брэд Лайткап (Brad Lightcap), главный операционный директор OpenAI, рассказал на Глобальной конференции в Институте Милкена о будущем компании и её планах на следующие 6–12 месяцев. По его мнению, нынешние системы искусственного интеллекта (ИИ), такие как ChatGPT, являются «смехотворно плохими» по сравнению с тем, что ждёт человечество впереди. Он подчеркнул, что будущие версии ИИ будут настолько продвинутыми, что изменят саму суть взаимодействия с пользователями.
Источник изображения: JuliusH / Pixabay Лайткап описал нынешнюю версию ChatGPT как начальный этап в эволюции ИИ, предназначенного для выполнения простых задач. «Я думаю, что через год мы оглянемся назад и поймём, насколько несовершенными они были», — заявил Лайткап, когда его спросили о бизнесе OpenAI через 6–12 месяцев. В перспективе он предвидит эволюцию ИИ в направлении более сложных задач, где ИИ станет отличным напарником, способным на равных общаться с людьми, как друг или коллега. Кроме технологических аспектов Лайткап прокомментировал социальные последствия развития ИИ. Он опроверг мнение о том, что развитие ИИ приведёт к массовым увольнениям людей, утверждая, что новые ИИ-системы наоборот спровоцируют спрос на ещё не существующие вакансии. По его мнению, экономика станет более разнообразной и устойчивой, а рынок труда адаптируется к технологическим изменениям. В свете этих заявлений интересно, что генеральный директор OpenAI Сэм Альтман (Sam Altman) также высказывался о будущем ChatGPT на семинаре в Стэнфордском университете, назвав GPT-4 самой глупой моделью, с которой людям придётся работать когда-либо в будущем. Такие заявления вероятно намекают на то, что будущие обновления ChatGPT станут переломными и приведут к значительному улучшению функциональности продуктов OpenAI. OpenAI позволит правообладателям запретить использование контента для обучения ИИ
08.05.2024 [12:34],
Павел Котов
OpenAI сообщила, что разрабатывает инструмент под названием Media Manager, который позволит создателям и владельцам контента отметить свои работы для компании и указать, как можно ли их включать в массив данных для исследований и обучения ИИ, или же нельзя.
Источник изображения: Growtika / unsplash.com Инженеры OpenAI намереваются разработать этот инструмент к 2025 году. Сейчас компания сотрудничает с «создателями контента, правообладателями и регуляторами» над выработкой стандарта. «Создание первого в своём роде инструмента, который поможет нам идентифицировать текст, аудио и видео, защищённые авторским правом, в нескольких источниках и отразить предпочтения создателей, потребует передовых исследований в области машинного обучения. Со временем мы планируем внедрить дополнительные возможности и функции», — сообщила OpenAI в своём блоге. Media Manager, вероятно, станет ответом компании на критику в отношении её подхода к разработке искусственного интеллекта. Она в значительной степени использует общедоступные данные из интернета, но совсем недавно несколько крупных американских изданий подали на OpenAI в суд за нарушение прав интеллектуальной собственности: по версии истцов, компания украла содержимое их статей для обучения моделей генеративного ИИ, которые затем коммерциализировались без компенсации и упоминания исходных публикаций. OpenAI считает, что невозможно создавать полезные модели ИИ без защищённых авторским правом материалов. Но в стремлении унять критику и защититься от вероятных исков компания предприняла несколько шагов, чтобы пойти навстречу создателям контента. В прошлом году она позволила художникам удалять свои работы из наборов обучающих данных для генераторов изображений, а также ввела директиву для файла robots.txt, которая запрещает её поисковому роботу копировать содержимое сайтов для дальнейшего обучения ИИ. OpenAI продолжает заключать соглашения с крупными правообладателями на предмет использования их материалов. OpenAI превратит ChatGPT в ИИ-поисковик и будет конкурировать с Google
08.05.2024 [11:07],
Владимир Фетисов
Компания OpenAI ведёт разработку функции интернет-поиска для своего чат-бота ChatGPT. Алгоритм сможет находить интересующую пользователей информацию, а также предоставлять ссылки на источники. Об этом пишет издание Bloomberg со ссылкой на собственный осведомлённый источник, который также отметил намерение OpenAI конкурировать в сфере веб-поиска с Google и принадлежащим Alphabet поисковым стартапом Perplexity.
Источник изображения: Pixabay В сообщении сказано, что ChatGPT сможет включать в ответы на пользовательские запросы информацию из интернета вместе с ссылками на источники, такие как «Википедия» и публикации в блогах. По данным издания, одна из версий продукта также сможет выдавать вместе с текстовым ответом релевантные изображения в случаях, когда это будет актуально. К примеру, если пользователь поинтересуется, как заменить дверную ручку, то ответ может содержать изображение, иллюстрирующее процесс решения данной задачи. СМИ писали о намерении OpenAI выпустить некий поисковый продукт ещё в феврале этого года, но подробности о том, как он будет функционировать, до сих пор оставались загадкой. Официальные представители OpenAI отказались от комментариев по данному вопросу. OpenAI стремится расширить возможности собственного ИИ-бота, поскольку конкуренция в этом сегменте становится всё более ожесточённой. Стартап Perplexity уже успел завоевать популярность благодаря собственной поисковой системе на базе искусственного интеллекта, которая делает упор на точность ответов и цитируемость. Гигант интернет-поиска Google также стремится переосмыслить свой поисковик, добавляя в него ИИ-функции. Ожидается, что компания расскажет о своих планах и дальнейшем будущем алгоритмов Gemini на ежегодной конференции I/O, которая пройдёт на следующей неделе. OpenAI научилась распознавать сгенерированные своим ИИ изображения, но не без ошибок
08.05.2024 [10:19],
Дмитрий Федоров
OpenAI объявила о начале разработки новых методов определения контента, созданного искусственным интеллектом (ИИ). Среди них — новый классификатор изображений, который определяет, было ли изображение сгенерировано ИИ, а также устойчивый к взлому водяной знак, способный маркировать аудиоконтент незаметными сигналами.
Источник изображения: Placidplace / Pixabay Новый классификатор изображений способен с точностью до 98 % определять, было ли изображение создано ИИ-генератором изображений DALL-E 3. Компания утверждает, что их классификатор работает, даже если изображение было обрезано, сжато или была изменена его насыщенность. В то же время эффективность этой разработки OpenAI в распознавании контента, созданного другими ИИ-моделями, такими как Midjourney, значительно ниже — от 5 до 10 %. Также OpenAI ввела водяные знаки для аудиоконтента, созданного с помощью своей платформы преобразования текста в речь Voice Engine, находящейся на стадии предварительного тестирования. Эти водяные знаки содержат информацию о создателе и методах создания контента, что значительно упрощает процесс проверки их подлинности. OpenAI активно участвует в работе Коалиции по происхождению и аутентичности контента (C2PA), в состав которой также входят такие компании, как Microsoft и Adobe. В этом месяце компания присоединилась к руководящему комитету C2PA, подчеркивая свою роль в разработке стандартов прозрачности и подлинности цифрового контента. Для этих целей OpenAI интегрировала в метаданные изображений так называемые учётные данные контента от C2PA. Эти учётные данные, фактически являясь водяными знаками, включают информацию о владельце изображения и способах его создания. OpenAI уже много лет работает над обнаружением ИИ-контента, однако в 2023 году компании пришлось прекратить работу программы, определяющей текст, сгенерированный ИИ, из-за её низкой точности. Разработка классификатора изображений и водяного знака для аудиоконтента продолжается. В OpenAI подчёркивают, что для оценки эффективности этих инструментов крайне важно получить отзывы пользователей. Исследователи и представители некоммерческих журналистских организаций имеют возможность протестировать классификатор изображений на платформе доступа к исследованиям OpenAI. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |