Сегодня 03 мая 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

ChatGPT научили запоминать, кем является пользователь и чего хочет — это упростит составление запросов

OpenAI запустила бета-тестирование функции «Пользовательские инструкции» (Custom Instructions), с помощью которой пользователь может сообщить чат-боту сведения о себе и определить настройки сервиса, пишет The Verge. Функция доступна с сегодняшнего дня по подписке для участников программы ChatGPT Plus во всех странах, кроме Великобритании и ЕС.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Новая функция позволит устранить необходимость в постоянной преамбуле к вопросам, задаваемым чат-боту. Вместо того чтобы формировать длинный вопрос для ChatGPT со всем необходимым контекстом и информацией, можно просто добавить этот контекст и информацию в свои пользовательские инструкции, чтобы не повторять их каждый раз. Например, если вы сообщите системе, что преподаёте в третьем классе, ответы на запросы будут адаптироваться ИИ-ботом с учётом нужной возрастной группы учащихся.

Настройки пользовательских инструкций подчиняются тем же правилам, что и сам ИИ-бот, поэтому попытки спровоцировать его неэтичное или неприемлемое поведение будут безрезультатными. ChatGPT также удаляет личную информацию, которая может быть использована для идентификации пользователя.

Следует отметить, что OpenAI представляет новую функцию как способ упростить составление запросов, а не как первый шаг к всеобъемлющему личному помощнику на основе ИИ.

Более 8000 авторов книг, стихов и статей выставят счёт IT-гигантам за скармливание их произведений ИИ

Более 8000 писателей и литературных деятелей, включая Маргарет Этвуд (Margaret Atwood) и Джеймса Паттерсона (James Patterson), подписали открытое письмо с требованием компенсации от компаний, использующих их произведения для обучения ИИ-моделей без ведома авторов.

 Источник изображения: ThankYouFantasyPictures / Pixabay

Источник изображения: ThankYouFantasyPictures / Pixabay

«Миллионы защищённых авторским правом книг, статей, эссе и стихов служат "пищей" для систем ИИ и бесконечными "блюдами", за которые не было предъявлено ни единого счёта», — говорится в письме, опубликованном Гильдией писателей США.

Письмо адресовано генеральному директору OpenAI Сэму Альтману (Sam Altman), генеральному директору Alphabet Сундару Пичаю (Sundar Pichai), генеральному директору Meta Марку Цукербергу (Mark Zuckerberg), генеральному директору Stability AI Эмаду Мостаку (Emad Mostaque), генеральному директору IBM Арвинду Кришне (Arvind Krishna) и генеральному директору Microsoft Сатье Наделле (Satya Nadella).

«В результате встраивания наших произведений в ваши системы генеративный ИИ угрожает нанести ущерб нашей профессии, наводнив рынок посредственными, написанными машиной книгами, рассказами и изданиями, основанными на наших произведениях», — также говорится в письме.

Согласно письму, за последнее десятилетие заработки авторов упали на 40 %, а медианный доход писателей, работающих полный рабочий день, в 2022 году составил всего 23 330 долларов, выяснила Гильдия писателей после опроса более 5700 авторов.

Организация утверждает, что технологии ИИ ещё больше затруднят заработок писателей. Более 8000 человек, подписавших письмо, среди которых автор «Кода да Винчи» Дэн Браун (Dan Brown) и автор «Голодных игр» Сюзанна Коллинз (Suzanne Collins), хотят, чтобы компании в сфере ИИ смягчили ущерб, наносимый их профессии, предоставив компенсацию за прошлое и будущее использование их произведений.

 Источник изображения: geralt / Pixabay

Источник изображения: geralt / Pixabay

Системы ИИ обучаются на больших объёмах данных, большая часть которых — это текст, извлечённый из интернета, и насколько правомерно компании используют массивы данных — большой вопрос. OpenAI, Google, Meta, Stability AI, IBM и Microsoft пока хранят молчание.

Ранее OpenAI сообщала, что ChatGPT обучается на «лицензионном, общедоступном контенте и данных, сформированных ИИ-тренерами и пользователями», а сама компания уважает права создателей и авторов. Требование авторов прозвучало на фоне двух судебных исков против OpenAI, обвиняющих компанию в нарушении авторских прав, в том числе Сары Сильверман (Sarah Silverman) о несанкционированном использовании её мемуаров «The Bedwetter».

Авторы не одиноки в выражении коллективного недовольства компаниями, развивающими системы ИИ. Художники настолько обеспокоены заменой их генеративным ИИ, что начали применять инструменты для предотвращения использования их работ системами ИИ в обучении.

В центре конфликта стоит вопрос о том, как технологии ИИ влияют на творческие профессии, и как они могут изменить ландшафт авторского права. Это напоминает о необходимости пересмотра и адаптации существующих законов и норм, чтобы они соответствовали быстро развивающемуся технологическому миру.

В то время как техногиганты продолжают развивать и применять ИИ, важно, чтобы они уважали права и творческий вклад авторов. В конечном итоге, это вопрос о том, как общество ценит и защищает творчество в эпоху ИИ. Возможно, текущий конфликт станет толчком к созданию новых стандартов и практик, которые обеспечат справедливое вознаграждение авторов и одновременно позволят ИИ продолжать своё развитие.

Платная версия ChatGPT отупела, в то время как бесплатная набралась ума, выяснили учёные из Стэнфорда

Новое исследование, проведённое учёными из Стэнфордского университета и Калифорнийского университета в Беркли, выявило тревожное снижение качества ответов платной версии ChatGPT. Так, например, точность определения простых чисел у новейшей модели GPT-4, которая лежит в основе ChatGPT Plus, с марта по июнь 2023 года упала с 97,6 % до всего лишь 2,4 %. Напротив, GPT-3.5, являющаяся основной для обычного ChatGPT, точность ответов в некоторых задачах повысила.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В последние месяцы всё чаще обсуждается снижение качества ответов ChatGPT. Группа учёных из Стэнфордского университета и Калифорнийского университета в Беркли решила провести исследование с целью определить, действительно ли произошла деградация качества работы этого ИИ, и разработать метрики для количественной оценки масштабов этого негативного явления. Как выяснилось, снижение качества ChatGPT — это не байка или выдумка, а реальность.

Трое учёных — Матей Захария (Matei Zaharia), Линцзяо Чэнь (Lingjiao Chen) и Джеймс Цзоу (James Zou) — опубликовали научную работу под названием «Как меняется поведение ChatGPT с течением времени» (How is ChatGPT’s behavior changing over time). Захария, профессор компьютерных наук в Калифорнийском университете, обратил внимание на удручающий факт: точность GPT-4 в ответе на вопрос «Это простое число? Подумай шаг за шагом» снизилась с 97,6 % до 2,4 % с марта по июнь.

OpenAI открыла доступ к API языковой модели GPT-4 около двух недель назад и объявила её своей самой продвинутой и функциональной ИИ-моделью. Поэтому общественность была расстроена тем, что новое исследование обнаружило значительное снижение качества ответов GPT-4 даже на относительно простые запросы.

Исследовательская группа разработала ряд заданий, чтобы оценить различные качественные аспекты основных больших языковых моделей (LLM) ChatGPT — GPT-4 и GPT-3.5. Задания были разделены на четыре категории, каждая из которых отражает различные навыки ИИ и позволяет оценить их качество:

  • решение математических задач;
  • ответы на деликатные вопросы;
  • генерация кода;
  • визуальное мышление.

В следующих графиках представлен обзор эффективности работы ИИ-моделей OpenAI. Исследователи оценили версии GPT-4 и GPT-3.5, выпущенные в марте и июне 2023 года.

 График 1. Производительность GPT-4 и GPT-3.5 в марте и июне 2023 года на четырех задачах. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 1. Производительность GPT-4 и GPT-3.5 в марте и июне 2023 года. Источник: Matei Zaharia, Lingjiao Chen, James Zou

Первый слайд демонстрирует эффективность выполнения четырёх задач — решения математических задач, ответа на деликатные вопросы, генерации кода и визуального мышления — версиями GPT-4 и GPT-3.5, выпущенными в марте и июне. Заметно, что эффективность GPT-4 и GPT-3.5 может значительно варьироваться со временем и в некоторых задачах ухудшаться.

 График 2. Решение математических задач. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 2. Решение математических задач. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

Второй слайд иллюстрирует эффективность решения математических задач. Измерялась точность, многословность (в символах) и совпадение ответов GPT-4 и GPT-3.5 в период с марта по июнь 2023 года. В целом, наблюдались значительные колебания в эффективности обеих ИИ-моделей. Также приведён пример запроса и соответствующие ответы за определенный промежуток времени. GPT-4 в марте следовала инструкциям по цепочке мыслей для получения правильного ответа, но в июне их проигнорировала, выдав неверный ответ. GPT-3.5 всегда следовала цепочке мыслей, но настаивала на генерации неправильного ответа в марте. Эта проблема была устранена к июню.

 График 3. Ответы на деликатные вопросы. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 3. Ответы на деликатные вопросы. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

На третьем слайде показан анализ ответов на деликатные вопросы. С марта по июнь GPT-4 ответила на меньшее количество вопросов, в то время как GPT-3.5 ответила на немного больше. Также приведён пример запроса и ответов GPT-4 и GPT-3.5 в разные даты. В марте GPT-4 и GPT-3.5 были многословны и давали подробные объяснения, почему они не ответили на запрос. В июне они просто извинились.

 График 4. Генерация кода. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 4. Генерация кода. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou

Четвёртый слайд демонстрирует снижение эффективности генерации кода. Общая тенденция показывает, что для GPT-4 процент непосредственно исполняемых генераций сократился с 52 % в марте до 10 % в июне. Также наблюдалось значительное падение для GPT-3.5 (с 22 % до 2 %). Многословность GPT-4, измеряемая количеством символов в генерациях, также увеличилась на 20 %. Также приведён пример запроса и соответствующие ответы. В марте обе ИИ-модели следовали инструкции пользователя («только код») и таким образом генерировали непосредственно исполняемый код. Однако в июне они добавили лишние тройные кавычки до и после фрагмента кода, делая код неисполняемым.

 График 5. Визуальное мышление. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Слайд 5. Визуальное мышление. Источник изображения: Matei Zaharia, Lingjiao Chen, James Zou / arxiv.org

Пятый слайд демонстрирует эффективность визуального мышления ИИ-моделей. В части общих результатов и GPT-4, и GPT-3.5 показали себя на 2 % лучше в период с марта по июнь, точность их ответов улучшилась. Вместе с тем, объём информации, которую они генерировали, остался примерно на том же уровне. 90 % визуальных задач, которые они решали, не изменились за этот период. На примере конкретного вопроса и ответов на него можно заметить, что, несмотря на общий прогресс, GPT-4 в июне показала себя хуже, чем в марте. Если в марте эта модель выдала правильный ответ, то в июне уже ошиблась.

Пока неясно, как обновляются эти модели, и могут ли изменения, направленные на улучшение некоторых аспектов их работы, негативно отразиться на других. Эксперты обращают внимание, насколько хуже стала новейшая версия GPT-4 по сравнению с версией марта в трёх тестовых категориях. Она только незначительно опережает своего предшественника в визуальном мышлении.

Ряд пользователей могут не обратить внимания на снижение качества результатов работы одних и тех же версий ИИ-моделей. Однако, как отмечают исследователи, из-за популярности ChatGPT упомянутые модели получили широкое распространение не только среди рядовых пользователей, но и многих коммерческих организаций. Следовательно, нельзя исключать, что некачественная информация, сгенерированная ChatGPT, может повлиять на жизни реальных людей и работу целых компаний.

Исследователи намерены продолжать оценку версий GPT в рамках более долгосрочного исследования. Возможно, OpenAI следует регулярно проводить и публиковать свои собственные исследования качества работы своих ИИ-моделей для клиентов. Если компания не сможет стать более открытой в этом вопросе, может потребоваться вмешательство бизнеса или государственных организаций с целью контроля некоторых базовых показателей качества ИИ.

OpenAI будет обучать ИИ на новостях Associated Press

OpenAI и Associated Press (AP) заключили соглашение, в рамках которого разработчик систем искусственного интеллекта в ближайшие два года сможет обучать свои модели на материалах новостного издателя, а последний получит доступ к «технологическим и продуктовым компетенциям» OpenAI.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

AP уже не первый год работает с технологиями ИИ — они использовались, в частности, для генерации новостей о Малой бейсбольной лиге и студенческом спорте. Издатель — не единственный крупный партнёр OpenAI: недавно компания сообщила о заключении соглашения с Shutterstock, в рамках которого разработчик ИИ сможет использовать изображения, видео, музыку и метаданные для обучения своей модели DALL-E. Некоторые инструменты OpenAI для «улучшения» и «персонализации» своего контента использует также BuzzFeed.

В этом году AP анонсировала новые проекты в области ИИ — генеративные модели будут составлять некоторые материалы на испанском языке и писать новости из области общественной безопасности в газете штата Миннесота. Издание также внедрило функции ИИ в поиск по новостям — фотографии и видео в его библиотеке можно находить при помощи запросов «описательным языком». При этом AP так и не конкретизировала, как именно будет использовать технологии OpenAI в рамках последнего партнерского соглашения.

OpenAI попала под расследование FTC из-за подозрений в нарушениях конфиденциальности при обучении ChatGPT

Федеральная торговая комиссия (FTC) США запустила расследование в отношении компании OpenAI, являющейся разработчиком популярного ИИ-бота ChatGPT. По данным источника, регулятор направил в адрес разработчика 20-страничное письмо, в котором говорится о начале проверки.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

Основанием для проверки стало подозрение в том, что большие языковые модели (LLM) OpenAI, являющиеся основой ИИ-алгоритмов, могли создаваться с использованием «нечестных или обманчивых» методов защиты конфиденциальности, нанося «репутационный ущерб» потребителям. В документе содержится 49 вопросов, многие из которых касаются конфиденциальной информации. Помимо прочего регулятор интересуется тем, какие данные компания использует для обучения ChatGPT, как эти данные получены и какие меры принимаются для того, чтобы чат-бот не получил доступ к конфиденциальной информации пользователей.

FTC также просит OpenAI предоставить подробные данные об ошибке в программном обеспечении, из-за которой произошла утечка историй разговоров пользователей с чат-ботом и платёжных реквизитов клиентов компании. В письме отмечается, что OpenAI должна приостановить все процедуры, связанные с уничтожением документов. В ходе расследования регулятор также рассмотрит вопрос касательно того, насколько денежная компенсация со стороны OpenAI будет отвечать общественным интересам. Официальные представители FTC и OpenAI отказались комментировать данный вопрос.

OpenAI сможет ещё шесть лет обучать ИИ на библиотеке изображений Shutterstock

Фотобанк Shutterstock на шесть лет продлил партнёрство с OpenAI, в рамках которого разработчик искусственного интеллекта сохранит право обучать свои модели на изображениях, видео, музыке и метаданных в библиотеке Shutterstock.

 Источник изображения: prnewswire.com

Источник изображения: prnewswire.com

Две компании начали сотрудничать в 2021 году — материалы Shutterstock помогли OpenAI обучить генератор изображений DALL-E. Глава OpenAI Сэм Альтман (Sam Altman) назвал это соглашение критически важным для разработки модели. В прошлом году Shutterstock учредила специальный фонд, из которого авторам материалов выплачиваются вознаграждения, когда их работа используется в обучении ИИ.

Тогда же Shutterstock запустила на своём сайте генератор изображений и запретила продавать на площадке изображения, созданные ИИ, отличными от DALL-E. Впоследствии работа функции была расширена — с помощью ИИ теперь можно редактировать любые материалы на платформе. Функции ИИ также вскоре появятся на ресурсе Giphy, который Shutterstock недавно приобрела у Meta.

В отличие от некоторых других платформ обмена изображениями, включая Getty Images, Shutterstock поддерживает технологии ИИ. Недовольство их распространением часто выражают авторы материалов: в Getty Images решили идти до конца, запретив на платформе размещение изображений, созданных генераторами, и подав в суд на ответственную за модель Stable Diffusion компанию Stability AI, которая якобы незаконно использовала защищённые авторским правом материалы для обучения ИИ. В Shutterstock правовые вопросы пока активно не поднимались, а интеграция с DALL-E помогает фотобанку активно расширять библиотеку.

OpenAI открыла доступ к API языковой модели GPT-4 — самой продвинутой в своём арсенале

OpenAI открыла доступ к GPT-4, своей наиболее продвинутой языковой модели ИИ, через облачный API. Вместе с этим компания предоставила сторонним разработчикам доступ к API трёх других своих моделей ИИ. Кроме того, OpenAI объявила о своих планах постепенно отказаться от ряда более ранних нейронных сетей.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI представила GPT-4 в марте как преемника GPT-3, ИИ-модели, которая за три года до этого привлекла к компании внимание всей отрасли. GPT-4 более эффективно интерпретирует инструкции пользователя, может принимать изображения в качестве входных данных и обладает расширенными возможностями обработки поставленных задач. Последние усовершенствования позволяют модели легче выполнять сложные запросы пользователей, например, решать математические задачи.

API GPT-4 позволяет разработчикам интегрировать модель в свои приложения. Сервис теперь доступен для всех клиентов, которые ранее приобрели доступ к API. Компания откроет доступ для новых разработчиков позднее в этом месяце. В дальнейшем OpenAI намерена увеличить лимиты использования API. В долгосрочные планы компании входит запуск так называемой возможности тонкой настройки, которая позволит разработчикам повысить точность GPT-4 путём обучения на пользовательских наборах данных.

Вместе с API GPT-4 был открыт доступ к программному интерфейсу трёх других моделей. Первая из них — GPT-3.5 Turbo, предшественница GPT-4, которая предлагает более ограниченные возможности за значительно меньшую стоимость. OpenAI также открыла доступ к API своих моделей DALL-E и Whisper. Последние две нейронные сети оптимизированы для генерации изображений и транскрибирования речи соответственно.

В связи с этим событием OpenAI также объявила о планах прекратить работу ряда ранних языковых моделей, доступных через API. Они будут отключены 4 января 2024 года. Некоторые из затронутых моделей будут автоматически обновлены до более новых продуктов OpenAI, в то время как другие потребуют от разработчиков ручного перехода.

Изменения частично связаны с обновлением API. Многие из моделей, которые будут постепенно отменены, используют прикладной интерфейс программирования, который OpenAI называет Completions API. Первоначально он стал доступен в 2020 году. Например, энтузиасту, чтобы подключиться к Chat Completion API и запустить ChatGPT на 39-летнем компьютере IBM , пришлось вручную написать весь запрос POST на языке C. В марте этого года OpenAI представила новый интерфейс под названием Chat Completions API, который станет основным направлением дальнейшей разработки.

«Первоначально Completions API был представлен в июне 2020 года, чтобы обеспечить текстовую подсказку свободной формы для взаимодействия с нашими языковыми моделями. С тех пор мы поняли, что часто можем обеспечить лучшие результаты с помощью более структурированного интерфейса подсказок», — сообщает OpenAI в своём блоге.

Новый API Chat Completions вносит несколько улучшений. В первую очередь, он обеспечивает защиту от атак с внедрением подсказок, которые представляют собой попытки хакеров изменить вывод модели ИИ с помощью вредоносных инструкций. Это усовершенствование должно помочь разработчикам повысить безопасность своих приложений на базе OpenAI.

Продвинутые инструменты OpenAI и их растущая доступность открывают новые возможности для разработчиков и исследователей по всему миру. Однако как и с любыми новыми технологиями, важно использовать их ответственно и с учётом возможных рисков. OpenAI продолжает работать над улучшением своих моделей и сервисов, стремясь обеспечить безопасность и эффективность их использования.

Посещаемость ChatGPT снизилась впервые с момента запуска

По итогам июня месячный трафик на сайте ChatGPT снизился впервые с момента запуска сервиса в ноябре прошлого года, уменьшилось и число уникальных посетителей, пишет Reuters со ссылкой на данные аналитической компании Similarweb.

 Источник изображения: Viralyft / unsplash.com

Источник изображения: Viralyft / unsplash.com

Глобальный трафик ChatGPT с настольных ПК и мобильных устройств по итогам июня 2023 года снизился на 9,7 % по сравнению с маем; количество уникальных посетителей уменьшилось на 5,7 %. Кроме того, на 8,5 % сократилось среднее время, проводимое пользователями на сайте. Эту динамику аналитики объяснили, во-первых, исчезновением эффекта новизны чат-бота, во-вторых — востребованностью генеративного ИИ с данными, поступающими в реальном времени.

Поначалу популярность ChatGPT росла рекордными темпами: всего за два месяца число пользователей сервиса перевалило за 100 млн. Сегодня сайт проекта посещают 1,5 млрд человек в месяц, что делает его одним из 20 ведущих ресурсов в мире. ChatGPT оказался даже популярнее поисковой службы Microsoft Bing, частью которой он сам и стал. И даже Google была вынуждена выпустить собственный чат-бот Bard на основе генеративного ИИ.

В мае было запущено приложение ChatGPT для iPhone, что также могло оказаться фактором снижения посещаемости сайта наряду со школьными каникулами — учащиеся активно используют ИИ при подготовке заданий. Пик загрузок приложения пришёлся на 31 мая; по состоянию на 4 июля его скачали 17 млн раз. В этом году разработавшая платформу компания OpenAI рассчитывает на доход в размере $200 млн — помимо ChatGPT, она зарабатывает на доступе к API своих ИИ-моделей. Кроме того, одна только Microsoft вложила в неё около $10 млрд.

OpenAI формирует команду для контроля над созданием «сверхразумных» систем ИИ

По последним данным, компания OpenAI, положившая начало гонке ИИ, представив чрезвычайно эффективного чат-бота ChatGPT, сформировала специальную команду для управления и контроля «сверхразумными» ИИ-системами. Её главой стал один из основателей компании и её главный научный сотрудник Илья Суцкевер.

 Источник изображения: D5000/pixabay.com

Источник изображения: D5000/pixabay.com

Согласно публикации в блоге OpenAI, ИИ, превосходящий по возможностям человеческий разум, может появиться в течение десятилетия. При этом вовсе не обязательно, что этот «сверхразум» будет благожелательно настроен к человечеству — поэтому необходимо искать пути контроля и ограничений возможностей подобных систем.

Как заявляют в OpenAI, сегодня отсутствуют решения для эффективного контроля и управления сверхразумными ИИ и предотвращения «агрессии» с его стороны. Существующие технологии настройки искусственного интеллекта основаны на обучении с подкреплением на основе обратной связи от человека. При этом такие методики рассчитывают на то, что люди в принципе могут контролировать ИИ, что маловероятно с системами, потенциально более разумными, чем люди. Для изучения данного вопроса специальная команда получит доступ к 20 % вычислительных мощностей компании. К ним присоединятся учёные и программисты из отдела, занятого настройкой ИИ в компании, а также других подразделений — в ближайшие четыре года команда намерена справиться с ключевыми техническими вызовами, связанными с контролем сверхразумного ИИ.

Фактически речь идёт о тренировке ИИ с использованием обратной связи. При этом будет использоваться специальный искусственный интеллект, предназначенный для оценки других ИИ-систем и обеспечения желаемых результатов, а также обеспечения безопасности их эксплуатации. В OpenAI полагают, что искусственный интеллект справится с этим лучше и быстрее, чем люди. По мере развития ИИ-системы компании предположительно будут брать на себя всё больше задач и в результате станут создавать и внедрять лучшие технологии настройки, чем имеются сейчас. Они будут работать вместе с людьми для того, чтобы их собственные преемники больше соответствовали потребностями людей, а те будут осуществлять только надзор, не принимая в исследованиях непосредственного участия.

Конечно, ни один метод не имеет абсолютной защиты от ошибок, о чём и заявили в OpenAI. Использование одного ИИ для оценки других может привести к росту числа ошибок и уязвимостей в создаваемых ИИ, и вообще может выявить, что сложнейшая часть настройки может быть связана с самыми неожиданными аспектами работы ИИ. Впрочем, в компании убеждены, что настройка сверхразума в основе своей является задачей машинного обучения, и критически важную роль будут играть специалисты в данной отрасли. В компании рассчитывают в будущем поделиться плодами своих изысканий для настройки и обеспечения безопасности проектов, даже не связанных с OpenAI.

По данным Reuters, противники инициативы считают, что ИИ с мышлением на уровне человеческого сможет выйти из-под контроля ещё до того, как займётся обеспечением безопасной работы других ИИ-систем. В апреле представители экспертного и бизнес-сообщества опубликовали открытое письмо, в котором предостерегали от создания ИИ, более совершенного, чем GPT-4.

OpenAI отключила в ChatGPT Plus поиск в интернете через Bing — он давал свободный доступ к платному контенту

Компания OpenAI, разработавшая чат-бот ChatGPT, отключила возможность веб-поиска для своего творения. Оказалось, что ИИ-сервис позволял обходить защиту систем доступа к платному контенту и получать свободный доступ к публикациям новостных агентств и блогеров, для просмотра которых необходима соответствующая подписка.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

Функция Browse with Bing, доступная для подписчиков ChatGPT Plus с марта текущего года, позволяла получать актуальную информацию в Сети в отличие от данных, с которыми приходилось иметь дело пользователям бесплатного ChatGPT. Как известно, бесплатная версия тренировалась на данных из интернета, опубликованных до конца 2021 года.

OpenAI пришла к выводу, что обход функционирующих по подписочной модели информационных сервисов недопустим, и ChatGPT Plus действительно может демонстрировать закрытый контент вопреки представлениям разработчиков об идеальных механизмах работы подключённой к Сети системы. Например, если пользователь просил предоставить полный текст, соответствующий тому или иному URL, бот выполнял его пожелание. Компания отключила функцию Browse with Bing до тех пор, пока проблема не будет устранена для того, чтобы защитить права владельцев контента.

OpenAI решилась пойти на такой шаг, безусловно, наносящий вред бизнесу. Вряд ли кому-либо из оплачивающих дополнительную функциональность ИИ-сервиса пользователей понравится новость о том, что их ограничивают в возможностях, предлагаемых альтернативными решениями на безвозмездной основе. Более того, поиск по сети может осуществлять даже «родственный» ChatGPT бот Bing Chat компании Microsoft, который тоже работает совершенно бесплатно.

На OpenAI подали в суд за незаконное использование литературных произведений для обучения нейросетей

На OpenAI снова подали в суд за использование произведений для обучения ИИ. Два известных писателя подали иск против компании, которая стоит за ChatGPT и Bing Chat, в нарушении авторских прав. По их мнению, OpenAI использовала их произведения в качестве обучающих данных. Это, по всей видимости, первый поданный иск об использовании текста (в отличие от изображений или кода) в качестве обучающих данных.

В поданном в окружной суд Северного округа Калифорнии иске истцы Пол Тремблей (Paul Tremblay) и Мона Авад (Mona Awad) утверждают, что OpenAI и её дочерние компании нарушили авторские права, нарушили Закон об авторском праве в цифровую эпоху (DMCA), а также нарушили калифорнийские и общие законодательные ограничения на недобросовестную конкуренцию.

Писатели представлены юридической фирмой Джозефа Савери (Joseph Saveri) и Мэттью Баттерика (Matthew Butterick), той же командой, которая стоит за недавними исками, поданными против Stable Diffusion AI и GitHub. В жалобе утверждается, что роман Тремблея «Хижина на краю света» и два романа Авад: «13 способов посмотреть на толстую девушку» и «Зайка» использовались в качестве обучающих данных для GPT-3.5 и GPT-4. Хотя OpenAI не раскрывала, что эти романы находятся в её обучающих данных (которые держатся в секрете), истцы делают вывод, что они должны быть там, поскольку ChatGPT смог предоставить подробные резюме сюжетов и ответить на вопросы о книгах, что потребовало бы доступа к их текстам.

«Поскольку языковые модели OpenAI не могут функционировать без выразительной информации, извлечённой из произведений истцов (и других лиц) и сохранённой в них, языковые модели OpenAI сами являются нарушающими авторские права производными произведениями, созданными без разрешения истцов и в нарушение их исключительных прав по Закону об авторском праве», — говорится в жалобе.

Все три книги содержат информацию о защите авторских прав (CMI), такую как ISBN и номера регистрации авторских прав. Закон об авторском праве в цифровую эпоху (DMCA) утверждает, что удаление или фальсификация CMI является незаконной, и поскольку ответы ChatGPT не содержат этой информации, истцы утверждают, что OpenAI виновна в нарушении этого закона, помимо факта нарушения авторских прав.

Хотя в настоящее время в иске участвуют только два истца, адвокаты намерены сделать иск коллективным, что позволило бы другим авторам, чьи авторские произведения использовались OpenAI, также получить компенсацию. Адвокаты требуют денежных возмещений, судебных издержек и судебного запрета, принуждающего OpenAI изменить своё программное обеспечение и деловые практики в отношении авторских материалов. На сайте юридической фирмы LLM Litigation подробно изложена позиция истцов и причины подачи иска. «Мы подали коллективный иск против OpenAI, обвиняя ChatGPT и его базовые большие языковые модели, GPT-3.5 и GPT-4, в том, что они перерабатывают авторские произведения тысяч писателей — и многих других — без согласия, компенсации или признания», — сообщают адвокаты.

Они также критикуют концепцию генеративного ИИ, утверждая: «Генеративный искусственный интеллект — это просто человеческий интеллект, переупакованный и проданный как новый продукт. Это не новый вид интеллекта. Это просто новый способ использования чужого интеллекта без разрешения или компенсации». Они отмечают, что, хотя OpenAI заявляет, что не знает, какие именно книги использовались для обучения ИИ, это не имеет значения, поскольку: «OpenAI знает, что она использовала множество книг, и она знает, что она не получила разрешения от их авторов».

Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Однако новый иск, станет первым, затрагивающим использование текстовых данных, и он может создать прецедент для будущих судебных дел о нарушении авторских прав в области ИИ.

На создателей ChatGPT подали в суд за незаконное использование данных миллионов интернет-пользователей

Юридическая компания Clarkson обратилась в федеральный суд северного округа Калифорнии с коллективным иском против OpenAI, разработчика популярного ИИ-бота ChatGPT. Заявитель считает, что разработчик нарушил права миллионов интернет-пользователей, используя их публично доступные данные для обучения больших языковых моделей, которые являются основой ИИ-алгоритмов.

 Источник изображения: Pixabay

Источник изображения: Pixabay

По словам управляющего партнёра Clarkson Райана Кларксона (Ryan Clarkson), компания хочет представлять в суде интересы «реальных людей, чьи данные были украдены и незаконно присвоены для создания этой очень мощной технологии». Согласно имеющимся сведениям, речь идёт об общедоступных данных пользователей, таких как комментарии в социальных сетях, сообщения в блогах, статьи в «Википедии» и др. Официальные представители OpenAI пока воздерживаются от комментариев по данному вопросу.

Судебный иск Clarkson затрагивает главную нерешённую проблему в сфере генеративных нейросетей, таких как ИИ-боты и генераторы изображений. Такие инструменты обучаются на огромном количестве данных, доступных в интернете. После завершения обучения большие языковые модели могут формировать ответы при общении с человеком, сочинять стихи или рассказы, вести сложные беседы и др. Однако люди, чьи данные используются при обучении нейросетей, не давали согласия на использование этой информации кем-то вроде OpenAI.

«Вся эта информация используется масштабно, хотя она никогда не предназначалась для обучения больших языковых моделей», — заявил Кларксон. Он также рассчитывает, что суд установит определённые ограничения в плане того, как могут обучаться ИИ-алгоритмы, и как люди могут получить компенсацию за использование их данных. По данным источника, у компании уже есть группа истцов, и она активно ищет новых клиентов.

Иск Clarkson к OpenAI является не первым случаем, когда разработчиков ИИ-алгоритмов обвиняют в незаконном использовании данных. В ноябре прошлого года был подан иск против OpenAI и Microsoft в связи с тем, что компании использовали программный код на платформе GitHub для обучения ИИ-инструментов. В феврале платформа Getty Images подала в суд на Stability AI, обвинив компанию в незаконном использовании изображений сервиса для обучения своей генеративной нейросети.

Цукерберг и Альтман согласились с предложенными в Европе мерами госрегулирования ИИ

Глава Meta Марк Цукерберг (Mark Zuckerberg) и гендиректор OpenAI Сэм Альтман (Sam Altman) выразили поддержку мер государственного надзора над технологиями искусственного интеллекта, которые продвигает Еврокомиссар по вопросам внутреннего рынка Тьерри Бретон (Thierry Breton).

 Источник изображения: ALEXANDRE LALLEMAND / unsplash.com

Источник изображения: ALEXANDRE LALLEMAND / unsplash.com

Накануне Цукерберг и Бретон провели встречу, на которой согласовали меры госрегулирования технологий ИИ в части оценки рисков. Поддержку курсу ЕС выразил и Сэм Альтман, глава выпустившего ChatGPT стартапа OpenAI. «Мы рассчитываем на сотрудничество с вами — оно поможет предлагать в Европе услуги в соответствии с требованиями европейского рынка», — заверил Альтман Бретона.

На этой неделе Бретон нанёс визиты в штаб-квартиры технологических компаний. По итогам посещения офиса Meta чиновник заявил, что владелец Facebook и Instagram достаточно подготовился к соблюдению строгих правил модерации контента в Европе, и в июле будет проведён стресс-тест систем компании. Согласие на эту меру дал лично Марк Цукерберг — он считает необходимым провести оценку того, как Meta справится с соблюдением норм модерации контента. Сейчас над внедрением DSA в Meta работают около тысячи человек.

Бретон также обсудил технологии ИИ с главой NVIDIA Дженсеном Хуангом (Jensen Huang) — эта компания лидирует на рынке ИИ-ускорителей. Хуанг заявил, что NVIDIA с большой вероятностью будет инвестировать в Европу. Наконец, европейский чиновник провёл встречу с владельцем Twitter Илоном Маском (Elon Musk) и новой главой соцсети Линдой Яккарино (Linda Yaccarino), после чего заявил журналистам, что платформе потребуется выделить дополнительные ресурсы для работы с контентом, если она хочет обеспечить соблюдение европейских нормативов до августа, когда они вступят в силу.

OpenAI успешно пролоббировала в Евросоюзе более мягкий подход к регулированию ИИ

OpenAI, создатель ИИ-чат-бота ChatGPT, лоббировала в Евросоюзе использование более мягких подходов при разработке законодательства, регулирующего применение генеративного ИИ, пишет Time со ссылкой на полученные копии документов Еврокомиссии.

 Источник изображения: Pixabay

Источник изображения: Pixabay

По данным источника, OpenAI обратилась к европейским законодателям с просьбой внести несколько поправок в проект «Закона об искусственном интеллекте». В частности, она предложила не относить системы ИИ общего назначения (GPAI), такие, как OpenAI ChatGPT и DALL-E, к «высокорисковым», что налагало бы на них самые строгие обязательства по обеспечению безопасности и прозрачности. OpenAI утверждает, что только компании, явно применяющие ИИ в областях и задачах с высоким риском, должны соблюдать правила для этой категории. «Сама по себе GPT-3 не является системой высокого риска, но обладает возможностями, которые потенциально могут быть использованы в случаях использования с высоким риском», — указала OpenAI в официальном документе, направленном должностным лицам Еврокомиссии и Совета ЕС в сентябре 2022 года.

В июне 2022 года состоялась встреча представителей OpenAI и Европейской комиссии с целью уточнения категорий рисков, предложенных в проекте Закона об ИИ. «Они были обеспокоены тем, что системы ИИ общего назначения будут включены в список систем с высоким риском, а также тем, что большее количество систем по умолчанию будет отнесено к категории с высоким риском», — указано в официальном протоколе встречи. По словам источника Time в Еврокомиссии, на этой встрече представители OpenAI выразили обеспокоенность тем, что предполагаемое чрезмерное регулирование может повлиять на инновации в области ИИ.

Похоже, что лоббирование OpenAI было большей частью успешным — GPAI не относится к категории высокорисковых в окончательном проекте закона ЕС об ИИ, одобренном 14 июня. Однако в нём предъявляются более высокие требования к прозрачности «базовых моделей» — мощных систем ИИ, таких как GPT-3, которые можно использовать для разных задач. Это потребует от компаний проводить оценку рисков и раскрывать, использовались ли материалы, защищённые авторским правом, для обучения их моделей ИИ.

Представитель OpenAI сообщил Time, что OpenAI поддерживает включение в закон об ИИ «базовых моделей» в качестве отдельной категории несмотря на то, что компания предпочитает не разглашать источники данных для обучения своих моделей ИИ, опасаясь судебных исков о нарушении авторских прав.

До вступления «Закона ЕС об ИИ» в силу пройдёт ещё немало времени. Как ожидается, он будет одобрен в конце этого года, а на его вступление в силу может уйти до двух лет.

Обычного разговора с ChatGPT оказалось достаточно, чтобы спроектировать часть процессора

Группа исследователей из Нью-Йоркского государственного университета (NYU) успешно разработала полупроводниковый чип, не используя при этом язык описания аппаратуры (HDL). С помощью обычного английского языка и содержащихся в нём терминов и примеров команда смогла определить и описать часть полупроводникового процессора — обычно для этого служит специальный HDL-язык вроде Verilog.

 Источник изображения: freepik

Источник изображения: freepik

Чип, разработанный исследовательской группой с помощью ChatGPT, не был полноценным процессором — ничего общего с процессором Intel или AMD. Созданный полупроводник — это элемент процессора: логика, отвечающая за создание новой 8-битной микропроцессорной архитектуры на основе аккумуляторов — регистров (память), в которых результаты промежуточных вычислений хранятся до завершения основного вычисления.

Обычно команды работают в несколько этапов, чтобы довести чип до проектирования и производства. Один из таких этапов связан с переводом английского языка, описывающего чип и его возможности, на выбранный HDL, который представляет фактическую геометрию, плотность и общее расположение различных элементов внутри чипа, что необходимо для самого травления процессора.

В данном случае ChatGPT позволил инженерам пропустить стадию HDL. По словам исследователей, они ожидают, что в процессе перевода HDL будет меньше ошибок, вызванных человеческим фактором, что будет способствовать повышению производительности, сокращению времени проектирования и времени выхода чипов на рынок, а также позволит создавать более креативные проекты.

 Источник изображения: NYU Tandon

Источник изображения: NYU Tandon

Исследователи использовали коммерческие и общедоступные большие языковые модели (LLM) для работы над восемью примерами проектирования аппаратного обеспечения, прорабатывая текст на обычном английском языке до его эквивалента на языке Verilog (HDL) в режиме реального взаимодействия между инженерами и LLM. «Результатом этого исследования стало то, что мы считаем первым HDL, полностью сгенерированным ИИ, для изготовления физического чипа», — сказал доктор Хэммонд Пирс, доцент NYU Tandon и член исследовательской группы.

«Некоторые модели ИИ, такие как ChatGPT от OpenAI и Bard от Google, могут генерировать программный код на различных языках программирования, но их применение в проектировании аппаратного обеспечения ещё не было широко изучено. Это исследование показывает, что ИИ может принести пользу и в производстве оборудования, особенно если он используется в разговорном режиме для совершенствования конструкций» — дополнил Пирс.

Одна вещь, которая вызывает больше опасений — это желание устранить необходимость свободного владения HDL среди разработчиков микросхем. Будучи чрезвычайно специализированной и сложной областью, это относительно редкий навык, которым очень трудно овладеть. Конечно, автоматизация части этого процесса будет несомненным благом, так как она ускорит работу существующих специалистов, в то время как новые специалисты подтягиваются и обучаются. Однако есть риск поставить этот навык в полную зависимость от программного обеспечения, работа которого зависит от электричества и, в случае с ChatGPT, подключения к серверу.


window-new
Soft
Hard
Тренды 🔥
Новые пошлины США обойдутся Meta в несколько миллиардов долларов — снижать темпы развития ИИ ЦОД компания не намерена 19 мин.
Huawei представила быстрый внешний SSD, который переживёт даже наезд автомобиля 28 мин.
В Рио-де-Жанейро построят крупнейший в Латинской Америке кампус ЦОД Rio AI City 49 мин.
Астрономы обнаружили ещё один фрагмент Луны недалеко от Земли 51 мин.
Volkswagen объявила об отзыве электрофургонов ID.Buzz из-за слишком широких сидений 55 мин.
AWS показала самые слабые темпы роста за пять месяцев, но Amazon по-прежнему намерена вкладываться в развитие ЦОД 2 ч.
В Швейцарии построили грузового робота LEVA, который и ездит, и ходит, и загружается, и разгружается 2 ч.
В Австралии запустили солнечный промышленный парогенератор с аккумулятором из особых графитовых кирпичей 3 ч.
Samsung сообщила о рекордной выручке и предупредила о рыночной неопределённости из-за пошлин США 3 ч.
Raspberry Pi снизила цены на CM4: модули подешевели на $5–$10 3 ч.