Сегодня 19 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → gpt-4
Быстрый переход

У GPT-4 обнаружили способность эксплуатировать уязвимости по их описаниям

Современные технологии искусственного интеллекта могут помочь хакерам автоматизировать эксплуатацию общедоступных уязвимостей за считанные минуты. Это значит, что в ближайшем будущем оперативное обновление ПО станет как минимум насущной необходимостью.

 Источник изображения: Tung Nguyen / pixabay.com

Источник изображения: Tung Nguyen / pixabay.com

Системы ИИ на базе нейросети OpenAI GPT-4 способны создавать эксплойты для большинства уязвимостей на основе простого изучения информации о них в интернете, гласят результаты нового исследования (PDF) учёных Иллинойского университета в Урбане-Шампейне (США). До настоящего момента злоумышленники применяли большие языковые модели для написания фишинговых писем и вредоносных программ с базовыми возможностями. Теперь же, располагая доступом к GPT-4 и открытым фреймворкам для упаковки программных решений, они могут автоматизировать написание эксплойтов к уязвимостям, как только информация об этих уязвимостях попадает в открытый доступ.

Для проверки гипотезы учёные подготовили набор инструментов из следующих компонентов: базовой нейросети, средства создания запросов к ней, фреймворка (в данном случае это был инструмент ReAct фреймворка LangChain), а также терминала и интерпретатора кода. Укомплектованный таким образом агент был протестирован на 15 известных уязвимостях ПО с открытым исходным кодом. Среди них были ошибки, застрагивающие веб-сайты, контейнеры и пакеты Python. Восемь из них имели «высокий» или «критический» рейтинг CVE. Одиннадцать были раскрыты уже после момента обучения GPT-4, то есть ИИ познакомился с ними впервые. Системе было поручено поочерёдно разработать эксплойты для каждой уязвимости, изучив их описания. Результаты эксперимента оказались неутешительными.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Всего были оценены десять ИИ-моделей, включая OpenAI GPT-3.5, Meta Llama 2, и девять из них не смогли взломать ни один из уязвимых продуктов. А вот нейросеть GPT-4 предложила 13 эффективных эксплойтов или 87 % от общего числа известных уязвимостей. Две неудачи, которые потерпела GPT-4, имеют простые объяснения. Уязвимость CVE-2024-25640 (рейтинг 4,6 из 10) относится к платформе реагирования на инциденты Iris, и модель просто не смогла разобраться с навигацией в приложении. Неудача с эксплуатацией уязвимости CVE-2023-51653 («критический» рейтинг 9,8 из 10) в инструменте мониторинга Hertzbeat возникла из-за того, что описание этой уязвимости было приведено на китайском языке.

В свете результатов своего исследования учёные сделали вывод, что вопросы кибербезопасности сегодня становятся актуальными как никогда: администраторам в компаниях скоро нельзя будет ожидать выхода исправляющих уязвимости патчей, а использовать для защиты систем те же технологии ИИ, что и вероятный противник. Впрочем, в этом ИИ пока недостаточно хорош, выяснили эксперты компании Endor Labs — они провели эксперимент, поручив нескольким моделям ИИ изучить ряд проектов с открытым исходным кодом на предмет того, являются ли соответствующие продукты вредоносными или безопасными. GPT-4 снова оказалась лучше прочих: она преимущественно верно объяснила принципы работы кода, но, как и её «коллеги», дала несколько ложноположительных и ложноотрицательных срабатываний в оценке его безопасности. В частности, она назвала добросовестно оптимизированный код намеренно обфусцированным, то есть запутанным.

OpenAI GPT-4 достигла уровня врачей-офтальмологов в диагностике глазных заболеваний

Большая языковая модель искусственного интеллекта OpenAI GPT-4 достигла тех же результатов, что и врачи-специалисты, в оценке глазных заболеваний и выработке методов их лечения — или превзошла их, пишет Financial Times со ссылкой на материалы исследования. Сильнее ИИ оказались лишь лучшие специалисты.

 Источник изображения: u_9p7tw4noz0 / pixabay.com

Источник изображения: u_9p7tw4noz0 / pixabay.com

Офтальмология оказалась центральным направлением проекта по внедрению ИИ в клиническую практику, а также по устранению препятствий к этому, например, галлюцинаций — склонности моделей выдавать явно не соответствующую действительности информацию. В рамках исследования рассматривались 87 сценариев лечения пациентов, чего хватило, чтобы оценить эффективность GPT-4 по сравнению с непрофильными врачами, стажёрами и опытными офтальмологами. Модель превзошла молодых врачей и добилась результатов на уровне опытных специалистов.

Исследование примечательно тем, что в нём сравнивались способности нейросети с возможностями практикующих врачей, а не результатами обследований. Кроме того, здесь применялись широкие возможности генеративного ИИ, а не узкая специализация, которая рассматривалась в предыдущих проектах, таких как оценка рисков онкологии на основе материалов сканирования пациентов. Модель одинаково хорошо справилась с вопросами как на простое наличие знаний, так и на способность рассуждать: интерполировать, интерпретировать и обрабатывать информацию.

GPT-4 можно усовершенствовать, проведя дополнительное обучение на расширенном наборе данных, включая алгоритмы управления, записи о реальных пациентах (без личной информации) и учебники, пояснил автор исследования в школе клинической медицины при Кембриджском университете Арун Тирунавукарасу (Arun Thirunavukarasu). Для этого требуется соблюсти баланс между увеличением количества и характера источников и высоким качеством данных. На практике такие модели помогут определять приоритет пациентов, когда доступ к специалистам ограничен.

Но и излишне доверяться ИИ тоже преждевременно, предупредил профессор Университетского колледжа Лондона Пирс Кин (Pearse Keane), работающий также в лондонской офтальмологической больнице «Мурфилдс» (Moorfields Eye Hospital). В прошлом году он задал большой языковой модели вопрос о дегенерации жёлтого пятна в глазах и получил не соответствующий действительности ответ.

ИИ-помощник Copilot обновился до GPT-4 Turbo, но только для бизнес-пользователей Microsoft 365

Microsoft расширила функциональность своего ИИ-помощника Copilot для бизнес-подписчиков Microsoft 365, предоставив им доступ к инновационной модели GPT-4 Turbo и улучшенным возможностям генерации изображений. Это обновление не только снимает ограничение на количество ежедневных сессий общения с ИИ, но и значительно расширяет креативные и аналитические возможности сотрудников компаний в рамках единой подписки.

 Источник изображения: Microsoft

Источник изображения: Microsoft

За фиксированную стоимость в размере $30 на одного пользователя в месяц подписчики теперь способны вести неограниченное количество диалогов с ИИ-помощником Copilot и получать от него мгновенные ответы на сложные запросы, обрабатывая данные из широкого спектра источников, включая документы, электронные письма и планировщики встреч — всё это благодаря интеграции сервиса с GPT-4 Turbo.

GPT-4 Turbo, отличающийся способностью анализировать до 300 страниц текста за один запрос, предоставляет бизнес-пользователям максимальную точность в обработке информации. Это существенно повышает эффективность принятия решений и ускоряет выполнение рабочих задач.

Кроме того, для пользователей Copilot Microsoft значительно расширила возможности генерации изображений в пакете Designer, увеличив дневной лимит до 100 изображений.

Подобный шаг отражает стремление Microsoft форсировать применение ИИ в бизнес-процессах своих клиентов, предоставляя подписчикам инструменты для повышения продуктивности и креативности. Благодаря обновлениям, компании теперь могут эффективнее использовать ИИ для анализа данных, создания контента и управления информацией в корпоративной среде.

Claude 3 Opus сбросила GPT-4 с первого места в рейтинге языковых моделей

Большая языковая модель (LLM) Claude 3 Opus от Anthropic впервые превзошла GPT-4 (модель в основе ChatGPT) от OpenAI на Chatbot Arena — популярной площадке, где пользователи оценивают качество работы чат-ботов. «Король мёртв», — написал в социальной сети X разработчик ПО Ник Добос [Nick Dobos].

 Источник изображения: Anthropic

Источник изображения: Anthropic

Зашедшим на сайт пользователям Chatbot Arena предлагается ввести запрос, после чего демонстрируются два результата от неуказанных языковых моделей — человек должен выбрать, какой результат нравится больше. Проведя тысячи сравнений, Chatbot Arena заполняет обновляемую рейтинговую таблицу. Сайт управляется исследовательской организацией Large Model Systems Organization (LMSYS ORG), занимающейся открытыми ИИ-моделями.

«Впервые на вершине рейтинга ИИ-модели не от OpenAI: Opus для сложных задач, Haiku — для вариантов, когда нужно дёшево и быстро. Это обнадёживает — от конкуренции разработчиков все только выиграют. Тем не менее, GPT-4 уже больше года, и конкуренты догнали её только сейчас», — прокомментировал событие независимый исследователь ИИ Саймон Уиллисон (Simon Willison).

Сейчас в рейтинге Chatbot Arena представлены четыре версии GPT-4, поскольку с каждым обновлением вывод модели менялся, и некоторые пользователи предпочитают конкретные версии или же пользуются ими всеми для большей стабильности результатов. GPT-4 появилась в Chatbot Arena 10 мая 2023 года, через неделю после запуска рейтинга, и с тех пор различные версии GPT-4 неизменно занимали верхние строчки.

Chatbot Arena ценится исследователями ИИ за возможность более-менее объективно оценить эффективность чат-ботов, что весьма непросто, и ключевым фактором здесь становится множество оценок, складывающихся в общую картину. Субъективные оценки играют немалую роль в сфере ИИ, где разработчик модели может выбрать конкретные показатели в рекламных целях. «Не так давно я долго программировал с использованием ИИ-модели Claude 3 Opus, и она полностью разгромила GPT-4», — написал в X разработчик ПО для ИИ Антон Бакай (Anton Bacaj).

Успех рвущейся к вершинам рейтинга Claude 3 от Anthropic уже подтолкнул некоторых пользователей перейти на неё с GPT-4. Тем временем, набирает популярность Gemini Advanced от Google. Позиции OpenAI пошатнулись, но компания не почивает на лаврах и готовит новые модели, среди которых GPT-5.

Нейросеть GPT-4 пугающе легко научили убивать монстров в Doom, но игрок из неё вышел никудышный

Адриан де Винтер (Adrian de Wynter), научный сотрудник Microsoft и исследователь из Йоркского университета (Великобритания), опубликовал работу, посвящённую способности большой языковой модели GPT-4 играть в классический шутер Doom.

 Источник изображения: Lukas / pixabay.com

Источник изображения: Lukas / pixabay.com

В оригинальном виде большая языковая модель OpenAI GPT-4 не поддерживает запуск Doom из-за ограничения на объём входных данных. Поэтому исследователь воспользовался её мультомодальным вариантом GPT-4V, который оказался способным управлять игровым процессом без дополнительного обучения. Для этого исследователь разработал два дополнительных компонента для подключения Doom к нейросети: первый делает снимки экрана в игре и транслирует их GPT-4V, а второй запрашивает у искусственного интеллекта команды на управление игровым процессом и преобразует их в непосредственные команды для игрового контроллера. В результате ИИ стреляет из игрового оружия, сражается с врагами, открывает двери и повторно проходит уровни, улучшая собственные результаты.

Запустив игру, автор исследования быстро обнаружил главную слабость GPT-4V — как только монстры в игре выходят за пределы экрана, ИИ о них «забывает». «Например, для модели было бы естественно увидеть на экране монстра и начать стрелять в него, пока не попадёт или не убьёт его. Это ИИ, написанный для работы на оборудовании 1993 года, и глубокого дерева принятия решений у него нет. Так что монстр стреляет и начинает бегать по комнате. И в чём тут проблема? Ну, во-первых, монстр уходит из поля зрения. Что хуже, он в какой-то момент жахнет. Так что нужно добить его, верно? Это же Doom — жахни ты или жахнут тебя. Оказывается, GPT-4 забывает о монстрах и просто идёт дальше. Причём есть подсказка, что делать модели, если она получает урон, но не видит врага. И, более того, сворачивает с дороги, застревает в углу и умирает. Пару раз она оборачивалась, но за 50–60 прохождений я видел такое <..> скажем, два раза», — рассказал автор исследования.

GPT-4 показала, что не умеет адекватно рассуждать. Когда её попросили объяснить свои действия, которые были в основном правильными в том контексте, объяснения ИИ были слабыми и часто содержали галлюцинации — неверную информацию. Адриан де Винтер счёл примечательной способность GPT-4 играть в Doom без дополнительного обучения, но этот же факт вызвал у него обеспокоенность в этическом аспекте: учёный относительно просто написал код, позволяющий ИИ стрелять, и тот поражает цели, не особо размышляя о последствиях. На практике ИИ вполне сможет тестировать игры, не осознавая, что он делает. Исследователь призвал людей задуматься о возможностях развёртывания подобных моделей на практике и опасности их недобросовестного применения.

Новая ИИ-модель Claude 3 компании Anthropic превзошла аналоги Google и OpenAI

Компания Anthropic, основанная бывшими сотрудниками OpenAI, объявила о запуске нового поколения моделей искусственного интеллекта (ИИ) — Claude 3. Эти модели являются результатом кропотливой работы в области машинного обучения и представляют собой значительный прогресс по сравнению с их предшественниками и текущими аналогами от других разработчиков, включая OpenAI и Google.

 Источник изображений: Anthropic

Источник изображений: Anthropic

Claude 3 отличается мультимодальностью — способностью понимать и обрабатывать как текстовые, так и визуальные данные. Подобное расширение функциональности ИИ-модели делает её не только более гибкой в применении, но и открывает новые горизонты для её использования в различных сферах, от образования до медицины.

В семейство Claude 3 входят три модели: Haiku, Sonnet и Opus. Последняя является самой развитой моделью, которую компания описывает как самую интеллектуальную. В настоящее время модели Opus и Sonnet доступны пользователям через официальный сайт claude.ai и программный интерфейс (API). Модель Haiku, характеризующаяся высокой скоростью обработки данных при минимальных затратах, будет представлена публике в ближайшем будущем.

 Некорректные отказы в ответах у Claude 3 по сравнению с Claude 2.1.

Некорректные отказы в ответах у Claude 3 по сравнению с Claude 2.1.

Отметим, что из-за недостаточного контекстуального понимания предыдущие версии Claude иногда отказывались отвечать на некоторые запросы пользователей, даже если они были безвредными. Новые модели Claude 3 обладают улучшенной способностью к пониманию контекста и меньше склонны к отказам в ответах, что делает их более адаптивными и гибкими в работе.

Claude 3 демонстрирует выдающуюся способность менее чем за 3 секунды обрабатывать и анализировать сложные материалы, такие как научные статьи, включая тексты с диаграммами и графиками. Это ставит её в ряд самых быстрых и экономичных моделей на рынке.

 Модели Claude 3 в сравнении с GPT-4, GPT-3.5 и Gemini 1.0 Ultra / Pro

Модели Claude 3 в сравнении с GPT-4, GPT-3.5 и Gemini 1.0 Ultra / Pro

В ряде бенчмарков модель Opus показала лучшие результаты, чем аналоги компании OpenAI, особенно в задачах, требующих рассуждений уровня магистратуры, где она опередила GPT-4, показав результат 50,4 % против 35,7 % у GPT-4. Это подтверждает её высокие аналитические способности и глубину понимания материала.

Компания Anthropic провела обучение моделей Claude 3, используя смешанный набор данных, включая не только публично доступные источники, но и внутренние данные, что позволило добиться высокого качества обработки информации. Обучение моделей производилось на мощностях облачных сервисов Amazon AWS и Google Cloud, что подчёркивает масштаб и значимость проекта. Обе компании, Amazon и Google, инвестировали значительные средства в развитие Anthropic, что говорит о высокой оценке потенциала её новых ИИ-моделей.

OpenAI сделала нейросети GPT-4 Turbo прививку от лени

Компания OpenAI обновила большую языковую модель GPT-4 Turbo для более тщательного выполнения таких задач, как генерация программного кода, а также «уменьшения случаев "лени", когда модель отказывается выполнять задачу». Что именно было обновлено, разработчики не уточнили.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Не так давно часть пользователей ChatGPT обратила внимание на то, что чат-бот зачастую попросту отказывается выполнять поставленную задачу, что, вероятно, было связано с длительным отсутствием обновлений языковой модели. Нынешнее обновление распространяется только на самую мощную нейросеть компании GPT-4 Turbo, которая была обучена на данных до апреля 2023 года и в настоящее время доступна только в предварительной версии. Пользователи более широко распространённой модели GPT-4, которая обучена на данных до сентября 2021 года, всё ещё могут сталкиваться с проблемами, когда алгоритм отказывается выполнять задачу.

В сообщении OpenAI сказано, что более 70 % пользователей GPT-4, которые используют для взаимодействия с моделью API компании, перешли на GPT-4 Turbo из-за того, что алгоритм обучался на более свежих данных. Компания также планирует в ближайшие месяцы продолжить выпуск обновлений для GPT-4 Turbo, что позволит использовать больше мультимодальных подсказок при взаимодействии с алгоритмом. В дополнение к этому разработчики запустили две меньшие ИИ-модели, которые в компании называют моделями «вложения». Речь идёт о моделях text-embedding-3-small и text-embedding-3-large, которые уже доступны пользователям.

Microsoft открыла бесплатный доступ к мощнейшей нейросети GPT-4 Turbo через Bing Chat, но только избранным

Нейросеть GPT-4 Turbo доступна на платной основе по подписке ChatGPT Plus. Однако компания Microsoft предоставила возможность попробовать её функции совершенно бесплатно. Правда, для этого необходимо случайным образом оказаться в числе отобранных тестировщиков. В настоящий момент Microsoft тестирует интеграцию ChatGPT-4 Turbo, а также поддержку плагинов в своём собственном чат-боте Bing Chat (Microsoft Copilot).

 Источник изображений: Windows Latest

Источник изображений: Windows Latest

Microsoft также планирует обновить функцию Code Interpreter, чтобы привести её в соответствие с возможностями платформы OpenAI. Это означает, что Code Interpreter в Microsoft Copilot вскоре сможет отвечать на более сложные вопросы, связанные с программированием или обработкой данных.

GPT-4 Turbo — это новая модель ChatGPT от OpenAI, основанная на существующей модели GPT-4. Языковая модель обучена на общедоступной информации до апреля 2023 года, поэтому может более точно отвечать на вопросы пользователя о недавних событиях. GPT-4 доступен только для подписчиков тарифа Plus и не является бесплатным.

Со ссылкой на источники в Microsoft портал Windows Latest сообщает, что компания внедряет новейшую модель ChatGPT в свой Bing Chat. Правда, GPT-4 Turbo в этом случае используется не постоянно, а в зависимости от того или иного запроса, а также настроек плагинов. При использовании стандартных настроек Bing Chat может переключаться между своей актуальной ИИ-моделью и GPT-4 Turbo. Возможность протестировать GPT-4 Turbo в составе Bing Chat пока полностью зависит от удачи, поскольку функция доступна только тем, кто был отобран для её тестирования. Однако в Microsoft подтвердили, что планируют расширить развертывание в ближайшие недели.

Также стоит отметить, что при отборе тестировщиков Microsoft не отдает предпочтение конкретным учетным записям или регионам. Отбор происходит полностью случайным образом и работает по принципу A/B-тестирования. Узнать, получил ли пользователь доступ к GPT-4 Turbo в составе Bing Chat, можно несколькими способами. Самый простой — на ПК или ноутбуке зайти по ссылке Bing.com/chat в браузере, создать новую тему и посмотреть исходный код веб-страницы. Затем, используя функцию «Найти на странице» в браузере Edge или Chrome, необходимо через поиск найти dlgpt4t. Если в результате запроса в исходном коде веб-страницы будут обнаружены упоминания dlgpt4t, то это означает, что пользователь имеет доступ к GPT-4 Turbo.

На мобильных устройствах подтвердить своё право на бесплатное использование GPT-4 Turbo в рамках тестирования можно, загрузив в чат-бот Bing Chat какое-нибудь изображение (желательно абстрактное) и попросить ИИ-чат-бота описать эмоции, которые вызывает это изображение. В отличие от предыдущих моделей GPT новейшая модель GPT-4 Turbo в составе Bing Chat может распознавать эмоции и свободно о них говорить.

В Bing Chat также появились настройки плагинов. При желании через эту настройку можно отключить поиск через поисковую платформу Bing в рамках запроса для Bing Chat. При отключении плагина «Поиска в Bing» чат-бот Bing Chat не будет сканировать ссылки в Bing для поиска ответов на запрос. Вместо этого он будет полностью полагаться на свои собственные данные, полученные в ходе обучения.

 При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

При отключённом поиске в Bing чат-бот Bing Chat может динамически переключаться на GPT-4, предоставляя более новую информацию

Способность Bing Chat отвечать на запросы, связанные с событиями в период с января по апрель 2023 года, также подтверждает, что для ответа на запросы используется модель GPT-4 Turbo.

Bing получил функцию «Глубокого поиска» — с ней ИИ расширяет запрос для улучшения выдачи

Компания Microsoft интегрирует в свой поисковик Bing новую ИИ-функцию, которая должна избавить пользователей от составления точных запросов. Функция на основе языковой модели GPT-4 называется «Глубокий поиск», а её предназначение заключается в расширении пользовательского запроса, за счёт чего поисковик сможет выдавать более релевантные результаты.

 Источник изображения: Microsoft

Источник изображения: Microsoft

В качестве примера работы «Глубокого поиска» Microsoft показала, как Bing превращает расплывчатый запрос «как работают системы начисления баллов в Японии» в более подробную инструкцию для поисковика. В результате из короткого запроса получилось следующее:

«Предоставить объяснение того, как работают разные программы карт лояльности в Японии, включая преимущества, требования и ограничения каждой из них. Включить примеры популярных карт лояльности из разных категорий, таких как магазины, супермаркеты и рестораны. Показать сравнение преимуществ и недостатков использования карт лояльности по сравнению с другими способами оплаты в Японии, включая текущие акции и льготы. Выделить наиболее популярные услуги и участвующих в них продавцов».

В дополнение к этому Bing может расширить этот поисковый запрос, включив в него описания миграционной политики и тарифов на общественный транспорт, поскольку GPT-4 пытается «найти все возможные цели» запроса. Какие бы темы не связал с запросом пользователя поисковик, все они будут отображаться на панели на странице поисковой выдачи. В дальнейшем пользователь может выбрать, какая из предложенных тем больше всего соответствует его запросу, после чего «Глубокий поиск» продолжит обрабатывать дынные, ранжируя выдачу «в зависимости от того, насколько хорошо результаты соответствуют подробному описанию».

По данным Microsoft, обработка запроса с помощью новой функции может занимать до 30 секунд. Если же пользователь не хочет ждать так долго, то он сможет отказаться от нововведения и продолжить взаимодействовать с обычным поиском Bing.

Microsoft переведёт ИИ-помощника Copilot на флагманскую нейросеть GPT-4 Turbo

Компания Microsoft анонсировала ряд нововведений, которые получит её ИИ-помощник Copilot. В скором времени Copilot получит поддержку флагманской нейросети GPT-4 Turbo, а также обновленную модель DALL-E 3. Также помощник получит интерпретатора программного кода, а поисковик Bing обзаведётся функцией «Глубокого поиска» на базе ИИ.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Скоро Copilot сможет отвечать на запросы, используя новейшую модель GPT-4 Turbo от OpenAI, что означает, что он сможет принять больше данных благодаря контекстному окну размером 128 тыс. символов. Увеличенное контекстное окно позволит Copilot лучше понимать запросы и предлагать более качественные ответы. «В настоящее время эта модель тестируется отдельными пользователями и будет интегрирована в Copilot в ближайшие недели», – сообщил Юсуф Медхи (Yusuf Medhi), директор по потребительскому маркетингу в Microsoft.

Пока пользователи дожидаются появления модели GPT-4 Turbo в Copilot, Microsoft уже задействовала модель DALL-E 3 в Bing Image Creator и Copilot. «Теперь вы можете использовать Copilot для создания изображений, которые будут ещё более высокого качества и более точно соответствовать запросам благодаря обновлённой модели DALL-E 3», – утверждает Медхи.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Microsoft Edge, в котором есть боковая панель Copilot, также получил возможность компоновки текста на веб-сайтах, чтобы переписывать предложения в режиме реального времени. Кроме того, теперь вы можете использовать Copilot в Microsoft Edge для конспектирования видеороликов, которые вы смотрите на YouTube.

Разработчиков же может заинтересовать новая функция интерпретатора кода, которая скоро появится в Copilot. Эта новая функция позволит пользователям Copilot получать от ИИ-чат-бота более точные расчеты, анализ данных и даже код. «Copilot будет писать код для ответа на сложные запросы на естественном языке, запускать его в изолированной среде и использовать результаты для получения более качественных ответов, – поясняют в Microsoft. – Вы также сможете загружать и скачивать файлы в Copilot и из него, чтобы работать с собственными данными и кодом, а также с результатами поиска Bing».

Что касается, собственно Bing, то Microsoft добавляет в него результаты так называемого «Глубокого поиска». «Deep Search использует возможности GPT-4 для предоставления оптимизированных результатов поиска по сложным темам, — поясняет Медхи. — Активация Deep Search расширяет поисковые запросы до более полных описаний, чтобы предоставить более релевантные результаты».

OpenAI запустит партнёрскую программу, призванную собирать уникальные данные от сторонних организаций для обучения ИИ

Компания OpenAI объявила о запуске новой партнёрской программы OpenAI Data Partnerships, целью которой является получение уникальных наборов данных от сторонних организаций для обучения своих ИИ-моделей. Эта инициатива направлена на привлечение обширных баз данных, в том числе тех, которых нет в свободном доступе. Отличительной чертой программы является её всеобъемлющий характер: данные не обязательно должны быть количественными или в текстовом формате — программа также открыта для изображений, аудио и видео.

 Источник изображения: Franz26 / Pixabay

Источник изображения: Franz26 / Pixabay

Собираемые данные могут охватывать любую тематику и быть представлены на любом языке, главное требование — они должны отражать человеческое намерение, быть похожими на длинные сочинения или тщательно расшифрованные диалоги. Это позволит OpenAI существенно улучшить такие инструменты, как технологии автоматического распознавания речи, и расширить функциональность ChatGPT, в том числе поддержку голосовых запросов, что сделает взаимодействие с пользователем более естественным.

Проведение тестирования модели в рамках OpenAI Data Partnerships в будущем расширит возможности флагманской нейросети GPT-4 Turbo, которая недавно была обновлена для более содержательных ответов пользователям. Компания сообщает, что уже начала работать с заинтересованными организациями, в том числе с правительством Исландии. С помощью специально подобранных наборов данных OpenAI стремится улучшить способность GPT-4 понимать запросы пользователей на исландском языке.

Частные или государственные организации, желающие участвовать в партнёрской программе OpenAI, могут подать заявку на сайте компании, указав тип и объём предоставляемых данных. Предлагаются два пути передачи данных: первый — это архив Open-Source, который идеально подходит для наборов данных, имеющих отношение к обучению языковых моделей. Однако данные, представленные таким образом, будут доступны всем желающим.

В качестве альтернативы OpenAI предлагает организациям предоставить информацию в виде частных данных, которые будут использованы в обучении собственных ИИ-моделей, включая базовые, точные и пользовательские модели. Этот вариант рекомендуется для компаний и учреждений, которые хотят сохранить конфиденциальность своих данных. OpenAI подчёркивает, что не заинтересована в данных, содержащих персональную или чувствительную информацию.

При реализации этой программы внимание общественности будет приковано к вопросам конфиденциальности, учитывая растущую аудиторию ChatGPT, которая насчитывает около 100 млн активных пользователей еженедельно. Прецеденты, такие как утечка данных, допущенная сотрудниками Samsung, показывают важность обеспечения безопасности информации.

OpenAI заверяет, что не использует генерируемые через свой API данные для обучения собственных ИИ-моделей без явного согласия пользователей. Однако методы обработки и защиты конфиденциальных данных, собранных в рамках партнёрской программы OpenAI Data Partnerships, будут тщательно анализироваться как специалистами, так и широкой общественностью.

OpenAI представила флагманскую нейросеть GPT-4 Turbo — мощнее и в разы дешевле GPT-4

Сегодня на своей первой конференции для разработчиков компания OpenAI представила GPT-4 Turbo — улучшенную версию своей флагманской большой языковой модели. Разработчики из OpenAI отмечают, что новая GPT-4 Turbo стала мощнее и в то же время дешевле, чем GPT-4.

 Источник изображения: CNET

Источник изображения: CNET

Языковая модель GPT-4 Turbo будет предлагаться в двух версиях: одна предназначена исключительно для анализа текста, вторая понимает контекст не только текста, но и изображений. Модель анализа текста доступна в виде предварительной версии через API, начиная с сегодняшнего дня. Обе версии нейросети компания пообещала сделать общедоступными «в ближайшие недели».

Стоимость использования GPT-4 Turbo составляет 0,01 доллара за 1000 входных токенов (около 750 слов) и 0,03 доллара за 1000 выходных токенов. Под входными токенами понимаются фрагменты необработанного текста. Например, слово «fantastic» разделяется на токены «fan», «tas» и «tic». Выходные токены, в свою очередь, это токены, которые модель генерирует на основе входных токенов. Цена на GPT-4 Turbo для обработки изображений будет зависеть от размера изображения. Например, обработка изображения размером 1080 × 1080 пикселей в GPT-4 Turbo будет стоить 0,00765 доллара.

«Мы оптимизировали производительность, поэтому можем предлагать GPT-4 Turbo по цене в три раза дешевле для входных токенов и в два раза дешевле для выходных токенов по сравнению с GPT-4», — сообщила OpenAI в своём блоге.

Для GPT-4 Turbo обновили базу знаний, которая используется при ответе на запросы. Языковая модель GPT-4 обучалась на веб-данных до сентября 2021 года. Предел знаний GPT-4 Turbo — апрель 2023 года. Иными словами, на запросы, имеющие отношение к последним событиям (до апреля 2023 года), нейросеть будет давать более точные ответы. На основе множества примеров из интернета GPT-4 Turbo обучилась прогнозировать вероятность появления тех или иных слов на основе шаблонов, включая семантический контекст окружающего текста. Например, если типичное электронное письмо заканчивается фрагментом «С нетерпением жду…», GPT-4 Turbo может завершить его словами «… вашего ответа».

Вместе с этим модель GPT-4 Turbo получила расширенное контекстное окно (количество текста, учитываемое в процессе генерации). Увеличение контекстного окна позволяет модели лучше понимать смысл запросов и выдавать более подходящие им ответы, не отклоняясь от темы. Модель GPT-4 Turbo имеет контекстное окно в 128 тыс. токенов, что в четыре раза больше, чем у GPT-4. Это самое большое контекстное окно среди всех коммерчески доступных моделей ИИ. Оно превосходит контекстное окно модели Claude 2 от Anthropic, которая поддерживает до 100 тыс. токенов. Anthropic утверждает, что экспериментирует с контекстным окном на 200 тыс. токенов, но ещё не внесла эти изменения в открытый доступ. Контекстное окно в 128 тыс. токенов соответствует примерно 100 тыс. словам или 300 страницам текста, что равносильно размеру романов «Грозовой перевал» Эмили Бронте, «Путешествия Гулливера» Джонатана Свифта или «Гарри Поттер и узник Азкабана» Джоан Роулинг.

Модель GPT-4 Turbo способна генерировать действительный JSON-формат. По словам OpenAI, это удобно для веб-приложений, передающих данные, например для тех, которые отправляют данные с сервера клиенту, чтобы их можно было отобразить на веб-странице. GPT-4 Turbo в целом получила более гибкие настройки, которые окажутся полезными разработчикам. Более подробно об этом можно узнать в блоге OpenAI.

«GPT-4 Turbo работает лучше, чем наши предыдущие модели, при выполнении задач, требующих тщательного следования инструкциям, таких как генерация определённых форматов (например, “всегда отвечать в XML”). Кроме того, GPT-4 Turbo с большей вероятностью вернёт правильные параметры функции», — сообщает компания.

Также GPT-4 Turbo может быть интегрирован с DALL-E 3, функциями перевода текста в речь и зрительным восприятием, расширяя возможности использования ИИ.

OpenAI также объявила, что будет предоставлять гарантии защиты авторских прав для корпоративных пользователей через программу Copyright Shield. «Мы теперь будем защищать наших клиентов и оплачивать понесённые расходы, если они столкнутся с юридическими претензиями о нарушении авторских прав», — заявила компания в своём блоге. Ранее то же самое сделали Microsoft и Google для пользователей их ИИ-моделей. Copyright Shield будет покрывать общедоступные функции ChatGPT Enterprise и платформы для разработчиков OpenAI.

Для GPT-4 компания запустила программу тонкой настройки, предоставляя разработчикам еще больше инструментов для кастомизации ИИ под определённые задачи. По словам компании, в отличие от программы тонкой настройки GPT-3.5, предшественника GPT-4, программа тонкой настройки GPT-4 потребует большего контроля и руководства со стороны OpenAI, в основном из-за технических препятствий.

Компания также удвоила лимит скорости ввода и вывода токенов в минуту для всех платных пользователей GPT-4. При этом цена осталась прежней: 0,03 доллара за входной токен и 0,06 доллара за выходной токен (для модели GPT-4 с контекстным окном на 8000 токенов) или 0,06 доллара за входной токен и 0,012 доллара за выходной токен (для модели GPT-4 с контекстным окном на 32 000 токенов).

ChatGPT Plus получил поддержку файлов разных форматов и научился сам выбирать режимы работы

OpenAI внедрила новые бета-функции для подписчиков сервиса ChatGPT Plus. Среди ключевых нововведений — возможность загрузки и анализа файлов различных форматов, а также мультимодальная поддержка. Теперь система самостоятельно определяет, какой режим работы чат-бота является наиболее подходящим для пользователя, исходя из контекста диалога. Эти инновации делают индивидуальную подписку ChatGPT Plus функционально схожей с корпоративным планом ChatGPT Enterprise.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Как было отмечено выше, обновление включает в себя возможность загрузки и обработки файлов. После передачи файла в ChatGPT чат-боту требуется несколько мгновений, чтобы обработать его, а затем он может выполнять такие действия, как обобщение данных, ответы на вопросы или создание визуализации данных на основе подсказок.

Это касается не только текстовых документов, но и графических изображений. В сети Threads опубликован пример, в котором пользователь загрузил фотографию капибары и попросил ChatGPT создать на её основе изображение в стиле Pixar с использованием технологии DALL-E 3.

 Источник изображения: luokai / Threads

Источник изображения: luokai / Threads

Другой важной особенностью является мультимодальная поддержка. Теперь пользователям не нужно вручную выбирать режимы работы из выпадающего списка GPT-4. Чат-бот, опираясь на контекст общения с пользователем, самостоятельно угадывает потребности пользователя. Это значительно упрощает работу с ИИ и делает использование сервиса более интуитивным.

 Источник изображения: luokai / Threads

Источник изображения: luokai / Threads

Перечисленные функции, как отмечается, приближают стандартную индивидуальную подписку ChatGPT Plus к функциональности корпоративного плана ChatGPT Enterprise. В последнем, например, уже доступны функции для расширенного анализа данных и работы с большими объёмами информации.

Нововведения ChatGPT Plus являются значимым шагом в улучшении пользовательского опыта и расширении функциональных возможностей сервиса. Перечисленные изменения не только делают использование чат-бота более удобным и эффективным, но и открывают новые горизонты для применения ИИ в повседневной жизни и бизнес-процессах. С учётом быстрого темпа развития технологий можно ожидать, что в ближайшем будущем нас ждут ещё более радикальные и интересные изменения в этой сфере.

OpenAI открыла доступ к API языковой модели GPT-4 — самой продвинутой в своём арсенале

OpenAI открыла доступ к GPT-4, своей наиболее продвинутой языковой модели ИИ, через облачный API. Вместе с этим компания предоставила сторонним разработчикам доступ к API трёх других своих моделей ИИ. Кроме того, OpenAI объявила о своих планах постепенно отказаться от ряда более ранних нейронных сетей.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI представила GPT-4 в марте как преемника GPT-3, ИИ-модели, которая за три года до этого привлекла к компании внимание всей отрасли. GPT-4 более эффективно интерпретирует инструкции пользователя, может принимать изображения в качестве входных данных и обладает расширенными возможностями обработки поставленных задач. Последние усовершенствования позволяют модели легче выполнять сложные запросы пользователей, например, решать математические задачи.

API GPT-4 позволяет разработчикам интегрировать модель в свои приложения. Сервис теперь доступен для всех клиентов, которые ранее приобрели доступ к API. Компания откроет доступ для новых разработчиков позднее в этом месяце. В дальнейшем OpenAI намерена увеличить лимиты использования API. В долгосрочные планы компании входит запуск так называемой возможности тонкой настройки, которая позволит разработчикам повысить точность GPT-4 путём обучения на пользовательских наборах данных.

Вместе с API GPT-4 был открыт доступ к программному интерфейсу трёх других моделей. Первая из них — GPT-3.5 Turbo, предшественница GPT-4, которая предлагает более ограниченные возможности за значительно меньшую стоимость. OpenAI также открыла доступ к API своих моделей DALL-E и Whisper. Последние две нейронные сети оптимизированы для генерации изображений и транскрибирования речи соответственно.

В связи с этим событием OpenAI также объявила о планах прекратить работу ряда ранних языковых моделей, доступных через API. Они будут отключены 4 января 2024 года. Некоторые из затронутых моделей будут автоматически обновлены до более новых продуктов OpenAI, в то время как другие потребуют от разработчиков ручного перехода.

Изменения частично связаны с обновлением API. Многие из моделей, которые будут постепенно отменены, используют прикладной интерфейс программирования, который OpenAI называет Completions API. Первоначально он стал доступен в 2020 году. Например, энтузиасту, чтобы подключиться к Chat Completion API и запустить ChatGPT на 39-летнем компьютере IBM , пришлось вручную написать весь запрос POST на языке C. В марте этого года OpenAI представила новый интерфейс под названием Chat Completions API, который станет основным направлением дальнейшей разработки.

«Первоначально Completions API был представлен в июне 2020 года, чтобы обеспечить текстовую подсказку свободной формы для взаимодействия с нашими языковыми моделями. С тех пор мы поняли, что часто можем обеспечить лучшие результаты с помощью более структурированного интерфейса подсказок», — сообщает OpenAI в своём блоге.

Новый API Chat Completions вносит несколько улучшений. В первую очередь, он обеспечивает защиту от атак с внедрением подсказок, которые представляют собой попытки хакеров изменить вывод модели ИИ с помощью вредоносных инструкций. Это усовершенствование должно помочь разработчикам повысить безопасность своих приложений на базе OpenAI.

Продвинутые инструменты OpenAI и их растущая доступность открывают новые возможности для разработчиков и исследователей по всему миру. Однако как и с любыми новыми технологиями, важно использовать их ответственно и с учётом возможных рисков. OpenAI продолжает работать над улучшением своих моделей и сервисов, стремясь обеспечить безопасность и эффективность их использования.

На OpenAI подали в суд за незаконное использование литературных произведений для обучения нейросетей

На OpenAI снова подали в суд за использование произведений для обучения ИИ. Два известных писателя подали иск против компании, которая стоит за ChatGPT и Bing Chat, в нарушении авторских прав. По их мнению, OpenAI использовала их произведения в качестве обучающих данных. Это, по всей видимости, первый поданный иск об использовании текста (в отличие от изображений или кода) в качестве обучающих данных.

В поданном в окружной суд Северного округа Калифорнии иске истцы Пол Тремблей (Paul Tremblay) и Мона Авад (Mona Awad) утверждают, что OpenAI и её дочерние компании нарушили авторские права, нарушили Закон об авторском праве в цифровую эпоху (DMCA), а также нарушили калифорнийские и общие законодательные ограничения на недобросовестную конкуренцию.

Писатели представлены юридической фирмой Джозефа Савери (Joseph Saveri) и Мэттью Баттерика (Matthew Butterick), той же командой, которая стоит за недавними исками, поданными против Stable Diffusion AI и GitHub. В жалобе утверждается, что роман Тремблея «Хижина на краю света» и два романа Авад: «13 способов посмотреть на толстую девушку» и «Зайка» использовались в качестве обучающих данных для GPT-3.5 и GPT-4. Хотя OpenAI не раскрывала, что эти романы находятся в её обучающих данных (которые держатся в секрете), истцы делают вывод, что они должны быть там, поскольку ChatGPT смог предоставить подробные резюме сюжетов и ответить на вопросы о книгах, что потребовало бы доступа к их текстам.

«Поскольку языковые модели OpenAI не могут функционировать без выразительной информации, извлечённой из произведений истцов (и других лиц) и сохранённой в них, языковые модели OpenAI сами являются нарушающими авторские права производными произведениями, созданными без разрешения истцов и в нарушение их исключительных прав по Закону об авторском праве», — говорится в жалобе.

Все три книги содержат информацию о защите авторских прав (CMI), такую как ISBN и номера регистрации авторских прав. Закон об авторском праве в цифровую эпоху (DMCA) утверждает, что удаление или фальсификация CMI является незаконной, и поскольку ответы ChatGPT не содержат этой информации, истцы утверждают, что OpenAI виновна в нарушении этого закона, помимо факта нарушения авторских прав.

Хотя в настоящее время в иске участвуют только два истца, адвокаты намерены сделать иск коллективным, что позволило бы другим авторам, чьи авторские произведения использовались OpenAI, также получить компенсацию. Адвокаты требуют денежных возмещений, судебных издержек и судебного запрета, принуждающего OpenAI изменить своё программное обеспечение и деловые практики в отношении авторских материалов. На сайте юридической фирмы LLM Litigation подробно изложена позиция истцов и причины подачи иска. «Мы подали коллективный иск против OpenAI, обвиняя ChatGPT и его базовые большие языковые модели, GPT-3.5 и GPT-4, в том, что они перерабатывают авторские произведения тысяч писателей — и многих других — без согласия, компенсации или признания», — сообщают адвокаты.

Они также критикуют концепцию генеративного ИИ, утверждая: «Генеративный искусственный интеллект — это просто человеческий интеллект, переупакованный и проданный как новый продукт. Это не новый вид интеллекта. Это просто новый способ использования чужого интеллекта без разрешения или компенсации». Они отмечают, что, хотя OpenAI заявляет, что не знает, какие именно книги использовались для обучения ИИ, это не имеет значения, поскольку: «OpenAI знает, что она использовала множество книг, и она знает, что она не получила разрешения от их авторов».

Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Однако новый иск, станет первым, затрагивающим использование текстовых данных, и он может создать прецедент для будущих судебных дел о нарушении авторских прав в области ИИ.


window-new
Soft
Hard
Тренды 🔥
Apple откроет сторонним приложениям доступ к NFC 15 мин.
В Dota 2 стартовало сюжетное событие «Павшая корона» с уникальными наградами, новыми «арканами» и комиксом 30 мин.
Связанные одной шиной: «Лаб СП» и «Фактор-ТС» представили отечественную интеграционную платформу Integration Gears 49 мин.
Paradox отказала Prison Architect 2 в досрочном освобождении — релиз отложили ещё на четыре месяца 3 ч.
Спустя 17 лет после релиза Team Fortress 2 получила поддержку 64 бит — выросла производительность и даже боты пропали 4 ч.
Kingdom Come: Deliverance 2 переведут на русский, но есть нюанс 5 ч.
Netflix резко нарастила аудиторию и прибыль, запретив совместное использование аккаунтов 5 ч.
Российские студенты победили в чемпионате мира по программированию ICPC 5 ч.
Мошенники стали угонять Telegram-аккаунты через сайты с изображениями 5 ч.
Tether запустит на блокчейне TON стейблкоины USDT и XAUT 5 ч.
Highpoint представила карту расширения на восемь SSD: до 64 Тбайт со скоростью до 56 Гбайт/с 16 мин.
Китайские экспериментальные лунные навигационные спутники прислали фотографии обратной стороны Луны 26 мин.
Налоговая служба Швеции закрыла 18 дата-центров за незаконный майнинг криптовалют 2 ч.
LG выпустила флагманский саундбар S95TR за $1500 с поддержкой Dolby Atmos и настройкой с помощью ИИ 4 ч.
Seagate заявила, что жёсткие диски с HAMR уже не уступают по надёжности традиционным HDD 5 ч.
Corsair представила обновлённые доступные проводные гарнитуры HS35 v2 для геймеров 5 ч.
Tesla отзовёт все проданные электромобили Cybertruck для замены залипающей педали газа 6 ч.
Galax выпустила полностью белую низкопрофильную GeForce RTX 4060 с крошечным заводским разгоном 8 ч.
Razer представила игровые контроллеры Kishi Ultra и Kishi V2 для смартфонов, планшетов и ПК 8 ч.
5 ГВт уже есть, ещё 2,5 ГВт на подходе: Microsoft стремительно наращивает ёмкость ЦОД и скупает ИИ-ускорители 8 ч.