Сегодня 02 мая 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → gpt-4
Быстрый переход

На OpenAI подали в суд за незаконное использование литературных произведений для обучения нейросетей

На OpenAI снова подали в суд за использование произведений для обучения ИИ. Два известных писателя подали иск против компании, которая стоит за ChatGPT и Bing Chat, в нарушении авторских прав. По их мнению, OpenAI использовала их произведения в качестве обучающих данных. Это, по всей видимости, первый поданный иск об использовании текста (в отличие от изображений или кода) в качестве обучающих данных.

В поданном в окружной суд Северного округа Калифорнии иске истцы Пол Тремблей (Paul Tremblay) и Мона Авад (Mona Awad) утверждают, что OpenAI и её дочерние компании нарушили авторские права, нарушили Закон об авторском праве в цифровую эпоху (DMCA), а также нарушили калифорнийские и общие законодательные ограничения на недобросовестную конкуренцию.

Писатели представлены юридической фирмой Джозефа Савери (Joseph Saveri) и Мэттью Баттерика (Matthew Butterick), той же командой, которая стоит за недавними исками, поданными против Stable Diffusion AI и GitHub. В жалобе утверждается, что роман Тремблея «Хижина на краю света» и два романа Авад: «13 способов посмотреть на толстую девушку» и «Зайка» использовались в качестве обучающих данных для GPT-3.5 и GPT-4. Хотя OpenAI не раскрывала, что эти романы находятся в её обучающих данных (которые держатся в секрете), истцы делают вывод, что они должны быть там, поскольку ChatGPT смог предоставить подробные резюме сюжетов и ответить на вопросы о книгах, что потребовало бы доступа к их текстам.

«Поскольку языковые модели OpenAI не могут функционировать без выразительной информации, извлечённой из произведений истцов (и других лиц) и сохранённой в них, языковые модели OpenAI сами являются нарушающими авторские права производными произведениями, созданными без разрешения истцов и в нарушение их исключительных прав по Закону об авторском праве», — говорится в жалобе.

Все три книги содержат информацию о защите авторских прав (CMI), такую как ISBN и номера регистрации авторских прав. Закон об авторском праве в цифровую эпоху (DMCA) утверждает, что удаление или фальсификация CMI является незаконной, и поскольку ответы ChatGPT не содержат этой информации, истцы утверждают, что OpenAI виновна в нарушении этого закона, помимо факта нарушения авторских прав.

Хотя в настоящее время в иске участвуют только два истца, адвокаты намерены сделать иск коллективным, что позволило бы другим авторам, чьи авторские произведения использовались OpenAI, также получить компенсацию. Адвокаты требуют денежных возмещений, судебных издержек и судебного запрета, принуждающего OpenAI изменить своё программное обеспечение и деловые практики в отношении авторских материалов. На сайте юридической фирмы LLM Litigation подробно изложена позиция истцов и причины подачи иска. «Мы подали коллективный иск против OpenAI, обвиняя ChatGPT и его базовые большие языковые модели, GPT-3.5 и GPT-4, в том, что они перерабатывают авторские произведения тысяч писателей — и многих других — без согласия, компенсации или признания», — сообщают адвокаты.

Они также критикуют концепцию генеративного ИИ, утверждая: «Генеративный искусственный интеллект — это просто человеческий интеллект, переупакованный и проданный как новый продукт. Это не новый вид интеллекта. Это просто новый способ использования чужого интеллекта без разрешения или компенсации». Они отмечают, что, хотя OpenAI заявляет, что не знает, какие именно книги использовались для обучения ИИ, это не имеет значения, поскольку: «OpenAI знает, что она использовала множество книг, и она знает, что она не получила разрешения от их авторов».

Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Однако новый иск, станет первым, затрагивающим использование текстовых данных, и он может создать прецедент для будущих судебных дел о нарушении авторских прав в области ИИ.

OpenAI обновила GPT-3.5-turbo и GPT-4 новыми функциями и снизила стоимость их использования

По мере роста конкуренции в сфере генеративных нейросетей один из лидеров направления в лице OpenAI представил обновлённые версии алгоритмов генерации текста, а также снизил стоимость их использования. Компания выпустила обновлённые версии языковых моделей GPT-3.5-turbo и GPT-4, которые обеспечат ещё больше возможностей для создания контента по сравнению с предыдущими версиями языковых моделей стартапа.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Одним из любопытных нововведений стало появление инструмента, позволяющего разработчикам описывать программные функции естественным языком и получать полноценный код для их выполнения. Например, данный инструмент подходит для создания чат-ботов, которые отвечают на вопросы, вызывая внешние инструменты, преобразовывая естественный язык в запросы к базам данных и извлекая структурированные данные из текста. Обе модели способны определять, когда функция должна быть вызвана и отвечать в формате JSON, который соответствует сигнатуре функции. Это нововведение также позволит разработчикам получать более точные и структурированные данные.

Вместе с этим модель GPR-3.5-turbo получила расширенное контекстное окно (количество текста, учитываемое в процессе генерации). Увеличение контекстного окна позволяет модели лучше понимать смысл запросов и выдавать более соответствующие им ответы, не отклоняясь от темы. Модель GPR-3.5-turbo имеет контекстное окно в 16 тыс. токенов, что в четыре раза больше по сравнению с аналогичным показателем GPT-3.5. Также было объявлено, что в настоящее время OpenAI тестирует модель GPT-4 с контекстным окном в 32 тыс. токенов.

Стоимость использования стандартной версии GPT-3.5-turbo (без расширенного контекстного окна) снижена на 25 % до $0,0015 за 1 тыс. входных токенов и $0,002 за 1 тыс. выходных токенов, что соответствует примерно 700 страницам текста за $1. Стоимость использования модели text-embedding-ada-002, которая позволяет измерить сходство текстов, снижена на 75 % до $0,0001 за 1 тыс. токенов.

Microsoft предложила GPT-модели компании OpenAI государственным органам США

Компания Microsoft предложила большие языковые модели (LLM), разработанные компанией OpenAI, федеральным ведомствам США, пользующимся облачными сервисами Azure. Об этом компания объявила в официальном блоге.

 Источник изображения: Josh Riemer/unsplash.com

Источник изображения: Josh Riemer/unsplash.com

Как сообщает Reuters, Microsoft добавила в облаке Azure Government поддержку как GPT-3, так и новейших и сложнейших вариантов LLM, стоящих за мультимодальной моделью GPT-4.

Бум использования LLM наблюдается с тех пор, как компания OpenAI, поддерживаемая Microsoft и во многом находящаяся под контролем последней, представила вариант ChatGPT с невиданными ранее характеристиками «общительности» — чат-бот способен поддерживать вполне «осмысленный» диалог, и теперь бизнесы всех размеров — от стартапов до крупных корпораций — пытаются представить сопоставимые решения и схожие функции в своих сервисах.

Microsoft впервые предоставляет GPT-технологии в облаке Azure Government, обеспечивающем сервисы многим государственным ведомствам Соединённых штатов — это первая известная попытка крупных компаний предоставить услугу подобного рода государственным структурам.

Впрочем, Microsoft уже предлагает подобную функциональность коммерческим пользователям Azure, обеспечивая доступ к Azure OpenAI Services. По данным на май 2023 года, имелось уже 4,5 тыс. клиентов.

В Microsoft заявили, что государственные клиенты могут давать ИИ различные задачи, включая генерацию контента, преобразование текстовых команд в программный код или, например, составление резюме объёмных материалов.

Стоит отметить, что сервисы на основе LLM до сих пор могут страдать от «галлюцинаций» и давать откровенно неверные ответы, а эксперты и лидеры отрасли неоднократно предупреждали об опасности ИИ и необходимости регулирования подобных разработок и решений и даже назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной.

OpenAI пригрозила судом популярному проекту GPT4free из-за бесплатного использования GPT4 обходными путями

Для доступа к новейшей языковой модели GPT4 необходимо или оформить платную подписку ChatGPT Plus, либо заплатить за доступ к API OpenAI. Но есть и проект ресурса GitHub под названием GPT4free, который предоставит доступ к моделям GPT4 и GPT3.5 без надобности платить за API. Xtekky, студент-компьютерщик, который управляет репозиторием, сообщил, что получил письмо OpenAI с требованием закрыть проект в течение 5 дней под угрозой судебного разбирательства.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

GPT4free позволяет пользователям получить бесплатный доступ к моделям GPT4 и GPT3.5, направляя эти запросы через такие сайты, как You.com, Quora и CoCalc, и предоставляя ответы. Проект стал самым популярным новым репозиторием GitHub, собрав на минувшей неделе 14 тыс. звёзд.

Xtekky сообщил ресурсу Tom’s Hardware, что не думает, что OpenAI должна была выставлять требования к нему, поскольку GPT4free не подключается напрямую к её API, а вместо этого получает данные с других сайтов, которые оплачивают собственные лицензии на доступ к GPT. Если у владельцев этих сайтов возникли проблемы с его скриптами, запрашивающими их, они должны обратиться к нему напрямую, заявил автор проекта.

Помимо You.com, Quora и CoCalc, в репозитории GPT4Free также есть скрипты для сбора данных с других сайтов, таких как Forefront и TheB. Любой разработчик может использовать эти простые скрипты для создания собственного бота. Все сайты, с которыми работает GPT4Free, платят лицензию OpenAI за использование его больших языковых моделей (LLM).

Xtekky сказал, что готов удалять сценарии, использующие API отдельных сайтов, по запросу владельцев этих сайтов, добавив, что уже удалил скрипты, использующие phind.com, ora.sh и writesonic.com. Он отметил, любой из этих сайтов может блокировать внешнее использование своих внутренних API с помощью общих мер безопасности, например блокировать обращения к API с чужих IP-адресов.

Xtekky заявил, что не считает себя ответственным за то, как другие используют его проект, и что OpenAI не должна преследовать его за использование API других сайтов, которые находятся в открытом доступе. Он также сообщил, что пока не решил, удалять ли свой GitHub-репозиторий, и обратился к юристам за консультацией. Разработчик подчеркнул, что любой может найти способы использовать API вышеуказанных сайтов, поскольку они по-прежнему не защищены.

Уязвимость в GPT-4 открыла неограниченный бесплатный доступ к нейросети

Разработчик под ником xtekky представил проект GPT4Free — набор инструментов, предоставляющих бесплатный и почти неограниченный доступ к чат-боту на базе GPT-4 и его предшественнику GPT-3.5. Эксплойт был разработан методом обратного проектирования, которое помогло обнаружить уязвимость в API нейросети.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Базовый тариф GPT-4 составляет $0,03 за 1000 токенов «подсказок» (примерно 750 слов) и $0,06 за 1000 токенов «завершения» (также около 750 слов). Доступ к GPT-3.5 обходится дешевле — $0,002 за 1000 токенов. Эксплойт GPT4Free не обходит механизмы платного доступа к платформе OpenAI, а «обманывает» API, заставляя платформу считать, что запросы поступают от ресурсов, к которым привязаны платные учётные записи: поисковой системы You.com, платформы для написания текстов WriteSonic и чат-бота Quora Poe.

В свою защиту разработчик заявляет, что GPT4Free предназначен для работы только в «образовательных целях». Он также заявил, что будет пытаться продолжить работу над проектом, даже если его попробуют засудить. По всей вероятности, оказавшиеся жертвами GPT4Free ресурсы в обозримом будущем ликвидируют бреши безопасности и закроют доступ для инструмента — исходный код проекта может удалить и GitHub, но это только подстегнёт его последователей.

Доступ к нейросети GPT-4 пока ограничен, и это затрудняет возможность её испытать для всех любопытствующих. Эксперты называют её одной из наименее прозрачных разработок OpenAI, и компания до сих пор не сообщила, когда платформа появится в открытом доступе. Не исключено, что впоследствии OpenAI придётся активно отбиваться от «пиратских» попыток добраться до ресурсов нейросети.

OpenAI приостановила обучение ИИ-модели GPT-5 и занялась «другими вещами»

При обсуждении потенциальных угроз, исходящих от систем на базе алгоритмов искусственного интеллекта (ИИ), гендиректор и соучредитель OpenAI Сэм Альтман (Sam Altman) заявил, что компания в настоящее время не занимается обучением ИИ-модели GPT-5, которая, как предполагается, должна прийти на смену представленной в марте GPT-4.

 Источник изображения: Andrew Neel / unsplash.com

Источник изображения: Andrew Neel / unsplash.com

В ходе выступления в Массачусетском технологическом институте Альтману поступил вопрос о недавнем открытом письме, подписанном видными членами технологического сообщества. В документе содержится призыв к специализирующимся на ИИ компаниям, в том числе OpenAI, приостановить обучение платформ «мощнее GPT-4». Подписавшие письмо выразили опасения по поводу безопасности будущих систем, но эксперты разошлись во мнениях относительно характера потенциальной угрозы, исходящей от ИИ, и вообще возможности «приостановить» развитие отрасли.

Отвечая на вопрос, Альтман отметил, что в открытом письме «отсутствует большинство технических нюансов по поводу того, где нам нужно сделать паузу». А по поводу обучения GPT-5 он сообщил, что компания сейчас этого не делает и в течение какого-то времени не будет. Приостановка работы над GPT-5 не означает, что компания прекратила совершенствовать GPT-4. «Помимо GPT-4 мы занимаемся и другими вещами, которые, как мне кажется, касаются вопросов безопасности, которые важно решить, и о которых в письме совершенно не говорится», — добавил глава OpenAI.

GPT-4 привлекли к устранению ошибок в программах — ИИ не остановится до полного восстановления кода и объяснит, что пошло не так

Разработчик с псевдонимом BioBootloader представил скрипты «Росомаха» (Wolverine), которые выявляют причины неработоспособности программ и исправляют ошибки с привлечением большой языковой модели GPT-4. «Росомаха» трудится до тех пор, пока программа не начнёт работать. Каждая найденная ошибка сопровождается пояснением, почему её нужно исправить. Пока это наглядный пример возможностей машинного обучения, но перспективы бесконечны.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Каждому программисту известно, что обычно проще написать что-то своё, даже с нуля, чем исправлять чужое или выискивать ошибки. Подключить искусственный интеллект к поиску ошибок в программах — это сильнее, чем научить его писать программы. Фактически программы можно будет наделять возможностью к «самовосстановлению» подобно герою комиксов Marvel, в честь которого и назвали этот проект.

Представленный BioBootloader скрипт, который доступен на GitHub, помогает искать ошибки в программах на Python. Но этот же подход можно реализовать для поиска ошибок в программах, написанных на других языках. Для практического использования «Росомахи» необходим ключ OpenAI API для моделей GPT-3.5 или GPT-4, за использование которых взимается плата. Сейчас API GPT 3.5 открыт для всех, у кого есть учетная запись OpenAI, хотя доступ к GPT-4 пока ограничен.

«Он [скрипт] запускает его [код], видит сбой, но затем идёт и разговаривает с GPT-4, чтобы попытаться выяснить, как это исправить, — рассказал разработчик. — GPT-4 возвращает объяснение ошибок программы, показывает изменения, которые он пытается внести, а затем снова запускает программу. Увидев новые ошибки, GPT-4 снова исправляет код, после чего он запускается правильно. В итоге исходный файл Python содержит изменения, добавленные GPT-4».

ChatGPT сдал экзамен на врача и в считаные секунды поставил правильный диагноз пациенту

Доктор Айзек Кохейн (Isaac Kohane), гарвардский специалист по информационным технологиям и медицине, совместно с двумя коллегами протестировал GPT-4 на предмет возможности использовать искусственный интеллект во врачебной сфере. По словам исследователя, система проявила себя лучше многих врачей.

 Источник изображений: Tumisu / pixabay.com

Источник изображений: Tumisu / pixabay.com

Результаты эксперимента доктор Кохейн изложил в книге «Революция ИИ в медицине», написанной совместно с независимой журналисткой Кэри Голдберг (Carey Goldberg) и вице-президентом Microsoft по исследованиям Питером Ли (Peter Lee). Выпущенная в марте ИИ-модель GPT-4 в 90 % случаев правильно отвечала на вопросы из экзамена на получение лицензии врача, выступая лучше ChatGPT на базе GPT-3 и GPT-3.5 и даже некоторых докторов, у которых уже есть лицензии.

GPT-4 отлично проявил себя не только как экзаменуемый и знаток фактов, но и как переводчик. Он разобрался с медицинской выпиской пациента на португальском языке и перефразировал наполненный техническим жаргоном текст в материал, с которым справится и шестиклассник. ИИ предлагал врачам полезные советы, как вести себя у постели больного и как разговаривать с пациентом о его состоянии понятным, но сострадательным языком. Машина справлялась с обработкой объёмных отчётов об обследовании, мгновенно обобщая их содержимое.

Свои ответы система излагала в формате, который как будто указывает на интеллект сродни человеческому, но исследователи всё равно пока делают вывод, что в своих размышлениях ИИ ограничен шаблонами — пускаться в полноценные рассуждения с причинно-следственными связями GPT-4 ещё не умеет. Тем не менее, когда системе предложили данные по реальному случаю, та на уровне специалиста с годами учёбы и практики верно диагностировала редкую болезнь.

Доктор Кохейн, с одной стороны, рад, что в обозримом будущем такой инструмент будет доступен миллионам людей, но, с другой стороны, он пока не знает, как сделать платформу безопасной для пользователя. GPT-4 не всегда надёжен в своих ответах, и в книге приводится множество примеров его ошибок разного рода. Причём ИИ склонен настаивать на своей правоте, когда ему на эти ошибки указывают — это явление в технической среде уже назвали «галлюцинациями». В свою защиту GPT-4 однажды заявил: «У меня нет намерений кого-то обманывать или вводить в заблуждение, но я иногда совершаю ошибки и делаю предположения, основываясь на неполных или неточных данных. Я не даю клинических оценок и не несу этической ответственности как врач или медсестра».

В качестве одной из мер защиты авторы книги предлагают проводить по нескольку сессий с GPT-4, чтобы ИИ сам «перечитывал» или «проверял» собственную работу «свежим взглядом». Иногда это помогает выявлять ошибки: GPT-4 несколько раз в сдержанной форме признавал своё заблуждение. Или можно поручить проверку его работы специалисту.

На нейросеть GPT-4 нажаловались в Федеральную торговую комиссию США

Центр искусственного интеллекта и цифровой политики под руководством правозащитника, отстаивающего вопросы конфиденциальности пользователей, Марка Ротенберга (Marc Rotenberg) подал жалобу в Федеральную торговую комиссию США (FTC) с просьбой инициировать расследование в отношении большой языковой модели GPT-4. Правозащитники требуют проверить проект на соответствие законам США и других стран.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Ротенберг стал одним из более тысячи представителей общественности, подписавшихся под открытым письмом, в котором разработчиков призывают минимум на полгода приостановить обучение моделей ИИ на базе GPT-4.

«Нам необходимо практическое решение, и это практическое решение исходит от Федеральной торговой комиссии. Нам нужно, чтобы они предписали OpenAI приостановить дальнейшие релизы GPT, пока отсутствуют адекватные меры безопасности», — цитирует Bloomberg сделанное в ходе телефонного разговора заявление господина Ротенберга.

Документ, который его организация подала в FTC, содержит призыв к ведомству инициировать расследование и «обеспечить установку необходимых барьеров, чтобы защитить потребителей, бизнес и коммерческий рынок». FTC ранее пообещала изучить развивающуюся отрасль искусственного интеллекта, а глава ведомства Лина Хан (Lina Khan) пообещала проследить, чтобы техногиганты не установили доминирование в этой области.

Тем временем OpenAI плотно сотрудничает с корпорацией Microsoft, которая в обмен на многомиллиардные инвестиции получила эксклюзивный доступ к разработкам компании. Улучшить свою поисковую службу при помощи ИИ решила и Google.

«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.

 Источник изображения: D koi/unsplash.com

Источник изображения: D koi/unsplash.com

Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.

В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.

«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.

Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.

С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.

По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.

Microsoft привлекла нейросеть GPT-4 к борьбе с хакерскими атаками в новой системе Security Copilot

Системы искусственного интеллекта уже применяются для создания графики, чат-ботов и даже управления умными домами. Компания Microsoft доверила ИИ одну из важнейших сфер современной жизни — защиту от киберугроз. Инструмент Security Copilot позволяет распознать кибератаку, даже когда явные признаки ещё отсутствуют и помогает в её устранении.

 Источник изображения:  Sigmund Avatar/unsplash.com

Источник изображения: Sigmund Avatar/unsplash.com

В ситуациях, когда безопасность компьютера по какой-то причине оказалась под угрозой, Security Copilot поможет определить, что случилось, что делать, и как предотвратить повторение аналогичных инцидентов у других. Компания представила новое решение на базе модели GPT-4 — Security Copilot помогает справиться с угрозами корпоративным клиентам.

Пока инструмент доступен именно корпоративным клиентам. Та же большая языковая модель, что отвечает за работу приложений вроде Bing Chat, стоит и за Security Copilot. Тем не менее, в данном случае речь идёт о варианте, специально обученном на материалах и терминологии, используемых IT-профессионалами. Кроме того, Microsoft уже подключила Copilot к другим своим инструментам, отвечающим за обеспечение безопасности. В компании обещают, что со временем он сможет использовать и сторонние программные решения.

Если большинство пользовательских приложений на основе GPT-4 обучались на уже несколько устаревших массивах данных, то Security Copilot получает новую информацию в режиме реального времени, изучая буквально триллионы сигналов об угрозах, которые Microsoft получает ежедневно. В этом преимущество модели — Security Copilot может распознавать скрытые сигналы ещё до того, как факт атаки стал очевиден. Благодаря этому, инструмент может использоваться для распознавания и своевременного устранения угроз.

При этом довольно давно выяснилось, что у ИИ вроде ChatGPT, Bing Chat или Google Bard могут случаться «галлюцинации», в ходе которых за основу «рассуждений» принимаются совершенно недостоверные факты. В сфере безопасности это может стать очень опасным явлением. В Microsoft уже подтвердили, что Security Copilot «не всегда понимает всё правильно». К счастью, в случае с продуктом Microsoft предусмотрен механизм обратной связи с пользователями, позволяющий предоставлять всё более релевантные ответы.

Пока Microsoft не сообщала, что может произойти в случае столкновения защитного ИИ с ИИ, работающем на злоумышленников, например — созданным для атаки на пользователей и бизнесы. В любом случае компания сообщила, что корпоративные клиенты уже могут протестировать Security Copilot на небольшом сегменте своих пользователей. Если эксперимент увенчается успехом, в будущем, вероятно, он сможет помочь и обычным пользователям.

В Microsoft 365 интегрировали ИИ на базе GPT-4 — он поможет писать в Word и делать презентации в PowerPoint

Сегодня Microsoft представила ИИ-помощник Copilot для офисных приложений пакета Microsoft 365. После внедрения чат-бота на основе ИИ в Bing, Microsoft движется к интеграции больших языковых моделей OpenAI в свои офисные приложения. Объявление Microsoft было сделано всего через несколько дней после того, как Google анонсировала функции искусственного интеллекта для Workspace, включая генерацию текста с помощью искусственного интеллекта в Gmail, «Документах» и многом другом.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Copilot для приложений и служб Microsoft 365, основанный на GPT-4 от OpenAI, будет появляться в виде чат-бота на боковой панели для генерации текста в Word, создания презентаций PowerPoint или сводных таблиц Excel. Copilot поможет при подготовке к собранию в Microsoft Teams, сообщит об обновлениях по связанным проектам и организационных изменениях. Copilot также интегрирован в Outlook, что позволит тратить меньше времени на удаление электронных писем и ответы на них. Он поможет сгруппировать темы электронной почты или создать черновики ответов с возможностью задать тон и длину электронного письма.

Microsoft утверждает, что Copilot — не просто ChatGPT, добавленный к Microsoft 365. Эта система объединяет приложения Microsoft 365 с данными и аналитикой Microsoft Graph и нейросетью GPT-4. Microsoft Graph позволяет обрабатывать уникальный контекст пользователя и делать его более результативным. При создании документа на основе данных пользователя, Copilot отправит запрос в Microsoft Graph для получения контекста и данных, а затем отправит модифицированный запрос в большую языковую модель GPT-4. Ответ ИИ также будет проверен в Microsoft Graph на безопасность и соответствие.

Microsoft также планирует запустить функцию Business Chat для работы с данными и приложениями Microsoft 365. Business Chat будет использовать Microsoft Graph для объединения документов, презентаций, электронных писем, заметок и контактов в единый интерфейс чата в Microsoft Teams, который будет генерировать сводки, обзоры планирования и многое другое.

Microsoft, безусловно, быстро движется вперёд со своим видением приложений Office на основе ИИ, что вызывает обоснованные опасения, тем более, что Microsoft недавно уволила всю команду по этике искусственного интеллекта. Команда работала над выявлением рисков, связанных с внедрением Microsoft языковых моделей OpenAI в программное обеспечение и услуги.

Руководитель Microsoft 365 Джаред Спатаро (Jared Spataro) не разделяет этих опасений. «Для удовлетворения потребностей наших клиентов, мы должны действовать быстро и ответственно, учась на ходу, — говорит Спатаро. — Мы тестируем Copilot с небольшой группой клиентов, чтобы получать отзывы и улучшать наши модели по мере масштабирования. Мы проясняем, как система принимает решения, отмечая ограничения, ссылаясь на источники и предлагая пользователям просматривать, проверять факты и корректировать контент на основе предметной экспертизы».

Microsoft сейчас проводит совместное тестирование Copilot с 20 клиентами и планирует постепенно расширять охват тестирования. Компания обещает сообщить более подробную техническую информацию, сроки доступности Copilot и ценовую политику в ближайшие месяцы.

«В открытом коде смысла нет»: OpenAI перестала быть открытой исследовательской организацией

Недавно OpenAI анонсировала большую языковую ИИ-модель нового поколения GPT-4. Возможности системы все ещё оцениваются, но многие не связанные с компанией исследователи и эксперты уже выразили разочарование: несмотря на название разработчика, GPT-4 уже не является открытой моделью.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

Компания опубликовала множество результатов тестов GPT-4 и некоторые демонстрационные материалы, но ничего не рассказала об использованных при обучении системы данных, о затратах на электроэнергию, об использованном оборудовании и задействованных при её создании методах. Эксперты это решение раскритиковали, ответив, что оно подрывает дух компании как исследовательской организации, а повторить её работу другие игроки уже не смогут. Это также затрудняет разработку методов защиты от угроз, которые может представлять ИИ.

Прояснить ситуацию решили журналисты ресурса The Verge в беседе с главным научным сотрудником и соучредителем OpenAI Ильёй Суцкевером (Ilya Sutskever). Решение компании он объяснил конкурентной средой и соображениями безопасности. В разрезе конкуренции это решение, по его мнению, только будет способствовать развитию отрасли. А по поводу аспекта безопасности он дал следующие пояснения: «Эти модели очень мощные, и они становятся ещё мощнее. В какой-то момент при желании будет очень легко причинить этими моделями значительный ущерб. И по мере расширения этих возможностей обретает смысл нежелание их открывать».

OpenAI была основана в 2015 году — учредителями стали её теперешний генеральный директор Сэм Альтман (Sam Altman), вышедший из состава совета директоров в 2018 году Илон Маск (Elon Musk), а также Суцкевер. Первоначально цель организации декларировалась как «создание ценности для всех, а не акционеров» и «свободное сотрудничество» с другими в области ИИ. Но со временем приоритеты изменились, и в итоге OpenAI получила многомиллиардные инвестиции от Microsoft, предоставив софтверному гиганту эксклюзивные бизнес-лицензии.

«Мы были неправы. Мы были откровенно неправы. Если вы, как и мы, верите, что ИИ станет крайне, невероятно мощным, то в открытом коде смысла нет. Это плохая идея. <..> Не сомневаюсь, что через несколько лет всем станет совершенно очевидно, что ИИ с открытым кодом — это просто неразумно», — прокомментировал Суцкевер кардинальное изменение стратегии OpenAI.

Вопрос о потенциальной угрозе ИИ-систем учёный счёл справедливым, но, по его словам, в качестве защитной меры они предоставляют некоторым учёным доступ к модели и материалам проекта. А вот по поводу исходных данных для обучения ИИ выразился намного туманнее: «Считаю, что обучающие данные — это технология. [Со стороны] может выглядеть по-другому, но это так. И причина, по которой мы не раскрываем обучающие данные, почти та же, по которой мы не раскрываем количество параметров». И не ответил на вопрос, может ли OpenAI однозначно заявить, что среди обучающей информации нет пиратских материалов.

ИИ-бот в поисковике Microsoft Bing стал доступен всем желающим

Поисковик Bing впервые за десятилетие оказался в центре внимания после того, как в прошлом месяце Microsoft добавила в него продвинутого чат-бота на основе ИИ-алгоритма, созданного разработчиками из Open AI. При этом софтверный гигант не спешил делать чат-бота доступным для всех, ограничившись тестовой группой пользователей. Теперь же подход к использованию нового Bing изменился, и взаимодействовать с поисковиком можно без длительного ожидания.

 Источник изображения: Microsoft/OpenAI

Источник изображения: Microsoft/OpenAI

Перейти к диалогу с чат-ботом можно просто нажав кнопку «Подробнее» на странице Bing.com, после чего вы попадёте на страницу Bing.com/new. Здесь вам будет предложено «Присоединиться к списку ожидания», и нажав на данную кнопку вы сразу же получите доступ к чат-боту. Если вы ранее записывались на лист ожидания, то у вас отобразится кнопка «Начать чат». Работает чат-бот только через Edge, так что открыв упомянутые ссылки в другом браузере пользователю предложат перейти в Edge. Для использования нового Bing потребуется авторизоваться с учётной записью Microsoft. Официальные представители компании пока никак не комментируют новый подход.

Microsoft стремится интегрировать разработки Open AI во многие свои продукты, не ограничиваясь только поисковиком Bing и браузером Edge. В прошлом месяце разработчики анонсировали появление чат-бота на базе языковой модели GPT-4 на панели задач Windows 11. Сегодня Microsoft проведёт мероприятие «Изобрести производительность заново с помощью ИИ», в рамках которого широкой публике представят ИИ-инструменты, которые станут доступны пользователям облачных сервисов Microsoft 365 и Dynamics 365.

Большая языковая модель GPT-4, созданная специалистами Open AI при поддержке Microsoft, подтолкнула к значительному росту популярности поисковика Bing. Не так давно сообщалось, что количество ежедневно активных пользователей Bing превысило 100 млн человек.

Обновлено:

У пользователей из России наблюдаются проблемы с доступом к ИИ-боту в Bing, в том числе и через VPN. О причинах пока ничего не известно. В других странах всё работает нормально — получить доступ к боту можно в несколько кликов.

«Джва года» ожиданий подошли к концу: нейросеть GPT-4 создала игру про ограбление «корованов» по мотивам того самого мема

Блогер и основатель стартапа neural.love Денис Ширяев решил проверить возможности представленной на днях GPT-4 и попросил новейшую версию языковой ИИ-модели от компании OpenAI создать «простенькую» двухмерную игру на JavaScript по очень специфичному описанию.

 Источник изображения: Steam

Источник изображения: Steam

В качестве описания задачи для GPT-4 Ширяев использовал ставшее мемом письмо некоего Кирилла, попросившего в начале 2000-х российскую студию MiST Land South («Код доступа: РАЙ», «Власть закона») сделать игру в жанре «3Д-экшон» (здесь и далее цитаты с орфографией автора) с возможностью грабить «корованы».

Суть была такова: пользовать мог играть лесными эльфами, охраной дворца и злодеем (у каждого был уникальный геймплей), мир был разделён на четыре зоны, а утраченную в бою конечность (и даже глаз) позволялось заменить протезом или жить дальше без неё. К моменту отправки письма Кирилл хотел такую игру целых «джва года».

GPT-4 на основе всего этого написал код для «почти 2D-экшона». Геймплейного разнообразия или множественных протагонистов из письма Кирилла в проекте нейросети нет, но есть караван (из верблюда, слона и лошади) и разделённое на четыре разноцветные зоны поле.

Управляя зелёной точкой клавишами стрелок на клавиатуре, игрок может гоняться за караваном и стрелять по нему (это действие завязано на пробел), но при попадании он телепортируется в другое место. Отрицательный статус грабежа «корована» в верхней части экрана изменить никак нельзя.

Созданная GPT-4 по запросу Ширяева игра про ограбление «корованов» доступна для бесплатного ознакомления на платформе CodePen. По мнению блогера, последние достижения в сфере искусственного интеллекта сопоставимы по масштабу с «переизобретением электричества».

Стоит отметить, что творение GPT-4 — не первая игра по мотивам легендарного письма. Насколько лет назад студия Digital Nomads якобы при участии того самого Кирилла анонсировала симулятор «К.О.Р.О.В.А.Н.Ы». Релиз ожидался ещё в 2020 году, но этот проект так и не вышел. В отличие от произведения GPT-4.


window-new
Soft
Hard
Тренды 🔥
На 20-летие российской стратегии «Периметр» в Steam выйдет переиздание со «множеством улучшений» — трейлер «Периметр: Legate Edition» 3 мин.
TikTok вновь стал доступен в России, но пока не у всех 10 мин.
Winamp возродится в качестве стримингового сервиса 1 июля — обещана и новая версия классического плеера 24 мин.
Microsoft добавила поддержку ключей Passkey для всех потребительских аккаунтов 2 ч.
Разработчик The Witcher 3: Wild Hunt выпустил для игры мод с альтернативной версией самого красочного квеста из аддона «Кровь и вино» 2 ч.
В Google Play появились метки для официальных правительственных приложений — это защитит от мошенников 2 ч.
Google похвалилась, что пользователи активно переходят на Passkey вместо традиционных паролей 2 ч.
Chrome укрепился как самый популярный браузер в мире на компьютерах и смартфонах 3 ч.
Windows 10 вернула 70 % рынка, а Windows 11 теряет популярность 3 ч.
THQ Nordic подтвердила новый показ ремейка «Готики» и Titan Quest 2 — анонсирована презентация THQ Nordic Digital Showcase 2024 4 ч.