Опрос
|
реклама
Быстрый переход
ChatGPT внедрят в учебный процесс в Университете штат Аризона
19.01.2024 [13:04],
Павел Котов
Университет штата Аризона объявил о партнёрстве с компанией OpenAI на предмет внедрения ChatGPT в учебный процесс. В вузе ставят три цели для совместного проекта: «повышение успеваемости студентов, создание новых возможностей для инновационных исследований и оптимизация организационных процессов». ![]() Источник изображения: Growtika / unsplash.com «Наши преподаватели и сотрудники уже пользовались ChatGPT, и с запуском ChatGPT Enterprise, который помог нам преодолеть некоторые проблемы безопасности, мы решили, что есть смысл выйти на OpenAI», — рассказал ресурсу The Verge заместитель директора университета по информационным технологиям Кайл Боуэн (Kyle Bowen). Он добавил, что имеющие опыт в области искусственного интеллекта преподаватели помогут с его внедрением в кампусе. В феврале руководство Университета штата Аризона начнёт принимать заявки о планах на использование ChatGPT — некоторые профессора используют платформу на занятиях уже сейчас. Она, например, применяется на курсе журналистики, а в отдельных случаях чат-бот может выступать в качестве наставника для студентов. В прошлом году университет запустил акселератор проектов в области ИИ, объединивший исследователей и инженеров для создания ИИ-сервисов. Вуз также открыл срочные инженерные курсы по повышению грамотности в области ИИ. Для OpenAI это первый партнёрский проект с образовательным учреждением. Сейчас компания налаживает связи с организациями. Недавно было заключено соглашение с правительством штата Пенсильвания об использовании службы ChatGPT Enterprise государственными служащими. Microsoft не собирается усиливать контроль за OpenAI, а просто хочет стабильности
16.01.2024 [14:16],
Алексей Разин
Ноябрьские события заставили корпорацию Microsoft изрядно понервничать, ведь она остаётся крупнейшим инвестором стартапа OpenAI, который осенью прошлого года оказался вовлечён в скандал с отставкой и последующим возвращением генерального директора Сэма Альтмана (Sam Altman). По словам главы Microsoft, компания не намерена усиливать контроль над OpenAI, а просто стремится к стабильности. ![]() Источник изображения: Microsoft Напомним, что некоторых экспертов смущала организационная структура OpenAI. Компания управляется одноимённой некоммерческой организацией, в которой та же Microsoft не имеет права голоса, хотя и вложила в капитал коммерческой составляющей стартапа более $13 млрд. Как признался на этой неделе генеральный директор Microsoft Сатья Наделла (Satya Nadella), нюансы организационной формы OpenAI его волнуют в наименьшей степени. Главное, по его словам, чтобы при этом достигалась стабильность работы стартапа. «Я чувствую себя комфортно. У меня нет каких-либо проблем с любой структурой», — пояснил глава Microsoft. Тем не менее, следует напомнить, что после переизбрания совета директоров в конце прошлого года Microsoft всё же получила в нём место, но без права голоса, и ограничилась только наблюдательными функциями. Как признался Наделла, Microsoft не настаивает на получении места в совете директоров OpenAI с правом голоса. Степень взаимной зависимости компаний не так велика, пояснил глава Microsoft. Они обмениваются данными и технологиями, но это не мешает последней развивать независимые программы в сфере искусственного интеллекта с другими партнёрами. «Мне очень нравится имеющаяся конструкция, в то же время я чувствую, что мы можем сами контролировать свою судьбу», — пояснил специфику взаимоотношений Microsoft и OpenAI глава первой из компаний. Сатья Наделла также видит определённый потенциал в разработке аппаратного обеспечения, которое способствовало бы прогрессу на направлении систем искусственного интеллекта. Превращение Microsoft в крупнейшую компанию мира по величине капитализации не очень впечатляет главу корпорации, как он признался. Сам по себе этот индикатор мало что значит, по словам Наделлы, поскольку не определяет будущей ценности бизнеса. OpenAI незаметно отменила запрет на использование ChatGPT в военных целях
15.01.2024 [21:11],
Сергей Сурабекянц
Компания OpenAI, не привлекая особого внимания, отказалась от прямого запрета на использование её технологии в военных целях. До 10 января политика OpenAI запрещала «деятельность, сопряжённую с высоким риском физического вреда», включая «разработку оружия» и «военную деятельность». Новая формулировка сохраняет запрет на использование OpenAI во вред и в качестве примера приводит разработку или использование оружия, но полный запрет на военное использование исчез. ![]() Источник изображений: ИИ-генерация Stable Diffusion/3DNews Это неафишируемое редактирование является частью масштабного изменения страницы политики использования, которое, по словам компании, призвано сделать документ «более понятным и более читабельным» и включает в себя множество других существенных изменений. Реальные последствия изменения этой политики неясны. В прошлом году OpenAI уже отказывалась отвечать на вопрос, будет ли она обеспечивать соблюдение своего собственного чёткого запрета на военные действия перед лицом растущего интереса со стороны Пентагона и разведывательного сообщества США. «Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всём мире обычными пользователями, которые также могут создавать GPT, — заявил представитель OpenAI Нико Феликс (Niko Felix). — Принцип “Не причиняй вреда другим” является широким, но легко понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей». При этом он отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях. ![]() «OpenAI хорошо осознает риски и вред, которые могут возникнуть в результате использования их технологий и услуг в военных целях», — считает эксперт по машинному обучению и безопасности автономных систем Хейди Клааф (Heidy Khlaaf). По её мнению, новая политика ставит законность выше безопасности: «Между этими двумя политиками существует явная разница: в первой чётко указано, что разработка вооружений, а также военные действия и война запрещены, а во второй подчёркивается гибкость и соблюдение закона». Клааф уверена, что разработка оружия и осуществление деятельности, связанной с военными действиями, в различной степени законны, а потенциальные последствия для безопасности очень вероятны. Она напомнила хорошо известные случаи предвзятости и галлюцинаций, присущие большим языковым моделям и их общую неточность. По её мнению, использование ИИ в боевых действиях может привести к неточным и предвзятым операциям и усугубить ущерб и жертвы среди гражданского населения. «Учитывая использование систем искусственного интеллекта для нападения на гражданское население в секторе Газа, это примечательный момент — принять решение удалить слова “военные действия” из политики допустимого использования OpenAI, — говорит директор института AI Now Сара Майерс Уэст (Sarah Myers West). — Формулировка политики остаётся расплывчатой и вызывает вопросы о том, как OpenAI намерена подходить к обеспечению её соблюдения». ![]() Хотя ИИ сегодня не может быть использован для непосредственного насилия и убийств, существует огромное количество смежных задач, которые ИИ выполняет для армии. Военнослужащие США уже используют технологию OpenAI для ускорения оформления документов. Национальное агентство геопространственной разведки, напрямую помогающее США в боевых действиях, открыто заявляет об использовании ChatGPT своими аналитиками. Даже если инструменты OpenAI в военных ведомствах используются для задач, не связанных с прямым насилием, они все равно косвенно помогают в ведении боевых действий и убийстве людей. Военные по всему миру стремятся внедрить методы машинного обучения, чтобы получить преимущество. Хотя результаты больших языковых моделей выглядят чрезвычайно убедительными, они часто страдают от так называемых галлюцинаций, которые ставят под сомнение точность результатов и их соответствие действительности. Тем не менее, способность больших языковых моделей быстро воспринимать текст и проводить его анализ – или, по крайней мере, симулякр анализа – делает использование ИИ естественным выбором для министерства обороны, перегруженного данными. В то время как некоторые представители военного руководства США выражают обеспокоенность по поводу рисков безопасности при использовании ChatGPT для анализа секретных и других чувствительных данных, Пентагон не отказывается от курса на использование ИИ. Заместитель министра обороны Кэтлин Хикс (Kathleen Hicks) полагает, что ИИ является «ключевой частью комплексного подхода к сетецентрическим военным инновациям». При этом она признаёт, что большинство текущих предложений «ещё недостаточно технически развиты, чтобы соответствовать нашим этическим принципам искусственного интеллекта». Amazon заполонили товары с названием «извините, я не могу выполнить запрос», и всё из-за ChatGPT
13.01.2024 [11:19],
Владимир Фетисов
Пользователи стали замечать, что в названии многочисленных товаров на разных интернет-площадках появилось предупреждение о нарушении политики OpenAI. «Извините, но я не могу выполнить запрос, поскольку он противоречит политике использования OpenAI», — говорится в сообщении, которое можно найти в описании разных товаров на Amazon и некоторых других интернет-площадка. С чем именно это связано, на данный момент неизвестно. ![]() Источник изображений: The Verge По данным источника, найти множество товаров с упоминанием о нарушении политики OpenAI можно, набрав в поиске на Amazon запрос «OpenAI policy». В результате можно увидеть массу товаров с подобным названием, включая предложения в категориях мебели, товаров для дома, сада и др. Отмечается, что проблема затрагивает не только Amazon, но и некоторые другие интернет-площадки, включая социальную сеть X (бывшая Twitter). ![]() Вероятнее всего, проблема связана с тем, что большое количество продавцов на Amazon используют ИИ-бота ChatGPT от компании OpenAI для автоматизации составления карточек своих товаров. По всей видимости, алгоритм по какой-то причине некорректно обрабатывает запросы и вставляет в описания некоторых товаров предупреждения. Официальные представители Amazon и OpenAI пока никак не комментируют данный вопрос, поэтому точно неизвестно, что стало причиной появления сообщений о нарушении политики OpenAI в названии товаров. OpenAI открыла GPT Store, где разработчики смогут размещать собственных чат-ботов
11.01.2024 [08:33],
Алексей Разин
Вчера компания OpenAI запустила магазин чат-ботов, разработанных пользователями ChatGPT. Как отмечает Bloomberg, в общей сложности пользователи сервиса уже смогли создать 3 млн индивидуализированных чат-ботов, но не совсем ясно, какая часть из них представлена в фирменном магазине приложений на момент его запуска. Со временем разработчики чат-ботов смогут получать прибыль от их реализации на этой площадке. ![]() Источник изображения: Unsplash, Andrew Neel Как известно, для создания таких чат-ботов не требуются навыки программирования, поэтому активность разработчиков будет достаточно высокой. Площадка получила название GPT Store, она имеет развитый рубрикатор и систему поиска чат-ботов с необходимой функциональностью. Среди примеров такого «народного творчества» можно обнаружить чат-боты, которые или помогают обучать детей математике, или содержат набор рецептов разноцветных коктейлей. На этой неделе пользователям ChatGPT был предложен новый тариф для корпоративных клиентов, который потребует ежемесячной абонентской платы в размере $25 с человека. За эти деньги небольшие компании, занимающиеся разработкой ИИ-систем, смогут использовать инфраструктуру OpenAI и её языковые модели. Тарифный план для корпоративных клиентов впервые появился у OpenAI ещё в августе прошлого года. Возможности заработка на кастомных чат-ботах у пользователей сервиса пока нет, но она будет предложена к концу марта, как поясняет Bloomberg. Разработчики чат-ботов для GPT Store в США будут получать деньги пропорционально популярности своих разработок. Первоначально OpenAI планировала запустить такой магазин приложений в конце ноября, но скандал с отставкой и возвращением на пост генерального директора Сэма Альтмана (Sam Altman) помешал своевременной реализации этого плана. В магазине приложений новые чат-боты будут представляться каждую неделю. Антимонопольщики ЕС изучат влияние Microsoft на OpenAI после скандала с увольнением Сэма Альтмана
10.01.2024 [12:08],
Дмитрий Федоров
Европейский Союз (ЕС) внимательно изучит инвестиции Microsoft в OpenAI, лидера в сфере генеративного ИИ, на предмет их соответствия нормам слияния компаний. Этот интерес вызван недавними изменениями в руководстве OpenAI и усилением роли Microsoft. ![]() Источник изображения: TheDigitalArtist / Pixabay Недавние события в OpenAI, совет директоров которой сперва проголосовал за смещение Сэма Альтмана (Sam Altman) с поста генерального директора, стали поворотным моментом в истории стартапа. Это решение вызвало неожиданный ответ со стороны Microsoft, крупного инвестора OpenAI, который не только выразил своё намерение назначить Альтмана на новую должность в своей структуре, но и предложил работу другим сотрудникам OpenAI, желающим покинуть компанию. Всё завершилась победным возвращением Альтмана в качестве руководителя OpenAI и назначением нового состава совета директоров, который покинули несколько членов, поддержавших его отстранение. Заметным событием стало включение представителя Microsoft в совет директоров OpenAI в качестве наблюдателя без права голоса. Эти изменения подняли вопросы о роли и влиянии Microsoft на OpenAI, особенно в свете того, что американский технологический гигант владеет значительной долей компании. Эта серия событий привлекла внимание не только ЕС, но и регуляторов Великобритании и Германии. Особенно примечательно, что Федеральное антимонопольное ведомство (FCO) Германии рассматривало связь между OpenAI и Microsoft ещё до возвращения Альтмана, не обнаружив на тот момент оснований для применения законодательства о слияниях. Однако FCO предупредило, что в случае усиления влияния Microsoft на OpenAI ведомство может пересмотреть своё решение. В свою очередь Европейская комиссия активно исследует текущее состояние конкуренции в сферах виртуальных миров и генеративного ИИ. В рамках этого исследования комиссия инициировала два запроса для сбора мнений и аналитических данных от экспертов в этих областях. Эти запросы направлены на формирование более глубокого понимания того, как новые технологии влияют на рыночную динамику и конкуренцию. Важным этапом в этом процессе станет организация семинара, запланированного на II квартал 2024 года. На мероприятии предполагается обсудить результаты запросов, собрать различные точки зрения и разработать стратегии, которые помогут поддерживать здоровую конкурентную среду на высокотехнологичных рынках. Представитель ЕС подчеркнул необходимость сохранения конкуренции в быстроразвивающихся сферах виртуальных миров и генеративного ИИ. «Виртуальные миры и генеративный ИИ стремительно развиваются. Очень важно, чтобы эти новые рынки оставались конкурентоспособными и чтобы ничто не мешало компаниям развиваться и предоставлять потребителям самые лучшие и инновационные продукты», — заявила Маргрет Вестагер (Margrethe Vestager), комиссар ЕС по вопросам конкуренции. Она также отметила активное наблюдение за слияниями в сфере ИИ, чтобы гарантировать, что они не искажают динамику рынка. OpenAI признала использование авторских материалов без разрешения владельцев, но есть нюанс
10.01.2024 [11:13],
Дмитрий Федоров
В своём недавнем обращении к Комитету Палаты лордов парламента Великобритании по вопросам коммуникаций и цифровых технологий (Communications and Digital Committee) компания OpenAI, разработчик чат-бота ChatGPT, подчеркнула неизбежность использования защищённых авторским правом материалов в процессе создания эффективных ИИ-моделей. На первый взгляд, кажется, что использование материалов без разрешения владельца противоречит основам защиты интеллектуальной собственности, но позиция OpenAI основана на сложных юридических и технических нюансах. ![]() Источник изображения: sergeitokmakov / Pixabay По мнению OpenAI, ограничение исходных данных для обучения ИИ-моделей исключительно произведениями, являющимися общественным достоянием и созданными более ста лет назад, значительно сокращает возможности интеллектуальных систем. Современный ИИ наподобие ChatGPT требует доступа к широкому спектру человеческих выражений — от блогов и фотографий до форумных сообщений и фрагментов программного кода. Такой подход не только способствует обучению ИИ пониманию разнообразных форм коммуникации, но и обеспечивает его актуальность в условиях стремительно меняющегося цифрового мира. В центре защиты OpenAI лежит принцип добросовестного использования, который, согласно заявлениям компании, допускает ограниченное использование авторских материалов без согласия владельцев. Этот юридический принцип, имеющий глубокие корни в американском законодательстве, предоставляет определённый простор для инноваций и исследований. OpenAI уверяет, что её методы обучения ИИ соответствуют этому принципу, подчёркивая, что такой подход не только справедлив по отношению к авторам, но и критически важен для поддержания конкурентоспособности США в области высоких технологий. Причиной этого заявления OpenAI послужил иск, поданный The New York Times. В нём газета обвинила OpenAI и Microsoft, одного из ключевых инвесторов OpenAI, в незаконном использовании своих новостных материалов для обучения ИИ-моделей. В ответ на эти обвинения OpenAI заявила, что иск не имеет под собой оснований. Компания также выразила свою поддержку журналистике и стремление к сотрудничеству с новостными ресурсами, подчеркнув свою приверженность этическим принципам в разработке ИИ. Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Ранее компания уже защищала своё право на использование общедоступных материалов в рамках принципа добросовестного использования в ответ на судебный иск, связанный с мемуарами Сары Сильверман (Sarah Silverman). В то время OpenAI заявляла, что критики ошибочно трактуют сферу действия авторских прав, не учитывая законных исключений и ограничений, которые допускают инновации вроде разработки передовых ИИ-моделей. Microsoft назначила своего наблюдателя в совет директоров OpenAI
08.01.2024 [10:16],
Алексей Разин
Корпорация Microsoft хоть и остаётся крупнейшим инвестором OpenAI, до сих пор не имела собственного представителя в составе совета директоров, но после прошлогоднего скандала с отставкой и последующим возвращением Сэма Альтмана (Sam Altman) на пост генерального директора стартапа этот стратегический партнёр добился права назначать наблюдателя в данный орган правления OpenAI. ![]() Источник изображения: LinkedIn Как отмечает Bloomberg, кандидатура представителя Microsoft уже утверждена, членом совета директоров OpenAI в итоге станет Ди Темплтон (Dee Templeton), которая проработала в Microsoft более 25 лет, и сейчас занимает пост вице-президента по технологическим и исследовательским партнёрским проектам и операциям. По данным Bloomberg, она уже начала посещать заседания совета директоров OpenAI, но статус наблюдателя не наделяет этого представителя Microsoft правом голоса. Сейчас в состав совета директоров OpenAI входят бывший директор Salesforce Брет Тейлор (Bret Taylor), бывший министр финансов США Ларри Саммерс (Larry Summers), а также Адам Д`Анджело (Adam D`Angelo) — единственный директор, который перекочевал в новый состав совета после ноябрьских реформ. Сооснователь OpenAI Сэм Альтман после своего возвращения на пост генерального директора компании пообещал, что новый состав совета директоров будет сформирован достаточно быстро, при этом он будет расширен в количественном выражении, но конкретных цифр по численности этого органа правления глава компании тогда не назвал. Для Microsoft формальное назначение своего представителя в совет директоров OpenAI повышает внимание к деятельности корпорации со стороны антимонопольных органов. В США и Великобритании регуляторы уже заинтересовались взаимоотношениями Microsoft и OpenAI с точки зрения их соответствия антимонопольному законодательству. Писатели обвинили OpenAI и Microsoft в краже интеллектуальной собственности для обучения ИИ
07.01.2024 [10:46],
Дмитрий Федоров
Писатели Николас Басбейнс (Nicholas Basbanes) и Николас Гейдж (Nicholas Gage) подали иск в Манхэттенский федеральный суд против Microsoft и OpenAI. Они обвиняют компании в использовании их литературных произведений без согласия авторов для обучения ИИ-моделей, включая семейство GPT. ![]() Источник изображения: Daniel_B_photos / Pixabay В новом коллективном иске, поданном в пятницу, упоминаются Microsoft и OpenAI — компании, стоящие за разработкой передовых ИИ-моделей. Писатели заявляют, что их произведения были незаконно использованы для обучения ИИ-моделей, ставших основой бизнес-империи, оцениваемой в миллиарды долларов. Также писатели утверждают, что Microsoft и OpenAI занимались массовым и преднамеренным воровством произведений, защищённых авторским правом. Это новый этап в ряде судебных исков, поданных в ноябре прошлого года. Тогда писатель Джулиан Сэнктон (Julian Sancton) стал первым, кто подал иск сразу против обеих компаний. В нём указывалось, что Microsoft является крупным инвестором OpenAI и использует технологии последней для своего продукта Copilot, что подчёркивает взаимосвязанность обеих технологических компаний. Газета The New York Times также недавно подала судебный иск против Microsoft и OpenAI, утверждая, что её новостные материалы использовались для обучения ИИ-моделей без разрешения или какой-либо компенсации. По словам издания, ИИ-инструменты могут генерировать тексты, которые дословно повторяют, тщательно обобщают и даже имитируют выразительный стиль её материалов. Несмотря на возрастающую волну исков, не все новостные издания выступают против того, чтобы их материалы использовались для обучения ИИ. Например, Associated Press предоставила OpenAI доступ к своим новостным материалам на ближайшие два года для обучения ИИ-моделей, а Politico и Business Insider также заключили с компанией сделки на использование контента с их сайтов для обучения ИИ. Эти судебные иски отражают глубокую проблематику баланса между инновациями и уважением к авторским правам. Они выявляют необходимость чётких правил и этических стандартов в использовании интеллектуальной собственности для развития передовых технологий. OpenAI запустит интернет-магазин кастомных ИИ-чат-ботов на базе ChatGPT
05.01.2024 [23:35],
Владимир Мироненко
На следующей неделе компания OpenAI запустит интернет-магазин, в котором пользователи смогут продавать и покупать кастомизированные версии популярного чат-бота на основе искусственного интеллекта ChatGPT, сообщил ресурс Bloomberg со ссылкой на электронные письма, отправленные компанией некоторым пользователям в четверг. ![]() Источник изображения: Andrew Neel/Pixabay OpenAI в прошлом году заявила, что планирует открыть такой интернет-магазин в ноябре. Здесь пользователи смогут размещать свои версии ИИ-чат-бота и находить адаптированные версии ChatGPT других пользователей. Пользователи смогут зарабатывать деньги, продавая свои версии чат-бота — так же, как это можно делать с приложениями в App Store или Play Маркет. Однако запуск проекта пришлось отложить из-за неразберихи, создавшейся после внезапного увольнения в ноябре гендиректора Сэма Альтмана (Sam Altman) и последующего восстановления его на этой должности. OpenAI объявила на конференции разработчиков в ноябре, что пользователи смогут сами создавать GPT (название пользовательских версий ChatGPT) без необходимости изучения даже основ кодирования. Эта функция позволит пользователям быстро создавать специализированные чат-боты, которые, например, могут учить детей математике или придумывать интересные рецепты коктейлей. Годовая выручка OpenAI превысила $1,6 млрд
30.12.2023 [23:14],
Владимир Фетисов
По сообщениям сетевых источников, объём годовой выручки компании OpenAI превысил отметку в $1,6 млрд благодаря активному росту ИИ-бота ChatGPT. По состоянию на середину октября, этот показатель составлял $1,3 млрд. Об этом пишет издание The Information со ссылкой на собственные осведомлённые источники. ![]() Источник изображения: OpenAI Рост объёма полученной выручки на уровне 20 % за два месяца указывает на то, что OpenAI сумела сохранить динамику своего бизнеса, несмотря на ноябрьский кризис, связанный со скандальным увольнением гендиректора Сэма Альтмана (Sam Altman) и последующим периодом неопределённости относительно дальнейшего будущего стартапа. Напомним, основную часть дохода OpenAI получает от чрезвычайно популярного ИИ-бота ChatGPT, запуск которого состоялся немногим более года назад. Ранее в этом месяце издание Bloomberg писало о скором проведении очередного раунда финансирования OpenAI, в рамках которого капитализация компании может быть оценена в $100 млрд. В сообщении говорилось, что переговоры по поводу проведения нового раунда финансирования ведутся, но сроки и условия его реализации ещё не были утверждены. Крупнейшим стратегическим инвестором OpenAI является компания Microsoft, вложившая в ИИ-стартап около $13 млрд. В настоящее время софтверный гигант уже активно использует разработки OpenAI в своих продуктах. Согласно имеющимся данным, OpenAI ведёт переговоры с инвестиционным фондом G42 из ОАЭ о привлечении до $10 млрд на разработку ускорителя вычислений Tigris, который рассматривается в качестве конкурента решениям NVIDIA. В октябре OpenAI и G42 уже подписали договор о сотрудничестве, в рамках которого планируется создание передовых решений в сфере искусственного интеллекта для ОАЭ и других региональных рынков. Газета The New York Times подала в суд на OpenAI и Microsoft за обучение ИИ на её материалах
27.12.2023 [17:56],
Павел Котов
Газета The New York Times сообщила, что подала судебный иск на OpenAI и Microsoft, обвинив ответчиков в нарушении авторских прав — несанкционированном использовании материалов издания при обучении моделей искусственного интеллекта. ![]() Источник изображения: succo / pixabay.com Истец отметил, что стал первым крупным американским новостным изданием, которое подало в суд на разработчиков ChatGPT и других популярных ИИ-платформ за предполагаемое нарушение авторских прав, связанных с её материалами. В иске, поданном в Федеральный окружной суд Манхэттена, говорится, что для обучения чат-ботов, которые теперь конкурируют с новостными агентствами и претендуют на статус источника достоверной информации, использовались миллионы статей, опубликованных New York Times. В иске отсутствует точная сумма возмещения ущерба. Но в нём отмечается, что ответчики должны понести ответственность за «миллиарды долларов нормативно обоснованного и фактического ущерба», связанного с «незаконным копированием и использованием обладающих уникальной ценностью работ». Истец также требует уничтожить модели чат-ботов и обучающие данные, в которых используются защищённые авторским правом обучающие материалы. От OpenAI и Microsoft комментариев не последовало. ![]() Источник изображения: Mariia Shalabaieva / unsplash.com New York Times отметила, что в апреле предприняла попытку урегулировать конфликт в досудебном порядке — она обратилась к Microsoft и OpenAI, выразив обеспокоенность использованием своей интеллектуальной собственности и предложив коммерческие и технологические средства защиты своих прав, в том числе наложение ограничений на генеративный ИИ, но переговоры результата не дали. Запросив информацию об имеющих значение текущих событиях, пользователи чат-ботов могут получить ответ, основанный в том числе на прежних материалах New York Times, удовлетвориться им и отказаться перейти на сайт газеты — из-за этого у ресурса снижается веб-трафик, который конвертируется в доходы от рекламы и подписки. В иске приводятся несколько примеров, когда чат-бот предоставлял пользователям почти дословные выдержки из статей New York Times, доступных только на основе платной подписки. По версии газеты, OpenAI и Microsoft при обучении ИИ уделили особое внимание её материалам из-за их вероятных достоверности и точности. При этом издание не отвергает новых технологий: недавно на работу был принят редакционный директор по инициативам в области ИИ — ему поручена разработка протоколов использования ИИ в редакции и изучение способов интеграции ИИ в работу журналистов. Приводится пример, когда основанная на ChatGPT функция Browse With Bing почти дословно воспроизвела материал Wirecutter — принадлежащего New York Times ресурса с обзорами товаров. При этом в ответе чат-бота отсутствовала ссылка на статью Wirecutter и реферальные ссылки на продукцию, которые используются для получения комиссий с продаж на сторонних площадках. Указывается на репутационный ущерб New York Times из-за «галлюцинаций» чат-бота — сбоев в работе ИИ, когда чат-бот предоставляет недостоверные данные. Упоминаются случаи, когда Microsoft Bing Chat предоставил не соответствующую действительности информацию со ссылкой на New York Times, предложив список «15 самых полезных для сердца продуктов», 12 из которых вообще не упоминались в соответствующей публикации газеты. Зарплата рядовых сотрудников OpenAI доходит до $6,5 в минуту
23.12.2023 [23:54],
Владимир Мироненко
Специалисты в области ИИ сейчас имеют заработок на 8–12,5 % больше, чем их коллеги, не занимающиеся искусственным интеллектом, пишет Bloomberg со ссылкой на исследование платформы по сбору данных о зарплате Levels.fyi. Но есть и работающие в отрасли компании с гораздо более высоким уровнем зарплат. Как отметили в Levels.fyi, заработки специалистов по ИИ в OpenAI, создавшей ИИ-чат-бот ChatGPT, могут с учётом бонусов и опционов на акции достигать $800 тыс. в год. ![]() Источник изображения: OpenAI Совет директоров OpenAI был вынужден восстановить в должности уволенного гендиректора Сэма Альтмана (Sam Altman) после того, как сотрудники компании пригрозили увольнением, если его не вернут назад, что подчёркивает, насколько значительным влиянием сейчас обладают самые ценные работники технологической отрасли. Большей частью зарплаты специалистов OpenAI находятся в диапазоне от $200 000 до $370 000, хотя несколько более специализированных вакансий предлагаются с зарплатой в диапазоне от $300 000 до $450 000, сообщил Роджер Ли (Roger Lee), соучредитель компании по сравнительному анализу зарплаты Comprehensive.io. По данным Levels.fyi, диапазоны зарплат не учитывают бонусы и акции, с учётом которых стартовая годовая зарплата специалиста компании в размере $300 000 может вырасти до $800 000. Это значит, что минута рабочего времени такого сотрудника оценивается примерно в $6,50. Как отметил ресурс Tom’s Hardware, зарплаты в OpenAI одни из самых высоких в отрасли ИИ: например, вновь поступившие инженеры и исследователи получают в два раза больше, чем могли бы зарабатывать в NVIDIA. В отрасли ИИ наблюдается дефицит специалистов, который будет ощущаться и в ближайшие годы. Тем более, что 2024 год уже неофициально называют годом ПК с ИИ. Что касается набора сотрудников из университетов, существует большая разница между пониманием моделей ИИ на теоретическом уровне и наличием навыков и опыта для их реального применения, пишет Bloomberg. Новый раунд финансирования оценит капитализацию OpenAI в $100 млрд
23.12.2023 [06:15],
Алексей Разин
Несмотря на своё серьёзное влияние на рынок систем искусственного интеллекта, компания OpenAI сохраняет статус стартапа и финансируется инвесторами в ходе частных размещений акций. По информации Bloomberg, очередной раунд финансирования может оценить капитализацию OpenAI в $100 млрд, что поставит стартап на второе место по этому критерию после аэрокосмической компании SpaceX. ![]() Источник изображения: Unsplash, Andrew Neel Предварительные переговоры о новом раунде финансирования OpenAI уже ведутся, как утверждает Bloomberg, но сроки его реализации и условия пока не утверждены. Ранее этот же источник утверждал, что в начале января OpenAI рассчитывает привлечь средства, исходя из оценки капитализации в $86 млрд. Как тогда сообщалось, желающих участвовать в финансировании нашлось больше, чем требовалось. Microsoft, которая на ранних этапах вложила в капитал OpenAI около $13 млрд, является крупнейшим стратегическим инвестором стартапа, программный гигант уже активно использует его разработки в своих продуктах. Как отмечает Bloomberg, компания OpenAI одновременно ведёт переговоры с инвестиционным фондом G42 из ОАЭ о привлечении средств в размере от $8 до $10 млрд на разработку собственного ускорителя вычислений Tigris, который мог бы составить конкуренцию решениям NVIDIA. Является ли эта инициатива частью намерений привлечь средства на общее развитие OpenAI, не поясняется. В октябре этого года G42 и OpenAI уже подписали соглашение о сотрудничестве, в рамках которого последняя обещала создать передовые решения в области искусственного интеллекта для ОАЭ и других региональных рынков. Совет директоров OpenAI сможет блокировать выпуск нейросетей, если сомневается в их безопасности
19.12.2023 [12:34],
Алексей Разин
После недавнего скандала с отставкой генерального директора OpenAI Сэма Альтмана (Sam Altman) и его возвращения компания OpenAI всерьёз задумалась не только о реформировании структуры управления бизнесом, но и повышении ответственности разработчиков за выпуск больших языковых моделей. Теперь совет директоров может задержать выпуск новых моделей, если сочтёт их недостаточно безопасными. ![]() Источник изображения: OpenAI Ключевая роль в этом механизме контроля и согласования будет отведена, по данным Bloomberg, специальной «группе готовности» под руководством Александра Мадри (Aleksander Madry), совмещающего эту должность с научной деятельностью в Массачусетском технологическом институте. В задачи группы экспертов будет входить анализ подготовленной к релизу каждой новой большой языковой модели на предмет выявления «катастрофических рисков». К таковым относятся вероятные последствия применения данной языковой модели, которые повлекут сотни миллиардов долларов материального ущерба или даже человеческие жертвы. Группа Мадри будет на ежемесячной основе делиться отчётами о деятельности разработчиков OpenAI со специальным советом по безопасности, а тот уже будет делиться своими выводами с генеральным директором компании и советом директоров. Сэм Альтман сможет принимать решение о выпуске новой языковой модели на рынок или её задержке для доработки, причём совет директоров получает право наложить вето на положительное решение главы OpenAI о выпуске модели в общий доступ. Группа анализа готовности языковых моделей была сформирована внутри OpenAI ещё в октябре, до хорошо известных событий с перестановками в руководстве. В целом, внутри компании действуют ещё две группы, занимающиеся анализом разработок. Прежде всего, это группа безопасности как таковой, а также группа «сверхрегулирования» (superalignment), которая учитывает гипотетические угрозы от внедрения сверхмощных систем искусственного интеллекта в будущем. Разрабатываемые OpenAI языковые модели будут оцениваться группой Мадри по шкале, подразумевающей четыре градации рисков: низкая, средняя, высокая или критическая. По замыслу, компания сможет выпускать в оборот только те системы искусственного интеллекта, которые в итоге всех процедур анализа и доработки получили оценку риска не выше низкого или среднего. Как признался сам Мадри, «OpenAI — это не что-то, происходящее само собой и способное нести нам пользу или вред, это нечто, формируемое нами». Представитель компании выразил надежду, что подобным подходом к управлению рисками в сфере искусственного интеллекта будут пользоваться и другие разработчики. В стенах OpenAI подобная практика формировалась последовательно и в течение последних двух месяцев просто была закреплена решениями высшего руководства. |