Сегодня 10 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

OpenAI создала систему оценки прогресса ИИ — сейчас компания на первом уровне из пяти

OpenAI представила новую систему уровней для оценки прогресса в создании искусственного интеллекта, способного превзойти человека. Этот шаг, по словам компании, необходим для того, чтобы помочь людям лучше понять вопросы безопасности и будущее ИИ.

 Источник изображения: Andrew Neel/Unsplash

Источник изображения: Andrew Neel/Unsplash

По сообщению издания Bloomberg, на прошедшем на днях общем собрании в OpenAI, руководство представило новую классификацию, которая будет использоваться для внутренних оценок и общения с инвесторами. По словам представителя компании, уровни варьируются от возможностей ИИ «сегодня», таких как взаимодействие на разговорном языке (уровень 1), до ИИ, способного выполнять работу целой организации (уровень 5).

Руководители OpenAI сообщили сотрудникам, что в настоящее время компания находится на первом уровне, но уже близка к достижению второго уровня, который они назвали «Мыслящие» (Reasoners). Этот уровень обозначает системы, способные решать базовые задачи на уровне человека, имеющего степень доктора наук. Также был показан исследовательский проект на базе модели GPT-4, продемонстрировавший новые навыки ИИ.

 Источник изображения: David Paul Morris/Bloomberg

Источник изображения: David Paul Morris/Bloomberg

OpenAI также работает над созданием так называемого сильного искусственного интеллекта (AGI), который сможет выполнять большинство задач лучше человека. И хотя в настоящее время такая система ещё не существует, генеральный директор OpenAI Сэм Альтман (Sam Altman) заявляет, что AGI может быть создан в текущем десятилетии.

Интересно, что разработчики ИИ долгое время спорят о критериях достижения AGI. Так, в ноябре 2023 года сотрудники из Google DeepMind предложили собственную систему из пяти уровней ИИ, включая такие критерии, как «эксперт» и «сверхчеловек». Эти уровни напоминают систему, используемую в автомобильной промышленности для оценки степени автоматизации автономных автомобилей.

Однако OpenAI планирует использовать свою разработку уровней для оценки прогресса в создании безопасных и эффективных систем ИИ, которые смогли бы решать сложные задачи, но при этом оставаться под контролем человека. Компания придумала третий уровень, который будет называться «Агенты», имея в виду системы ИИ, которые могут выполнять действия под руководством пользователя. ИИ четвёртого уровня сможет генерировать инновационные идеи. А самый продвинутый пятый уровень будет называться «Организации».

Все перечисленные уровни были составлены руководителями и сотрудниками старшего звена OpenAI. Компания будет собирать отзывы от разработчиков, сотрудников, инвесторов и может корректировать уровни с течением времени.

OpenAI и исследователи из Лос-Аламоса определят ценность и риски ИИ для научной работы

Компания OpenAI объявила о сотрудничестве с Лос-Аламосской национальной лабораторией (США), где была разработана первая в мире атомная бомба, для изучения возможностей и рисков применения систем искусственного интеллекта в научных исследованиях.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Компания при поддержке крупного научного учреждения намеревается оценить, какую помощь её последняя модель ИИ GPT-4o сможет оказать учёным в исследованиях и разрешении сложностей — для OpenAI это первый партнёрский проект такого рода. Среди прочего, компания намеревается оценить и эффективность входящего в GPT-4o голосового помощника, который пока недоступен общественности. Недавно OpenAI также заявила о сотрудничестве с компаниями Moderna и Color Health — она намеревается показать возможности ИИ в здравоохранении и биотехнологиях. Ранее её коллеги, включая подразделение Google DeepMind, изучали, как ИИ может помочь в создании новых препаратов.

Интенсивное развитие ИИ вызывает у общественности, политиков и работников отрасли опасения, что эти технологии могут использоваться злоумышленниками. «Потенциал роста возможностей ИИ бесконечен. Однако измерение и понимание любых возможных опасностей или неправильного применения передового ИИ, связанных с биологическими угрозами, остаются в значительной степени неизученными. Эта работа с OpenAI — важный шаг к установке рамок оценки текущих и будущих моделей», — прокомментировал проект научный сотрудник из Лос-Аламоса Эрик Лебрун (Erick LeBrun).

Microsoft и Apple отказались от мест в совете директоров OpenAI — это не нравилось регулирующим органам

Microsoft и Apple отказались от места наблюдателя в совете директоров в OpenAI, появление которого привлекло нежелательное внимание со стороны надзирающих органов по обе стороны Атлантики. В Microsoft заявили, что в нём больше нет необходимости, поскольку за последние восемь месяцев управление стартапом значительно улучшилось.

 Источник изображения: efes / pixabay.com

Источник изображения: efes / pixabay.com

Компания Apple, которая в июне объявила о внедрении чат-бота ChatGPT в свои устройства, также не станет занимать кресло наблюдателя в совете директоров компании, хотя этого от неё ожидали, передаёт Financial Times со ссылкой на собственный источник. Представитель OpenAI заявил, что компания сформирует новый подход к взаимодействию с другими игроками, включая партнёров вроде Microsoft и Apple и инвесторов вроде Thrive Capital и Khosla Ventures.

Microsoft в ноябре прошлого года ввела в совет директоров OpenAI наблюдателя без права голоса после непродолжительного изгнания Сэма Альтмана (Sam Altman) с поста гендиректора компании. Представитель Microsoft мог посещать заседания совета директоров OpenAI, обладал доступом к конфиденциальной информации, но не имел права голоса по таким вопросам как выбор или назначение директоров.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Место наблюдателя и инвестиции в объёме более $10 млрд вызвали обеспокоенность у регулирующих органов в Великобритании, ЕС и США по поводу контроля корпорации над стартапом. Microsoft отказалась от места наблюдателя, сославшись на новые механизмы партнёрства с OpenAI, инновации и рост клиентской базы с момента возвращения Альтмана на пост гендиректора. «За последние восемь месяцев мы стали свидетелями значительного прогресса у недавно сформированного совета директоров и уверены в правильности направления движения компании. Учитывая всё это, мы больше не считаем, что наша ограниченная роль наблюдателя необходима», — гласит письмо, направленное Microsoft в OpenAI.

В июне Еврокомиссия установила, что отношения Microsoft и OpenAI не могут регулироваться местными нормами о слияниях и поглощениях, поскольку не было обнаружено подтверждения, что корпорация контролирует стартап. Но ведомство проведёт консультации с третьими лицами по вопросу эксклюзивного характера взаимодействия двух субъектов. Британские и американские регулирующие органы, однако, пока не уверены в независимости OpenAI.

Microsoft и OpenAI в стремлении доказать обратное всё активнее конкурируют друг с другом в области технологических решений для корпоративных клиентов. Microsoft также расширила ассортимент своих предложений на основе искусственного интеллекта в инфраструктуре Azure и наняла гендиректора Inflection в качестве главы направления потребительского ИИ — это расценивается как попытка диверсификации за пределы решений OpenAI.

ИИ-модели OpenAI остаются доступны в Китае через облако Microsoft Azure

Санкции властей США в отношении Китая распространяются и на услуги в сфере доступа к аппаратным и программным ресурсам, расположенным за пределами последней из стран. На этом фоне любопытным исключением выглядит способность китайских клиентов Microsoft Azure сохранить доступ к услугам OpenAI, хотя местным разработчикам прямой доступ к ним будет закрыт на этой неделе.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Как сообщает The Information, ещё в прошлом месяце китайские клиенты OpenAI, которые использовали одноимённый программный интерфейс для разработки своих приложений в сфере искусственного интеллекта, получили уведомления о том, что они лишатся к нему доступа с 9 июля, поскольку территориально находятся в регионе, в котором данные услуги не предоставляются.

При этом опрошенные The Information источники подтвердили, что китайские клиенты облачного сервиса Microsoft Azure до сих пор сохраняют доступ к большим языковым моделям OpenAI. Американская корпорация Microsoft доступ к своему сервису Azure на территории Китая осуществляет через совместное предприятие с 21Vianet, но физически профильные серверные системы находятся за пределами Китая, чтобы исключить способность местных властей влиять на условия предоставления этого сервиса. В таких условиях китайские разработчики сохраняют возможность обучения языковых моделей OpenAI для собственных нужд. Напомним, Microsoft является ключевым инвестором в капитал OpenAI, поэтому услуги компаний тесно интегрируются друг с другом.

Хакеры проникли на внутренний форум OpenAI, где обсуждаются перспективные разработки

В начале прошлого года некий хакер смог проникнуть во внутренние системы обмена сообщениями OpenAI, разработчика ИИ-чат-бота ChatGPT, и похитил сведения о технологических наработках стартапа, пишет The New York Times. По словам источников издания, злоумышленник выведал подробности о новейших достижениях в сфере ИИ компании из дискуссий сотрудников на форуме, но ему не удалось взломать системы, где создаются её продукты и содержится информация о них.

 Источник изображения: TheDigitalArtist/Pixabay

Источник изображения: TheDigitalArtist / Pixabay

Поскольку никакая информация о клиентах или партнёрах не была украдена, OpenAI не стала предавать публичной огласке этот инцидент, хотя и сообщила о нём на общем собрании сотрудников в апреле прошлого года, а также уведомила совет директоров. Руководители не посчитали инцидент угрозой национальной безопасности, полагая, что хакер был частным лицом, и не стали информировать об этом ФБР и правоохранительные органы.

И всё же у некоторых сотрудников OpenAI возникли опасения, что иностранные государства, такие как Китай, могут украсть сведения об ИИ-технологиях, что в конечном итоге может поставить под угрозу национальную безопасность США. Леопольд Ашенбреннер (Leopold Aschenbrenner), менеджер OpenAI, направил совету директоров OpenAI записку, в которой сообщил о недостаточности мер, предпринимаемых компанией для защиты своих секретов от вмешательства иностранных государств.

Весной 2024 года Ашенбреннера уволили из-за утечки другой информации, но он посчитал увольнение политически мотивированным. В связи с этим бывший сотрудник рассказал о происшедшем в прошлом году взломе IT-инфраструктуры OpenAI. «Мы ценим обеспокоенность, которую Леопольд выражал во время работы в OpenAI, но это не является причиной его увольнения», — заявила пресс-секретарь OpenAI Лиз Буржуа (Liz Bourgeois). Также она опровергла утверждения Ашенбреннера о недостаточности мер компании по защите корпоративных систем от хакерских атак.

В прошлом месяце президент Microsoft Брэд Смит (Brad Smith) сообщил конгрессменам в ходе дачи показаний в Капитолии о том, как китайские хакеры использовали системы компании для широкомасштабной атаки на сети федерального правительства. Поэтому опасения по поводу возможной причастности Китая к атаке на сети OpenAI нельзя считать безосновательными.

Вместе с тем на данный момент нет убедительных доказательств того, что современные ИИ-технологии представляют собой серьёзную угрозу национальной безопасности США. Исследования OpenAI, Anthropic и других организаций показали, что ИИ не более опасен, чем поисковые системы. Даниэла Амодей (Daniela Amodei), соучредитель и президент Anthropic, сообщила, что, если бы сведения об ИИ-технологиях компании похитили или же передали другим, это не представляло бы никакого серьёзного риска. «Если бы наши знания передали кому-то другому, могло бы это нанести огромный вред обществу? Наш ответ: нет, вероятно, нет», — сказала представитель компании корреспонденту The New York Times.

Приложение ChatGPT для macOS сохраняло переписку в виде открытого текста

Приложение OpenAI ChatGPT для macOS до недавнего времени сохраняло переписку с чат-ботом на компьютере в виде открытого текста — это файлы было легко найти и прочитать. Это значит, что злоумышленник или вредоносное приложение, получив доступ к компьютеру, имели возможность прочитать переписку с ChatGPT и содержащуюся в ней информацию.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

На проблему обратил внимание пользователь соцсети Threads Педро Хосе Перейра Виейто (Pedro José Pereira Vieito). Он напомнил, что ещё в 2018 году с выходом macOS Mojave 10.14 доступ к пользовательским данным был заблокирован на уровне системы, но OpenAI решила пренебречь средствами защиты информации: текст хранился в незашифрованном виде, да ещё и в небезопасном местоположении. Чтобы подчеркнуть серьёзность проблемы, он написал собственное приложение, которое по нажатию кнопки считывало переписку с ChatGPT.

 Источник изображения: Pedro José Pereira Vieito

Источник изображения: Pedro José Pereira Vieito

К настоящему моменту ошибка исправлена — журналисты ресурса The Verge связались с OpenAI, и компания выпустила обновление приложения. «Мы осведомлены о проблеме и выпустили новую версию приложения, которая шифрует эту переписку. Мы стремимся предлагать удобный пользовательский интерфейс, сохраняя при этом наши высокие стандарты безопасности по мере развития наших технологий», — заявила представитель OpenAI Тая Кристиансон (Taya Christianson). После установки обновления приложение для перехвата содержимого чатов выполнять свою функцию перестало.

Клиент ChatGPT для macOS распространяется только через сайт OpenAI, а в таком ПО нет гарантии, что соблюдаются требования Apple по изолированной среде, которые применяются к приложениям в Mac App Store. OpenAI также предоставила себе право просматривать переписку пользователей с ChatGPT в целях безопасности и дальнейшего обучения своих моделей, но у пользователей есть возможность от этого отказаться.

Фил Шиллер из Apple войдёт в совет директоров OpenAI

Нынешний руководитель App Store и бывший глава отдела маркетинга Apple Фил Шиллер (Phil Schiller) будет представлять интересы компании в совете директоров некоммерческой организации OpenAI, стало известно Bloomberg. Шиллер получит роль наблюдателя: он сможет посещать заседания совета директоров, но не сможет голосовать или выступать в качестве директора.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Место в совете позволит Шиллеру более подробно узнать о внутренней работе OpenAI — это важно, поскольку Apple намеревается в этом году интегрировать ChatGPT в iOS и macOS. При наличии разрешения от пользователя голосовой помощник Siri с интегрированным ChatGPT сможет направлять сложные запросы чат-боту. Apple, по некоторым сведениям, ничего не платит OpenAI в рамках партнёрского проекта, но, как ожидается, в перспективе станет получать процент от подписок ChatGPT, которые будут оформляться через её платформы.

Ранее в совет директоров OpenAI вошла также представитель Microsoft – это крупный инвестор и основной партнёр разработчика ИИ. Присутствие представителей Apple и Microsoft в совете директоров OpenAI может усложнить обсуждение планов с любой из компаний. Руководство Apple редко занимает места в советах директоров компаний, с которыми осуществляется сотрудничество, обращает внимание Bloomberg. Официальных комментариев от OpenAI и Apple пока не последовало.

Еврокомиссия дополнительно расследует инвестиции Microsoft в OpenAI

Инвестиции Microsoft в OpenAI в размере $13 млрд должны подвергнуться дополнительному расследованию со стороны антимонопольных органов Евросоюза. Чиновники опросят конкурентов на предмет того, что специализирующийся на искусственном интеллекте стартап и Microsoft заключили партнёрское соглашение на эксклюзивных условиях. Об этом сообщает Bloomberg.

 Источник изображения: NoName_13 / pixabay.com

Источник изображения: NoName_13 / pixabay.com

Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager), как ожидается, прекратит проверку на предмет соответствия отношений двух компаний европейским нормам слияний и поглощений — вместо этого конкуренты и клиенты Microsoft будут опрошены об эксклюзивном характере сотрудничества корпорации с OpenAI, и о том, может ли оно оказать негативное влияние на конкуренцию. Европейских чиновников, в частности, интересует тот факт, что Microsoft Azure, по условиям соглашения, является единственным поставщиком облачных услуг OpenAI.

Такого рода предварительные опросы иногда могут привести к полномасштабным расследованиям со стороны европейских антимонопольных органов — они же, в свою очередь, в долгосрочной перспективе влекут предписания о совершении определённых действий и наложение штрафов, если будут обнаружены злоупотребления, мешающие честной конкуренции. Европейское антимонопольное ведомство в январе сообщило о возможной проверке характера участия Microsoft в OpenAI — поводом послужил инцидент с увольнением главы стартапа Сэма Альтмана (Sam Altman), выявивший глубокие связи между двумя компаниями. Интерес к их отношениям проявили также антимонопольные органы Великобритании и США.

Основу партнёрства Microsoft и OpenAI действительно составляют огромные вычислительные ресурсы, необходимые для работы генеративного ИИ. Службы вроде OpenAI ChatGPT и Google Gemini спровоцировали резкий рост спроса на облачные сервисы и вычислительные мощности — та же OpenAI стала крупным клиентом облачного бизнеса Microsoft. Европейские антимонопольные ведомства проверяют сделки в строгих временных рамках и нередко настаивают на мерах правовой защиты для устранения проблем с конкуренцией. Блокируются сделки нечасто, а их участники, как правило, не подвергаются наказаниям, если не вводят регуляторов в заблуждение и не препятствуют расследованиям.

Новая модель OpenAI CriticGPT обучена «критиковать» результаты GPT-4

Компания OpenAI представила CriticGPT — новую модель искусственного интеллекта, предназначенную для выявления ошибок в коде, сгенерированном непосредственно ChatGPT. CriticGPT будет использоваться в качестве алгоритмического помощника для тестировщиков, которые проверяют программный код, выданный ChatGPT.

 Источник изображения: Copilot

Источник изображения: Copilot

Согласно новому исследованию «LLM Critics Help Catch LLM Bugs», опубликованному OpenAI, новая модель CriticGPT создана как ИИ-ассистент для экспертов-тестировщиков, проверяющих программный код, сгенерированный ChatGPT. CriticGPT, основанный на семействе большой языковой модели (LLM) GPT-4, анализирует код и указывает на потенциальные ошибки, облегчая специалистам обнаружение недочётов, которые в противном случае могли бы остаться незамеченными из-за человеческого фактора. Исследователи обучили CriticGPT на наборе данных с образцами кода, содержащими намеренно внесённые ошибки, научив его распознавать и отмечать различные погрешности.

Учёные обнаружили, что в 63-% случаев, связанных с естественно возникающими ошибками LLM, аннотаторы предпочитали критику CriticGPT человеческой. Кроме того, команды, использующие CriticGPT, писали более полные отзывы, чем люди, не использующие этого ИИ-помощника, при этом снижался уровень конфабуляций (ложных фактов и галлюцинаций).

Разработка автоматизированного «критика» включала обучение модели на большом количестве входных данных с намеренно внесёнными ошибками. Экспертов просили модифицировать код, написанный ChatGPT, внося ошибки, а затем предоставлять результат с якобы обнаруженными багами. Этот процесс позволил модели научиться выявлять и критиковать различные типы ошибок в коде.

В экспериментах CriticGPT продемонстрировал способность улавливать как внесённые баги, так и естественно возникающие ошибки в результатах ответов ChatGPT. Исследователи также создали новый метод «Force Sampling Beam Search» (FSBS), который помогает CriticGPT писать более детальные обзоры кода, позволяя регулировать тщательность поиска проблем и одновременно контролируя частоту ложных срабатываний.

Интересно, что возможности CriticGPT выходят за рамки простой проверки кода. В экспериментах модель применили к множеству тренировочных данных ChatGPT, ранее оцененных людьми как безупречные. Удивительно, но CriticGPT выявил ошибки в 24-% случаев, которые впоследствии были подтверждены экспертами. OpenAI считает, что это демонстрирует потенциал модели не только для работы с техническими задачами, но и подчёркивает её способность улавливать тонкие ошибки, которые могут ускользнуть даже от тщательной проверки человеком.

Несмотря на многообещающие результаты, CriticGPT, как и все ИИ-модели, имеет ограничения. Модель обучалась на относительно коротких ответах ChatGPT, что может не полностью подготовить её к оценке более длинных и сложных задач, с которыми могут столкнуться будущие ИИ-системы. Команда исследователей признаёт, что модель наиболее эффективна в обнаружении ошибок, которые могут быть определены в одном конкретном, узком месте кода. Однако реальные ошибки в выводе AI могут часто быть разбросаны по нескольким частям ответа, что представляет собой вызов для будущих итераций модели.

Кроме того, хотя CriticGPT снижает уровень конфабуляций, он не устраняет их полностью, и люди-эксперты по-прежнему могут совершать ошибки на основе этих ложных данных.

Вышла первая реклама, созданная ИИ-генератором видео OpenAI Sora

Занимавшаяся производством игрушек компания Toys "R" Us объявила о банкротстве в 2017 году, но её бренд лицензировала WHP Global, и продукция под этой маркой продолжает поступать в магазины. Теперь же для поддержки бренда был создан рекламный ролик, и значительную часть работы проделал основанный на искусственном интеллекте генератор видео OpenAI Sora.

Источник изображения: Toys

Источник изображения: Toys "R" Us

Разработка видео была поручена креативному агентству Native Foreign. В проекте были задействованы «около десятка человек», сообщил режиссёр Ник Клеверов (Nik Kleverov). Модель ИИ Sora, по его словам, проделала 80–85 % работы, а коллектив взял на себя «корректирующие визуальные эффекты». Полная версия «брендового фильма», как назвали в Toys "R" Us эту работу, ещё не опубликована, но её показали на фестивале «Каннские львы», который прошёл во Франции на минувшей неделе. Тизерный ролик опубликован на YouTube-канале бренда.

 Исходная (сверху) и финальная (снизу) версия кадра с грамматической ошибкой на вывеске. Источник изображения: x.com/kleverov

Исходная (сверху) и финальная (снизу) версия кадра с грамматической ошибкой на вывеске. Источник изображения: x.com/kleverov

Участие человека для подготовки финальной версии ролика действительно было необходимым. Режиссёр опубликовал (а потом удалил) в соцсети X небольшой отчёт о том, как создавалось видео, и на одном из кадров показалась написанная с грамматической ошибкой вывеска, которую пришлось исправить. Полную версию «брендового фильма» обещают опубликовать на сайте Toys "R" Us.

OpenAI отложила запуск голосового помощника, чтобы он не наговорил лишнего

OpenAI отложила запуск долгожданной функции голосового помощника ChatGPT в стремлении гарантировать, что он сможет безопасно и эффективно обрабатывать запросы миллионов пользователей. Первоначально запуск функции намечался на конец июня — теперь его перенесли примерно на месяц.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Голосовой интерфейс чат-бота OpenAI анонсировала в мае на мероприятии, посвящённом обновлённой модели искусственного интеллекта GPT-4o, которая более эффективно обрабатывает текст, звук и изображения в реальном времени. Компания сообщила, что первоначально рассчитывала запустить голосового помощника для небольшого числа подписчиков ChatGPT Plus, но приняла решение потратить ещё месяц, чтобы «достичь нашей планки для запуска».

«Мы совершенствуем способность модели обнаруживать и отклонять определённый контент. Мы также работаем над повышением качества работы системы и готовим инфраструктуру к масштабированию для обеспечения выдачи ответов в реальном времени», — сообщила OpenAI. Это не самое приятное решение для компании, которая стремится сохранить лидерство в жёсткой конкурентной среде.

Всем платным подписчикам голосовой помощник, согласно плану, должен стать доступным осенью. OpenAI также рассказала, что готовится развернуть для чат-бота поддержку видео и трансляции экрана — более подробно об этих функциях она пообещала рассказать позже. В результате с выходом голосового помощника его возможности будут ограничены в сравнении с версией, которую компания демонстрировала на презентации в мае. К примеру, не будет работать функция компьютерного зрения, которая помогла ИИ консультировать пользователя по танцевальным движениям.

Политические дипфейки оказались самой популярным направлением в злоупотреблениях ИИ

Исследование Google DeepMind выявило, что злоупотребления искусственным интеллектом (ИИ) в форме дипфейков — реалистичных поддельных изображений политиков и знаменитостей или их видео и аудио — намного превосходят использование ИИ для кибератак.

 Источник изображения: Kandinsky

Источник изображения: Kandinsky

Согласно анализу, проведённому совместно с исследовательским подразделением группы Jigsaw, наиболее распространённой целью злоупотреблений генеративным ИИ стало формирование общественного мнения или влияние на него, что составило 27 % всех случаев использования искусственного интеллекта, сообщает Ars Technica.

Такие данные вызывают у экспертов серьёзные опасения по поводу влияния дипфейков на предстоящие во многих странах мира выборы в 2024 году. Отмечается, что в последние месяцы в социальных сетях, таких как TikTok, X и Instagram, появились дипфейки премьер-министра Великобритании Риши Сунака (Rishi Sunak) и других мировых лидеров. Избиратели Великобритании пойдут на всеобщие выборы уже на следующей неделе, и существует обеспокоенность тем, что, несмотря на усилия платформ социальных сетей по маркировке или удалению такого контента, аудитория может не распознать его как фейк, что потенциально повлияет на решения избирателей.

Арди Янжева (Ardi Janjeva), научный сотрудник Института Алана Тьюринга (The Alan Turing Institute), отмечает, что распространение контента, созданного ИИ, может «искажать наше коллективное понимание социально-политической реальности», что представляет долгосрочные риски для демократических процессов, даже если прямое влияние на поведение избирателей пока не доказано.

По мере роста популярности генеративных ИИ-продуктов, таких как ChatGPT от OpenAI и Gemini от Google, компании, разрабатывающие ИИ, начинают более пристально следить за потенциально вредным или неэтичным контентом, создаваемым их инструментами. Например, в мае OpenAI опубликовала исследование, показавшее использование их инструментов для создания и распространения дезинформации, связанное с Россией, Китаем, Ираном и Израилем.

Второй по распространённости мотивацией злоупотреблений стало получение финансовой выгоды, например, через предложение услуг по созданию дипфейков, включая создание изображений реальных людей, или использование генеративного ИИ для создания фейковых новостных статей.

Исследование показало, что в большинстве инцидентов используются легкодоступные инструменты, не требующие глубоких технических знаний, что в свою очередь только может увеличивать рост числа злоумышленников в среде ИИ.

Одновременно результаты исследования Google DeepMind повлияют на действия ИИ-компаний для проверки моделей на безопасность и оценку не только пользы, но и потенциального вреда от использования генеративного ИИ.

OpenAI отключит API ChatGPT для китайских компаний — местные аналоги ждут наплыва пользователей

Китайские разработчики систем искусственного интеллекта начали интенсивно наращивать клиентскую базу после известий о том, что OpenAI ограничит доступ к своему API для пользователей в Китае и некоторых других странах, где чат-бот официально не был запущен.

 Источник изображения: F8_f16 / pixabay.com

Источник изображения: F8_f16 / pixabay.com

Ответственная за популярный сервис ChatGPT компания OpenAI намеревается заблокировать доступ к своей технологии, используемой для создания продуктов на основе ИИ, для организаций в Китае и некоторых других странах, сообщила сегодня китайская газета Securities Times. ChatGPT недоступен в материковом Китае, но многие местные стартапы имели доступ к платформе через API, который использовали для создания собственных приложений. Накануне вечером китайские пользователи платформы начали получать электронные письма с предупреждением, что они находятся в «регионе, который OpenAI в настоящее время не поддерживает», и с 9 июля компания начнёт принимать дополнительные меры по блокировке трафика API из некоторых регионов.

В ответ на это Baidu, ведущий китайский разработчик ИИ, заявила, что запустит «инклюзивную программу», предлагающую новым пользователям бесплатную миграцию на свою платформу Ernie. Пользователям OpenAI будут предоставлены дополнительные токены для работы с флагманской моделью Ernie 3.5 в объёме, соответствующем масштабу их использования у OpenAI. Токены — это единицы текста, обрабатываемые моделями ИИ.

Alibaba Cloud также предложила пользователями API OpenAI бесплатные токены и услуги миграции на свою платформу ИИ — компания заявила, что работа с её моделью Qwen-plus обойдётся значительно дешевле, чем GPT-4. О «специальной программе миграции пользователей» API OpenAI объявила также компания Zhipu AI — ещё один крупный игрок в китайском секторе ИИ. По версии компании, её модель GLM «полностью соответствует экосистеме продукции OpenAI», предлагая «безопасность и управляемость».

Один из основателей OpenAI Илья Суцкевер создал собственный ИИ-стартап

Илья Суцкевер, один из основателей и бывший главный научный советник компании OpenAI, занимающейся разработкой искусственного интеллекта, объявил о создании своего стартапа под названием Safe Superintelligence (SSI). Главной целью новой компании является разработка безопасного и одновременно мощного искусственного интеллекта, сообщает The Verge.

 Источник изображения: Gerd Altmann/Pixabay

Источник изображения: Gerd Altmann/Pixabay

В своём заявлении Суцкевер подчеркнул, что в SSI безопасность и возможности ИИ будут развиваться в тандеме. Это позволит компании быстро продвигать свои разработки, но при этом основной упор будет сделан на обеспечение безопасности системы. В отличие от таких IT-гигантов как Google, Microsoft и собственно OpenAI, в SSI не будет коммерческого давления и необходимости выпускать продукт за продуктом. Это даст возможность сосредоточиться на поэтапном масштабировании технологий при сохранении высочайших стандартов безопасности.

Помимо самого Суцкевера, сооснователями SSI выступили Даниэль Гросс (Daniel Gross), бывший руководитель подразделения ИИ в Apple, и Даниэль Левай (Daniel Levy) из технического штата OpenAI. Интересно, что в прошлом году Суцкевер активно выступал за увольнение гендиректора OpenAI Сэма Альтмана (Sam Altman), а после своего ухода в мае намекал на запуск нового проекта. Вскоре за ним последовали и другие ведущие сотрудники OpenAI, ссылаясь на проблемы с приоритетностью вопросов этики и ответственности ИИ.

SSI пока не планирует никаких партнёрских отношений. Суцкевер чётко обозначил, что единственным продуктом его компании станет безопасный суперинтеллект, и до его создания SSI не будет заниматься ничем другим. Таким образом, стартап фактически бросает вызов таким гигантам отрасли как OpenAI, ставя во главу угла этичность и безопасность технологий. Как отмечают эксперты, успех этой инициативы может полностью изменить подходы к разработке ИИ в отрасли.

Apple ничего не платит OpenAI за интеграцию ChatGPT в iOS 18

В минувший понедельник Apple сообщила о партнёрском проекте с OpenAI, предполагающем интеграцию ChatGPT в iOS 18. Две компании не раскрыли условий соглашения, но, по неофициальной информации, Apple не платит OpenAI ничего.

 Источник изображения: apple.com

Источник изображения: apple.com

Партнёрство Apple и OpenAI «не предполагает существенного дохода ни для одной из сторон — по крайней мере, на начальном этапе», узнал аналитик Bloomberg Марк Гурман (Mark Gurman). В Apple считают, что эффект, который интеграция с iOS 18 даёт OpenAI «равнозначен или более ценен», чем денежные средства. «Соглашение включает интеграцию ChatGPT, цифрового помощника, который отвечает простыми словами на информационные запросы, в Apple Siri и новые инструменты написания текста. Apple не платит OpenAI в рамках партнёрства, утверждают люди, попросившие остаться анонимными, поскольку условия сделки конфиденциальны. Вместо этого Apple считает, что продвижение бренда и технологий OpenAI на сотнях миллионов её устройств имеет такую же или бо́льшую ценность, уверены эти люди», — пишет аналитик.

В будущем Apple намеревается заключать с разработчиками систем искусственного интеллекта соглашения о разделении доходов. В результате производитель iPhone получит «долю от ИИ-партнёров, монетизирующих результаты на платформах Apple». Интеграция ChatGPT с iOS 18, iPadOS 18 и macOS Sequoia будет бесплатной для пользователей, у которых она окажется востребованной. Подписчики ChatGPT Plus смогут войти в свои учётные записи, чтобы разблокировать дополнительные функции. Сейчас приложение ChatGPT для iOS предусматривает возможность оформления подписки, за которые Apple получает комиссию от 15 % до 30 %.


window-new
Soft
Hard
Тренды 🔥
Snoop Dogg выпустил трек про Telegram — миллион его NFT-подарков разлетелся за считанные минуты 38 мин.
Microsoft похвасталась, что сэкономила $500 млн с помощью ИИ в прошлом году, — а в этом уволила 15 000 сотрудников 57 мин.
Дополнение к «Смуте» превратилось в отдельную игру — дата выхода и скриншоты приключенческого боевика «Земский собор» 2 ч.
Безинтернетный мессенджер Bitchat от основателя Twitter провалил первую проверку безопасности 2 ч.
Биткоин рекордно подорожал до $112 000 — в том числе благодаря Nvidia 2 ч.
Bethesda приступила к улучшению производительности The Elder Scrolls IV: Oblivion Remastered — в Steam вышла бета-версия патча 1.2 2 ч.
Meta купила главу разработки ИИ Apple за $200 млн — даже Тим Кук получает меньше 2 ч.
Перенос ценой $250 миллионов: Subnautica 2 не выйдет в 2025 году, зато получила первый геймплейный трейлер 4 ч.
Суд: почта Великобритании и Fujitsu «должны были знать» о дефектах IT-системы Horizon, сломавших сотни жизней 4 ч.
Релиз российской системы виртуализации «Иридиум» 2.0: поддержка VDI, резервное копирование ВМ, HA-кластеризация и многое другое 5 ч.
Выше всех ожиданий: квартальная выручка TSMC взлетела на 38,6 % благодаря ИИ 34 мин.
Российская Caviar выпустила смартфоны Galaxy Z fold7 и Galaxy Z Flip7 с золотыми Labubu по цене от $8910 35 мин.
Samsung столкнулась с утечкой мозгов — инженеры бегут из компании из-за бюрократии и проблем с руководством 43 мин.
В большинстве AMD Ryzen и EPYC обнаружена уязвимость TSA, позволяющая красть пароли и другие секретные данные 45 мин.
Украина первой в Европе подключит смартфоны к спутникам Starlink — уже в следующем году 51 мин.
Непредсказуемый космический бильярд — NASA просчиталось с ударным отклонением опасных астероидов 2 ч.
Углеродные выбросы Google выросли на 1515 % за 14 лет, но компания уверяет, что экоактивисты перевирают факты 3 ч.
Новые тесты подтвердили высокую эффективность электрических грузовиков Tesla Semi 3 ч.
Nvidia выпустит новый ИИ-ускоритель для Китая не раньше сентября 3 ч.
Tesla через пару месяцев намерена запустить свои роботакси в Сан-Франциско 5 ч.