Сегодня 25 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

Microsoft и Apple отказались от мест в совете директоров OpenAI — это не нравилось регулирующим органам

Microsoft и Apple отказались от места наблюдателя в совете директоров в OpenAI, появление которого привлекло нежелательное внимание со стороны надзирающих органов по обе стороны Атлантики. В Microsoft заявили, что в нём больше нет необходимости, поскольку за последние восемь месяцев управление стартапом значительно улучшилось.

 Источник изображения: efes / pixabay.com

Источник изображения: efes / pixabay.com

Компания Apple, которая в июне объявила о внедрении чат-бота ChatGPT в свои устройства, также не станет занимать кресло наблюдателя в совете директоров компании, хотя этого от неё ожидали, передаёт Financial Times со ссылкой на собственный источник. Представитель OpenAI заявил, что компания сформирует новый подход к взаимодействию с другими игроками, включая партнёров вроде Microsoft и Apple и инвесторов вроде Thrive Capital и Khosla Ventures.

Microsoft в ноябре прошлого года ввела в совет директоров OpenAI наблюдателя без права голоса после непродолжительного изгнания Сэма Альтмана (Sam Altman) с поста гендиректора компании. Представитель Microsoft мог посещать заседания совета директоров OpenAI, обладал доступом к конфиденциальной информации, но не имел права голоса по таким вопросам как выбор или назначение директоров.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Место наблюдателя и инвестиции в объёме более $10 млрд вызвали обеспокоенность у регулирующих органов в Великобритании, ЕС и США по поводу контроля корпорации над стартапом. Microsoft отказалась от места наблюдателя, сославшись на новые механизмы партнёрства с OpenAI, инновации и рост клиентской базы с момента возвращения Альтмана на пост гендиректора. «За последние восемь месяцев мы стали свидетелями значительного прогресса у недавно сформированного совета директоров и уверены в правильности направления движения компании. Учитывая всё это, мы больше не считаем, что наша ограниченная роль наблюдателя необходима», — гласит письмо, направленное Microsoft в OpenAI.

В июне Еврокомиссия установила, что отношения Microsoft и OpenAI не могут регулироваться местными нормами о слияниях и поглощениях, поскольку не было обнаружено подтверждения, что корпорация контролирует стартап. Но ведомство проведёт консультации с третьими лицами по вопросу эксклюзивного характера взаимодействия двух субъектов. Британские и американские регулирующие органы, однако, пока не уверены в независимости OpenAI.

Microsoft и OpenAI в стремлении доказать обратное всё активнее конкурируют друг с другом в области технологических решений для корпоративных клиентов. Microsoft также расширила ассортимент своих предложений на основе искусственного интеллекта в инфраструктуре Azure и наняла гендиректора Inflection в качестве главы направления потребительского ИИ — это расценивается как попытка диверсификации за пределы решений OpenAI.

ИИ-модели OpenAI остаются доступны в Китае через облако Microsoft Azure

Санкции властей США в отношении Китая распространяются и на услуги в сфере доступа к аппаратным и программным ресурсам, расположенным за пределами последней из стран. На этом фоне любопытным исключением выглядит способность китайских клиентов Microsoft Azure сохранить доступ к услугам OpenAI, хотя местным разработчикам прямой доступ к ним будет закрыт на этой неделе.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Как сообщает The Information, ещё в прошлом месяце китайские клиенты OpenAI, которые использовали одноимённый программный интерфейс для разработки своих приложений в сфере искусственного интеллекта, получили уведомления о том, что они лишатся к нему доступа с 9 июля, поскольку территориально находятся в регионе, в котором данные услуги не предоставляются.

При этом опрошенные The Information источники подтвердили, что китайские клиенты облачного сервиса Microsoft Azure до сих пор сохраняют доступ к большим языковым моделям OpenAI. Американская корпорация Microsoft доступ к своему сервису Azure на территории Китая осуществляет через совместное предприятие с 21Vianet, но физически профильные серверные системы находятся за пределами Китая, чтобы исключить способность местных властей влиять на условия предоставления этого сервиса. В таких условиях китайские разработчики сохраняют возможность обучения языковых моделей OpenAI для собственных нужд. Напомним, Microsoft является ключевым инвестором в капитал OpenAI, поэтому услуги компаний тесно интегрируются друг с другом.

Хакеры проникли на внутренний форум OpenAI, где обсуждаются перспективные разработки

В начале прошлого года некий хакер смог проникнуть во внутренние системы обмена сообщениями OpenAI, разработчика ИИ-чат-бота ChatGPT, и похитил сведения о технологических наработках стартапа, пишет The New York Times. По словам источников издания, злоумышленник выведал подробности о новейших достижениях в сфере ИИ компании из дискуссий сотрудников на форуме, но ему не удалось взломать системы, где создаются её продукты и содержится информация о них.

 Источник изображения: TheDigitalArtist/Pixabay

Источник изображения: TheDigitalArtist / Pixabay

Поскольку никакая информация о клиентах или партнёрах не была украдена, OpenAI не стала предавать публичной огласке этот инцидент, хотя и сообщила о нём на общем собрании сотрудников в апреле прошлого года, а также уведомила совет директоров. Руководители не посчитали инцидент угрозой национальной безопасности, полагая, что хакер был частным лицом, и не стали информировать об этом ФБР и правоохранительные органы.

И всё же у некоторых сотрудников OpenAI возникли опасения, что иностранные государства, такие как Китай, могут украсть сведения об ИИ-технологиях, что в конечном итоге может поставить под угрозу национальную безопасность США. Леопольд Ашенбреннер (Leopold Aschenbrenner), менеджер OpenAI, направил совету директоров OpenAI записку, в которой сообщил о недостаточности мер, предпринимаемых компанией для защиты своих секретов от вмешательства иностранных государств.

Весной 2024 года Ашенбреннера уволили из-за утечки другой информации, но он посчитал увольнение политически мотивированным. В связи с этим бывший сотрудник рассказал о происшедшем в прошлом году взломе IT-инфраструктуры OpenAI. «Мы ценим обеспокоенность, которую Леопольд выражал во время работы в OpenAI, но это не является причиной его увольнения», — заявила пресс-секретарь OpenAI Лиз Буржуа (Liz Bourgeois). Также она опровергла утверждения Ашенбреннера о недостаточности мер компании по защите корпоративных систем от хакерских атак.

В прошлом месяце президент Microsoft Брэд Смит (Brad Smith) сообщил конгрессменам в ходе дачи показаний в Капитолии о том, как китайские хакеры использовали системы компании для широкомасштабной атаки на сети федерального правительства. Поэтому опасения по поводу возможной причастности Китая к атаке на сети OpenAI нельзя считать безосновательными.

Вместе с тем на данный момент нет убедительных доказательств того, что современные ИИ-технологии представляют собой серьёзную угрозу национальной безопасности США. Исследования OpenAI, Anthropic и других организаций показали, что ИИ не более опасен, чем поисковые системы. Даниэла Амодей (Daniela Amodei), соучредитель и президент Anthropic, сообщила, что, если бы сведения об ИИ-технологиях компании похитили или же передали другим, это не представляло бы никакого серьёзного риска. «Если бы наши знания передали кому-то другому, могло бы это нанести огромный вред обществу? Наш ответ: нет, вероятно, нет», — сказала представитель компании корреспонденту The New York Times.

Приложение ChatGPT для macOS сохраняло переписку в виде открытого текста

Приложение OpenAI ChatGPT для macOS до недавнего времени сохраняло переписку с чат-ботом на компьютере в виде открытого текста — это файлы было легко найти и прочитать. Это значит, что злоумышленник или вредоносное приложение, получив доступ к компьютеру, имели возможность прочитать переписку с ChatGPT и содержащуюся в ней информацию.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

На проблему обратил внимание пользователь соцсети Threads Педро Хосе Перейра Виейто (Pedro José Pereira Vieito). Он напомнил, что ещё в 2018 году с выходом macOS Mojave 10.14 доступ к пользовательским данным был заблокирован на уровне системы, но OpenAI решила пренебречь средствами защиты информации: текст хранился в незашифрованном виде, да ещё и в небезопасном местоположении. Чтобы подчеркнуть серьёзность проблемы, он написал собственное приложение, которое по нажатию кнопки считывало переписку с ChatGPT.

 Источник изображения: Pedro José Pereira Vieito

Источник изображения: Pedro José Pereira Vieito

К настоящему моменту ошибка исправлена — журналисты ресурса The Verge связались с OpenAI, и компания выпустила обновление приложения. «Мы осведомлены о проблеме и выпустили новую версию приложения, которая шифрует эту переписку. Мы стремимся предлагать удобный пользовательский интерфейс, сохраняя при этом наши высокие стандарты безопасности по мере развития наших технологий», — заявила представитель OpenAI Тая Кристиансон (Taya Christianson). После установки обновления приложение для перехвата содержимого чатов выполнять свою функцию перестало.

Клиент ChatGPT для macOS распространяется только через сайт OpenAI, а в таком ПО нет гарантии, что соблюдаются требования Apple по изолированной среде, которые применяются к приложениям в Mac App Store. OpenAI также предоставила себе право просматривать переписку пользователей с ChatGPT в целях безопасности и дальнейшего обучения своих моделей, но у пользователей есть возможность от этого отказаться.

Фил Шиллер из Apple войдёт в совет директоров OpenAI

Нынешний руководитель App Store и бывший глава отдела маркетинга Apple Фил Шиллер (Phil Schiller) будет представлять интересы компании в совете директоров некоммерческой организации OpenAI, стало известно Bloomberg. Шиллер получит роль наблюдателя: он сможет посещать заседания совета директоров, но не сможет голосовать или выступать в качестве директора.

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Место в совете позволит Шиллеру более подробно узнать о внутренней работе OpenAI — это важно, поскольку Apple намеревается в этом году интегрировать ChatGPT в iOS и macOS. При наличии разрешения от пользователя голосовой помощник Siri с интегрированным ChatGPT сможет направлять сложные запросы чат-боту. Apple, по некоторым сведениям, ничего не платит OpenAI в рамках партнёрского проекта, но, как ожидается, в перспективе станет получать процент от подписок ChatGPT, которые будут оформляться через её платформы.

Ранее в совет директоров OpenAI вошла также представитель Microsoft – это крупный инвестор и основной партнёр разработчика ИИ. Присутствие представителей Apple и Microsoft в совете директоров OpenAI может усложнить обсуждение планов с любой из компаний. Руководство Apple редко занимает места в советах директоров компаний, с которыми осуществляется сотрудничество, обращает внимание Bloomberg. Официальных комментариев от OpenAI и Apple пока не последовало.

Еврокомиссия дополнительно расследует инвестиции Microsoft в OpenAI

Инвестиции Microsoft в OpenAI в размере $13 млрд должны подвергнуться дополнительному расследованию со стороны антимонопольных органов Евросоюза. Чиновники опросят конкурентов на предмет того, что специализирующийся на искусственном интеллекте стартап и Microsoft заключили партнёрское соглашение на эксклюзивных условиях. Об этом сообщает Bloomberg.

 Источник изображения: NoName_13 / pixabay.com

Источник изображения: NoName_13 / pixabay.com

Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager), как ожидается, прекратит проверку на предмет соответствия отношений двух компаний европейским нормам слияний и поглощений — вместо этого конкуренты и клиенты Microsoft будут опрошены об эксклюзивном характере сотрудничества корпорации с OpenAI, и о том, может ли оно оказать негативное влияние на конкуренцию. Европейских чиновников, в частности, интересует тот факт, что Microsoft Azure, по условиям соглашения, является единственным поставщиком облачных услуг OpenAI.

Такого рода предварительные опросы иногда могут привести к полномасштабным расследованиям со стороны европейских антимонопольных органов — они же, в свою очередь, в долгосрочной перспективе влекут предписания о совершении определённых действий и наложение штрафов, если будут обнаружены злоупотребления, мешающие честной конкуренции. Европейское антимонопольное ведомство в январе сообщило о возможной проверке характера участия Microsoft в OpenAI — поводом послужил инцидент с увольнением главы стартапа Сэма Альтмана (Sam Altman), выявивший глубокие связи между двумя компаниями. Интерес к их отношениям проявили также антимонопольные органы Великобритании и США.

Основу партнёрства Microsoft и OpenAI действительно составляют огромные вычислительные ресурсы, необходимые для работы генеративного ИИ. Службы вроде OpenAI ChatGPT и Google Gemini спровоцировали резкий рост спроса на облачные сервисы и вычислительные мощности — та же OpenAI стала крупным клиентом облачного бизнеса Microsoft. Европейские антимонопольные ведомства проверяют сделки в строгих временных рамках и нередко настаивают на мерах правовой защиты для устранения проблем с конкуренцией. Блокируются сделки нечасто, а их участники, как правило, не подвергаются наказаниям, если не вводят регуляторов в заблуждение и не препятствуют расследованиям.

Новая модель OpenAI CriticGPT обучена «критиковать» результаты GPT-4

Компания OpenAI представила CriticGPT — новую модель искусственного интеллекта, предназначенную для выявления ошибок в коде, сгенерированном непосредственно ChatGPT. CriticGPT будет использоваться в качестве алгоритмического помощника для тестировщиков, которые проверяют программный код, выданный ChatGPT.

 Источник изображения: Copilot

Источник изображения: Copilot

Согласно новому исследованию «LLM Critics Help Catch LLM Bugs», опубликованному OpenAI, новая модель CriticGPT создана как ИИ-ассистент для экспертов-тестировщиков, проверяющих программный код, сгенерированный ChatGPT. CriticGPT, основанный на семействе большой языковой модели (LLM) GPT-4, анализирует код и указывает на потенциальные ошибки, облегчая специалистам обнаружение недочётов, которые в противном случае могли бы остаться незамеченными из-за человеческого фактора. Исследователи обучили CriticGPT на наборе данных с образцами кода, содержащими намеренно внесённые ошибки, научив его распознавать и отмечать различные погрешности.

Учёные обнаружили, что в 63-% случаев, связанных с естественно возникающими ошибками LLM, аннотаторы предпочитали критику CriticGPT человеческой. Кроме того, команды, использующие CriticGPT, писали более полные отзывы, чем люди, не использующие этого ИИ-помощника, при этом снижался уровень конфабуляций (ложных фактов и галлюцинаций).

Разработка автоматизированного «критика» включала обучение модели на большом количестве входных данных с намеренно внесёнными ошибками. Экспертов просили модифицировать код, написанный ChatGPT, внося ошибки, а затем предоставлять результат с якобы обнаруженными багами. Этот процесс позволил модели научиться выявлять и критиковать различные типы ошибок в коде.

В экспериментах CriticGPT продемонстрировал способность улавливать как внесённые баги, так и естественно возникающие ошибки в результатах ответов ChatGPT. Исследователи также создали новый метод «Force Sampling Beam Search» (FSBS), который помогает CriticGPT писать более детальные обзоры кода, позволяя регулировать тщательность поиска проблем и одновременно контролируя частоту ложных срабатываний.

Интересно, что возможности CriticGPT выходят за рамки простой проверки кода. В экспериментах модель применили к множеству тренировочных данных ChatGPT, ранее оцененных людьми как безупречные. Удивительно, но CriticGPT выявил ошибки в 24-% случаев, которые впоследствии были подтверждены экспертами. OpenAI считает, что это демонстрирует потенциал модели не только для работы с техническими задачами, но и подчёркивает её способность улавливать тонкие ошибки, которые могут ускользнуть даже от тщательной проверки человеком.

Несмотря на многообещающие результаты, CriticGPT, как и все ИИ-модели, имеет ограничения. Модель обучалась на относительно коротких ответах ChatGPT, что может не полностью подготовить её к оценке более длинных и сложных задач, с которыми могут столкнуться будущие ИИ-системы. Команда исследователей признаёт, что модель наиболее эффективна в обнаружении ошибок, которые могут быть определены в одном конкретном, узком месте кода. Однако реальные ошибки в выводе AI могут часто быть разбросаны по нескольким частям ответа, что представляет собой вызов для будущих итераций модели.

Кроме того, хотя CriticGPT снижает уровень конфабуляций, он не устраняет их полностью, и люди-эксперты по-прежнему могут совершать ошибки на основе этих ложных данных.

Вышла первая реклама, созданная ИИ-генератором видео OpenAI Sora

Занимавшаяся производством игрушек компания Toys "R" Us объявила о банкротстве в 2017 году, но её бренд лицензировала WHP Global, и продукция под этой маркой продолжает поступать в магазины. Теперь же для поддержки бренда был создан рекламный ролик, и значительную часть работы проделал основанный на искусственном интеллекте генератор видео OpenAI Sora.

Источник изображения: Toys

Источник изображения: Toys "R" Us

Разработка видео была поручена креативному агентству Native Foreign. В проекте были задействованы «около десятка человек», сообщил режиссёр Ник Клеверов (Nik Kleverov). Модель ИИ Sora, по его словам, проделала 80–85 % работы, а коллектив взял на себя «корректирующие визуальные эффекты». Полная версия «брендового фильма», как назвали в Toys "R" Us эту работу, ещё не опубликована, но её показали на фестивале «Каннские львы», который прошёл во Франции на минувшей неделе. Тизерный ролик опубликован на YouTube-канале бренда.

 Исходная (сверху) и финальная (снизу) версия кадра с грамматической ошибкой на вывеске. Источник изображения: x.com/kleverov

Исходная (сверху) и финальная (снизу) версия кадра с грамматической ошибкой на вывеске. Источник изображения: x.com/kleverov

Участие человека для подготовки финальной версии ролика действительно было необходимым. Режиссёр опубликовал (а потом удалил) в соцсети X небольшой отчёт о том, как создавалось видео, и на одном из кадров показалась написанная с грамматической ошибкой вывеска, которую пришлось исправить. Полную версию «брендового фильма» обещают опубликовать на сайте Toys "R" Us.

OpenAI отложила запуск голосового помощника, чтобы он не наговорил лишнего

OpenAI отложила запуск долгожданной функции голосового помощника ChatGPT в стремлении гарантировать, что он сможет безопасно и эффективно обрабатывать запросы миллионов пользователей. Первоначально запуск функции намечался на конец июня — теперь его перенесли примерно на месяц.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Голосовой интерфейс чат-бота OpenAI анонсировала в мае на мероприятии, посвящённом обновлённой модели искусственного интеллекта GPT-4o, которая более эффективно обрабатывает текст, звук и изображения в реальном времени. Компания сообщила, что первоначально рассчитывала запустить голосового помощника для небольшого числа подписчиков ChatGPT Plus, но приняла решение потратить ещё месяц, чтобы «достичь нашей планки для запуска».

«Мы совершенствуем способность модели обнаруживать и отклонять определённый контент. Мы также работаем над повышением качества работы системы и готовим инфраструктуру к масштабированию для обеспечения выдачи ответов в реальном времени», — сообщила OpenAI. Это не самое приятное решение для компании, которая стремится сохранить лидерство в жёсткой конкурентной среде.

Всем платным подписчикам голосовой помощник, согласно плану, должен стать доступным осенью. OpenAI также рассказала, что готовится развернуть для чат-бота поддержку видео и трансляции экрана — более подробно об этих функциях она пообещала рассказать позже. В результате с выходом голосового помощника его возможности будут ограничены в сравнении с версией, которую компания демонстрировала на презентации в мае. К примеру, не будет работать функция компьютерного зрения, которая помогла ИИ консультировать пользователя по танцевальным движениям.

Политические дипфейки оказались самой популярным направлением в злоупотреблениях ИИ

Исследование Google DeepMind выявило, что злоупотребления искусственным интеллектом (ИИ) в форме дипфейков — реалистичных поддельных изображений политиков и знаменитостей или их видео и аудио — намного превосходят использование ИИ для кибератак.

 Источник изображения: Kandinsky

Источник изображения: Kandinsky

Согласно анализу, проведённому совместно с исследовательским подразделением группы Jigsaw, наиболее распространённой целью злоупотреблений генеративным ИИ стало формирование общественного мнения или влияние на него, что составило 27 % всех случаев использования искусственного интеллекта, сообщает Ars Technica.

Такие данные вызывают у экспертов серьёзные опасения по поводу влияния дипфейков на предстоящие во многих странах мира выборы в 2024 году. Отмечается, что в последние месяцы в социальных сетях, таких как TikTok, X и Instagram, появились дипфейки премьер-министра Великобритании Риши Сунака (Rishi Sunak) и других мировых лидеров. Избиратели Великобритании пойдут на всеобщие выборы уже на следующей неделе, и существует обеспокоенность тем, что, несмотря на усилия платформ социальных сетей по маркировке или удалению такого контента, аудитория может не распознать его как фейк, что потенциально повлияет на решения избирателей.

Арди Янжева (Ardi Janjeva), научный сотрудник Института Алана Тьюринга (The Alan Turing Institute), отмечает, что распространение контента, созданного ИИ, может «искажать наше коллективное понимание социально-политической реальности», что представляет долгосрочные риски для демократических процессов, даже если прямое влияние на поведение избирателей пока не доказано.

По мере роста популярности генеративных ИИ-продуктов, таких как ChatGPT от OpenAI и Gemini от Google, компании, разрабатывающие ИИ, начинают более пристально следить за потенциально вредным или неэтичным контентом, создаваемым их инструментами. Например, в мае OpenAI опубликовала исследование, показавшее использование их инструментов для создания и распространения дезинформации, связанное с Россией, Китаем, Ираном и Израилем.

Второй по распространённости мотивацией злоупотреблений стало получение финансовой выгоды, например, через предложение услуг по созданию дипфейков, включая создание изображений реальных людей, или использование генеративного ИИ для создания фейковых новостных статей.

Исследование показало, что в большинстве инцидентов используются легкодоступные инструменты, не требующие глубоких технических знаний, что в свою очередь только может увеличивать рост числа злоумышленников в среде ИИ.

Одновременно результаты исследования Google DeepMind повлияют на действия ИИ-компаний для проверки моделей на безопасность и оценку не только пользы, но и потенциального вреда от использования генеративного ИИ.

OpenAI отключит API ChatGPT для китайских компаний — местные аналоги ждут наплыва пользователей

Китайские разработчики систем искусственного интеллекта начали интенсивно наращивать клиентскую базу после известий о том, что OpenAI ограничит доступ к своему API для пользователей в Китае и некоторых других странах, где чат-бот официально не был запущен.

 Источник изображения: F8_f16 / pixabay.com

Источник изображения: F8_f16 / pixabay.com

Ответственная за популярный сервис ChatGPT компания OpenAI намеревается заблокировать доступ к своей технологии, используемой для создания продуктов на основе ИИ, для организаций в Китае и некоторых других странах, сообщила сегодня китайская газета Securities Times. ChatGPT недоступен в материковом Китае, но многие местные стартапы имели доступ к платформе через API, который использовали для создания собственных приложений. Накануне вечером китайские пользователи платформы начали получать электронные письма с предупреждением, что они находятся в «регионе, который OpenAI в настоящее время не поддерживает», и с 9 июля компания начнёт принимать дополнительные меры по блокировке трафика API из некоторых регионов.

В ответ на это Baidu, ведущий китайский разработчик ИИ, заявила, что запустит «инклюзивную программу», предлагающую новым пользователям бесплатную миграцию на свою платформу Ernie. Пользователям OpenAI будут предоставлены дополнительные токены для работы с флагманской моделью Ernie 3.5 в объёме, соответствующем масштабу их использования у OpenAI. Токены — это единицы текста, обрабатываемые моделями ИИ.

Alibaba Cloud также предложила пользователями API OpenAI бесплатные токены и услуги миграции на свою платформу ИИ — компания заявила, что работа с её моделью Qwen-plus обойдётся значительно дешевле, чем GPT-4. О «специальной программе миграции пользователей» API OpenAI объявила также компания Zhipu AI — ещё один крупный игрок в китайском секторе ИИ. По версии компании, её модель GLM «полностью соответствует экосистеме продукции OpenAI», предлагая «безопасность и управляемость».

Один из основателей OpenAI Илья Суцкевер создал собственный ИИ-стартап

Илья Суцкевер, один из основателей и бывший главный научный советник компании OpenAI, занимающейся разработкой искусственного интеллекта, объявил о создании своего стартапа под названием Safe Superintelligence (SSI). Главной целью новой компании является разработка безопасного и одновременно мощного искусственного интеллекта, сообщает The Verge.

 Источник изображения: Gerd Altmann/Pixabay

Источник изображения: Gerd Altmann/Pixabay

В своём заявлении Суцкевер подчеркнул, что в SSI безопасность и возможности ИИ будут развиваться в тандеме. Это позволит компании быстро продвигать свои разработки, но при этом основной упор будет сделан на обеспечение безопасности системы. В отличие от таких IT-гигантов как Google, Microsoft и собственно OpenAI, в SSI не будет коммерческого давления и необходимости выпускать продукт за продуктом. Это даст возможность сосредоточиться на поэтапном масштабировании технологий при сохранении высочайших стандартов безопасности.

Помимо самого Суцкевера, сооснователями SSI выступили Даниэль Гросс (Daniel Gross), бывший руководитель подразделения ИИ в Apple, и Даниэль Левай (Daniel Levy) из технического штата OpenAI. Интересно, что в прошлом году Суцкевер активно выступал за увольнение гендиректора OpenAI Сэма Альтмана (Sam Altman), а после своего ухода в мае намекал на запуск нового проекта. Вскоре за ним последовали и другие ведущие сотрудники OpenAI, ссылаясь на проблемы с приоритетностью вопросов этики и ответственности ИИ.

SSI пока не планирует никаких партнёрских отношений. Суцкевер чётко обозначил, что единственным продуктом его компании станет безопасный суперинтеллект, и до его создания SSI не будет заниматься ничем другим. Таким образом, стартап фактически бросает вызов таким гигантам отрасли как OpenAI, ставя во главу угла этичность и безопасность технологий. Как отмечают эксперты, успех этой инициативы может полностью изменить подходы к разработке ИИ в отрасли.

Apple ничего не платит OpenAI за интеграцию ChatGPT в iOS 18

В минувший понедельник Apple сообщила о партнёрском проекте с OpenAI, предполагающем интеграцию ChatGPT в iOS 18. Две компании не раскрыли условий соглашения, но, по неофициальной информации, Apple не платит OpenAI ничего.

 Источник изображения: apple.com

Источник изображения: apple.com

Партнёрство Apple и OpenAI «не предполагает существенного дохода ни для одной из сторон — по крайней мере, на начальном этапе», узнал аналитик Bloomberg Марк Гурман (Mark Gurman). В Apple считают, что эффект, который интеграция с iOS 18 даёт OpenAI «равнозначен или более ценен», чем денежные средства. «Соглашение включает интеграцию ChatGPT, цифрового помощника, который отвечает простыми словами на информационные запросы, в Apple Siri и новые инструменты написания текста. Apple не платит OpenAI в рамках партнёрства, утверждают люди, попросившие остаться анонимными, поскольку условия сделки конфиденциальны. Вместо этого Apple считает, что продвижение бренда и технологий OpenAI на сотнях миллионов её устройств имеет такую же или бо́льшую ценность, уверены эти люди», — пишет аналитик.

В будущем Apple намеревается заключать с разработчиками систем искусственного интеллекта соглашения о разделении доходов. В результате производитель iPhone получит «долю от ИИ-партнёров, монетизирующих результаты на платформах Apple». Интеграция ChatGPT с iOS 18, iPadOS 18 и macOS Sequoia будет бесплатной для пользователей, у которых она окажется востребованной. Подписчики ChatGPT Plus смогут войти в свои учётные записи, чтобы разблокировать дополнительные функции. Сейчас приложение ChatGPT для iOS предусматривает возможность оформления подписки, за которые Apple получает комиссию от 15 % до 30 %.

Выручка OpenAI в годовом выражении достигла $3,4 млрд, удвоившись с конца прошлого года

Стартап OpenAI считается одним из главных игроков рынка систем генеративного искусственного интеллекта, но количественных характеристик его успеха известно не так много. По данным The Information, руководство OpenAI недавно призналось, что в приведённой к году величине выручка компании достигает $3,4 млрд против $1,6 млрд в конце прошлого года.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Данный показатель рассчитывается методом умножения месячной выручки на 12, поэтому с учётом роста выручки в течение года может не отображать реального размера годовой выручки, но в данном случае важна сама динамика. Всего за полгода OpenAI смогла удвоить свою выручку в годовом выражении. Для сравнения, прошлым летом этот показатель был близок к $1 млрд. Это значит, что за прошедшие двенадцать месяцев выручка OpenAI выросла почти в три с половиной раза.

Эти значения прозвучали во время выступления генерального директора OpenAI Сэма Альтмана (Sam Altman) на недавнем собрании сотрудников компании. Примерно $3,2 млрд выручки в приведённом к году размере OpenAI получает от предоставления своих услуг клиентам напрямую, ещё $200 млн в год компания способна получать за счёт сотрудничества с Microsoft Azure. В текущем полугодии капитализация стартапа оценивалась в $86 млрд. Компания недавно наняла финансового директора Сару Фрайар (Sarah Friar), хотя на протяжении двух лет подряд эта должность оставалась вакантной. Эксперты считают, что это может указывать на стремление OpenAI увеличить финансовую отдачу от развития своего бизнеса, а также на возможность подготовки компании к публичному размещению акций.

Apple не может на 100 % гарантировать отсутствие галлюцинаций у фирменного ИИ, заявил Тим Кук

Активное развитие систем искусственного интеллекта позволило выявить довольно странные результаты обработки пользовательских запросов, когда клей включался в рецепт приготовления пиццы, а факт присутствия на Луне кошек не оспаривался подобными системами. Глава Apple признался, что не может на 100 % гарантировать чистоту фирменной системы ИИ от подобных «галлюцинаций».

 Источник изображения: Apple

Источник изображения: Apple

В интервью The Washington Post генеральный директор Apple Тим Кук (Tim Cook) заявил, что никогда не стал бы настаивать со стопроцентной уверенностью, что новая система Apple Intelligence не будет выдавать ложную или вводящую в заблуждение информацию. «Я думаю, мы сделали всё необходимое, включая и глубокие размышления о степени готовности такой технологии к применению в данных областях, так что я очень уверен в её высоком качестве, но честно говоря, это не уверенность на 100 %. Я бы никогда не стал говорить, что эта уверенность достигает уровня в 100 %», — пояснил Тим Кук.

Объясняя выбор OpenAI в качестве первого партнёра по интеграции чат-бота с голосовым помощником Apple Siri, Тим Кук отметил, что первая из компаний является «пионером» в вопросе защиты частной информации пользователей, и у неё сейчас имеется в распоряжении «самая лучшая модель». Как и старший вице-президент Apple Крейг Федериги (Craig Federighi), глава компании дал понять, что переговоры по интеграции систем ИИ ведутся и с другими разработчиками. По крайней мере, Федериги в этом контексте упоминал Google Gemini, но просто для примера.


window-new
Soft
Hard
Тренды 🔥
Breathedge 2, ремейк «Готики» и новый проект создателя The Stanley Parable: в Steam стартовал масштабный фестиваль демоверсий «Играм быть» 5 ч.
Новый музыкальный трейлер раскрыл дату релиза to a T — приключения от автора Katamari Damacy про застрявшего в Т-позе подростка 7 ч.
The Talos Principle: Reawakened получила дату выхода и демо в Steam — это «радикальный» ремастер философской головоломки от создателей Serious Sam 8 ч.
xAI Grok 3 заговорил и тут-же стал ругаться и заигрывать с пользователями 8 ч.
В Steam вышла демоверсия ремейка «Готики» — с полным переводом на русский и RTX 4070 в рекомендуемых требованиях 9 ч.
Календарь релизов — 24 февраля – 2 марта: Monster Hunter Wilds, Die in the Dungeon и Cabernet 9 ч.
Новая игра режиссёра The Witcher 3 не пострадает из-за смены курса NetEase — разработчики The Blood of Dawnwalker успокоили фанатов 11 ч.
Данные россиян запретили собирать и хранить за рубежом — чем это грозит маркетплейсам и «дочкам» зарубежных фирм 12 ч.
Слухи: Sony отпразднует 20-летие God of War анонсом новых ремастеров 12 ч.
Т-1000 из «Терминатора 2: Судный день» ворвётся в Mortal Kombat 1 вместе с неожиданным бойцом камео — дата выхода последнего персонажа в Kombat Pack 2 14 ч.