Опрос
|
реклама
Быстрый переход
Монополия Nvidia пошатнулась: OpenAI начала использовать чипы Google
28.06.2025 [18:06],
Владимир Мироненко
OpenAI начала использовать ИИ-ускорители TPU компании Google для поддержки работы ИИ-чат-бота ChatGPT и связанных с ним сервисов. Это стало её первым значительным шагом в направлении отказа от исключительного использования чипов Nvidia в рамках стратегии по снижению зависимости от инфраструктуры, управляемой Microsoft, сообщил The Information. ![]() Источник изображения: Mariia Shalabaieva/unsplash.com OpenAI арендует у Google Cloud тензорные процессоры (TPU) с целью сокращения расходов, связанных с вычислениями инференса — процесса использования ИИ-модели для генерации результатов в ответ на запросы после завершения её обучения. Решение OpenAI использовать TPU от Google может означать повышение их статуса в качестве экономически эффективной альтернативы широко используемым GPU компании Nvidia, которая доминирует на рынке ИИ-ускорителей, отметил ресурс investing.com. Ранее OpenAI для обучения и развёртывания своих ИИ-моделей использовала оборудование на базе чипов Nvidia, в основном через партнёрство с Microsoft и Oracle. Новый партнёр, Google, хотя и предоставляет OpenAI некоторые вычислительные мощности на базе TPU, не предлагает ей самые мощные версии своих ускорителей, сообщают источники The Information. Следовательно, самые продвинутые версии TPU Google зарезервировала для внутреннего использования, включая работу над собственными большими языковыми моделями в рамках проекта Gemini. Тем не менее, для OpenAI доступ даже к более ранним версиям TPU представляет собой шаг в направлении диверсификации вычислительной инфраструктуры на фоне растущего спроса на ИИ-чипы в отрасли. На данный момент неясно, будет ли OpenAI использовать TPU Google для обучения моделей или ограничится только применением для инференса. По мере роста конкуренции и углубления ограничений ресурсов гибридная инфраструктура может обеспечить компании больше гибкости в использовании вычислительных мощностей для масштабирования. OpenAI назвала китайский стартап Zhipu AI одним из самых перспективных в сфере ИИ
26.06.2025 [12:45],
Алексей Разин
Создатели ChatGPT наверняка что-то смыслят в разработке систем искусственного интеллекта, поэтому комментарии OpenAI в этой сфере высоко ценятся. Последние из них касаются перспектив китайского стартапа Zhipu AI, успехи которого на данном поприще удостоились хвалебных замечаний со стороны OpenAI. ![]() Источник изображения: Unsplash, Solen Feyissa В своём блоге американская компания похвалила Zhipu AI за «заметный прогресс» в гонке ИИ. Основанная в 2019 году в КНР компания Zhipu AI уже успела попасть под санкции США, а китайская пресса считает её одним из «ИИ-тигров». Предполагается, что Zhipu AI входит в число тех китайских компаний, которым обеспечена поддержка правительства КНР. На слуху с января текущего года остаётся имя DeepSeek, но OpenAI в своём блоге отмечает, что предполагаемые связи Zhipu AI с китайским правительством и активность стартапа по расширению за пределами КНР заслуживают пристального внимания. По мнению OpenAI, представители Zhipu AI регулярно встречаются с политическим руководством Коммунистической партии Китая, а сумма инвестиций в капитал стартапа со стороны властей страны превысила $1,4 млрд. По информации источника, у Zhipu AI имеются представительства на Ближнем Востоке, в Великобритании, Сингапуре и Малайзии, а Индонезия и Вьетнам даже могут похвастать наличием исследовательских центров Zhipu AI, сотрудничающих с местными разработчиками. Подобная деятельность стартапа, по мнению представителей OpenAI, направлена на закрепление китайских разработок в сфере ИИ на рынках стран с растущей экономикой прежде, чем это могли бы сделать европейские или американские конкуренты. Председатель совета директоров Zhipu AI Лю Дэбин (Liu Debing) на прошлой неделе заявил прессе, что его компания надеется принять участие в распространении потенциала китайского ИИ по всему миру. Подобные высказывания OpenAI в адрес китайского конкурента легко объяснить участием американского стартапа в крупных проектах типа Stargate на территории США и на Ближнем Востоке. Разработчики ChatGPT также получают крупные контракты оборонных ведомств США, поэтому их риторика всё больше попадает в русло общего вектора внешней политики американских властей. Zhipu AI под санкции США как раз попала из-за подозрений в сотрудничестве с китайскими военными. Премия в $100 млн сработала? Meta✴ переманила трёх исследователей ИИ из OpenAI
26.06.2025 [10:22],
Алексей Разин
Стремление Meta✴ Platforms заполучить в свои ряды подготовленных специалистов из других компаний, занимающихся разработкой систем искусственного интеллекта, уже не удаётся скрывать. По крайней мере, руководитель OpenAI недавно признавался в подобной «охоте за головами» со стороны Meta✴. Сейчас стало известно, что последняя всё же переманила трёх крупных исследователей из OpenAI. ![]() Источник изображения: Unsplash, appshunter.io Первым об этих кадровых изменениях сообщило издание The Wall Street Journal, а Reuters удалось подтвердить уход троих специалистов из OpenAI по официальным каналам. Как отметил источник, в Meta✴ перешли работать Лукас Бейер (Lucas Beyer), Александр Колесников и Сяохуа Чжай (Xiaohua Zhai) — все они работали в швейцарском представительстве OpenAI в Цюрихе. Напомним, что рекрутинг специалистов в сфере ИИ активизировался в компании Meta✴ после объявления о сделке по покупке 49 % акций стартапа Scale AI за $14,3 млрд. Глава частично поглощаемой компании Александр Ван (Alexandr Wang), как ожидается, возглавит в Meta✴ существенную часть активности по разработке систем искусственного интеллекта. В отличие от конкурентов, Meta✴ свою инфраструктуру старается развивать собственными силами, не полагаясь на сотрудничество с другими компаниями. Когда ей понравились разработки Scale AI, она решила купить эту компанию. Если верить имеющейся информации, Meta✴ также интересовалась покупкой стартапа Perplexity AI, хотя и не была одинока в этом. Как отмечалось ранее, ценным сотрудникам OpenAI компания Meta✴ готова была предложить премии в размере $100 млн, но первые попытки в этой сфере не увенчались успехом. На каких условиях в Meta✴ перешли работать перечисленные выше сотрудники OpenAI, не уточняется. Развод OpenAI и Microsoft отменяется? Главы компаний обсудили дальнейшее сотрудничество
25.06.2025 [13:01],
Алексей Разин
Если опираться на опубликованную ранее информацию, у руководства OpenAI и Microsoft соответственно имеются некоторые расхождения во взглядах на нюансы дальнейшего сотрудничества и грядущую реструктуризацию стартапа. Его глава Сэм Альтман (Sam Altman) на этой неделе признался, что в понедельник позвонил главе Microsoft Сатье Наделле (Satya Nadella) для обсуждения условий дальнейшего сотрудничества. ![]() Источник изображения: Unsplash, Andrew Neel Об этом Альтман вчера заявил в подкасте The New York Times, ограничившись весьма лаконичными комментариями по поводу содержания разговора: «Очевидно, что любое глубокое партнёрство подразумевает наличие точек напряжения, и у нас они есть. Но в целом, всё это до сих пор оставалось чудесно полезным для обеих компаний». Альтман попутно отметил, что весьма продуктивно общался с президентом США Дональдом Трампом (Donald Trump) на тему искусственного интеллекта, и заявил, что тот очень хорошо понимает геополитическую и экономическую важность технологии. Напомним, что в январе одним из первых своих заявлений на посту президента США Трамп избрал анонс проекта Stargate, подразумевающего создание на территории страны масштабного вычислительного кластера стоимостью до $500 млрд, который будет использоваться для нужд развития систем искусственного интеллекта. Помимо OpenAI, в этом проекте изъявили желание принять участие SoftBank и Oracle. Секретный ИИ-гаджет OpenAI и Джони Айва не будет носимым и выйдет не раньше 2026 года
24.06.2025 [12:56],
Алексей Разин
Как уже сообщалось недавно, стартапам OpenAI и io пришлось столкнуться с судебным иском от Iyo — разработчика слуховых аппаратов. Поскольку обмен документами в рамках подготовки к судебному заседанию уже начался в открытом режиме, это позволило выяснить некоторые подробности относительно будущего устройства, ориентированного на работу с искусственным интеллектом. ![]() Источник изображения: Unsplash, Zac Wolff Поскольку io пришлось столкнуться с претензиями разработчиков слуховых аппаратов, в своих доводах для судебного заседания стартап бывшего главного дизайнера Apple Джони Айва (Jony Ive) сообщает, что создаваемое при участии OpenAI устройство не будет носимым или предназначенным для ношения в ухе. Кроме того, само устройство выйдет на рынок не ранее 2026 года. На создание реально функционирующих серийных устройств данного типа уйдёт не менее года, а их дизайн ещё даже не утверждён окончательно. Напомним, из-за существующего судебного иска со стороны Iyo компаниям пришлось убрать упоминание о сотрудничестве с официального сайта OpenAI, а также удалить видео, в котором глава компании Сэм Альтман (Sam Altman) обсуждает перспективы сотрудничества с Джони Айвом. Истец утверждает, что обвиняемые во внутренней переписке называли пресловутое устройство «первым в мире аудиокомпьютером», подозревая io и OpenAI в попытках создать конкурирующее с изделием Iyo решение, которое к тому же использует схожую торговую марку. OpenAI признаёт, что в ходе разработки собственного устройства io действительно приобрела приличное количество сторонних изделий для изучения их дизайна и возможностей, и среди них было около 30 наушников различных производителей. При этом на уровне идей и прототипов io задумывалась о создании устройств самых разных форм и размеров, включая настольные и мобильные. Истец также ссылается на переписку с Альтманом по поводу предложения о сотрудничестве, в которой тот отказывается от него, упоминая о «работе над кое-чем конкурирующим». Тем самым, io и OpenAI якобы могли планировать создание устройства, чей дизайн и функциональность были подсмотрены у Iyo, как считают представители последней. Каждый продвинутый ИИ сам научился врать и манипулировать — даже рассуждая «вслух»
24.06.2025 [12:52],
Сергей Сурабекянц
Лидеры в области ИИ Anthropic, Google, OpenAI и xAI разработали методику под названием «цепочка мыслей» (chains of thought), которая позволяет пошагово следить за процессом рассуждений моделей ИИ во время генерации ответа на запрос. Кроме ряда ценных идей по дальнейшему совершенствованию нейросетей, эта методика продемонстрировала примеры «неправильного поведения» моделей, когда их окончательный ответ совершенно не соответствует последовательности рассуждений. Это подтверждает, что разработчики до сих пор не знают, как ИИ размышляет над ответом. ![]() Источник изображения: Immo Wegmann / unsplash.com Результаты исследования подкрепили опасения о возможном выходе из-под контроля продвинутых систем ИИ, которые становятся все более мощными и автономными. Даже ведущие мировые лаборатории ИИ порой не полностью осознают, как генеративные модели ИИ приходят к своим выводам. Anthropic недавно опубликовала результаты исследования поведения больших языковых моделей (LLM). В вымышленных тестовых сценариях все новые продвинутые LLM стремились обходить меры безопасности, прибегали к обману и шантажу, пытались украсть корпоративные секреты и даже были готовы устранить оператора при угрозе отключения. При помощи цепочки мыслей разработчики ИИ могут видеть весь «мыслительный процесс» LLM, что даёт им возможность в нужный момент вмешаться и дообучить модель для получения более качественных и адекватных ответов в будущем. «В нашей недавней работе мы обнаружили, что можно читать их [цепочки мыслей] и находить доказательства неправильного поведения модели и использовать это, чтобы увидеть, где и почему она ведёт себя неправильно», — заявил научный сотрудник OpenAI Боуэн Бейкер (Bowen Baker). «Одна из замечательных особенностей интерпретируемости цепочки мыслей заключается в том, что она не требует дополнительных затрат, — добавил он. — Мы обучали эти модели не для того, чтобы сделать их интерпретируемыми. Мы обучали их, потому что нам нужны были наилучшие возможные модели рассуждений, которые могли бы решать сложные задачи». Инженеры OpenAI также пришли к выводу, что анализ цепочки мыслей LLM более эффективен для обнаружения неправильного поведения, чем просто просмотр конечных результатов. Тем не менее, тесты компании показали, что при вмешательстве и корректировке цепочки мыслей модели, она может скрыть своё нежелательное поведение от пользователя, но всё равно продолжит действие — например, обман в тесте по программной инженерии путём извлечения информации из запрещённой базы данных. Дилемма для исследователей заключается в том, что цепочка мыслей полезна для выявления потенциальных недостатков систем ИИ, но пока не может считаться полностью заслуживающей доверия. Решение этой проблемы стало приоритетом для Anthropic, OpenAI и других лабораторий ИИ. Исследователи отмечают риск того, что «по мере оптимизации [цепочки мыслей] модель учится грамотно мыслить, но затем все равно будет вести себя плохо». Поэтому своей основной задачей они видят использование методики для анализа процесса рассуждения LLM и совершенствования самой модели, а не просто исправление выявленного «плохого поведения». Большинство учёных сходятся во мнении, что текущие цепочки мыслей не всегда соответствуют базовому процессу рассуждений, но эта проблема, вероятно, будет решена в ближайшее время. «Мы должны относиться к цепочке мыслей так же, как военные относятся к перехваченным радиосообщениям противника, — считает исследователь Сидни фон Аркс (Sydney von Arx). — Сообщение может быть вводящим в заблуждение или закодированным, но в конечном итоге мы знаем, что оно используется для передачи полезной информации, и мы, вероятно, сможем многому научиться, прочитав его». Суд обязал OpenAI хранить даже удалённые чаты, но пользователи считают это тотальной слежкой
24.06.2025 [06:50],
Анжелла Марина
После того, как суд обязал OpenAI сохранять все чаты пользователей ChatGPT, включая удалённые и анонимные, несколько пользователей в США попытались оспорить это решение в судебном порядке, ссылаясь на нарушение приватности. Но суд отклонил жалобу, в которой утверждалось, что судебный запрет на удаление переписки создаёт угрозу массовой слежки за миллионами людей. ![]() Источник изображения: AI Как сообщает издание Ars Technica, решение о бессрочном хранении чатов было вынесено Окружным судом Соединённых Штатов Южного округа Нью-Йорка в рамках иска о нарушении авторских прав, поданного медиакомпаниями, включая издание The New York Times. OpenAI обязали сохранять все данные на случай, если они понадобятся как доказательство в текущем деле. Однако пользователь Эйдан Хант (Aidan Hunt) подал протест, заявив, что чаты могут содержать личную и коммерческую тайну. Хант утверждал, что компания OpenAI ранее обещала не хранить удалённые чаты и не предупредила об изменениях. «Клиентам не объяснили, что их данные останутся бессрочно в системе, что нарушает право на приватность и четвёртую поправку Конституции США», — сказал он. Хант в своём ходатайстве предлагал исключить из хранения на серверах OpenAI анонимные чаты, медицинские вопросы, обсуждение финансов и права. Судья Она Ван (Ona Wang) отклонила его протест, посчитав вопрос приватности второстепенным в деле об авторском праве. Также была подана жалоба от лица консалтинговой компании Spark Innovations, в которой указывалось на недопустимость хранения чатов, содержащих коммерческую тайну и обсуждение рабочих процессов. Одновременно Коринн Макшерри (Corynne McSherry), юрист из Фонда электронных рубежей (EFF) по защите цифровых прав, поддержала опасения: «Этот прецедент угрожает приватности всех клиентов OpenAI. ИИ-чаты становятся новым инструментом корпоративной слежки, особенно если люди не контролируют свои данные [после их удаления]». Но пользователи задаются вопросом, насколько активно OpenAI будет отстаивать их интересы, так как есть опасения, что компания может пожертвовать защитой личных данных ради экономии средств или репутационных выгод. Представители OpenAI пока не ответили на запрос Ars Technica, но ранее заявляли, что намерены оспаривать судебное решение. Правозащитники, в свою очередь, призывают все ИИ-компании не только обеспечивать реальное удаление данных из чатов, но и своевременно информировать пользователей о требованиях со стороны судебных инстанций. «Если компании ещё этого не делают, им стоит начать публиковать регулярные отчёты о таких запросах», — добавила юрист Макшерри. Предприятие OpenAI и Джони Айва столкнулось с первым иском, даже не успев ничего выпустить
23.06.2025 [11:23],
Алексей Разин
Бывший главный дизайнер Apple Джони Айв (Jony Ive), как отмечалось ранее, продал свой стартап io по созданию персонального ИИ-устройства компании OpenAI, чтобы объединить усилия на этом направлении с создателями ChatGPT. Как оказывается, у стартапа Джони Айва возникли проблемы в сфере законности использования торговой марки io. ![]() Источник изображения: Unsplash, appshunter.io По крайней мере, ресурс The Verge отмечает, что поданный сторонним стартапом Iyo, который разрабатывает слуховые аппараты, судебный иск с претензиями к io формально препятствует использованию последней из торговых марок в материалах на сайте OpenAI, поэтому упоминания о сотрудничестве с Джони Айвом в этой сфере пришлось временно убрать, пока не будет рассмотрено дело и вынесен вердикт суда. С сайта OpenAI на этих основаниях исчезли не только запись в блоге о сотрудничестве с io, но и посвящённое этой сделке девятиминутное видео, в котором её итоги обсуждают Сэм Альтман (Sam Altman) и Джони Айв. Представители OpenAI пока успели только выразить своё несогласие с претензиями Iyo и заверили общественность, что будут рассматривать возможность отстаивания своих интересов в суде по этому делу. Инвесторы поверили в бывшего топ-менеджера OpenAI: Мурати привлекла $2 млрд без единого продукта
21.06.2025 [06:08],
Анжелла Марина
Бывший главный технический директор OpenAI Мира Мурати (Mira Murati) привлекла рекордные $2 млрд на развитие своего ИИ-стартапа Thinking Machines Lab, который всего за полгода получил оценку в $10 млрд. Это один из самых крупных стартовых раундов в истории Кремниевой долины, при том, что публично ещё не было представлено ни одного продукта и чёткого видения будущей разработки. ![]() Источник изображения: AI Созданная всего шесть месяцев назад компания не раскрывает свои технологии, но инвесторы готовы вкладывать средства, доверяя имени и репутации Мурати. Раунд возглавил один из крупнейших венчурных фондов Кремниевой долины Andreessen Horowitz при участии компании Conviction Partners. Как пишет Financial Times, ключевым фактором стало желание поддержать одного из самых узнаваемых лидеров в сфере искусственного интеллекта (ИИ). Финансирование Thinking Machines Lab подтверждает высокий спрос инвесторов на проекты в сфере искусственного интеллекта, способных конкурировать с OpenAI, Anthropic и крупными технологическими корпорациями, такими как Google и Meta✴. Мурати, которой 36 лет, покинула OpenAI в сентябре, сыграв ключевую роль в создании ChatGPT, генератора изображений Dall-E и голосового режима. До этого она работала старшим менеджером по продукту в Tesla, где участвовала в разработке Model X. Также известно, что Мурати оказалась среди тех топ-менеджеров OpenAI, которые выразили сомнения в стиле управления Сэма Альтмана (Sam Altman) перед попыткой смещения его с поста гендиректора в ноябре 2023 года. Тогда она ненадолго стала временным генеральным директором, но Альтман быстро вернулся к руководству. Интересно, что в Thinking Machines Lab также перешли несколько бывших сотрудников OpenAI, включая сооснователя Джона Шульмана (John Schulman), экс-руководителя спецпроектов Джонатана Лахмана (Jonathan Lachman) и бывших вице-президентов Баррета Зофа (Barret Zoph) и Лилиан Вэн (Lilian Weng). Инвесторы считают, что команда, собранная Мурати, выглядит крайне убедительно, учитывая ограниченное число по-настоящему выдающихся специалистов в этой области. При этом конкретных данных о проекте почти нет. В феврале компания туманно заявила, что её цель состоит в том, чтобы сделать ИИ-системы более понятными, настраиваемыми и универсальными. Однако из-за высокой степени секретности некоторые фонды отказались от участия в сделке, поскольку Мурати не раскрывает ни планов по продукту, ни деталей финансовой стратегии. OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие
20.06.2025 [20:40],
Сергей Сурабекянц
OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности. ![]() Источник изображений: unsplash.com OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие. «Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях. Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального». OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей. ![]() В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ. Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных. Марк Цукерберг рассчитывает нанять компаньона одного из основателей OpenAI
20.06.2025 [07:54],
Алексей Разин
Из недавних откровений главы OpenAI Сэма Альтмана (Sam Altman) известно, что компания Meta✴ Марка Цукерберга (Mark Zuckerberg) пыталась напрямую переманивать сотрудников стартапа, создавшего ChatGPT. Как выясняется, этим дело не ограничилось, и сейчас Meta✴ пытается заполучить в свои ряды одного из основателей стартапа Safe Superintelligence, который является соратником выходца из OpenAI Ильи Суцкевера. ![]() Даниэль Гросс. Источник изображения: GitHub Напомним, что после драматичных событий вокруг отставки Сэма Альтмана осенью 2023 года ведущий разработчик в сфере ИИ, канадский учёный Илья Суцкевер покинул OpenAI с целью создания собственной компании Safe Superintelligence. Одним из компаньонов Суцкевера по новому стартапу стал Даниэль Гросс (Daniel Gross), который возглавил компанию в статусе генерального директора. На этой неделе издание The Information сообщило, что Гросса пытается переманить к себе Meta✴. Более того, Цукерберг хотел бы видеть в своей создаваемой ИИ-команде и бывшего главу GitHub Нэта Фридмана (Nat Friedman). Кроме того, чтобы угодить сразу обоим кандидатам, Meta✴ готова выкупить пакет акций венчурного фонда NFDG, образованного Гроссом и Фридманом. Цукерберг в процессе охоты за ценными кадрами в сфере ИИ переключился на Гросса после того, как попытки купить стартап Safe Superintelligence целиком провалились. В апреле капитализация этой компании оценивалась в $32 млрд. Кроме того, Meta✴ не смогла переманить и одного из основателей этого стартапа Суцкевера, поэтому его соратник Гросс стал альтернативной целью. По замыслу Meta✴, после сделки по покупке стартапа Scale AI, Гросс и Фридман будут работать под руководством его основателя Александра Вана (Alexandr Wang), который переходит в Meta✴. OpenAI перестанет работать с ИИ-стартапом Scale AI из-за его сближения с Meta✴
19.06.2025 [09:43],
Владимир Мироненко
OpenAI сворачивает сотрудничество с ИИ-стартапом Scale AI, занимающимся подготовкой, оценкой и разметкой данных для обучения ИИ-моделей, после заключения им сделки с конкурирующей компанией Meta✴, сообщил агентству Bloomberg представитель OpenAI. ![]() Источник изображения: Steve Johnson/unsplash.com Ранее было объявлено о том, что Meta✴ инвестирует в Scale AI $14,3 млрд в обмен на 49-% долю акций, а также переход в свою команду гендиректора Scale AI Александра Ванга (Alexandr Wang) и ещё ряда сотрудников. В Meta✴ Ванг возглавит новое подразделение по разработке так называемого «суперинтеллекта», оставаясь в совете директоров стартапа, что вызвало опасения у клиентов Scale AI по поводу утечки к конкуренту конфиденциальной информации, касающейся их планов и новейших разработок. Несмотря на то, что в Scale AI заявили, что не будут делиться конфиденциальной информацией других клиентов с Meta✴, и что Ванг не будет участвовать в повседневной работе стартапа, OpenAI решила разорвать с ним связи. Представитель OpenAI сообщил Bloomberg, что компания ищет других поставщиков более специализированных данных для разработки продвинутых ИИ-моделей. На прошлой неделе издание Reuters сообщило, что Google тоже решила прекратить сотрудничество со Scale AI в связи с её сближением с Meta✴. Поскольку крупнейшие клиенты Scale AI начали сворачивать сотрудничество, у стартапа может не остаться иного выбора, кроме как внести изменения в свой бизнес, пишет TechCrunch. Временный генеральный директор Scale AI Джейсон Дроге сообщил, что компания «удвоит ставку» на свой бизнес приложений, включая создание пользовательских ИИ-сервисов для госучреждений и предприятий. В переговорах OpenAI и Microsoft сохраняется несколько важных противоречий
19.06.2025 [07:19],
Алексей Разин
Корпорация Microsoft остаётся крупнейшим инвестором OpenAI, и если последняя до конца текущего года не определится со схемой собственной реструктуризации, то для бизнеса первой это может иметь серьёзные последствия, особенно с учётом сохраняющихся противоречий по ряду принципиальных моментов. ![]() Источник изображения: Unsplash, Lumière Rezaie Теоретически, как поясняет Financial Times, корпорация Microsoft при наличии неустранимых разногласий сохранит возможность пользоваться доступом к интеллектуальной собственности OpenAI до 2030 года, в соответствии с условиями заключённого ранее контракта. Отказаться от него Microsoft готова только в том случае, если OpenAI предложит ей как минимум сопоставимые по выгоде условия, а в идеале — более выгодные. При этом переговоры между сторонами ведутся в доброжелательном тоне и почти на ежедневной основе. Интерес OpenAI заключается в реструктуризации своего бизнеса в пользу более очевидной ориентации на извлечение прибыли, которая позволит привлечь новых крупных инвесторов. Последние уже готовят крупные суммы для финансирования совместных с OpenAI проектов. Если Microsoft на правах акционера OpenAI не одобрит реструктуризацию к концу текущего года, то последняя может потерять доступ к средствам прочих инвесторов, включая SoftBank. Впрочем, сторонние инвесторы могут предоставить OpenAI новые суммы на развитие, но уже в качестве кредитов. Та же SoftBank готова просто сократить своё финансирование OpenAI с $30 до $20 млрд, если реструктуризация не будет проведена до конца года. Microsoft, тем временем, пытается договориться с OpenAI о величине своего пакета акций в капитале этого стартапа по итогам грядущей реструктуризации. Он может варьироваться от 20 до 49 %, учитывая уже вложенные Microsoft средства в сумме более $13 млрд. Дискуссия ведётся и относительно доли выручки OpenAI, на которую может претендовать Microsoft. Сейчас она достигает 20 %, а максимальная сумма совокупной выручки, которой OpenAI может делиться с этим инвестором, ограничена $92 млрд. Кроме того, существующий контракт позволяет Microsoft сохранять доступ ко всей интеллектуальной собственности OpenAI. Уступать по всем трём позициям в переговорах со стартапом Microsoft не очень готова. Накануне стало известно, что OpenAI собирается в случае необходимости надавить на Microsoft через американские антимонопольные органы. Доступ к технологиям OpenAI важен для Microsoft с точки зрения сохранения своих конкурентных позиций на рынке ИИ. Если бы не давление OpenAI, то Microsoft вполне довольствовалась бы имеющимся контрактом, который действует до 2030 года или момента создания «сильного» искусственного интеллекта. По мнению OpenAI, последний момент не так уж далёк, но на объективную оценку этого критерия в этом случае рассчитывать не приходится. На пути реструктуризации OpenAI стоят как минимум два препятствия. Это необходимость получить одобрение сделки генеральными прокурорами Делавэра и Калифорнии. Кроме того, обиженный на руководство OpenAI Илон Маск (Elon Musk) всячески вставляет этой сделке палки в колёса. OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы
19.06.2025 [00:19],
Анжелла Марина
Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо. ![]() Источник изображения: AI Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ. На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу. Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей. Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей. Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта. Meta✴ пыталась переманить специалистов из OpenAI бонусами в $100 млн, но никто не согласился
18.06.2025 [10:54],
Алексей Разин
Острота борьбы за ценные кадры в сфере искусственного интеллекта подчёркивается очередными откровениями основателя OpenAI Сэма Альтмана (Sam Altman) в ходе подкаста, организованного его братом Джеком. Как сообщается, конкурирующая Meta✴ Platforms пыталась переманить ценных специалистов OpenAI, предлагая им по $100 млн. ![]() Источник изображения: Unsplash, Мария Шалабаева Впервые о подобных усилиях компании Марка Цукерберга (Mark Zuckerberg) стало известно больше недели назад из публикации The New York Times. На этой неделе глава OpenAI Сэм Альтман подтвердил эту информацию в ходе интервью собственному брату Джеку: «Meta✴ начала предлагать подобные гигантские суммы многим членам нашей команды. Понимаете, $100 млн бонусов — это больше, чем компенсационный пакет за год работы. Я действительно счастлив, что до сих пор никто из наших лучших людей не согласился на подобное предложение». По мнению основателя OpenAI, специалисты компании были убеждены, что она сможет создать так называемый «сильный» искусственный интеллект (AGI) раньше конкурентов, а потому достигнет более весомой капитализации. Кроме того, Альтман считает, что в основе корпоративной культуры Meta✴ лежат не те стимулы и ориентиры. Миссия создания AGI, по мнению Альтмана, важнее высоких зарплат для сотрудников. По слухам, Meta✴ пыталась переманить одного из ведущих исследователей OpenAI Ноэма Брауна (Noam Brown), а также ведущего архитектора ИИ компании Google Корая Кавукчуоглу (Koray Kavukcuoglu), но в обоих случаях безуспешно. Сэм Альтман считает корпоративную культуру OpenAI, делающую упор на инновации, основным залогом успеха стартапа, тогда как предпринимаемые Meta✴ усилия в сфере развития систем ИИ пока не принесли желаемых для руководства последней результатов. По словам главы OpenAI, он с уважением относится ко многим достижениям Meta✴, но в сфере инноваций она не очень сильна. Выступать в роли догоняющего в этой сфере недостаточно для рыночного успеха, для подлинного лидерства нужны настоящие инновации, уверен Альтман. Глава OpenAI в ходе своего выступления также выразил заинтересованность в создании технологии для социальных сетей, которая позволила бы демонстрировать пользователю только ту информацию, в которой он действительно заинтересован. Существующие алгоритмы такой персонализации, по словам Альтмана, демонстрируют неудовлетворительные результаты. Подобное приложение, по слухам, OpenAI уже разрабатывает, невольно вторгаясь в сферу интересов Meta✴. Последняя также экспериментирует с искусственным интеллектом в своих социальных сетях, но результаты таких усилий пока вызывают у пользователей смешанную реакцию. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |