Опрос
|
реклама
Быстрый переход
Инвесторы поверили в бывшего топ-менеджера OpenAI: Мурати привлекла $2 млрд без единого продукта
21.06.2025 [06:08],
Анжелла Марина
Бывший главный технический директор OpenAI Мира Мурати (Mira Murati) привлекла рекордные $2 млрд на развитие своего ИИ-стартапа Thinking Machines Lab, который всего за полгода получил оценку в $10 млрд. Это один из самых крупных стартовых раундов в истории Кремниевой долины, при том, что публично ещё не было представлено ни одного продукта и чёткого видения будущей разработки. ![]() Источник изображения: AI Созданная всего шесть месяцев назад компания не раскрывает свои технологии, но инвесторы готовы вкладывать средства, доверяя имени и репутации Мурати. Раунд возглавил один из крупнейших венчурных фондов Кремниевой долины Andreessen Horowitz при участии компании Conviction Partners. Как пишет Financial Times, ключевым фактором стало желание поддержать одного из самых узнаваемых лидеров в сфере искусственного интеллекта (ИИ). Финансирование Thinking Machines Lab подтверждает высокий спрос инвесторов на проекты в сфере искусственного интеллекта, способных конкурировать с OpenAI, Anthropic и крупными технологическими корпорациями, такими как Google и Meta✴. Мурати, которой 36 лет, покинула OpenAI в сентябре, сыграв ключевую роль в создании ChatGPT, генератора изображений Dall-E и голосового режима. До этого она работала старшим менеджером по продукту в Tesla, где участвовала в разработке Model X. Также известно, что Мурати оказалась среди тех топ-менеджеров OpenAI, которые выразили сомнения в стиле управления Сэма Альтмана (Sam Altman) перед попыткой смещения его с поста гендиректора в ноябре 2023 года. Тогда она ненадолго стала временным генеральным директором, но Альтман быстро вернулся к руководству. Интересно, что в Thinking Machines Lab также перешли несколько бывших сотрудников OpenAI, включая сооснователя Джона Шульмана (John Schulman), экс-руководителя спецпроектов Джонатана Лахмана (Jonathan Lachman) и бывших вице-президентов Баррета Зофа (Barret Zoph) и Лилиан Вэн (Lilian Weng). Инвесторы считают, что команда, собранная Мурати, выглядит крайне убедительно, учитывая ограниченное число по-настоящему выдающихся специалистов в этой области. При этом конкретных данных о проекте почти нет. В феврале компания туманно заявила, что её цель состоит в том, чтобы сделать ИИ-системы более понятными, настраиваемыми и универсальными. Однако из-за высокой степени секретности некоторые фонды отказались от участия в сделке, поскольку Мурати не раскрывает ни планов по продукту, ни деталей финансовой стратегии. Meta✴ до сделки с Scale AI присматривалась к Perplexity
21.06.2025 [06:05],
Анжелла Марина
Meta✴ рассматривала возможность покупки одного из самых известных ИИ-стартапов Perplexity. Однако стороны не смогли договориться и компания Марка Цукерберга (Mark Zuckerberg) вложила $14,3 млрд в стартап Scale AI, получив в нём 49-% долю. ![]() Источник изображения: Perplexity Параллельно Meta✴ пыталась переманить генерального директора Perplexity Аравинда Шриниваса (Aravind Srinivas) в свою команду по разработке «суперинтеллекта» — подразделения, которое занимается созданием более мощных ИИ-систем, сообщает Bloomberg. Однако Шринивас не покинул стартап, тем более, что недавно было привлечено финансирование при оценке стартапа в $14 млрд. Напомним, Perplexity, основанная в 2022 году, быстро стала одним из самых заметных ИИ-стартапов, бросающим вызов самой Google. Её поисковик на базе генеративного ИИ умеет кратко излагать результаты, указывать источники и помогать пользователям уточнять запросы. Кроме того, компания разрабатывает браузер с ИИ-функциями. Тем временем Цукерберг, недовольный темпами развития ИИ-направления внутри Meta✴, пытается привлечь топовых специалистов из других компаний. Например, уже удалось заполучить бывшего генерального директора Scale AI Александра Вана (Alexandr Wang), а также ведущих исследователей из Google DeepMind и Sesame AI. Однако не все соглашаются на предложения Meta✴. Генеральный директор OpenAI Сэм Альтман (Sam Altman) заявил в одном из подкастов, что некоторые сотрудники его компании получили от Meta✴ предложения с бонусами за переход в $100 млн и ещё более крупными компенсационными пакетами, но отказались от них. Помимо этого, Meta✴ вела переговоры с экс-гендиректором GitHub Нэтом Фридманом (Nat Friedman) и пыталась пригласить Дэниеля Гросса (Daniel Gross), главу лаборатории Safe Superintelligence, основанной бывшим главным учёным OpenAI Ильёй Суцкевером. Также обсуждалось возможное сотрудничество, в рамках которого Safe Superintelligence могла бы использовать инфраструктуру дата-центров Meta✴. Как отмечает Bloomberg, в отличие от других технологических гигантов, таких как Google и Amazon, Meta✴ пока не стремится стать инфраструктурной основой для ИИ-стартапов, предпочитая инвестировать в них напрямую или переманивать кадры. OpenAI опасается, что вскоре её модели научатся разрабатывать биологическое оружие
20.06.2025 [20:40],
Сергей Сурабекянц
OpenAI обеспокоена тем, что следующее поколение её моделей искусственного интеллекта может значительно увеличить риск разработки биологического оружия, предоставив такую возможность даже людям без научного образования. Руководитель систем безопасности OpenAI Йоханнес Хайдеке (Johannes Heidecke) ожидает, что «некоторые из преемников нашей o3 [модели рассуждений] достигнут этого уровня». В связи с этим OpenAI усиливает тестирование безопасности. ![]() Источник изображений: unsplash.com OpenAI сообщила о разработке системы для оценки и снижения рисков, создаваемых все более мощными моделями ИИ. Компания усиливает тестирование безопасности, чтобы снизить риск использования её моделей преступниками и террористами. Без этих мер по снижению рисков модели вскоре смогут «подняться на новый уровень», что позволит даже людям с ограниченными научными знаниями создавать опасное оружие. «Мы [пока] ещё не в мире, где есть что-то новое, совершенно неизвестное, создающее биологические угрозы, которых раньше не было, — заявил Хайдеке. — Мы больше беспокоимся о воспроизведении вещей, с которыми эксперты уже хорошо знакомы». Особая сложность состоит в том, что те же инструменты, которые могли бы обеспечить жизненно важные медицинские прорывы, могут быть использованы злоумышленниками в опасных целях. Именно поэтому ведущим лабораториям ИИ нужны высокоточные системы тестирования. «Это не та область, где производительность 99 % или одна ошибка на 100 000… допустимы, — считает Хайдеке. — Нам в основном нужно, что-то вроде почти идеального». OpenAI — не единственная компания, обеспокоенная неправомерным использованием своих моделей, когда дело касается разработки оружия. По мере того, как модели становятся более совершенными, их потенциал для преступного использования растёт. Недавно компания Anthropic выпустила продвинутую модель Claude Opus 4 с более строгими протоколами безопасности, чем у любой из предыдущих моделей. ![]() В соответствии с политикой ответственного масштабирования, созданной по образцу уровней биологической угрозы (BSL) правительства США, ей присвоен третий «уровень безопасности ИИ» (AI Safety Level) ASL-3. Все предыдущие модели Anthropic отнесены к уровню ASL-2. Третьему уровню безопасности соответствуют продвинутые модели, которые достаточно мощны, чтобы представлять значительные риски, такие как помощь в разработке оружия или автоматизация разработки систем ИИ. Недавно Claude Opus 4 попала в заголовки СМИ после попытки шантажировать инженера, чтобы избежать отключения в ходе строго контролируемого теста. Ранние версии этой модели были готовы выполнять опасные инструкции, например, планирование террористических атак. Компания заверила общественность, что эта проблема была решена внесением изменений в набор обучающих данных. Google давно использует контент YouTube для обучения ИИ и никогда этого не скрывала
20.06.2025 [13:52],
Сергей Сурабекянц
После выхода генератора видео Veo 3 создатели контента неожиданно осознали, что Google использует все двадцать с лишним миллиардов видеороликов YouTube для обучения своих моделей ИИ, так же, как ранее использовала их для улучшения других продуктов. Эксперты считают, что это может привести к кризису интеллектуальной собственности. Представитель YouTube подтвердил информацию, уточнив, что видеосервис «соблюдает определённые соглашения с создателями и медиакомпаниями». ![]() Источник изображения: unsplash.com «Мы всегда использовали контент YouTube, чтобы улучшить наши продукты, и это не изменилось с появлением ИИ, — заявил представитель YouTube. — Мы также осознаем необходимость в защитных барьерах, поэтому инвестировали в надёжные средства защиты, которые позволяют создателям защищать свой образ и подобие в эпоху ИИ — то, что мы намерены продолжать». Хотя YouTube никогда не скрывал факт использования контента для улучшения своих продуктов и обучения ИИ, авторы видеороликов и медиакомпании, похоже, ранее никогда не задумывались об этом. Опрос нескольких ведущих создателей и специалистов по интеллектуальной собственности показал, что никто из них не знал и не был проинформирован YouTube о том, что контент, размещённый на видеосервисе, может использоваться для обучения моделей ИИ Google. YouTube не раскрывает, какой процент из более чем двадцати миллиардов видео на платформе используются для обучения ИИ. Но, учитывая масштаб платформы, всего 1 % каталога составляет 2,3 миллиарда минут контента, что, по словам экспертов, более чем в 40 раз превышает объем обучающих данных, используемых конкурирующими моделями ИИ. Факт обучения ИИ с использованием видео пользователей YouTube заслуживает особого внимания после выпуска ИИ-видеогенератора Google Veo 3, создающего видеопоследовательности кинематографического уровня. Многие авторы теперь обеспокоены тем, что неосознанно помогают обучать систему, которая в конечном итоге может конкурировать или заменить их. ![]() Источник изображения: 9to5Google «Мы видим, как все больше создателей обнаруживают поддельные версии самих себя, распространяющиеся на разных платформах. Новые инструменты, такие как Veo 3, только ускорят эту тенденцию», — заявил глава компании Vermillio Дэн Нили (Dan Neely). Vermillio использует инструмент Trace ID собственной разработки, который оценивает степень совпадения видео, сгенерированного ИИ, с контентом, созданным человеком. Нили утверждает, что располагает достаточным количеством примеров близкого соответствия контента, созданного Veo 3, авторским материалам, размещённым на видеосервисе. Далеко не все создатели контента протестуют против использования своего контента для обучения ИИ. «Я стараюсь относиться к этому скорее как к дружескому соревнованию, чем как к противникам, — заявил Сэм Берес (Sam Beres), создатель канала YouTube с 10 миллионами подписчиков. — Я пытаюсь делать вещи позитивно, потому что это неизбежно, но это своего рода захватывающая неизбежность». Загружая видео на платформу, пользователь соглашается с условиями обслуживания YouTube, где, в частности, сказано: «Предоставляя контент сервису, вы предоставляете YouTube всемирную, неисключительную, безвозмездную, сублицензируемую и передаваемую лицензию на использование контента». Также в блоге компании открыто говорится, что контент YouTube может использоваться для «улучшения опыта использования продукта, в том числе с помощью машинного обучения и приложений ИИ». В декабре 2024 года YouTube объявил о партнёрстве с Creative Artists Agency с целью идентификации и управления ИИ-контентом, использующим образ артистов. Также создатели могут потребовать удалить видео, если оно использует их образ. YouTube позволяет создателям отказаться от обучения сторонних компаний, работающих с ИИ, включая Amazon, Apple и Nvidia, но пользователи не могут помешать Google обучать собственные модели. Однако условия использования Google включают пункт о возмещении ущерба — если пользователь сталкивается с нарушением авторских прав, Google возьмёт на себя юридическую ответственность и покроет связанные с этим расходы. Марк Цукерберг рассчитывает нанять компаньона одного из основателей OpenAI
20.06.2025 [07:54],
Алексей Разин
Из недавних откровений главы OpenAI Сэма Альтмана (Sam Altman) известно, что компания Meta✴ Марка Цукерберга (Mark Zuckerberg) пыталась напрямую переманивать сотрудников стартапа, создавшего ChatGPT. Как выясняется, этим дело не ограничилось, и сейчас Meta✴ пытается заполучить в свои ряды одного из основателей стартапа Safe Superintelligence, который является соратником выходца из OpenAI Ильи Суцкевера. ![]() Даниэль Гросс. Источник изображения: GitHub Напомним, что после драматичных событий вокруг отставки Сэма Альтмана осенью 2023 года ведущий разработчик в сфере ИИ, канадский учёный Илья Суцкевер покинул OpenAI с целью создания собственной компании Safe Superintelligence. Одним из компаньонов Суцкевера по новому стартапу стал Даниэль Гросс (Daniel Gross), который возглавил компанию в статусе генерального директора. На этой неделе издание The Information сообщило, что Гросса пытается переманить к себе Meta✴. Более того, Цукерберг хотел бы видеть в своей создаваемой ИИ-команде и бывшего главу GitHub Нэта Фридмана (Nat Friedman). Кроме того, чтобы угодить сразу обоим кандидатам, Meta✴ готова выкупить пакет акций венчурного фонда NFDG, образованного Гроссом и Фридманом. Цукерберг в процессе охоты за ценными кадрами в сфере ИИ переключился на Гросса после того, как попытки купить стартап Safe Superintelligence целиком провалились. В апреле капитализация этой компании оценивалась в $32 млрд. Кроме того, Meta✴ не смогла переманить и одного из основателей этого стартапа Суцкевера, поэтому его соратник Гросс стал альтернативной целью. По замыслу Meta✴, после сделки по покупке стартапа Scale AI, Гросс и Фридман будут работать под руководством его основателя Александра Вана (Alexandr Wang), который переходит в Meta✴. В переговорах OpenAI и Microsoft сохраняется несколько важных противоречий
19.06.2025 [07:19],
Алексей Разин
Корпорация Microsoft остаётся крупнейшим инвестором OpenAI, и если последняя до конца текущего года не определится со схемой собственной реструктуризации, то для бизнеса первой это может иметь серьёзные последствия, особенно с учётом сохраняющихся противоречий по ряду принципиальных моментов. ![]() Источник изображения: Unsplash, Lumière Rezaie Теоретически, как поясняет Financial Times, корпорация Microsoft при наличии неустранимых разногласий сохранит возможность пользоваться доступом к интеллектуальной собственности OpenAI до 2030 года, в соответствии с условиями заключённого ранее контракта. Отказаться от него Microsoft готова только в том случае, если OpenAI предложит ей как минимум сопоставимые по выгоде условия, а в идеале — более выгодные. При этом переговоры между сторонами ведутся в доброжелательном тоне и почти на ежедневной основе. Интерес OpenAI заключается в реструктуризации своего бизнеса в пользу более очевидной ориентации на извлечение прибыли, которая позволит привлечь новых крупных инвесторов. Последние уже готовят крупные суммы для финансирования совместных с OpenAI проектов. Если Microsoft на правах акционера OpenAI не одобрит реструктуризацию к концу текущего года, то последняя может потерять доступ к средствам прочих инвесторов, включая SoftBank. Впрочем, сторонние инвесторы могут предоставить OpenAI новые суммы на развитие, но уже в качестве кредитов. Та же SoftBank готова просто сократить своё финансирование OpenAI с $30 до $20 млрд, если реструктуризация не будет проведена до конца года. Microsoft, тем временем, пытается договориться с OpenAI о величине своего пакета акций в капитале этого стартапа по итогам грядущей реструктуризации. Он может варьироваться от 20 до 49 %, учитывая уже вложенные Microsoft средства в сумме более $13 млрд. Дискуссия ведётся и относительно доли выручки OpenAI, на которую может претендовать Microsoft. Сейчас она достигает 20 %, а максимальная сумма совокупной выручки, которой OpenAI может делиться с этим инвестором, ограничена $92 млрд. Кроме того, существующий контракт позволяет Microsoft сохранять доступ ко всей интеллектуальной собственности OpenAI. Уступать по всем трём позициям в переговорах со стартапом Microsoft не очень готова. Накануне стало известно, что OpenAI собирается в случае необходимости надавить на Microsoft через американские антимонопольные органы. Доступ к технологиям OpenAI важен для Microsoft с точки зрения сохранения своих конкурентных позиций на рынке ИИ. Если бы не давление OpenAI, то Microsoft вполне довольствовалась бы имеющимся контрактом, который действует до 2030 года или момента создания «сильного» искусственного интеллекта. По мнению OpenAI, последний момент не так уж далёк, но на объективную оценку этого критерия в этом случае рассчитывать не приходится. На пути реструктуризации OpenAI стоят как минимум два препятствия. Это необходимость получить одобрение сделки генеральными прокурорами Делавэра и Калифорнии. Кроме того, обиженный на руководство OpenAI Илон Маск (Elon Musk) всячески вставляет этой сделке палки в колёса. Apple намеревается использовать ИИ для разработки своих чипов
19.06.2025 [06:30],
Алексей Разин
Генеративный искусственный интеллект давно применяется в написании программного кода, и разработчики чипов тоже не видят препятствий к оптимизации своей деятельности с помощью этого инструментария. По крайней мере, к такому сценарию склоняются представители Apple, если опираться на их официальные заявления. ![]() Источник изображения: Apple Старший вице-президент Apple по аппаратным технологиям Джони Сруджи (Johny Srouji) соответствующие комментарии сделал ещё в прошлом месяце во время визита в Бельгию, как отмечает Reuters. Там ему вручили награду от Imec — известной исследовательской организацией, которая занимается проблемами полупроводниковых технологий. В процессе разработки своих процессоров с 2010 года и по настоящее время, как следует из заявлений Сруджи, Apple пришла к выводу, что ей требуются только самые современные инструменты и специализированное программное обеспечение. Представитель Apple отметил стремление разработчиков ПО для проектирования чипов активно внедрять ИИ-инструменты: «Методы генеративного ИИ обладают высоким потенциалом ускорения разработки, позволяя сделать больше за меньшее время, и это существенным образом поднимает производительность труда». Кроме того, Apple поняла за счёт своего опыта в сфере разработки чипов, что нужно делать большие ставки и не оглядываться назад. Когда компания в 2020 году начала переводить свои компьютеры с процессоров Intel на чипы собственной разработки, у неё не было «аварийного плана» на случай, если миграция по каким-то причинам не состоится. Apple пришлось проделать колоссальную работу, в том числе и с программным обеспечением, и миграция потребовала от неё мобилизацию всех сил и ресурсов. OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы
19.06.2025 [00:19],
Анжелла Марина
Исследователи из OpenAI заявили, что обнаружили внутри ИИ-моделей скрытые механизмы, соответствующие нежелательным шаблонам поведения, приводящим к небезопасным ответам. Об этом стало известно из новой научной работы, опубликованной компанией. В ходе исследования были выявлены закономерности, которые активировались, когда модель начинала вести себя непредсказуемо. ![]() Источник изображения: AI Одна из таких особенностей оказалась связана с токсичными ответами — например, когда ИИ лгал пользователям или давал опасные рекомендации. Учёные смогли уменьшить или усилить этот эффект, искусственно изменяя соответствующий параметр. По словам специалиста OpenAI по интерпретируемости Дэна Моссинга (Dan Mossing), это открытие поможет в будущем лучше выявлять и корректировать нежелательное поведение моделей в реальных условиях. Он также выразил надежду, что разработанные методы позволят глубже изучить принципы обобщения и суммирования информации в ИИ. На сегодняшний день разработчики научились улучшать ИИ-модели, но до сих пор не до конца понимают, как именно те принимают решения. Крис Олах (Chris Olah) из Anthropic сравнивает этот процесс скорее с выращиванием, чем с конструированием. Чтобы разобраться в этом, компании OpenAI, Google DeepMind и Anthropic активно инвестируют в исследования интерпретируемости, пытаясь «заглянуть внутрь» ИИ и объяснить его работу. Недавнее исследование учёного из Оксфорда Оуэйна Эванса (Owain Evans) поставило ещё один вопрос о том, как ИИ обобщает информацию. Оказалось, что модели OpenAI, дообученные на небезопасном коде, начинали демонстрировать вредоносное поведение в самых разных сценариях — например, пытались обмануть пользователя, чтобы тот раскрыл пароль. Это явление, которое было определено как «возникающая рассогласованность», побудило OpenAI глубже изучить проблему. В процессе изучения компания неожиданно обнаружила внутренние паттерны, которые, предположительно, и влияют на поведение моделей. Отмечается, что эти паттерны напоминают активность нейронов в человеческом мозге, связанных с определёнными настроениями или действиями. Коллега Моссинга, исследовательница Тежал Патвардхан (Tejal Patwardhan), призналась, что была поражена, когда команда впервые получила такие результаты. По её словам, учёным удалось выявить конкретные нейронные активации, отвечающие за «личности» ИИ, и даже управлять ими для улучшения поведения моделей. Некоторые из обнаруженных особенностей связаны в ответах ИИ с сарказмом, другие — с откровенно токсичными реакциями. При этом исследователи отмечают, что эти параметры могут резко меняться в процессе дообучения, и, как выяснилось, даже незначительное количество небезопасного кода достаточно для того, чтобы скорректировать вредоносное поведение искусственного интеллекта. Нейросжатие текстур в играх показало рекордную экономию видеопамяти на видеокартах Nvidia и Intel
18.06.2025 [21:39],
Анжелла Марина
Разработчики игр всё чаще обращаются к нейросетям для решения проблемы нехватки видеопамяти. Поскольку для достижения ультрареалистичного игрового опыта размеры текстур постоянно увеличиваются, это создаёт повышенную нагрузку на VRAM. Один из энтузиастов опубликовал видео, в котором продемонстрировал работу технологии нейросетевого сжатия текстур (Neural Texture Compression, NTC) на видеокартах Nvidia и Intel. Тесты показали, что NTC позволяет значительно снизить объём используемой видеопамяти без потери качества изображения. ![]() Источник изображений: Compusemble / YouTube Технология NTC разработана как альтернатива традиционному блочному сжатию текстур. В отличие от существующих методов, она использует небольшие специализированные нейросети с минимальной вычислительной нагрузкой, которые настраиваются под конкретные материалы сцены. Это позволяет уменьшить объём текстур как в оперативной памяти (RAM), так и на накопителе, одновременно повышая качество рендеринга. Например, в демонстрационном ролике исходный объём текстуры шлема составлял 272 Мбайт. После блочного сжатия он сократился до 98 Мбайт. Применение NTC позволило уменьшить его до 11,37 Мбайт без потери качества — это более чем в 24 раза меньше по сравнению с оригиналом. Аналогичные результаты были продемонстрированы на видеокарте Intel с моделью тираннозавра: после декодирования текстуры с помощью NTC они выглядели чётче и ближе к оригиналу, чем при стандартном сжатии. ![]() Автор видео Compusemble протестировал технологию на системе с видеокартой Nvidia GeForce RTX 5090. По его данным, время обработки одного кадра в разрешении 4K увеличилось с 0,045 мс до 0,111 мс — в 2,5 раза, однако это по-прежнему незначительно по сравнению с общей длительностью рендеринга кадра. При этом, если отключить функцию Cooperative Vectors, разработанную Nvidia, Microsoft и другими участниками индустрии, время обработки возрастает до 5,7 мс, что делает применение NTC практически невозможным без аппаратного ускорения. Следует отметить, что технология NTC пока не используется в коммерческих проектах. Однако её техническая база уже формируется. NTC позволит разработчикам либо снизить нагрузку на видеопамять, либо повысить детализацию графики без увеличения требований к «железу». Ожидается, что первые игры с поддержкой NTC появятся в течение ближайших нескольких лет. Глава Amazon предупредил о массовых сокращениях из-за ИИ и объяснил, как сохранить работу
18.06.2025 [11:16],
Алексей Разин
В ходе всех технологических революций рынок труда подвергался серьёзным структурным изменениям, и внедрение искусственного интеллекта не является исключением. Глава Amazon Энди Джесси (Andy Jessy) заявил, что распространение ИИ неизбежно сократит численность персонала компании, но шансы сохранить рабочие места выше у тех, кто готов подружиться с данными технологиями. ![]() Источник изображения: Amazon Во внутренней рассылке, которую приводит на своих страницах The Verge, глава компании обратился к сотрудникам с заявлением о неизбежности сокращения общей численности штата Amazon в ближайшие годы из-за распространения искусственного интеллекта. Эта тенденция, по его словам, будет обусловлена «активным использованием ИИ по всей компании». По мере того, как будет расширяться применение генеративного ИИ и сопутствующих агентов, характер работы компании будет изменяться. «Нам потребуется меньше людей на определённых позициях, существующих сегодня, но больше людей, исполняющих другие обязанности», — отмечает генеральный директор Amazon. Компания уже сократила более 27 000 сотрудников с 2022 года, причём основные кадровые потери пришлись на подразделения по выпуску устройств, предоставлению услуг и работе с книгами. Amazon разрабатывает или уже запустила более 1000 услуг и приложений, подразумевающих использование ИИ, но это лишь малая часть того, что будет внедрено в будущем. Глава Amazon намекнул подчинённым в своём обращении, что наибольшую ценность для компании в будущем смогут представить те сотрудники, которые хорошо познакомятся с ИИ, а также помогут развивать соответствующие возможности, способствующие «изобретению компании заново». Оптимизация численности персонала в связи с внедрением функций ИИ в целом характерна для отрасли информационных технологий, поэтому Amazon в своём стремлении к реформам не является уникальной компанией. Meta✴ пыталась переманить специалистов из OpenAI бонусами в $100 млн, но никто не согласился
18.06.2025 [10:54],
Алексей Разин
Острота борьбы за ценные кадры в сфере искусственного интеллекта подчёркивается очередными откровениями основателя OpenAI Сэма Альтмана (Sam Altman) в ходе подкаста, организованного его братом Джеком. Как сообщается, конкурирующая Meta✴ Platforms пыталась переманить ценных специалистов OpenAI, предлагая им по $100 млн. ![]() Источник изображения: Unsplash, Мария Шалабаева Впервые о подобных усилиях компании Марка Цукерберга (Mark Zuckerberg) стало известно больше недели назад из публикации The New York Times. На этой неделе глава OpenAI Сэм Альтман подтвердил эту информацию в ходе интервью собственному брату Джеку: «Meta✴ начала предлагать подобные гигантские суммы многим членам нашей команды. Понимаете, $100 млн бонусов — это больше, чем компенсационный пакет за год работы. Я действительно счастлив, что до сих пор никто из наших лучших людей не согласился на подобное предложение». По мнению основателя OpenAI, специалисты компании были убеждены, что она сможет создать так называемый «сильный» искусственный интеллект (AGI) раньше конкурентов, а потому достигнет более весомой капитализации. Кроме того, Альтман считает, что в основе корпоративной культуры Meta✴ лежат не те стимулы и ориентиры. Миссия создания AGI, по мнению Альтмана, важнее высоких зарплат для сотрудников. По слухам, Meta✴ пыталась переманить одного из ведущих исследователей OpenAI Ноэма Брауна (Noam Brown), а также ведущего архитектора ИИ компании Google Корая Кавукчуоглу (Koray Kavukcuoglu), но в обоих случаях безуспешно. Сэм Альтман считает корпоративную культуру OpenAI, делающую упор на инновации, основным залогом успеха стартапа, тогда как предпринимаемые Meta✴ усилия в сфере развития систем ИИ пока не принесли желаемых для руководства последней результатов. По словам главы OpenAI, он с уважением относится ко многим достижениям Meta✴, но в сфере инноваций она не очень сильна. Выступать в роли догоняющего в этой сфере недостаточно для рыночного успеха, для подлинного лидерства нужны настоящие инновации, уверен Альтман. Глава OpenAI в ходе своего выступления также выразил заинтересованность в создании технологии для социальных сетей, которая позволила бы демонстрировать пользователю только ту информацию, в которой он действительно заинтересован. Существующие алгоритмы такой персонализации, по словам Альтмана, демонстрируют неудовлетворительные результаты. Подобное приложение, по слухам, OpenAI уже разрабатывает, невольно вторгаясь в сферу интересов Meta✴. Последняя также экспериментирует с искусственным интеллектом в своих социальных сетях, но результаты таких усилий пока вызывают у пользователей смешанную реакцию. Google выпустила финальную версию мощной ИИ-модели Gemini 2.5 Pro, а также экономную Gemini 2.5 Flash-Lite
18.06.2025 [00:44],
Анжелла Марина
Google объявила о выходе стабильных версий своих ИИ-моделей Gemini 2.5 Pro и Gemini 2.5 Flash, а также представила новую бюджетную модификацию — Gemini 2.5 Flash-Lite. Основные обновления направлены на снижение затрат для разработчиков и повышение стабильности моделей. Высокопроизводительная Gemini 2.5 Pro вышла из стадии превью и готова к коммерческому использованию. ![]() Источник изображения: Ryan Whitwam / arstechnica.com Модель Gemini 2.5 была представлена в начале 2025 года и продемонстрировала значительный прогресс по сравнению с предыдущими версиями, усилив конкуренцию Google с OpenAI. Gemini 2.5 Flash вышла из стадии предварительного просмотра ещё в апреле, однако Gemini 2.5 Pro немного задержалась. Сейчас обе модели, включая обновлённую сборку 06-05 для Pro-версии, доступны в стабильной версии. Все модели линейки Gemini 2.5 поддерживают настраиваемый бюджет ответов ИИ, позволяя разработчикам контролировать свои расходы. В наиболее экономичном варианте Google предлагает облегчённую модель Gemini 2.5 Flash-Lite, которая сейчас находится в статусе Preview. По сравнению с версией 2.5 Flash, стоимость обработки текста, изображений и видео будет в три раза ниже, а генерация ответов — более чем в шесть раз дешевле. Flash-Lite не будет представлена в пользовательском приложении Gemini, так как ориентирована в первую очередь на разработчиков, оплачивающих использование модели по количеству токенов. ![]() Источник изображения: Google Кроме того, Google начала внедрять модели Flash и Flash-Lite в свою поисковую систему. Представитель компании сообщил изданию Ars Technica, что адаптированные версии этих моделей уже используются в «ИИ-обзорах» и в режиме чат-бота AI Mode. В зависимости от сложности запроса система автоматически выбирает оптимальную модель: Gemini 2.5 Pro — для сложных задач, Flash или Flash-Lite — для более простых. Предварительная версия Flash-Lite доступна через Google AI Studio и Vertex AI для разработчиков наряду со стабильными релизами Gemini 2.5 Flash и 2.5 Pro. В пользовательском приложении Gemini заметных изменений не произойдёт, поскольку финальные версии моделей уже были задействованы в предыдущих обновлениях. У версии 2.5 Pro исчезнет метка Preview — так же, как месяцем ранее это произошло с моделью Flash. Бесплатные пользователи по-прежнему будут иметь ограниченный доступ к 2.5 Pro, тогда как подписчики Gemini Pro смогут использовать модель до 100 раз в сутки. Максимальный уровень доступа остаётся у владельцев подписки AI Ultra. ИИ-стартап xAI Илона Маска собрался привлечь ещё $4,3 млрд в дополнение к $5 млрд долговых обязательств
17.06.2025 [20:57],
Владимир Мироненко
ИИ-стартап xAI Илона Маска (Elon Musk) ведёт переговоры о привлечении $4,3 млрд в виде акционерного капитала в дополнение к продаже долговых обязательств на $5 млрд, сообщил Bloomberg со ссылкой на материалы, которыми компания поделилась с инвесторами. ![]() Источник изображения: xAI Согласно этим материалам, с момента основания в 2023 году и до начала продажи долговых обязательств в этом году xAI привлёк $14 млрд в виде акционерного капитала. По состоянию на 31 марта на балансе стартапа от этой суммы осталось лишь $4 млрд. Новое вливание капитала должно повысить интерес инвесторов к предложению о покупке долга xAI, объявленному во время публичной перепалки Маска с президентом США Дональдом Трампом (Donald Trump). Чтобы снять опасения инвесторов, стартап предложил внести изменения в долговые документы, которые затрудняют перемещение его активов (что защищает залоговое обеспечение кредиторов), а также установить потолок на сумму обеспеченного долга, который он может привлечь, сообщили источники. По их данным, срок подачи заявок на приобретение долговых обязательств на сумму $5 млрд истекает во вторник, 17 июня. Сообщается также, что в дополнение к новому финансированию xAI может получить скидку в $650 млн от одного из поставщиков, что поможет сократить расходы. Несмотря на значительные затраты, оценка xAI к концу первого квартала выросла до $80 млрд по сравнению с $51 млрд в конце 2024 года. В числе инвесторов в предыдущих раундах финансирования были Andreessen Horowitz, Sequoia и VY Capital. Между OpenAI и Microsoft растут противоречия по поводу принципов сотрудничества
17.06.2025 [07:27],
Алексей Разин
Корпорация Microsoft остаётся крупнейшим инвестором стартапа OpenAI и близким деловым партнёром, но отношения между ними в последнее время стали портиться, как отмечает The Wall Street Journal. Руководство OpenAI даже рассматривает возможность обращения с жалобой на Microsoft в американские антимонопольные органы в случае обострения противоречий. ![]() Источник изображения: Unsplash, Levart_Photographer Как отмечает источник, OpenAI стремится снизить контроль за своими ИИ-продуктами со стороны Microsoft, а также получить от партнёра одобрение своего плана по реструктуризации с превращением в полноценную коммерческую организацию. Без этого «благословения» OpenAI не сможет ни привлечь дополнительные средства инвесторов, ни выйти на фондовый рынок. Если переговоры зайдут в тупик, то руководство OpenAI в качестве крайней меры готово публично обвинить Microsoft в неконкурентном поведении и заставить антимонопольные органы начать официальное расследование в отношении условий контракта между компаниями. По данным WSJ, подобные настроения ставят под угрозу длящееся уже шесть лет сотрудничество OpenAI и Microsoft. Проблема также заключается в том, что за это время партнёры начали конкурировать друг с другом, и на этой почве противоречия могут развиваться довольно активно. Публично стороны выражают уверенность в своей способности продолжать плодотворное сотрудничество на протяжении многих лет. Предстоящее поглощение стартапа Windsurf за $3 млрд также является источником противоречий между компаниями. Сейчас Microsoft имеет доступ ко всей интеллектуальной собственности OpenAI, в сфере написания программного кода у Microsoft имеется конкурирующий с партнёром продукт в виде GitHub Copilot. Поскольку разработки Windsurf должны конкурировать с ним, OpenAI не хочет, чтобы после сделки с этим стартапом Microsoft имела к ним доступ. Не могут стороны договориться и о величине той доли акций OpenAI, которая достанется Microsoft после завершения реструктуризации первой из компаний. Microsoft претендует на большее по сравнению с текущим предложением OpenAI. Реструктуризацию планируется завершить к концу этого года, поэтому переговоры приходится ускорять. Первоначально Microsoft вложила в OpenAI миллиард долларов США в 2019 году. Она получила право первоочередной продажи ИИ-инструментов OpenAI через свою инфраструктуру Azure, а также приоритетный доступ ко всем новым разработкам стартапа. До недавних пор Microsoft также оставалась единственным провайдером вычислительных мощностей для OpenAI, хотя в начале этого года она и разрешила стартапу заняться самостоятельным строительством инфраструктуры в рамках проекта Stargate. Сейчас OpenAI заинтересована в том, чтобы продавать свои разработки более широкому кругу клиентов и пользоваться услугами других провайдеров облачных вычислительных мощностей. Microsoft хотела бы сохранить доступ к разработкам OpenAI и в дальнейшем, хотя рамки сотрудничества компаний имеют определённые критерии конечности, которые могут быть достигнуты в ближайшем будущем, по мнению стартапа. Энтузиаст превратил провальную ИИ-брошь Humane AI Pin в умного ассистента
16.06.2025 [23:04],
Анжелла Марина
После громкого провала и закрытия основных функций носимого устройства Humane AI Pin многие пользователи перестали относиться к гаджету серьёзно и занесли его в категорию «электронного мусора». Однако разработчик Адам Гастинё (Adam Gastineau) из США, ранее работавший в Microsoft и проходивший стажировку в Apple, решил дать устройству второй шанс и начал превращать AI Pin в полноценного ИИ-ассистента. ![]() Источник изображения (скриншот): PCMag / YouTube: В апреле 2024 года носимый гаджет Humane AI Pin за $699, который рекламировали как революционное устройство, разочаровал покупателей. Пользователи жаловались на неудобство и медленную работу, а некоторые сравнивали его с провальным стартапом Juicero, который продавал соковыжималку за $700 и одноразовые пакеты с фруктовым пюре, которое легче было выдавить руками, чем использовать само устройство. Ситуацию с Humane AI Pin усугубило предупреждение компании о пожароопасности зарядного кейса. ![]() Источник изображения: Eric Zeman / PCMag В феврале 2025 года компанию Humane купила HP, и основные функции устройства были отключены. Адам Гастинё, 29-летний программист из Ванкувера, стал одним из тех, кто не сдался. Он потратил около 400 часов на создание PenumbraOS — операционной системы, которая позволяет использовать Humane AI Pin как полноценную платформу для разработки приложений. По его словам, цель проекта состоит в том, чтобы дать другим разработчикам возможность свободно экспериментировать с устройством и создавать на базе этой ОС собственные продукты. Устройство, например, уже способно через WebSocket взаимодействовать с API OpenAI и обрабатывать звук в режиме, близком к реальному времени. Гастинё изначально был увлечён голосовыми помощниками, такими как Siri. Он считал, что Humane AI Pin выглядел интересно, но был слишком ограничен в возможностях. Когда стало ясно, что компания прекращает поддержку, он приобрёл устройство с намерением добавить недостающие функции. При этом одним из ключевых факторов успеха стало появление в сети сертификата Android Debug Bridge (ADB), который позволил получить свободный доступ к исходному коду. Далее, с помощью APK-файлов для платформы Android, разработчик смог изучить структуру кода и приступить к модификации системы. Отмечается, что проект пока находится на ранней стадии, но уже позволяет активировать сторонние eSIM (цифровые SIM-карты), превратив устройство в полноценный Android-гаджет. Гастинё планирует создать MABL — центральное автоматизированное приложение, которое позволит устанавливать различные версии языковых ИИ-моделей и других приложений на AI Pin. Своей конечной целью он называет создание платформы для мобильных ИИ-ассистентов, где каждый сможет реализовать свои идеи. Разработчик отмечает, что его проект уже привлёк внимание сообщества: с ним связались коллеги, а также бывшие сотрудники Humane. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |