|
Опрос
|
реклама
Быстрый переход
Инвесторы насторожились: Сэм Альтман пытался направить деньги OpenAI в личные проекты
17.04.2026 [13:08],
Алексей Разин
В этом году OpenAI может выйти на IPO, и для всякой публичной компании важно демонстрировать целевое расходование средств и отсутствие конфликтов интересов у руководства. Вот здесь-то у инвесторов могут возникнуть вопросы к генеральному директору Сэму Альтману (Sam Altman), который финансовой дисциплиной с этой точки зрения не отличается.
Источник изображений: OpenAI По крайней мере, такой точки зрения придерживаются авторы публикации на страницах The Wall Street Journal. Прежде всего, Альтман был замечен в попытках направить полученные OpenAI средства на какие-то побочные проекты, в которые ранее инвестировал собственные деньги. Например, так произошло в случае со стартапом Helion, который пытается создать источники электроэнергии на основе термоядерного синтеза. Непосредственно Альтман является крупнейшим инвестором Helion, недавно компания начала испытывать финансовые трудности, поэтому глава OpenAI призвал последнюю направить деньги в её капитал. Альтман также хотел использовать финансовые ресурсы OpenAI для поддержки аэрокосмической компании Stoke Space, которая чисто теоретически помогла бы лично ему соперничать с Илоном Маском (Elon Musk) в сфере производства ракет-носителей. Близкий к Альтману венчурный фонд Hydrazine является акционером Stoke Space. Очевидно, что подобные намерения вызывают у инвесторов OpenAI справедливые вопросы к оправданности подобных вложений в тот момент, когда сам стартап нацелен на максимально эффективное расходование средств. Ради экономии OpenAI отказалась от развития сервиса ИИ-генерации видео Sora, разорвала сотрудничество с Disney и отложила на неопределённый срок запуск чат-бота с эротическими функциями. В «родном» OpenAI Альтман никакими активами не обладает, но при этом имеет широкие полномочия по управлению стартапом. В декабре Альтман признался, что роль генерального директора OpenAI его не очень радует, а к идее выхода на IPO он относится неоднозначно. До того, как стать генеральным директором OpenAI, Сэм Альтман возглавлял венчурный фонд Y Combinator, а потому успел сколотить инвестиционный портфель из нескольких сотен стартапов. Некоторые из них в дальнейшем заключили выгодные сделки с OpenAI, способствуя личному обогащению Альтмана. Акции различных стартапов он использует в качестве залога для получения кредитов, направляемых на новые инвестиции. Структура личного капитала Альтмана непрозрачна, даже руководство OpenAI не может понимать, как те или иные интересы Альтмана могут влиять на принятие решений при управлении данным стартапом. В классическом варианте совет директоров публичных компаний обычно следит за тем, чтобы у генерального директора не было существенных интересов в других компаниях, но в качестве вознаграждения ему полагаются акции собственной компании. Альтман же в силу происхождения OpenAI от некоммерческой организации никогда долю в капитале стартапа не получал, ему лишь выплачивали вознаграждение в денежной форме. За 2024 год он на посту генерального директора OpenAI заработал всего $66 000, например. Выступая в Сенате США в 2023 году, Альтман заявил, что «делает эту работу, потому что любит её». Считается, что потенциальные конфликты интересов Альтмана стали одной из причин, по которой совет директоров в ноябре 2023 года добился его временной отставки. После его возвращения и формирования нового состава директоров был создан профильный комитет, призванный следить за отсутствием конфликта интересов, но отчёты о его деятельности с тех пор не предоставлялись. ![]() Инвестором в стартап Helion Альтман является с 2014 года, и теперь компания утверждает, что близка к производству источников дешёвой электроэнергии, получаемой методом термоядерного синтеза. Когда в начале 2025 года Helion привлекала очередную порцию средств на своё развитие, Альтман попросил японскую корпорацию SoftBank вложиться в капитал стартапа, и основатель Масаёси Сон (Masayoshi Son) лично принимал участие в обсуждении сделки. Руководство SoftBank таким поворотом было удивлено, поскольку подобное перенаправление средств произошло внезапно. Helion держит свои разработки в секрете и не особо делится прогрессом в сфере разработки термоядерных реакторов. Предполагалось, что их седьмое поколение под условным обозначением Polaris должно было появиться в 2024 году, впервые продемонстрировав возможность вырабатывать больше энергии, чем потреблять. Выпуск таких установок налажен не был, но Helion заявила, что достигла нужного этапа в разработках. В 2021 году Альтман вложил в капитал стартапа $375 млн, назвав его вторым по значимости проектом в своей жизни после OpenAI. Крупнейший инвестор OpenAI в лице корпорации Microsoft согласился с 2028 года покупать электроэнергию у Helion. Свежий раунд финансирования Helion должен был оценить стартап в $35 млрд и привлечь около $1 млрд, из которых Альтман готов был предоставить половину, но не только собственных средств, а ещё и принадлежащих OpenAI. Руководство последней неодобрительно отнеслось к этой идее, некоторые представители OpenAI вообще выразили сомнение в жизнеспособности технологии Helion. Собрать требуемую сумму в OpenAI не удалось, но компания всё равно договорилась с Helion о покупке 50 ГВт электроэнергии к 2035 году. Без поддержки OpenAI энергетический стартап теперь рассчитывает привлечь только $250 млн и оценить свою капитализацию в $15 млрд. Одним из инвесторов выступит фонд Thrive Capital, который поддерживает и OpenAI. В прошлом месяце Альтман вышел из состава совета директоров Helion, чтобы избежать явного конфликта интересов. Альтман также пытался поставить финансовые ресурсы OpenAI на службу своим личным амбициям, которые толкают его на соперничество с Илоном Маском (Elon Musk) и в некоторой степени на подражание богатейшему человеку планеты. Глава OpenAI поддержал в прошлом году стартап Merge Labs, который разрабатывает мозговые импланты и пытается конкурировать с Neuralink Илона Маска. В январе этого года Альтман попытался направить на поддержку Merge Labs финансовые ресурсы OpenAI. Глава последней входит в состав совета директоров Merge Labs, но не владеет какими-либо активами стартапа. Прошлым летом Альтман попробовал купить крупный пакет акций аэрокосмической компании Stoke Space или поглотить её полностью, используя финансовые ресурсы OpenAI. Вместо этого акционером конкурента SpaceX стал близкий к Альтману венчурный фонд Hydrazine. К февралю этого года глава OpenAI охладел к идее строительства центров обработки данных в космосе, назвав её смехотворной. Члены совета директоров OpenAI также критически к ней отнеслись, поэтому компания и не приняла участия в финансировании Stoke Space. После прихода на пост директора OpenAI по продуктам Фиджи Симо (Fiji Simo) стратегия стартапа начала заметно меняться. Усилия сосредоточены сейчас на создании «суперприложения», которое помогло бы укрепить позиции OpenAI в корпоративном сегменте рынка. Некоторые из продвигаемых Альтманом инициатив отвергнуты или заморожены, включая генератор видео Sora и «режим для взрослых» в ChatGPT. В рамках подготовки к IPO влияние Фиджи Симо должно было возрасти, но из-за проблем со здоровьем она была вынуждена уйти в отпуск в этом месяце. Её функции будут распределены между четырьмя другими руководителями OpenAI, но имя Альтмана в этом контексте не упоминалось. Подозреваемый в нападении на Сэма Альтмана призывал «убивать гендиров технологических компаний»
16.04.2026 [12:10],
Павел Котов
За несколько месяцев до ареста по обвинению в покушении на убийство главы OpenAI Сэма Альтмана (Sam Altman) молодой человек по имени Даниэль Морено-Гама (Daniel Moreno-Gama) призывал в интернете «убивать гендиректоров технологических компаний», ссылаясь на действия Луиджи Манджоне (Luigi Mangione), который сейчас обвиняется в убийстве главы UnitedHealthcare Брайана Томпсона (Brian Thompson). Об этом сообщила газета Wall Street Journal.
Сэм Альтман. Источник изображений: x.com/sama Морено-Гама упомянул Манджоне в разговоре с продюсерами подкаста The Last Invention, которые хотели взять у Даниэля интервью для серии выпусков об искусственном интеллекте. В январе он записал интервью, в котором подробно рассказал о том, как прошёл путь от интернет-гика до борца, одержимого угрозами ИИ. Но свои пугающие слова он призвал не воспринимать буквально. Тем не менее, на минувшей неделе он приехал из пригорода Хьюстона в Сан-Франциско, бросил «коктейль Молотова» в дом Сэма Альтмана и планировал поджечь здание, в котором располагается штаб-квартира OpenAI. В ходе следствия по делу был обнаружен манифест, предположительно созданный Морено-Гамой, — в документе содержится предупреждение, что ИИ уничтожит человечество. В нём есть и послание самому Альтману: «Если вы каким-то чудом выживете, я восприму это как знак свыше, чтобы искупить вину». Молодому человеку предъявлены обвинения в покушении на убийство и поджоге; он не признал себя виновным. Назначенный властями штата государственный защитник Даймонд Уорд (Diamond Ward) охарактеризовал эти обвинения как чрезмерные, а инцидент квалифицировал «в лучшем случае как преступление против собственности». Адвокат указал, что в анамнезе у его подзащитного значатся аутизм и проблемы с психическим здоровьем, а его действия, «по-видимому, были спровоцированы острым психическим кризисом, а не желанием нанести вред». Эту линию поддержали и родители подозреваемого — они, по их словам, пытались добиться для него лечения психических заболеваний и были обеспокоены его самочувствием. Даниэль был заботливым и ранее не привлекался, подчеркнули его родители. ![]() Традиционно закрытый от общественности Альтман на минувшей неделе опубликовал фото своей семьи в надежде, что если кто-то ещё решит бросить в его дом «коктейль Молотова», то передумает, независимо от того, как относится к главе OpenAI лично. Накануне стартап Longview опубликовал ещё одно интервью Морено-Гамы, в котором он вспомнил, что, будучи школьником, считал ChatGPT «потрясающим», потому что чат-бот позволял ему списывать. В интернете Морено-Гама пользовался ником Butlerian Jihadist — это отсылка к войне между людьми и мыслящими машинами в классике фантастики «Дюна». Главный редактор Longview предлагал молодому человеку выступить анонимно, но когда его личность раскрыли, это утратило смысл. Авторы подкаста связались с ним во время работы над выпуском, посвящённым вопросу применения насилия для того, чтобы оградить человечество от вымирания из-за сверхразумного ИИ. В 2024 году Морено-Гама вступил в организацию Pause AI, выступающую за приостановку разработки самых модных систем ИИ, — на публичном сервере Discord в группе он опубликовал 34 сообщения, и ни одно из них, по словам руководителя, не содержало явных призывов к насилию. На онлайн-форуме Stop AI он поинтересовался, повлечёт ли его блокировку попытка обсуждать насилие, и после утвердительного ответа перестал публиковать сообщения. При этом он резко реагировал на стереотипы о людях, которые преувеличивают угрозу ИИ, но выражался относительно сдержанно: «Прежде чем мы начнём задумываться о насилии, нужно исчерпать все наши мирные средства. Думаю, протесты, обмен информацией, запись подкастов вроде этого должны быть в приоритете, прежде чем мы вообще начнём рассматривать насилие». Но опыт Манджоне он считал политической точкой опоры — с его действиями он не соглашался, но отмечал, что «многие смогли это оправдать». Поджигателя дома Сэма Альтмана обвинили в покушении на убийство — он видел в ИИ опасность для человечества
14.04.2026 [09:27],
Алексей Разин
Минувшие выходные для ближайшего окружения главы OpenAI Сэма Альтмана (Sam Altman) ассоциируются с не самыми приятными событиями, поскольку в Сан-Франциско был задержан человек, предпринявший попытку поджечь дом Альтмана, а также направившийся с дальнейшими угрозами к офису OpenAI. Задержанному предъявлено обвинение в покушении на убийство.
Источник изображения: OpenAI Об этом со ссылкой на офис окружного прокурора Сан-Франциско сообщает сайт CNBC. Из предоставленных следствием документов становится известно, что Даниэль Морено-Гама (Daniel Moreno-Gama) руководствовался мотивами ненависти к технологиям искусственного интеллекта, намеревался убить Сэма Альтмана и располагал именами и адресами нескольких других руководителей OpenAI, членов совета директоров и инвесторов. Прокуратура Сан-Франциско обвинила Морено-Гаму в попытке убийства, на федеральном уровне ему предъявлены обвинения в попытке причинения вреда чужому имуществу при помощи воспламеняющихся веществ и незаконном владении огнестрельным оружием. По данным ФБР, действия задержанного были решительными и хорошо спланированными, он не руководствовался сиюминутным порывом. Из материалов следствия становится известно, что Морено-Гама намеревался убить Сэма Альтмана и предупреждал окружающих об угрозе «уничтожения искусственным интеллектом». В материалах дела личность Альтмана фигурирует в качестве «жертвы номер один», но однозначно сопоставляется должности генерального директора «исследовательской компании, которая создаёт искусственный интеллект и работает на внутреннем и международном рынке». Упоминается наличие у обвиняемого данных с именами и адресами ещё нескольких высокопоставленных руководителей OpenAI, членов совета директоров и инвесторов. Свои преступные намерения Морено-Гама зафиксировал в письме, которое было обнаружено при нём после задержания. Приводятся выдержки из письменного обращения задержанного к Альтману: «Если каким-то чудом ты останешься в живых, тогда я буду считать это знаком свыше о твоём спасении». По данным калифорнийской полиции, Морено-Гама примерно в половину четвёртого утра в прошлую пятницу метнул бутылку с зажигательной смесью в крыльцо дома Сэма Альтмана, после чего скрылся с места преступления пешком. Возгорание удалось ликвидировать, никто из обитателей дома не пострадал. Примерно к пяти утра того же дня Морено-Гама прибыл к офису OpenAI в Сан-Франциско, бросил стул в стеклянные двери здания и выкрикивал угрозы «сжечь всё вокруг и убить всех, находящихся внутри». Прибывшим на место происшествия полицейским удалось арестовать обвиняемого. В воскресенье местной полиции удалось задержать ещё двух людей, которые в тот день пытались напасть на дом Альтмана, не обошлось без перестрелки. В США арестован подозреваемый в попытке поджога дома главы OpenAI Сэма Альтмана
11.04.2026 [06:47],
Алексей Разин
Публичность руководителей крупных компаний технологического сектора делает их не менее уязвимыми, чем популярных представителей шоу-бизнеса, например. На этой неделе полиции Сан-Франциско удалось задержать подозреваемого в попытке поджога дома генерального директора OpenAI Сэма Альтмана (Sam Altman), который проживает в этом калифорнийском мегаполисе.
Источник изображения: OpenAI Как отмечает CNBC со ссылкой на полицейские сводки, подозреваемый использовал «коктейль Молотова» для попытки поджога дома Альтмана, в результате обгорела входная группа здания, но никто не пострадал. Подозреваемого арестовали через час после инцидента в непосредственной близости от штаб-квартиры OpenAI в том же городе. Как утверждается, он угрожал поджечь и это здание. Представители OpenAI подтвердили факт попытки поджога, добавив, что никто не пострадал, а сама компания оказывает необходимое содействие следствию. По данным полицейских сводок, подозреваемый бросил «зажигательное устройство разрушительного действия» в дом Альтмана, расположенный в районе Норт-Бич в Сан-Франциско. Попытка поджога состоялась примерно в четыре утра, после воспламенения части фасада здания подозреваемый сбежал с места преступления. Прибывшим на место происшествия пожарным удалось потушить огонь. Примерно через час полицейским пришлось прибыть уже к штаб-квартире OpenAI, которую некий мужчина угрожал поджечь. Полиция подозревает, что в обоих случаях действовал один и тот же 20-летний мужчина, который и был арестован. Сэм Альтман после происшедшего опубликовал на страницах личного блога фотографии своих близких и признался, что «недооценивал силу слов и высказываний», призвав всю ИИ-отрасль сбавить градус риторики и пересмотреть тактику поведения. «Я способен проникнуться антитехнологическими настроениями и понимаю, что технология не всем полезна. Но в целом, я убеждён, что технический прогресс может сделать наше будущее невероятно хорошим — и для вашей семьи, и для моей». Мотивы нападавшего на дом Альтмана ещё предстоит установить следствию, но это не первый случай, когда деятельность OpenAI сталкивается с выражениями общественного протеста. Когда в феврале компания в сжатые сроки перехватила у Anthropic право обслуживать военные контракты Пентагона, перед офисом OpenAI в Сан-Франциско появились написанные мелом призывы к сотрудникам выступить против этой сделки. Илон Маск будет требовать в суде отставки главы OpenAI Сэма Альтмана и президента компании Грега Брокмана
08.04.2026 [07:21],
Алексей Разин
Подготовка к судебному заседанию по иску Илона Маска (Elon Musk) к OpenAI и Microsoft уже началась, состав коллегии присяжных будет определён 27 апреля, а пока представители миллиардера раскрывают подробности своих исковых требований. Одним из них является требование отставки генерального директора Сэма Альтмана (Sam Altman) и президента Грега Брокмана (Greg Brockman), как не оправдавших изначальную миссию стартапа OpenAI.
Источник изображения: OpenAI Правда, для удовлетворения этого искового требования Маска суд сперва должен решить, что Альтман и возглавляемая им компания OpenAI обманом лишили истца $38 млн, которые были направлены на развитие стартапа в первые годы его существования. Маска не устраивает то, что тогда руководство OpenAI уверяло миллиардера в бессрочном сохранении за стартапом статуса некоммерческой организации. В прошлом году OpenAI подверглась реструктуризации, в результате чего некоммерческая корпорация хоть и сохранила контроль, но одновременно получила 26 % акций коммерческой структуры, которая одновременно контролирует ChatGPT и может привлекать к себе инвесторов, не говоря уже о зарабатывании денег. Именно перевод OpenAI на коммерческие рельсы и возмущает Маска, поэтому он требует отставки Альтмана с поста генерального директора компании, исключения его из состава совета директоров, а также увольнения президента OpenAI Грега Брокмана. В иске законных представителей Маска поясняется: «Отставка руководителей некоммерческих организаций является распространённым методом устранения правовых нарушений в ситуациях, когда данные частные лица не справляются с задачей защиты миссии общественной организации». Маск также требует от OpenAI возвращения к принципам деятельности, присущим полноценным некоммерческим организациям. Представители OpenAI после изучения претензий Маска заявили, что он под благовидным предлогом скрывает свои атаки на эту некоммерческую организацию. По мнению OpenAI, Илон Маск просто заинтересован в усилении своего влияния и увеличении благосостояния. Данный судебный иск тоже остаётся завуалированным «способом преследования OpenAI из-за эгоизма, ревности и желания замедлить развитие бизнеса конкурента», как отмечают представители стартапа. Напомним, в 2015 году Маск принял участие в становлении OpenAI, но в 2018 году покинул стартап из-за противоречий с его руководством. В 2023 году Маск основал собственный ИИ-стартап xAI, и к настоящему времени объединил его не только с социальной сетью X, но и с аэрокосмической компанией SpaceX. Помимо компенсации в размере до $134 млрд в свой адрес, Маск требует от OpenAI и её инвестора Microsoft возврата всех «несправедливо заработанных денег» в распоряжение некоммерческой организации OpenAI. Представители последней также призвали генеральных прокуроров двух американских штатов заняться расследованием деятельности Илона Маска, обвинив его в неконкурентном поведении и преследовании OpenAI в корыстных целях. Вокруг Сэма Альтмана разгорелся мощный скандал — расследование показало, что он социопат и патологический лжец
07.04.2026 [11:25],
Дмитрий Федоров
OpenAI вновь оказалась в центре скандала, связанного с вопросами доверия к руководству. Поводом стала новая публикация о главе компании Сэме Альтмане (Sam Altman), после которой обсуждение рисков ИИ сместилось от самой технологии к тем, кто принимает ключевые решения. В фокусе оказались старые претензии к откровенности Альтмана, новые свидетельства его бывших коллег и собственный доклад OpenAI о возможных тяжёлых последствиях широкого внедрения ИИ.
Источник изображения: @sama / x.com Публикация Ронана Фэрроу (Ronan Farrow) и Эндрю Маранца (Andrew Marantz) в The New Yorker сводит претензии к Альтману к одному выводу: часть людей, работавших с ним, считает его уклончивым и ненадёжным. Один из бывших членов совета OpenAI формулирует это предельно резко: «Для него правда не является ограничением». Сам упрёк не нов. Осенью 2023 года совет директоров OpenAI уволил Альтмана, заявив, что он «не был неизменно откровенен в своих высказываниях и общении». Позднее Альтман вернулся на пост главы компании, а большинство его противников покинули OpenAI. Разногласия с бывшими коллегами после этого не исчезли. Несколько ИИ-стартапов создали люди, прежде работавшие с Альтманом, а затем ставшие его оппонентами. Самый заметный пример — компания Anthropic, которой руководит бывший топ-менеджер OpenAI Дарио Амодеи (Dario Amodei). Его неприязнь к Альтману давно стала частью публичного конфликта между выходцами из OpenAI.
Источник изображения: Steve Johnson / unsplash.com Новые трения, как утверждает пресса, затронули и действующее руководство компании. The Information пишет, что у Альтмана не складываются отношения с финансовым директором Сарой Фрайар (Sarah Friar). Для OpenAI, которая готовится к выходу на биржу в 2026 году, такой конфликт имеет прямое значение. По данным издания, Фрайар ранее в 2026 году говорила коллегам, что не считает компанию готовой к первичному размещением акций (IPO). OpenAI оспорила сообщения о внутренних разногласиях. В ответ на публикацию The Information компания распространила совместное заявление Альтмана и Фрайар, в котором сказано, что оба в течение последнего года с лишним напрямую участвовали во всех значимых решениях по вычислительной инфраструктуре. Тем самым OpenAI попыталась опровергнуть вывод о том, что Фрайар была отстранена от обсуждения ключевых финансовых вопросов. Отдельно компания раскритиковала публикацию The New Yorker, заявив, что значительная часть текста пересказывает уже известные события через анонимные утверждения и выборочно подобранные свидетельства людей с явной заинтересованностью.
Источник изображения: Nathan Kuczmarski / unsplash.com Спор о доверии к Альтману обострился в момент, когда сама OpenAI призвала обсуждать регулирование передовых ИИ-систем. В докладе Industrial Policy for the Intelligence Age: Ideas to Keep People First компания пишет, что ИИ способен принести значительные выгоды, но одновременно создаёт серьёзные риски. Среди них названы исчезновение рабочих мест и целых отраслей, злоупотребление технологией со стороны злоумышленников, выход ИИ из-под человеческого контроля, использование ИИ государствами и институтами в ущерб демократическим ценностям, а также усиление концентрации власти и богатства в руках корпораций. OpenAI связывает эти риски с собственной исходной миссией. Компания напоминает, что в 2015 году Альтман и его сооснователи создали некоммерческую структуру именно для того, чтобы помогать сдерживать такие угрозы. Сегодня у OpenAI действует гибридная структура, сочетающая коммерческую и некоммерческую модели управления. В том же докладе компания предлагает и практические меры: изменить налоговые правила, чтобы увеличить сборы с крупных компаний и богатых людей и компенсировать возможное сокращение поступлений от налогов в фонд оплаты труда, если ИИ вытеснит с рынка большое число работников, а также ввести дополнительные налоги для компаний, заменяющих людей ИИ. OpenAI внезапно решила потратить более сотни миллионов долларов на покупку популярного ток-шоу
03.04.2026 [07:37],
Алексей Разин
Казалось бы, отказ от второстепенных направлений развития, выразившийся и в прекращении поддержки генератора видео Sora, должен был повысить финансовую дисциплину OpenAI, но под конец этой недели появилась новость о покупке стартапом медийного актива TBPN ( Technology Business Programming Network) более чем за сотню миллионов долларов.
Источник изображения: TBPN Как поясняет Financial Times, подкаст TBPN затрагивает технологическую сферу в своих беседах с приглашёнными экспертами, он весьма популярен в Кремниевой долине, но от OpenAI столь стремительных шагов по приобретению данного медийного актива никто не ожидал. Над созданием ток-шоу работает коллектив из 11 человек, ведущими являются Джорди Хейс (Jordi Hays) и Джон Куган (John Coogan), гостями студии уже побывали Марк Цукерберг (Mark Zuckerberg) и возглавляющий OpenAI Сэм Альтман (Sam Altman). Директор OpenAI по продуктам Фиджи Симо (Fidji Simo) отметила в своём обращении к персоналу стартапа, что «TBPN является одним из тех мест, где разговор об ИИ и его создателях ведётся на ежедневной основе». Руководству OpenAI импонирует подход ведущих TBPN к разговору о тех изменениях, которые приносит ИИ. Близкие к OpenAI источники отметили, что в компании не считают покупку TBPN отвлечением на второстепенные инициативы, поскольку она не потребует от исследователей и разработчиков распыления своих ресурсов. По некоторым оценкам, TBPN набирает по 70 000 просмотров ежедневно, в этом году данный канал вполне может выручить $30 млн, в основном от рекламы. Под крылом OpenAI ток-шоу сохранит независимость редакционной политики и будет базироваться в Лос-Анджелесе, как и прежде. Рекламодателями канала, что характерно, являются некоторые из конкурентов OpenAI. Редакция TPBN в структуре стартапа будет подчиняться директору по международному рынку Крису Лихейну (Chris Lehane). Руководители проекта смогут сами выбирать гостей, как и ранее. Сэм Альтман заявил, что не ожидает смягчения риторики в отношении OpenAI со стороны TBPN. Проект был запущен в прошлом году, его спонсорами уже являются Ramp, Plaid, Google и даже Нью-Йоркская фондовая биржа. Стартап Сэма Альтмана хочет привязать действия ИИ-агентов к скану радужки
18.03.2026 [18:53],
Сергей Сурабекянц
World, известная как WorldCoin до конца 2024 года, когда ИИ стал популярнее криптовалюты, объявила о начале ограниченного бета-тестирования своего нового проекта AgentKit. Эта технология, по словам World, позволит при помощи сканирования радужной оболочки глаз напрямую связать ИИ-агентов с владельцем, чтобы предотвратить злоупотребления и «внушить доверие к системе».
Источник изображений: unsplash.com В июле 2023 года криптовалютный стартап WorldCoin, одним из основателей которого является глава OpenAI Сэм Альтман (Sam Altman), начал оказывать услуги по всему миру и глобально запустил одноимённую криптовалюту, которую можно использовать только после того, как пользователь подтвердит свою личность. Центральным элементом проекта стала сфера Orb, которая предназначена для сканирования глаз пользователя и создания уникального World ID для подтверждения личности. Идея заключалась в том, чтобы закрепить личность в блокчейне в псевдонимной форме, что позволило бы людям совершать транзакции с другими пользователями World, не раскрывая себя.
Источник изображения: World В октябре 2024 года WorldCoin объявила о смене названия на World. Из названия исчезло слово Сoin, поскольку компания решила уйти с криптовалютного рынка и сосредоточиться на создании устройств для идентификации людей. Альтман заявлял о намерении привлечь миллиард человек на платформу в течение 2 лет. Однако на сегодняшний день удалось привлечь всего 18 миллионов пользователей. Теперь, когда криптовалюты в значительной степени потеряли популярность (включая WorldCoin — сама монета потеряла 76 % своей стоимости с момента запуска в 2023 году), и накопилось множество биометрических данных, World предложила новый способ их использования — AgentKit. AgentKit является расширением протокола x402 от Coinbase, который позволяет пользователям криптовалют обменивать цифровые деньги напрямую по HTTP. Протокол был расширен для ограничения доступа ИИ-агентов к онлайн-ресурсам путём взимания с них микроплатежей. Хотя этого достаточно для отсеивания некоторых злоумышленников, World утверждает, что необходима фактическая проверка личности. ![]() «С помощью World ID человек может криптографически и анонимно доказать, что он является уникальным человеком, не раскрывая никому никакой личной информации, — говорится в пресс-релизе World. — То же самое доказательство теперь может распространяться и на его агентов». По словам World, AgentKit позволяет владельцам подтверждённых World ID (то есть тем, чьи радужки глаз были отсканированы с помощью Orb) делегировать свои World ID агентам ИИ, по сути, выступая в качестве криптографического доказательства личности человека, стоящего за агентом. Один человек может делегировать свой World ID неограниченному количеству агентов. World описывает AgentKit как полезный инструмент для предотвращения спама и других форм злоупотреблений, таких как использование агентов ИИ для перепродажи билетов или бронирований, предотвращения засорения новостных рейтингов мусором и тому подобное. Предположительно, потребуется привлечь к использованию AgentKit компании, поддерживающие идентификацию через этот инструмент, прежде чем этим предложением заинтересуются потребители. Сэм Альтман предложил платить за ИИ по счётчику — как за коммунальные услуги
16.03.2026 [16:37],
Анжелла Марина
Генеральный директор компании OpenAI Сэм Альтман (Sam Altman) выступил с предложением реформировать рынок искусственного интеллекта (ИИ), превратив доступ к технологиям в базовую коммунальную услугу. На саммите BlackRock Infrastructure Summit в Вашингтоне он предложил модель, при которой ИИ будет оплачиваться так же, как электричество или вода — на основе показаний счётчика использования.
Источник изображения: OpenAI Это заявление, как пишет Windows Central, прозвучало на фоне сообщений о том, что ведущие ИИ-лаборатории тратят огромные средства на поддержание своей инфраструктуры, в то время как интерес инвесторов к сектору снижается из-за отсутствия ясных перспектив прибыльности. Например, финансовое положение лидера рынка вызывает опасения у аналитиков. Согласно январскому отчёту, OpenAI рискует столкнуться с убытками в размере $14 млрд в 2026 году, что может привести к банкротству уже к середине 2027 года. Несмотря на то, что годовой доход от ChatGPT составляет приблизительно $13 млрд, расходы на инфраструктуру, исследования и наём персонала остаются высокими и достигают $1,4 млрд. В дополнение к этому, существуют опасения, что масштабирование ИИ столкнулось с пределом из-за дефицита качественных данных для обучения и нехватки вычислительных мощностей. В настоящее время OpenAI использует комбинированную модель монетизации, включающую платные подписки и бесплатный доступ с интегрированной рекламой (пока только в США). Переход же к оплате по модели счетов за коммунальные услуги может стать решением финансовых проблем. Альтман также подчеркнул, что спрос на ИИ-технологии растёт лавинообразно, и в будущем важно сделать доступ к услуге настолько дешёвым, чтобы его не нужно было даже учитывать. Тем не менее, реальность может оказаться иной: по мере роста востребованности ИИ вычислительные мощности станут более дефицитным ресурсом. Это вынудит компании либо повысить цену за единицу использования токенов модели, либо приведёт к том, что они просто не справятся с существующим спросом. Если система оплаты счетов за ИИ как за коммунальные услуги будет внедрена, это может быть выгодно для тех, кто пользуется нейросетями эпизодически, но создаст сложности для профессиональных пользователей, глубоко интегрировавших технологии в свои рабочие процессы. Сэм Альтман признал, что ИИ разрушает баланс между трудом и капиталом — и никто не знает, что с этим делать
14.03.2026 [11:06],
Владимир Фетисов
Выступая на саммите BlackRock по инфраструктуре, гендиректор OpenAI Сэм Альтман (Sam Altman) затронул тему растущего общественного скептицизма в отношении искусственного интеллекта. В частности, он подтвердил обоснованность широко распространённых опасений по поводу рынков труда в будущем, признав, что традиционный баланс между трудом и капиталом меняется кардинальным образом.
Источник изображения: x.com/sama Говоря о текущей негативной реакции общественности, Альтман отметил, что ИИ повсеместно стал «козлом отпущения» для оправдания сокращения штата в компаниях и роста коммунальных расходов. «Центры обработки данных обвиняют в повышении цен на электроэнергию. Почти каждая компания, которая проводит увольнения, обвиняет в этом ИИ, даже если на самом деле дело не в нём», — заявил Альтман. При этом он признал, что скрытая угроза для традиционной занятости имеет реальное основание. Во время выступления Альтман рассказал, что видел в интернете цитату, которая засела у него в голове. В ней говорилось о том, как на протяжении столетий, возможно тысячелетий, люди учились структурировать общество для управления дефицитом, а теперь им быстрыми темпами приходится учиться обратному — управлять «изобилием». «Так что это, по сути, реальное изменение того, как работал капитализм», — сказал Альтман, добавив, что капитализм в некоторой степени опирался на баланс сил между трудом и капиталом. «Но если во многих наших нынешних профессиях сложно превзойти по производительности графический процессор, то это всё меняет», — добавил глава OpenAI. Он отметил, что это ставит его в тупик. «Если бы было простое общепринятое решение, мы бы его уже нашли. Так что думаю, никто не знает, что делать», — заявил Альтман. Ещё было сказано, что за последние несколько месяцев ландшафт ИИ перешагнул порог «основной экономической полезности», быстро эволюционируя от простой помощи в написании программного кода до выполнения сложных задач в различных сферах интеллектуального труда. Альтман предупредил, что темпы этой эволюции дезориентируют, и уже скоро ИИ-агентам можно будет доверять выполнение задач, занимающих несколько дней и недель, причём они будут делать эту работу проактивно, как опытный сотрудник-человек. Этот сдвиг уже меняет поведение компаний. Новое поколение стартапов намеренно избегает большого количества сотрудников, предпочитая вместо этого вкладывать свой капитал в вычислительные мощности. Альтман рассказал, что встречал предпринимателей, пытающихся создавать стартапы с «нулевым количеством сотрудников», полностью полагаясь на запросы к ИИ для написания программного обеспечения, выполнения юридической работы и управления поддержкой клиентов. После Пентагона OpenAI нацелилась на контракт с НАТО — Альтман попросил сотрудников не спорить о политике
04.03.2026 [12:07],
Алексей Разин
Поскольку недавняя поспешная сделка OpenAI с Министерством войны США вызвала протест даже среди сотрудников стартапа, генеральный директор Сэм Альтман (Sam Altman) призвал их не давать оценок действиям Пентагона, добавив, что все операционные решения будут оставаться за властями США. По слухам, OpenAI также пытается заключить контракт с НАТО в целом.
Источник изображения: OpenAI Вчера, как отмечает CNBC, состоялось общее собрание сотрудников OpenAI, на котором обсуждалась тема недавней сделки с Пентагоном. Позиция Альтмана осталась неизменной с прошлой недели — сама компания не может влиять на то, как военные используют её технологии. «Может быть, вы думаете, что удар по Ирану был хорошей идеей, а вторжение в Венесуэлу плохой, но вам не нужно об этом рассуждать», — пояснил глава OpenAI. Компания, по его словам, не способна принимать операционные решения по использованию разработанных ею технологий ИИ американскими военными. Альтман добавил, что Пентагон с уважением относится к техническому опыту OpenAI, прислушивается к рекомендациям по оптимальному использованию ИИ, а также позволит определять границы безопасного применения технологий в тех случаях, когда сочтёт это уместным. При этом военное ведомство США чётко дало понять, что операционные решения останутся за его главой Питом Хегсетом (Pete Hegseth). Считается, что ИИ-решения конкурирующей Anthropic уже использовались Пентагоном не только при операции по захвату президента Венесуэлы в январе, но и при недавних атаках на Иран. Пентагон с прошлого года использует решения OpenAI в несекретных сферах своей деятельности, сумма профильного контракта составила $200 млн. Теперь профильные технологии смогут применяться и в секретных видах активности. «Я верю, что у нас будут лучшие ИИ-модели, которые вдохновят правительство работать с нами, даже если наши ограничения в сфере безопасности будут их раздражать. Но будет как минимум ещё одно действующее лицо, которым, я полагаю, станет xAI, которое фактически скажет: "Мы сделаем всё, что вы захотите"», — заявил Сэм Альтман. Агентство Reuters сообщило со ссылкой на The Wall Street Journal, что OpenAI рассматривает возможность заключения контракта с НАТО на использование технологий ИИ данной компании в несекретных системах. Альтман также заявил об этом на общем собрании персонала OpenAI. Учитывая главенствующую роль американского военного комплекса в функционировании альянса, в подобных намерениях стартапа нет ничего удивительного. Пентагон настаивает, что считает возможным использование ИИ в любых законных целях. Anthropic, а затем и OpenAI считают необходимым исключить использование ИИ для массовой слежки за гражданами США и управления системами вооружений, которые автоматически выбирают и уничтожают цели. OpenAI добивается того, чтобы её ИИ-системы не использовались АНБ и другими разведывательными структурами США, а в военной сфере применение ИИ ограничивалось только облачной инфраструктурой ведомства, а не конечными устройствами, управляющими оружием. Само заключение сделки с Пентагоном Альтман назвал крайне трудным, но правильным решением, которое будет иметь негативные последствия для имиджа OpenAI в краткосрочной перспективе. Чтобы стать умным, человеку нужно 20 лет и тонны еды: Альтман сравнил энергозатраты ИИ и человека
23.02.2026 [11:05],
Анжелла Марина
Спор о том, кто потребляет больше энергии — нейросеть или человеческий мозг, получил неожиданное продолжение. Сэм Альтман (Sam Altman) заявил, что корректное сравнение должно учитывать не только работу мозга, но и тысячелетия эволюции, а также все калории, потреблённые человеком до момента обретения интеллектуальной зрелости.
Источник изображения: OpenAI Глава OpenAI выступил на мероприятии, организованном изданием The Indian Express, с неоднозначным заявлением относительно энергетической эффективности искусственного интеллекта. В ходе часовой сессии вопросов и ответов, как сообщает Tom's Hardware, Альтман ответил на критику высокого энергопотребления нейросетями. Он выразил мнение о несправедливости прямых сравнений между энергией, затрачиваемой ИИ-моделями на генерацию ответов, и затратами человеческого мозга на мыслительный процесс. По словам предпринимателя, подобные оценки игнорируют огромный массив предварительных вложений в развитие человеческого интеллекта. Альтман аргументировал свою позицию тем, что становление разумного человека требует около 20 лет жизни и потребления всей сопутствующей пищи за этот период. «Люди говорят о том, сколько энергии требуется для обучения модели ИИ… Но и для обучения человека требуется много энергии. На это уходит около 20 лет жизни и вся еда, которую вы съедите за это время, прежде чем станете умным», — написал Альтман в X. Только после прохождения этого длительного этапа биологического обслуживания человек становится способным к сложной интеллектуальной деятельности, говорит Альтман. Дополнительно он предложил включить в этот расчёт эволюционный путь ста миллиардов людей, которые боролись за выживание и накапливали научные знания. Если суммировать все эти биологические и исторические энергозатраты, то современные системы искусственного интеллекта уже могут считаться сопоставимыми или даже более эффективными в плане расходования ресурсов, подытожил он. Эта логика вызвала скептицизм у ряда наблюдателей и экспертов отрасли. Критики указывают на то, что технологии OpenAI не возникли в вакууме и сами являются продуктом человеческого разума, который опирался на те же эволюционные достижения и исторические прорывы, например, касающиеся создания первых компьютеров. Некоторые комментаторы вообще усмотрели в словах Альтмана признаки дегуманизации, так как он свёл процесс детства, взросления и обучения исключительно к утилитарным энергетическим показателям. Несмотря на спорную риторику, в рамках того же выступления Альтман подчеркнул важность перехода к устойчивым источникам энергии для того, чтобы крупные технологические игроки перестали конкурировать с населением за ограниченные ресурсы. «Отмывание через ИИ»: Сэм Альтман обвинил бизнес в использовании ИИ как предлога для увольнений
20.02.2026 [12:55],
Алексей Разин
Как любой вариант автоматизации труда, внедрение систем генеративного искусственного интеллекта способно приводить к сокращению части сотрудников. Но генеральный директор OpenAI Сэм Альтман (Sam Altman) утверждает, что некоторые работодатели совершенно необоснованно используют данный предлог для увольнения персонала.
Источник изображения: OpenAI По его словам, существует некоторая реальная статистика замещения ряда рабочих мест искусственным интеллектом, но ряд компаний просто прикрывает данным фактором необходимость сокращения численности персонала по другим причинам. Альтман назвал данное явление «отмыванием через ИИ» (AI washing), выступая в Индии на саммите, посвящённом искусственному интеллекту. В этой сфере всё достаточно туманно, что даёт некоторым недобросовестным компаниям возможность оправдать сокращение штата мнимым эффектом от внедрения ИИ. Недавно опубликованные результаты опроса NBER показали, что около 90 % представителей бизнеса в США, Германии, Великобритании и Австралии не видят никакой выгоды от внедрения ИИ в своей деятельности. Глава конкурирующей с OpenAI компании Anthropic Дарио Амодеи (Dario Amodei) заявил, что ИИ теоретически способен снизить потребность в офисных вакансиях начального уровня на 50 %. Компания Klarna, например, к 2030 году собирается сократить свой штат из 3000 человек примерно на треть именно благодаря внедрению ИИ. По мнению Альтмана, ИИ заменит много рабочих мест, но при этом создаст новые, которые будут связаны с его использованием. «Мы найдём новые виды вакансий, как и было с каждой технологической революцией. Но я считаю, что реальное влияние ИИ на рынок труда в ближайшие несколько лет станет ощутимым», — пояснил глава OpenAI. Многочисленные исследования рынка труда гласят, что с момента выхода ChatGPT в ноябре 2022 года за прошедшее время он слабо подвергся воздействию ИИ. Нет таких критериев, которые могли бы сейчас продемонстрировать заметное влияние ИИ на макроэкономическую ситуацию. Многие руководители бизнеса просто прикрывают собственные неудачи влиянием ИИ, допуская сокращение персонала под этим предлогом. Ведущий экономист Apollo Global Management Роберт Солоу (Robert Solow) считает, что как и в случае с ранними этапами внедрения персональных компьютеров реальное влияние ИИ на производительность труда и доходы компаний будет отложенным во времени. Более того, в определённый момент будет наблюдаться просадка по этим показателям, но затем всё сменится стремительным ростом, напоминая по форме кривой букву «J». Начальные карьерные позиции действительно пострадают от внедрения ИИ, но опытным специалистам оно не только не навредит, но и в ряде случаев пойдёт им на пользу. Глава OpenAI Сэм Альтман признал, что китайские ИИ-компании растут «удивительно быстро»
19.02.2026 [14:40],
Алексей Разин
Амбициозные планы по развитию собственной вычислительной инфраструктуры и созданию передовых ИИ-моделей не мешают руководству OpenAI замечать успехи конкурентов. Сэм Альтман (Sam Altman) на этой неделе отметил, что китайские технологические компании развиваются «удивительно быстро».
Источник изображения: OpenAI Данные комментарии прозвучали из уст генерального директора OpenAI в интервью ресурсу CNBC. Он назвал заслуживающим внимания тот прогресс, который китайские компании демонстрируют по широкому спектру технологий. Скорость, с которой китайские разработчики продвигаются в различных секторах технологического рынка, удивительно высока, по словам Альтмана. В каких-то сферах китайские компании приблизились к переднему краю технологического прогресса, по его мнению, а в каких-то они заметно отстают от зарубежных конкурентов. В минувшую среду президент Microsoft Брэд Смит (Brad Smith) заявил CNBC, что американским компаниям технологического сектора следует беспокоиться из-за субсидий, которыми китайское правительство снабжает местные компании, участвующие в гонке искусственного интеллекта. Альтман в своём интервью CNBC коснулся и другой важной темы. Монетизировать свои услуги OpenAI постарается благодаря внедрению рекламы в чат-боте, но соответствующие планы пока находятся на ранней стадии обсуждения. «Я думаю, нам ещё предстоит проделать определённую работу, чтобы понять, в каком именно формате реклама будет работать наилучшим образом», — пояснил Альтман. Он тут же добавил, что ему лично нравится вариант рекламы, применяемой на страницах социальной сети Instagram✴✴, поскольку он позволяет пользователю узнавать что-то новое, о чём в иных обстоятельствах он даже не имел бы ни малейшего представления. Примерно в этом направлении OpenAI и будет двигаться, внедряя рекламу в ChatGPT. Сперва реклама появится в чат-боте для американских пользователей, а потом и за пределами страны. Даже если инвесторы всё чаще задают вопросы о сроках окупаемости своих вложений в OpenAI, сама компания сейчас отдаёт приоритет скорости развития бизнеса. «Мы сейчас растём с предельно высокой скоростью. Я думаю, что покуда мы сохраняем разумные экономические показатели подразделений, мы должны фокусироваться на всё более быстром росте, а прибыльными мы станем в тот момент, когда сочтём это уместным», — многозначительно пояснил Альтман. «Смешно, но нечестно»: Сэм Альтман раскритиковал кампанию Anthropic против рекламы в ChatGPT
05.02.2026 [07:12],
Анжелла Марина
Глава OpenAI Сэм Альтман (Sam Altman) подверг критике ироничные ролики конкурирующей Anthropic с критикой внедрения рекламы в ИИ-ботов. В своей публикации в X он назвал их смешными, но «явно нечестными». По мнению Альтмана, создатели Claude используют тактику двусмысленности и вводят пользователей в заблуждение относительно того, как реклама влияет на работу ботов. Он подчеркнул, что OpenAI никогда не станет интегрировать коммерческие объявления в диалоги подобным образом.
Источник изображения: The Tonight Show Как пишет The Verge, рекламные ролики Anthropic, основанной бывшими руководителями исследований OpenAI, в ироничной форме обыгрывают тему внедрения рекламы в диалоги с искусственным интеллектом. Намекая, но не указывая прямо на OpenAI, кампания противопоставляет себя недавнему заявлению о начале тестирования рекламы в ChatGPT. Anthropic подчёркивает, что в её ассистенте Claude не будет спонсируемых ссылок рядом с ответами, а сами ответы никак не будут связаны с предложениями рекламодателей. В ответ представители OpenAI пояснили действующие правила своей платформы. Рекламные блоки будут появляться исключительно у пользователей бесплатных версий, иметь чёткую маркировку и отделены от диалогов. Альтман подчеркнул, что ответы алгоритмов оптимизируются только ради пользы для человека и не зависят от пожеланий рекламодателей. При этом владельцы платных подписок полностью избавлены от просмотра объявлений. Альтман использовал этот инцидент для более широкой атаки на бизнес-модель оппонентов. Он обвинил Anthropic в создании дорогого продукта для состоятельной аудитории, тогда как миссия его компании заключается в предоставлении доступа к ИИ миллиардам людей. Для сравнения он привёл статистику, согласно которой бесплатной версией ChatGPT в одном только Техасе пользуется больше людей, чем сервисом Claude во всех Соединённых Штатах вместе взятых. В заключение он указал на авторитарный характер политики Anthropic, заявив, что конкуренты стремятся контролировать действия пользователей и диктовать правила применения ИИ. Также он упомянул, что Anthropic блокирует доступ к своим инструментам для некоторых компаний, включая OpenAI, и в противовес этому напомнил о собственном рекламном ролике, посвящённом разработчикам, сообщив о 500 тысячах загрузок нового инструмента Codex всего за несколько дней. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |