Сегодня 11 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

OpenAI объявила о старте обучения ИИ-модели следующего уровня — она заменит GPT-4

OpenAI объявила о начале обучение новой флагманской ИИ-модели, которая придёт на смену GPT-4, пишет The New York Times. Компания сообщила в своём блоге, что новая модель получит «следующий уровень возможностей» на пути к созданию сильного искусственного интеллекта (AGI), способного обладать возможностями человеческого мозга. Новая модель расширит возможности чат-ботов, цифровых помощников, поисковых систем, генераторов изображений и других приложений на базе ИИ.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

Вышедшая в марте 2023 года ИИ-модель GPT-4 позволяет чат-ботам и другим приложениям отвечать на вопросы, анализировать данные, а также способна работать не только с текстом, но и с изображениями. В этом месяце OpenAI представила её обновлённую версию GPT-4o, которая гораздо умнее предыдущих и к тому же является мультимодальной. ИИ-модели, подобные GPT-4o, обучаются навыкам, анализируя огромные объёмы цифровых данных, включая звуки, фотографии, видео, статьи в «Википедии», книги и новости. В декабре прошлого года газета The New York Times подала в суд на OpenAI и Microsoft, обвинив их в нарушении авторских прав на новостной контент, выразившемся в несанкционированном использовании её материалов для обучения ИИ-моделей.

Обучение ИИ-модели может занять месяцы или даже годы. После завершения процесса обучения компании обычно тратят ещё несколько месяцев на тестирование ИИ-модели и её настройку для публичного использования.

OpenAI также объявила о создании комитета по контролю безопасности ИИ для изучения рисков, связанных с созданием ИИ-технологий. «Хотя мы гордимся тем, что создаём и выпускаем модели, которые являются ведущими в отрасли как по возможностям, так и по безопасности, мы приветствуем активную дискуссию в этот важный момент», — заявила компания. По словам OpenAI, пока она будет обучать свою новую модель, комитет будет работать над совершенствованием политики и вопросов защиты ИИ-технологий.

Подготовка к GPT-5: руководство OpenAI сформирует комитет по контролю безопасности ИИ

Уходящий месяц характеризовался для стартапа OpenAI уходом нескольких высокопоставленных руководителей, которые высказывались в пользу усиления контроля за распространением технологий искусственного интеллекта. Попутно было расформировано специальное подразделение, но его функции во многом перейдут к создаваемому наблюдательному комитету в совете директоров.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В состав этого комитета, как сообщает Bloomberg, войдут как члены совета директоров, так и руководители компании. Функции комитета будут сведены к оценке безопасности разрабатываемых компанией больших языковых моделей. На первичную оценку существующих правил безопасности комитету будут отведены 90 дней. После этого комитет должен будет опубликовать свои рекомендации в этой сфере и предать их огласке. Компания также отметила, что приступила к обучению своей новейшей большой языковой модели. Вероятнее всего, речь о GPT-5.

Напомним, что в составе OpenAI профильное подразделение было вынуждено бороться за ресурсы, а у ведущего научного специалиста Ильи Суцкевера, который покинул штат OpenAI в мае, противоречия относительно методов оценки рисков с действующим руководством возникали ещё прошлой осенью, что и вылилось в попытку отставки основателя компании Сэма Альтмана (Sam Altman). Частично функции контроля за влиянием искусственного интеллекта на общество были возложены на исследовательское подразделение OpenAI, которое после ухода Суцкевера возглавил Джон Шульман (John Schulman), также стоявший у истоков стартапа.

В состав наблюдательного комитета войдут три члена совета директоров: председатель Брет Тейлор (Bret Taylor), генеральный директор Адам Д’Анджело (Adam D’Angelo) и бывшая руководительница Sony Entertainment Николь Селигман (Nicole Seligman). Ещё шестеро членов комитета будут сформированы из руководителей, включая Альтмана и Шульмана. Будут привлекаться и сторонние советники, не относящиеся к компании. Двое из них ранее являлись высокопоставленными чиновниками в США.

OpenAI больше не будет принуждать экс-сотрудников к молчанию ради акций

OpenAI отказалась от практики, при которой вынуждала увольняющихся сотрудников выбирать между подписанием бессрочного соглашения о недискредитации компании и сохранением акций, переданных этим сотрудникам в качестве заработной платы. OpenAI подготовила соответствующую записку, которую разослала нынешним и бывшим сотрудникам.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

В направленном бывшим работникам документе говорится, что на момент ухода из OpenAI «вас, возможно, проинформировали, о необходимости подписать соглашение об освобождении от обязательств, которое включало положение о недискредитации, чтобы сохранить принадлежащие вам акции. <..> Независимо от того, подписали ли вы соглашение, настоящим уведомляем вас, что OpenAI не аннулировала и не аннулирует какие-либо переданные акции».

Компания отметила, что не намеревается обеспечивать исполнения каких-либо иных пунктов соглашения, не допускающих её дискредитации, если бывший сотрудник подписал соответствующий документ. «Как мы рассказали сотрудникам, мы внесём важные изменения в процедуру увольнения», — заявил CNBC представитель OpenAI.

«Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным», — говорится в заявлении компании. OpenAI подчеркнула, что о нововведении будут также извещены её бывшие сотрудники.

OpenAI продолжает терять сотрудников — они считают, что ИИ может быть опасен для человечества

Бывшая сотрудница OpenAI Гретхен Крюгер (Gretchen Krueger) сообщила, что 14 мая ушла из компании в связи с опасениями, что разрабатываемый OpenAI искусственный интеллект может представлять угрозу для человечества. Это «непростое решение» она приняла незадолго до того, как о своём уходе объявили Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike), которые руководили ныне расформированным подразделением Superalignment.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

«Я подала в отставку за несколько часов до того, как услышала новости об [Илье Суцквере] и [Яне Лейке], и приняла своё решение независимо. Их опасения я разделяю. У меня также есть другие и частично совпадающие опасения», — написала Крюгер в соцсети X. По её словам, компании необходимо проделать работу по улучшению «процессов принятия решений; подотчётности; прозрачности; документации; обеспечения соблюдения политик; осторожности в применении наших собственных технологий; и сокращения воздействия на неравенство, права и окружающую среду».

Крюгер, которая работала специалистом по разработке политик исследования, заявила, что эти опасения разделяет общественность — они «могут влиять на то, как и кем могут определяться аспекты будущего», и эти опасения не следует «неправильно воспринимать как узкие, спекулятивные или не имеющие отношения» к созданию и работе ИИ. «Один из способов, которым технологические компании могут обезоружить тех, кто пытается привлечь их к ответственности, — посеять раскол между теми, кто выражает обеспокоенность или бросает вызов их доминированию. Я крайне озабочена тем, чтобы это предотвратить», — отметила Крюгер.

Покинувшие на минувшей неделе OpenAI главный научный сотрудник и соучредитель компании Илья Суцкевер и исполнительный директор Ян Лейке возглавляли подразделение Superalignment — оно разрабатывало меры безопасности, предотвращающие выход сильного ИИ (AGI) из-под контроля. По словам Лейке, компания ставила «блестящие продукты» выше мер безопасности: отделу Superalignment приходилось бороться за ресурсы, а выполнять свою работу ему становилось всё труднее.

Тёмная сторона OpenAI: руководство угрожало бывшим работникам потерей акций, если они будут критиковать компанию

Желающих покинуть компанию бывших сотрудников OpenAI вынуждали в кратчайшие сроки подписывать обязательство никогда не выступать с критикой организации, сообщило неделю назад издание Vox. В случае отказа сделать это бывшим сотрудникам грозила потеря акций OpenAI. В руководстве компании попытались откреститься от этой практики, но документы свидетельствуют об обратном. К настоящему моменту OpenAI, по её утверждению, всё-таки пересмотрела это правило.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Публикация недельной давности вызвала среди действующих сотрудников OpenAI бурю эмоций. Как и многие другие стартапы Кремниевой долины, компания часто выплачивает значительную часть зарплаты в виде акционерного капитала — ранее её работники предполагали, что при передаче им акций в порядке трудового договора эти ценные бумаги становятся их собственностью и не подлежат изъятию, так же, как и выплаченная зарплата. На следующий день после выхода статьи гендиректор OpenAI Сэм Альтман (Sam Altman) опубликовал заявление, заверив, что не знал об этом положении вещей, и что в будущем он не допустит такой несправедливости. Директор по стратегии OpenAI Джейсон Квон (Jason Kwon) дополнительно опубликовал внутреннее сообщение, адресованное сотрудникам компании — по его словам, данное положение действовало с 2019 года, но руководству стало известно о нём около месяца назад, и всю ответственность за инцидент он взял на себя.

Но существуют документы за подписями как Квона, так и самого Альтмана, опровергающие, что руководство OpenAI пребывало в неведении по данному вопросу. В частности, есть письмо за подписью Квона и вице-президента по кадрам Дианой Юн (Diane Yoon), которая и сама недавно покинула OpenAI, гласящее: «Если у вас есть какие-либо принадлежащие вам паи, <..> вы должны подписать соглашение об отказе от претензий в течение 60 дней, чтобы сохранить такие паи». Существует также жёсткое соглашение о неразглашении, подписанное только для «согласования» уже переданного бывшему сотруднику акционерного капитала операционным директором Брэдом Лайткэпом (Brad Lightcap).

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Учредительные документы управляющей акциями OpenAI холдинговой компании содержат множество фрагментов с формулировками, согласно которым она имеет практически неограниченные полномочия по изъятию акций у бывших сотрудников или блокированию их продажи — это подтверждают документы, переданные Vox бывшими сотрудниками OpenAI. Эти учредительные документы были подписаны 10 апреля 2023 года лично Сэмом Альтманом — генеральным директором OpenAI. В ответ на запрос издания о том, могли ли эти положения попасть в учредительные документы без ведома Альтмана, и если да то, каким образом, в компании прямого ответа не дали. Но господин Квон заявил: «Мы сожалеем о страданиях, которые это причинило прекрасным людям, усердно работавшим на нас. Мы работаем над тем, чтобы исправить это как можно скорее. Мы будем стараться ещё сильнее, чтобы стать лучше».

Бывшие сотрудники OpenAI предоставили Vox большой объём документов, в которых прослеживается закономерность — их действительно вынуждали подписывать крайне жёсткое соглашение о недискредитации и неразглашении под угрозой аннулирования их акционерного капитала. В двух случаях срок рассмотрения направленных OpenAI длинных и сложных документов об уходе истекал через семь дней, то есть у бывших сотрудников была неделя, чтобы решить, примут ли они навязываемые им правила игры или рискнут потерять миллионы долларов. Когда такие бывшие сотрудники просили дополнительное время для обращения за юридической помощью, их ждало серьёзное противодействие со стороны компании. «Общее соглашение о расторжении и освобождении от обязательств (General Release and Separation Agreement) требует вашей подписи в течение семи дней. Хотим убедиться, что вы понимаете: если вы не подпишете договор, это может повлиять на ваш капитал. Это действительно для всех, и мы просто делаем всё по регламенту», — предупредил по электронной почте представитель OpenAI бывшего сотрудника, который попросил две недели на изучение документа.

Журналисты Vox обратились к экспертам в области трудового права с просьбой оценить законность и соответствие отраслевой практике таких положений — один из адвокатов охарактеризовал угрозу изъятия уже переданного капитала «вопиющей и необычной». Некий увольняющийся сотрудник решил поупорствовать, и в отношении него руководство OpenAI применило альтернативные «средства юридического возмездия». Этот сотрудник отказался подписать соглашение в первой редакции и обратился за помощью к юристу — тогда компания изменила тактику: она пригрозила не аннулировать его долю, а запретить её продажу. «Если у вас есть какие-либо паи, и вы не подписываете документов об увольнении, важно понимать, что, помимо прочего, вы не получите права участвовать в будущих тендерных предложениях и других мероприятиях по ликвидности, которые мы можем спонсировать или содействовать им как частная компания», — заявили в OpenAI. То есть в случае отказа подписывать соглашение бывший сотрудник мог лишиться возможность продать свой акционерный капитал.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Это не пустая угроза на грани законности, предполагающая фактическое изъятие частной собственности у бывших сотрудников на усмотрение компании. Здесь в игру вступают особенности статуса OpenAI как частной компании. В публичной компании вроде Google акционерный капитал представляет собой просто ценные бумаги. Сотрудники получают зарплату частично в виде денежных средств и частично в виде акций Google, которые они могут держать или свободно продавать на фондовом рынке как любой акционер. В закрытых частных компаниях вроде OpenAI сотрудники так же получают зарплату частично в виде акций или чаще опционов за их покупку по низким ценам, но затем им приходится ожидать, когда появится возможность продать эти акции — и такая возможность может не появиться вообще. Крупные частные компании иногда объявляют «тендерные предложения», на которых действующие и бывшие сотрудники могут продать свой акционерный капитал. Их проводит и OpenAI, но их порядок держится в строжайшем секрете. Угрожая бывшему сотруднику лишением доступа к тендерным предложениям, компания фактически ставит миллионный капитал в зависимость от факта подписания сотрудником соглашения об уходе, при этом честно заявляя, что своей собственности он не лишается.

Бывшие сотрудники OpenAI, с которыми удалось побеседовать Vox, выражали беспокойство, что компания могла давать любые публичные заявления, но в реальности её учредительные документы предусматривают множество рычагов воздействия на работников, и отказ от какого-либо одного варианта не вселяет надежды. В них, в частности, говорится, что «по единоличному и абсолютному усмотрению компании» пакет акций любого увольняемого сотрудника может быть сокращён до нуля. Существует и положение, в котором говорится, что компания оставляет за собой полное право определять, кому из сотрудников разрешается участвовать в тендерных предложениях для продажи своей доли.

Первоначальное заявление Альтмана подверглось критике — есть мнение, что на практике он сделал недостаточно для того, чтобы исправить ситуацию для бывших сотрудников. Но компания направила в Vox заявление по электронной почте, заверив, что соответствующие положения документов прекратят действовать.

«Как мы рассказали сегодня сотрудникам, мы вносим важные изменения в процесс увольнения. Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным. Мы передадим это сообщение бывшим сотрудникам. Сожалеем, что меняем эти формулировки только теперь; это не отражает наших ценностей или [образа] компании, которой мы хотим быть», — заявили в OpenAI.

Гендиректор OpenAI: современный ИИ будет выглядеть неловко на фоне GPT-5

Гендиректор OpenAI Сэм Альтман (Sam Altman) в недавнем интервью намекнул, что модель искусственного интеллекта нового поколения GPT-5 настолько превзойдёт существующие решения, что GPT-4 будет выглядеть «слегка неловко».

 Источник изображения: wikipedia.org

Источник изображения: wikipedia.org

OpenAI пока не сообщила, когда выпустит очередную модель ИИ серии GPT, но когда это произойдёт, все предыдущие окажутся в крайне невыгодном положении. С момента выпуска популярного ныне чат-бота ChatGPT разработчик оказался в авангарде отрасли ИИ. С тех пор компания выпустила множество других продуктов с ИИ, последним из которых стала модель GPT-4o, которая в сравнении с предшественницами намного лучше справляется с написанием программного кода, а также демонстрирует способность рассуждать, одинаково хорошо воспринимая текст, изображения и звук. Сегодня это впечатляет, но, подчёркивает разработчик, это ничто в сравнении с GPT-5.

В недавнем интервью Сэм Альтман коснулся перспективных разработок в области ИИ, заявив, что новая модель может быть похожа на «виртуальный мозг», демонстрируя «более глубокие „мыслительные“ способности». На её фоне GPT-4 будет выглядеть «слегка неловко», поскольку новая нейросеть значительно более мощная, функциональная и «разумная». Альтман также уверен, что GPT-5 станет значительным шагом на пути к появлению сильного ИИ (AGI), соответствующего или превосходящего человеческие возможности в широком круге задач.

OpenAI за $250 млн купила доступ к материалам The Wall Street Journal, New York Post и The Daily Telegraph для обучения ИИ

OpenAI заключила лицензионное соглашение с News Corp — медиакомпанией, в которую входят такие издания как The Wall Street Journal, New York Post и The Daily Telegraph. Сделка может обойтись разработчику искусственного интеллекта в $250 млн за ближайшие пять лет «в виде денежных средств и кредитов за использование технологий OpenAI».

 Источник изображения: openai.com

Источник изображения: openai.com

В рамках многолетнего соглашения OpenAI получит доступ к архивным и актуальным публикациям изданий News Corp — эти материалы будут использоваться для обучения ИИ и ответов на вопросы пользователей. Ранее OpenAI заключила аналогичные соглашения с другими крупными изданиями: Associated Press, Financial Times, с издателем Dotdash Meredith (владеет журналом People), с концерном Axel Springer (владеет Politico).

Некоторые СМИ, однако, подали на OpenAI в суд, например, New York Times, New York Daily News, Chicago Tribune и The Intercept — они обвинили компанию и его партнёра Microsoft в нарушении авторских прав при обучении моделей ИИ на их материалах.

В рамках нового лицензионного соглашения с News Corp компания OpenAI получит доступ и к таким изданиям как Barron’s, MarketWatch, Investor’s Business Daily, FN, Sunday Times, The Sun и The Australian. News Corp также поделится с новым партнёром «журналистским опытом» для «обеспечения высоких стандартов журналистики».

ChatGPT побил рекорд посещаемости: более 100 млн посетителей за два дня после запуска GPT-4o

За два дня после анонса OpenAI новой модели искусственного интеллекта GPT-4o сайт ChatGPT посетили более 100 млн человек, гласит статистика Similarweb. Прогноз по итогам первых 17 дней мая гласит, что за месяц число посетителей может превысить 2 млрд пользователей — предыдущий рекорд был поставлен в мае 2023 года и составил 1,8 млрд посетителей.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

«За первые 17 дней мая средний трафик составил 17,8 млн посетителей в день. Если всё будет продолжаться на том же уровне, общее число посещений за месяц составит 2,3 млрд. Предыдущий месячный рекорд составил 1,8 млрд посетителей в мае 2023 года. Даже если в последние недели месяца трафик спадёт, вполне вероятно, что число посетителей превысит 2 млрд», — сообщает Similarweb.

 Источник изображения: similarweb.com

Источник изображения: similarweb.com

Новая модель GPT-4o обладает «интеллектом уровня GPT-4», но она работает быстрее и обладает улучшенными возможностями в области текста, изображений и звука, отметила технический директор OpenAI Мира Мурати (Mira Murati). «Это действительно продвигает парадигму совместной работы в будущее, где это взаимодействие становится гораздо естественнее и намного проще», — добавила госпожа Мурати. Работа с GPT-4o доступна всем пользователям чат-бота ChatGPT, включая тех, кто за него не платит.

ИИ добрался до буфера обмена Windows 11

Microsoft добавила в пакет утилит PowerToys для Windows 11 новую функцию Advanced Paste, которая позволяет «на лету» конвертировать содержимое буфера обмена при помощи искусственного интеллекта. Она призвана упростить пользователям некоторые рабочие процессы.

 Источник изображения: Windows / unsplash.com

Источник изображения: Windows / unsplash.com

Функция Advanced Paste появилась в версии PowerToys 0.81 — после активации она вызывается сочетанием клавиш Win + Shift + V. При этом появляется контекстное окно, в котором предлагаются параметры форматирования содержимого буфера обмена при вставке: например, это может быть текст без форматирования, текст с разметкой или формат JSON.

 Источник изображения: microsoft.com

Источник изображения: microsoft.com

В настройках Advanced Paste есть также опция «Вставка с ИИ» (Paste with AI), которая открывает доступ к ресурсам OpenAI. В этом случае можно также выбрать составление сводки текста, его перевод, генерацию кода, переписывание текста в деловом стиле, «нотацию Йоды» для программистов или отправку иного запроса к ИИ. Правда, для доступа к набору функций ИИ в настройках PowerToys потребуется указать ключ OpenAI API и закупить кредиты для учётной записи в экосистеме OpenAI.

Скарлетт Йоханссон запретила использовать свой голос для ChatGPT — OpenAI не послушалась и пытается договориться

Скарлетт Йоханссон (Scarlett Johansson) заявила, что OpenAI обращалась к ней с просьбой стать голосом ChatGPT, а после отказа компания продолжила работать в этом направлении и запустила систему с голосом, очень похожим на её. В этой связи, сообщила актриса, она была «вынуждена нанять адвоката»; она также направила в OpenAI два письма с просьбой разъяснить ситуацию. В OpenAI рассказали, что пытаются договориться с актрисой.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

«В сентябре прошлого года мне поступило предложение от Сэма Альтмана (Sam Altman), который хотел нанять меня для озвучения актуальной системы ChatGPT 4.0», — рассказала Йоханссон. По её словам, Альтман связался с её агентом всего за два дня до того, как OpenAI дополнила ChatGPT голосовыми технологиями — тогда актриса призвала компанию пересмотреть своё решение. Альтман признавался, что восхищается работой Йоханссон. Он называл фильм «Она», в котором актриса озвучила голосового помощника с искусственным интеллектом, своей любимой картиной. А на минувшей неделе, когда было представлено очередное обновление ChatGPT, гендиректор OpenAI разместил в соцсети X публикацию с одним лишь словом «Она».

Вместе с тем, он отверг связь между голосом Sky в ChatGPT и голосом актрисы. «Голос Sky не принадлежит Скарлетт Йоханссон, и никогда не существовало задумки, чтобы он напоминал её голос. Прежде чем обращаться к мисс Йоханссон, мы выбрали актрису для озвучения Sky. Из уважения к мисс Йоханссон мы приостановили работу голоса Sky в наших продуктах. Жаль, что у нас не получилось пообщаться с мисс Йоханссон лучше», — заявил Альтман ресурсу The Verge. Вариант голоса Sky стал доступен в ChatGPT с сентября прошлого года, но его сходство с голосом Скарлетт Йоханссон стало очевидным лишь с последним обновлениям чат-бота: по словам актрисы, она была «шокирована, разгневана и не поверила тому», насколько «устрашающе похожим» показался голос Sky ей самой.

О намерении подать на OpenAI в суд она пока не говорила — пока актриса только хочет объяснений. Она говорит, что ищет «решения в прозрачной форме» и просит компанию «подробно описать точный процесс, с помощью которого они создали» голос Sky. В OpenAI тоже нацелены на мирное разрешение инцидента. Отключив вариант ассистента, напоминающий голос актрисы, компания связалась с представителями актрисы. «Мы ведём обсуждение с командой [Скарлетт Йоханссон] потому что, кажется, возникли некоторые разночтения. Мы хотим серьёзно отнестись к отзывам и выслушать опасения», — заявила руководитель отдела моделирования поведения OpenAI Джоан Джанг (Joanne Jang).

ChatGPT показал сильнейший в истории скачок выручки у мобильного приложения после запуска GPT-4o

Запуск OpenAI флагманской модели GPT-4o привёл к самому большому за всю историю росту доходов компании от мобильных устройств, хотя сама модель находится в свободном доступе в Сети. GPT-4o умеет обрабатывать текст, речь и видео, и эмоционально реагирует голосом в реальном времени. Согласно данным аналитической компании Appfigures, это нововведение подталкивает всё больше пользователей к переходу на платную подписку ChatGPT Plus.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Хотя OpenAI заявила, что генеративная модель GPT-4o будет доступна пользователям бесплатно, это обещание не распространяется на пользователей приложения ChatGPT на мобильных устройствах. Для использования последней версии чат-бота им придётся оформить ежемесячную подписку ChatGPT Plus за $19,99.

Это решение OpenAI породило повышенный спрос на подписку среди мобильных пользователей и привело к самому большому за всю историю росту доходов OpenAI от мобильных устройств. По информации Appfigures, чистый доход от мобильного приложения ChatGPT увеличился на 22 % в день запуска GPT-4o и продолжил рост в последующие дни. Чистый доход от приложения на следующий день после запуска GPT-4o составил $900 000, что почти вдвое превышает средний дневной доход в $491 000. Цифры дохода указаны после уплаты комиссионных Apple и Google.

 Источник изображения: Appfigures

Источник изображения: Appfigures

На прошлой неделе, с понедельника по пятницу, мобильное приложение ChatGPT заработало $4,2 млн выручки в App Store и Google Play. Это самый большой скачок доходов, который когда-либо демонстрировало приложение. Резкое увеличение выручки показывает наличие реального потребительского спроса на новейшие ИИ-технологии, даже если это дороже, чем подписка на Netflix. По мнению экспертов, эта тенденция в дальнейшем сохранится или даже усилится.

OpenAI отключила в ChatGPT голос Sky из-за удивительного сходства с голосом Скарлетт Йоханссон

Голос Sky стал доступен в ChatGPT сразу после запуска голосовых функций чат-бота в сентябре 2023 года наряду с ещё четырьмя вариантами озвучения: Breeze, Cove, Ember и Juniper. Особую значимость эти функции приобрели после презентации новой модели ChatGPT-4o, сделавшей голосового помощника более выразительным. После многочисленных сообщений о сходстве тембра и интонаций Sky с голосом Скарлетт Йоханссон, разработчик ChatGPT компания OpenAI «поставила голос Sky на паузу».

 Источник изображения: kinopoisk.ru

Источник изображения: kinopoisk.ru

«Мы считаем, что голоса ИИ не должны намеренно имитировать характерный голос знаменитости — голос Sky не является имитацией Скарлетт Йоханссон, а принадлежит другой профессиональной актрисе, использующей свой собственный естественный голос», — заявил сегодня утром представитель OpenAI.

По утверждению OpenAI, подбор голосов проводился в течение пяти месяцев с участием профессиональных актёров озвучения, кастинг-директоров и отраслевых экспертов. Из соображений конфиденциальности имя актрисы, чей голос так похож на голос Йоханссон, компания не раскрывает.

Технический директор OpenAI Мира Мурати опровергла утверждение, что имитация голоса Йоханссон была преднамеренной. Однако, судя по сообщению генерального директора OpenAI Сэма Альтмана (Sam Altman) в социальной сети X из одного слова: «Она», похоже, что он был в курсе ситуации. Альтман ранее говорил, что одним из его любимых фильмов является «Она», в котором Скарлетт Йоханссон озвучивает виртуальную помощницу.

 Источник изображения: Warner Bros

Источник изображения: Warner Bros

Существует вероятность, что для Sky сознательно подбирался голос озвучения, максимально схожий с голосом Скарлетт Йоханссон. Сама актриса сложившуюся ситуация не комментирует. Перспектива судебных разбирательств представляется весьма туманной — OpenAI достаточно будет предоставить суду персональные данные актрисы, озвучившей Sky.

Новые возможности голосового помощника ChatGPT будут запущены «в ближайшие недели» в качестве ограниченной альфа-версии для подписчиков ChatGPT Plus. OpenAI планирует со временем ввести дополнительные голоса, чтобы «лучше соответствовать разнообразным интересам и предпочтениям пользователей».

Apple и OpenAI объявят о сотрудничестве на конференции WWDC в июне

Ежегодная конференция для разработчиков Apple WWDC в этом году начнётся 10 июня. Ожидается, что в рамках этого мероприятия производитель iPhone сделает несколько важных анонсов касательно того, какие функции на основе искусственного интеллекта ждут пользователей устройств компании. По сообщениям сетевых источников, Apple также официально объявит о сотрудничестве с OpenAI, разработчиком популярного ИИ-бота ChatGPT.

 Источник изображения: Koshiro K / Shutterstock

Источник изображения: Koshiro K / Shutterstock

В сообщении сказано, что Apple намерена реализовывать поддержку функций на основе ИИ не только на пользовательских устройствах, но и через облачную инфраструктуру. По данным журналиста издания Bloomberg Марка Гурмана (Mark Gurman), Apple и OpenAI «готовят важное объявление о своём партнёрстве на WWDC». Он также добавил, что в настоящее время OpenAI оценивает мощности доступных ресурсов, чтобы убедиться в том, что компания справится с притоком новых клиентов, который обеспечат владельцы iPhone.

Ранее СМИ стало известно о том, что компании находятся в завершающей стадии переговоров по реализации поддержки ИИ-бота ChatGPT на iOS 18. Похоже, что переговоры прошли успешно. Сообщалось также, что Apple вела переговоры с Google об использовании алгоритма Gemini на iPhone, но компании не достигли договорённости.

Ожидается, что помимо интеграции технологий OpenAI в iOS 18 будут анонсированы и другие ИИ-функции, такие как возможность обобщать сообщения в iMessage с помощью нейросети. Аналогичная функция для браузера Safari будет формировать резюмирующую информацию о просматриваемых веб-страницах.

Руководители OpenAI обещают развивать ИИ ответственно, хотя специалисты в этой сфере уволились

После недавней и неожиданной отставки двух ключевых фигур из отдела ИИ-безопасности OpenAI, руководители компании вынуждены были занять оборонительную позицию, так как к ним появилось много вопросов со стороны общественности в отношении стратегии рисков при разработке искусственного интеллекта.

 Источник изображения: Copilot

Источник изображения: Copilot

Ушедшие руководители — главный научный сотрудник Илья Суцкевер (Ilya Sutskever) и его коллега Ян Лейке (Jan Leike) — были частью суперкоманды OpenAI, отвечающей за разработку ИИ, совместимого с интересами человечества. Их уход, предположительно, был вызван разногласиями с руководством компании по поводу обеспечения глобального приоритета безопасности, чтобы «ИИ не разрушил мир».

Лейке прямо заявил, что давно не согласен с руководством в этих вопросах и что ситуация достигла критической точки. А Суцкевер даже пытался сместить гендиректора Сэма Альтмана (Sam Altman) с поста в прошлом году, хотя позднее выразил сожаление в своих действиях.

После их ухода общественность забила тревогу по поводу приоритетов OpenAI в плане безопасности. В ответ Альтман и президент Грег Брокман (Greg Brockman) опубликовали подробные заявления, объясняющие подход компании.

Они подчеркнули, что OpenAI уже внесла большой вклад в обеспечение безопасного развития ИИ, в частности, призывали к международному регулированию еще до того, как это стало мейнстримом. Альтман также предлагал создать международное агентство для обеспечения разумного тестирования систем ИИ.

Брокман заверил, что OpenAI тщательно анализирует риски на каждом этапе разработки и не планирует публиковать новые системы, пока компания не будет уверена в их безопасности, даже если это задержит выпуск.

Однако ушедшие руководители отдела ИИ-безопасности, похоже, обеспокоены тем, что текущий подход не обеспечивает достаточной защиты. По словам Лейке, эти проблемы очень сложно решать, и он обеспокоен, что компания не движется в правильном направлении в этом вопросе.

Несмотря на заверения руководства, уход ключевых специалистов ставит под сомнение заявления OpenAI о глобальной безопасности ИИ.

Президент OpenAI опубликовал изображение, созданное GPT-4o — оно очень впечатляет

На этой неделе OpenAI представила модель искусственного интеллекта нового поколения GPT-4o. Буква «o» в её названии означает Omni, подразумевая, что она изначально поддерживает несколько форматов ввода — ранее мультимодальность предполагала преобразование всех нетекстовых форматов в текст. Президент и соучредитель OpenAI Грег Брокман (Greg Brockman) впервые опубликовал созданное GPT-4o изображение.

 Источник изображения: twitter.com/gdb

То самое сгенерированное GPT-4o изображение. Источник изображения: twitter.com/gdb

Поддержка текста, изображений и звука в качестве входных данных означает, что модель также способна их генерировать. Приведённая выше картинка — не фотография, а творение GPT-4o. На ней изображён мужчина в футболке с логотипом OpenAI, который пишет на доске. Сверху находится частично стёртая надпись «Перенос между модальностями». Далее следует текст: «Положим, мы напрямую моделируем P (текст, пиксели, звук) посредством одного авторегрессионного трансформера. Каковы за и против?».

Если присмотреться, можно разглядеть некоторые признаки того, что изображение было создано ИИ. Доска висит под неестественным углом, под ней непонятным образом находится ещё одна, рука мужчины имеет странную форму, а освещение неоднородно. Невероятной, вместе с тем, кажется способность ИИ генерировать длинные фрагменты связного текста — с этим с трудом справляется даже DALL-E 3. Генератор изображений GPT-4o широкой публике пока недоступен: пользователи ChatGPT с подключённой моделью нового поколения пока могут генерировать изображения лишь с DALL-E 3. Но президент OpenAI Грег Брокман уверяет, что компания прилагает значительные усилия, чтобы открыть к модели нового поколения полный доступ.


window-new
Soft
Hard
Тренды 🔥
Новая статья: В малом весе: обзор российских мобильных операционных систем 21 мин.
YouTube объявил о закрытии раздела «В тренде», но уже готовит ему замену 42 мин.
Первый геймплей боевика «Земский собор» от создателей «Смуты» не впечатлил игроков 55 мин.
Спутниковый интернет Starlink теперь доступен в 1000 самолётов по всему миру — 100 Мбит/с в небе, бесплатно 2 ч.
Забастовка актёров озвучки игр наконец завершена — участники SAG-AFTRA одобрили новый договор 3 ч.
«Я был пьян, но утечки так и не случилось»: глава издательского отдела Larian рассказал, как чуть не «слил» дату выхода Baldur's Gate 3 5 ч.
Google Gemini научился превращать фото в восьмисекундные видео со звуком, но небесплатно 5 ч.
ЕС открыл новое дело против TikTok за передачу данных европейцев в Китай — ранее соцсеть уже штрафовали за это на €530 млн 5 ч.
Elden Ring Nightreign возглавила рейтинг самых продаваемых игр в США за май — в первой пятёрке оказалось четыре игры от Microsoft 6 ч.
К приложению поддержки Apple подключат ИИ 7 ч.
Razer представила игровую мышь DeathAdder V4 Pro за $170 с оптическим колёсиком и сенсором на 45 000 DPI 2 ч.
Philips выпустила 27-дюймовый игровой монитор Evnia 27M2N3800A с поддержкой 4K@160 Гц и FHD@320 Гц 2 ч.
Роботы-койоты на колёсах заменили робопсов в охране военных аэродромов США от диких зверей — они оказались шустрее 4 ч.
Infinix представила тонкие и недорогие смартфоны Hot 60 Pro+ и Hot 60 Pro с ярким дизайном и быстрыми экранами 5 ч.
Yeston представила Radeon RX 9070 XT Mercury Nova с футуристическим дизайном в стиле старых видеокарт EVGA Kingpin 5 ч.
Новая статья: Первый взгляд на смартфон HUAWEI Pura 80 Ultra 6 ч.
«Криптонит» представил российский инструмент для оценки безопасности 5G-сетей 6 ч.
Bloomberg: Китай строит в пустыне гигантский комплекс ИИ ЦОД для 115 тыс. ускорителей NVIDIA, поставки которых запрещены США 7 ч.
Отмену мобильного роуминга в ЕАЭС отложили до 2028 год, чтобы не навредить операторам 7 ч.
Intel вылетела из десятки крупнейших производителей чипов и проиграла гонку ИИ, признал гендир Тан 8 ч.