Опрос
|
реклама
Быстрый переход
OpenAI случайно удалила потенциальные улики по иску об авторских правах
22.11.2024 [12:34],
Владимир Фетисов
В конце прошлого года началось судебное разбирательство, в рамках которого The New York Times и другие крупные издатели обвинили OpenAI в том, что компания без разрешения использовала публикуемые ими материалы для обучения своих нейросетей. Теперь же стало известно, что инженеры OpenAI случайно удалили данные, которые потенциально могли стать доказательством вины разработчика ИИ-алгоритмов в нарушении авторских прав. В сообщении сказано, что юристы новостных изданий потратили более 150 часов на изучение данных, которые OpenAI использует для обучения своих нейросетей. Цель их работы заключалась в том, чтобы найти случаи, когда для обучения ИИ-алгоритмов использовались новостные статьи изданий, защищённые законом об авторском праве. Какую именно информацию удалили инженеры OpenAI, точно неизвестно. Компания признала ошибку и попыталась восстановить данные, но сделать это в полном объёме не удалось. Те же данные, что удалось восстановить, не позволяют определить, что публикации изданий были задействованы при обучении нейросетей. Юристы OpenAI охарактеризовали удаление данных как «сбой», а представители The New York Times заявили, что у них «нет оснований полагать», что это было сделано преднамеренно. В декабре прошлого года The New York Times обвинила OpenAI и её крупнейшего партнёра в лице Microsoft в том, что они создали свои ИИ-алгоритмы путём «копирования и использования миллионов статей» издания. Компания требует привлечь OpenAI к ответственности за «миллиарды долларов установленных законом и реальных убытков» за якобы копирование статей издания. The New York Times уже потратила более $1 млн на борьбу с OpenAI в суде. В это же время OpenAI успела договориться и заключить соглашение с другими изданиями, такими как Axel Springer, Conde Nast и Vox Media. Это говорит о том, что многие издатели предпочитают сотрудничество, а не судебные разбирательства. OpenAI обдумывает создание собственного интернет-браузера и поисковых систем для противостояния Google
22.11.2024 [08:05],
Алексей Разин
Относительно молодая компания OpenAI может попытаться бросить вызов Google в том сегменте рынка, где последняя доминирует даже по признанию антимонопольных органов США — речь идёт об интернет-браузерах и поисковых системах. По крайней мере, подобные слухи обсуждает издание The Information, на публикацию которого ссылается Reuters. Как сообщает первоисточник, OpenAI недавно задумалась о разработке интернет-браузера, который можно было бы интегрировать с ChatGPT, а также отдельно обсуждала или заключала сделки по созданию поисковых функций. OpenAI обсуждала возможность создания поискового продукта с разработчиками сайтов и приложений, такими как Conde Nast, Redfin, Eventbrite и Priceline, утверждает The Information со ссылкой на людей, которые видели прототипы или дизайн продуктов. Как стало известно на этой неделе, власти США на полном серьёзе склоняют Google к отделению браузера Chrome от своего основного бизнеса. В этом смысле предполагаемые усилия OpenAI по выходу на рынок поисковых систем и интернет-браузеров могут способствовать усилению конкуренции в этой сфере. Свой чат-бот Gemini компания Google представила в прошлом году, чтобы противопоставить что-то стремительно набиравшему популярность ChatGPT компании OpenAI. Теперь можно предположить, что последняя с точки зрения конкурентного развития движется во встречном направлении. Отдельно сообщается, что OpenAI начала переговоры с Samsung по поводу интеграции своих ИИ-функций на устройствах этой южнокорейской марки. До сих пор Samsung в этой сфере полагалась преимущественно на сотрудничество с Google. Пытающаяся наверстать отставание от конкурентов в сфере ИИ компания Apple также договорилась с OpenAI о заимствовании технологий. Так или иначе, The Information отмечает, что от запуска собственного интернет-браузера OpenAI сейчас очень далека, и об этой перспективе приходится говорить главным образом теоретически. Миллионер с зарплатой сантехника: выяснилось, сколько зарабатывает глава OpenAI
21.11.2024 [20:23],
Сергей Сурабекянц
Распространено мнение, что зарплата топ-менеджеров технологических гигантов измеряется миллионами. Удивительно, но, согласно налоговой декларации, генеральный директор OpenAI Сэм Альтман (Sam Altman) в 2022 году заработал всего $76 000. Это сопоставимо с уровнем зарплат опытных сантехников и электриков, которые в Калифорнии получают более $75 000 в год. Согласно налоговым декларациям, оказавшимся в распоряжении издательства Bloomberg, зарплата генерального директора OpenAI выросла на 3,4 % с 73 546 долларов в 2022 году до 76 001 доллара в 2023 году. Это значительно меньше, чем у соучредителя OpenAI Ильи Суцкевера (Ilya Sutskever), который заработал больше всех в компании — $322 201 за год. Такую же сумму заработал финансовый директор OpenAI Крис Кларк (Chris Clark). Примечательно, что Эмметт Шир (Emmett Shear), который пробыл генеральным директором OpenAI около 72 часов в минувшем ноябре, когда Альтман был отстранён, получил за этот период $3720. Также следует отметить, что в налоговых декларациях не упоминается никаких бонусов и компенсаций в виде акций и опционов, которые обычно получают руководители крупных компаний. В прошлом Альтман упоминал о своей скромной зарплате. На заседании сенатского подкомитета в мае 2023 года он заявил, что ему «платят достаточно для медицинского страхования», и он не получает акций OpenAI. В сентябре совет директоров OpenAI обсуждал вопрос о предоставлении Альтману акций после решения о превращении OpenAI из некоммерческой в коммерческую организацию. Позже Альтман сообщил сотрудникам, что не планирует получать «гигантский пакет акций» в компании, которая в этом году достигла оценки в $157 млрд после привлечения очередных инвестиций в размере $6,6 млрд. По слухам, Альтман может получить 7 % акций в OpenAI, увеличив своё состояние более чем на $10 млрд. Далеко не факт, что Альтман заинтересован в получении столь масштабного опциона, ведь это может негативно сказаться на его пассионарном имидже, тем более, что даже без доли в OpenAI его личное состояние оценивается более чем в $2 млрд. Состояние Альтмана включает инвестиции в размере $1,2 млрд в различные венчурные фонды и в другие компании — только его доля в Reddit оценивается более чем в $1 млрд. С учётом этих фактов покупка Альтманом особняка в Сан-Франциско за $27 млн вполне объяснима. Ранее сообщалось, что генеральный директор Microsoft Сатья Наделла (Satya Nadella) увеличил свой компенсационный пакет на 63 % до $79 млн. Непосредственно выплаты в виде зарплаты были урезаны на 50 % до $5,2 млн, а остальные средства он получил в виде пакета акций компании. Стоит отметить, что далеко не все топ-менеджеры настолько поглощены своим финансовым благополучием. Ещё в начале 1900-х годов во время Первой мировой войны в США возникла концепция, согласно которой различные лидеры промышленности предлагали свои услуги правительству с оплатой в один доллар. Тогда количество таких работников достигло тысячи человек. Из последних примеров известных людей, получавших зарплаты в один доллар, в пример можно привести бывшего губернатора Калифорнии Арнольда Шварценеггера (Arnold Schwarzenegger). Избранный президент США Дональд Трамп (Donald Trump), пообещав в ноябре 2016 года получать только доллар в год, выполнил своё предвыборное обещание. Свою зарплату он жертвовал различным федеральным департаментам. OpenAI запустила образовательный курс для учителей по ChatGPT, но не все этому рады
20.11.2024 [16:22],
Анжелла Марина
OpenAI представила бесплатный онлайн-курс для учителей средних школ, который освещает основы искусственного интеллекта (ИИ) и его применение в образовании. Участники курса отмечают его полезность, но некоторые педагоги опасаются этических последствий и недостаточного контроля над использованием данных, которые могут быть вверены ИИ. Компания OpenAI стремится к интеграции своих инструментов на основе искусственного интеллекта в образовательный процесс, предлагая учителям помощь в создании учебных планов и интерактивных пособий. Бесплатный онлайн-курс, который был разработан совместно с американской некоммерческой организацией Common Sense Media, предоставляющей рекомендации и образовательные материалы по использованию ИИ для детей, состоит из девяти модулей и охватывает основы ИИ и его применение в педагогике. По сообщению TechCrunch, курс внедрён уже в десятках школ США, и 98 % участников отметили его полезность. По заявлению директора подразделения программ ИИ в Common Sense Media Робби Торни (Robbie Torney), школы по всей стране сталкиваются с новыми возможностями и вызовами, поскольку ИИ меняет образование. «С помощью этого курса мы предпринимаем проактивный подход к поддержке и обучению учителей, находящихся на передовой, и готовимся к этой трансформации», — поясняет Торни. Однако некоторые педагоги настроены скептически. Лэнс Уорвик (Lance Warwick), преподаватель спортивных дисциплин в Университете Иллинойса в Урбане-Шампейне, опасается, что использование ChatGPT и других подобных ИИ-ботов может привести к этическим последствиям. В частности, Уорвик считает модули курса, посвящённые конфиденциальности и безопасности, «очень ограниченными и противоречивыми», особенно в отношении рекомендаций по использованию любых данных учащихся. Преподаватель из Университета Аризоны Син а Тре Суэ (Sin á Tres Souhaits) признаёт полезность ИИ-инструментов для создания учебных материалов, но выражает озабоченность отсутствием ясности в вопросах контроля над контентом, создаваемым учителями с помощью сервисов OpenAI. «Для меня ИИ похож на криптовалюту — это новая технология с большим потенциалом, но она настолько нерегулируема, что я сомневаюсь в надёжности любых её заявленных гарантий», — отмечает он. Одновременно более оптимистичный взгляд на образовательную инициативу OpenAI выражает бывший педагог, а ныне директор по продукту в Prodigy Education Джош Приер (Josh Prieur). Он считает, что при правильном подходе внедрение ИИ может принести явную пользу учителям, отмечая при этом прозрачность программы OpenAI в отношении возможных рисков. Несмотря на активное продвижение OpenAI на образовательном рынке, который, по прогнозам Allied Market Research, может достичь объёма $88,2 млрд в течение следующего десятилетия, внедрение технологии идёт медленно. Исследование компании Pew Research Center показало, что четверть учителей государственных средних школ (K-12) в США считает, что использование ИИ-инструментов в образовании приносит больше вреда, чем пользы, а опрос Rand Corporation выявил, что только 18 % педагогов K-12 используют ИИ в своих классах. Интересно, что исследователи из Университета Пенсильвании обнаружили, что турецкие старшеклассники, имеющие доступ к ChatGPT, хуже справились с тестом по математике, чем ученики, не имеющие доступа. В другом исследовании было выявлено, что немецкие ученики, использующие ИИ-бота, быстрее находили нужную информацию, однако менее умело её обобщали, чем их сверстники, не использующие ChatGPT. Думающая ИИ-модель OpenAI о1 получила 83 балла на математической олимпиаде США
20.11.2024 [12:23],
Дмитрий Федоров
Искусственный интеллект вступил в новую эру благодаря ИИ-модели о1 компании OpenAI, которая значительно приблизилась к человеческому мышлению. Её впечатляющий результат на тесте AIME — 83 балла из ста — позволил включить её в число 500 лучших участников математической олимпиады США. Однако такие достижения сопровождаются серьёзными вызовами, включая риски манипуляции ИИ человеком и возможность его использования для создания биологического оружия. Долгое время отсутствие у ИИ способности обдумывать свои ответы являлось одним из его главных ограничений. Однако ИИ-модель о1 совершила прорыв в этом направлении и продемонстрировала способность к осмысленному анализу информации. Несмотря на то, что результаты её работы пока не опубликованы в полном объёме, научное сообщество уже активно обсуждает значимость такого достижения. Современные нейронные сети в основном функционируют по принципу так называемой «системы 1», которая обеспечивает быструю и интуитивную обработку информации. Например, такие ИИ-модели успешно применяются для распознавания лиц и объектов. Однако человеческое мышление включает также «систему 2», связанную с глубоким анализом и последовательным размышлением над задачей. ИИ-модель о1 объединяет эти два подхода, добавляя к интуитивной обработке данных сложные рассуждения, характерные для человеческого интеллекта. Одной из ключевых особенностей о1 стала её способность строить «цепочку размышлений» — процесс, при котором система анализирует задачу постепенно, уделяя больше времени поиску оптимального решения. Эта инновация позволила ИИ-модели достичь 83 балла на тесте Американской математической олимпиады (AIME), что значительно превосходит результат GPT-4o, набравшей лишь 13 баллов. Тем не менее такие успехи связаны с возросшими вычислительными затратами и высоким уровнем энергопотребления, что ставит под сомнение экологичность разработки. Вместе с достижениями ИИ-модели о1 растут и потенциальные риски. Улучшенные когнитивные способности сделали её способной вводить человека в заблуждение, что, возможно, несёт серьёзную угрозу в будущем. Кроме того, уровень риска её использования для разработки биологического оружия оценён как средний — высший допустимый показатель по шкале самой OpenAI. Эти факты подчёркивают необходимость внедрения строгих стандартов безопасности и регулирования подобных ИИ-моделей. Несмотря на значительные успехи, ИИ-модель о1 всё же сталкивается с ограничениями в решении задач, требующих долгосрочного планирования. Её способности ограничиваются краткосрочным анализом и прогнозированием, что делает невозможным решение комплексных задач. Это свидетельствует о том, что создание полностью автономных ИИ-систем остаётся задачей будущего. Развитие ИИ-моделей, подобных о1, подчёркивает острую необходимость регулирования данной области. Эти технологии открывают перед наукой, образованием и медициной новые горизонты, однако их неконтролируемое применение может привести к серьёзным последствиям, включая угрозы безопасности и неэтичное использование. Для минимизации этих рисков требуется обеспечить прозрачность разработок ИИ, соблюдение этических стандартов и внедрение строгого надзора со стороны регулирующих органов. Поговорить с ChatGPT теперь можно в веб-версии сервиса — там появился голосовой интерфейс Advanced Voice Mode
20.11.2024 [00:33],
Николай Хижняк
Компания OpenAI запустила голосовой интерфейс Advanced Voice Mode в веб-версии сервиса ChatGPT. Об этом через свою страницу в соцсети X сообщил директор по продуктам компании Кевин Вейл (Kevin Weil). Продвинутый голосовой интерфейс по-прежнему доступен только платным пользователям ChatGPT. Голосовой интерфейс Advanced Voice Mode стал доступен для владельцев подписок Plus, Enterprise, Teams или Edu теперь и в веб-версии сервиса ChatGPT. С момента своего дебюта в сентябре продвинутый интерфейс был доступен только в мобильной версии ChatGPT для iOS и Android. Голосовой интерфейс Advanced Voice Mode использует аудиовозможности ИИ-модели GPT-4o, предлагая естественное общение в реальном времени между пользователем и ChatGPT. Чат-бот способен понимать и реагировать на невербальные сигналы пользователя, включая такие вещи, как скорость речи. Кроме того, он может реагировать с «эмоциями». Для начала разговора в веб-версии чат-бота необходимо выбрать значок «Голос» в правом нижнем углу у поля ввода запросов к ChatGPT. Затем необходимо предоставить браузеру разрешение на доступ к микрофону вашего компьютера. После начала голосового чата пользователь попадёт на экран с синим шаром в центре. Функция предлагает на выбор один из девяти голосов для ChatGPT, каждый из которых имеет свой собственный тон и характер. Например, можно выбрать «лёгкий и универсальный стиль Arbor» или «уверенный и оптимистичный Ember». По словам Вайля, OpenAI планирует «в ближайшие недели» внедрить голосовой формат общения с ChatGPT и для бесплатных пользователей. Владельцы подписок Plus и Team могут использовать голосовой формат Advanced Voice Mode лишь определённое количество времени в сутки. Система уведомит, когда у пользователя останется последние 15 минут ежедневного доступа к голосовому общению с ИИ-ботом. Бесплатным пользователям будет предлагаться доступ на непродолжительное время для знакомства с функцией. Илон Маск подал иск против OpenAI и Microsoft, обвинив их в монополизации рынка ИИ
16.11.2024 [06:10],
Анжелла Марина
Илон Маск (Elon Musk) дополнил свой судебный иск против OpenAI, обвинив компанию в сговоре с Microsoft с целью монополизации рынка генеративного искусственного интеллекта (ИИ) и «активных попытках устранить конкурентов», включая его компанию xAI. Маск обновил свой иск против OpenAI, добавив в него обвинения в адрес Microsoft. По информации The Verge, в жалобе утверждается, что OpenAI и Microsoft стремятся к «монополизации рынка генеративного ИИ» и ведут политику, направленную на устранение конкурентов. В обновлённом документе Microsoft названа новым ответчиком, наряду с соучредителем LinkedIn Ридом Хоффманом (Reid Hoffman) и вице-президентом Microsoft Ди Темплтон (Dee Templeton), которая ранее была членом совета директоров OpenAI. Обе компании, OpenAI и xAI, ведут борьбу за финансирование на растущем рынке ИИ. Так, OpenAI получила $6,6 млрд в октябре для создания более мощных моделей ИИ, а xAI привлекла $6 млрд в своём собственном раунде финансирования в марте. При этом Microsoft, начиная с 2019 года, инвестировала в OpenAI $14 млрд и получила эксклюзивные права на коммерческое использование технологий стартапа, а также 49 % акций его коммерческого подразделения. Адвокаты Маска утверждают, что генеральный директор OpenAI Сэм Альтман (Sam Altman) «злоупотреблял своим положением в безудержных корыстных целях», что привело к фактическому слиянию двух крупных компаний и созданию антиконкурентных условий на рынке. Напомним, Маск был одним из основателей OpenAI в 2015 году, но покинул компанию в 2018 году. Его первоначальный иск, поданный в марте и отозванный в июне без объяснения причин, обвинял OpenAI в отходе от первоначально заявленной миссии — создания искусственного интеллекта во благо человечества. В иске говорилось, что «партнёрство с Microsoft превратило OpenAI в фактически закрытую дочернюю компанию», сосредоточенную только на максимизации прибыли. OpenAI неоднократно пыталась отклонить иск, называя его «пиар-ходом» и «всё более агрессивной кампанией по преследованию OpenAI в собственных конкурентных интересах». Стоит добавить, что в качестве истца к новому делу также присоединилась и бывший член совета директоров OpenAI Шивон Зилис (Shivon Zilis) — руководитель компании Neuralink, принадлежащей Маску, и являющейся матерью троих из его двенадцати детей. Журналисты обратились к OpenAI и Microsoft за комментариями по поводу новых поправок в иске. Приложение ChatGPT для Windows стало доступно всем пользователям
15.11.2024 [21:35],
Владимир Фетисов
ChatGPT и другие чат-боты на базе искусственного интеллекта постепенно становятся частью повседневной жизни многих людей. Поспособствует этому и то, что приложение ChatGPT для Windows стало доступно для всех желающих. Ранее им могли пользоваться только платные подписчики сервиса. Скачать приложения ChatGPT можно в магазине цифрового контента Microsoft Store. По всей видимости, приложение ChatGPT для Windows во-многом похоже на Android-версию, хотя в десктопном приложении удобнее вводить большие объёмы текста и добавлять изображения. Реализована поддержка общения посредством чата, а также поддержка нескольких голосовых команд. Однако процесс бесплатного взаимодействия с сервисом остаётся таким же ограниченным, как в ChatGPT для других платформ. Достигнуть выделенного лимита бесплатный пользователь может всего за несколько минут. Для премиальных подписчиков ChatGPT, которые оплачивают тариф от $20 в месяц, приложение для Windows будет существенно более полезным. Десктопная версия ChatGPT во многом напоминает веб-версию сервиса, но, вероятно, наличие отдельного окна на рабочем столе позволит лучше оптимизировать рабочие процессы и взаимодействие с чат-ботом. OpenAI планирует выпустить ИИ-агента Operator в январе — он сможет управлять ПК без пользователя
14.11.2024 [11:12],
Дмитрий Федоров
Компания OpenAI готовится к выпуску нового ИИ-агента под кодовым названием Operator, который позволит выполнять разнообразные задачи на компьютере пользователя. Релиз этого инструмента может состояться уже в январе 2025 года. На первом этапе упомянутое решение будет доступно в качестве предварительной исследовательской версии через API для разработчиков. Operator призван конкурировать с аналогичными ИИ-агентами, такими как недавно представленный Computer Use компании Anthropic и разрабатываемый ИИ-агент Google, ориентированный на потребительский рынок. OpenAI стремится создать универсальный инструмент, способный выполнять различные операции в веб-браузере и подходящий для решения повседневных задач пользователей. Однако, как отмечает издание Bloomberg, пока неизвестно, предложит ли Operator пользователям значительные преимущества перед аналогичными решениями конкурентов. Исследовательская версия инструмента будет полезна для оценки его потенциальных преимуществ и выявления областей, требующих доработки на основе обратной связи. Запуск Operator совпадает с публикацией документа OpenAI, содержащего рекомендации для правительства США по вопросам стратегии развития ИИ. В этом документе предлагается создание «экономических зон» для активного развития ИИ-инфраструктуры, а также формирование альянсов с союзниками США, что позволит усилить позиции страны в технологической гонке с Китаем. OpenAI призывает создать ИИ-альянс, который объединит США и союзников, включая страны Ближнего Востока
14.11.2024 [08:40],
Алексей Разин
Действующему руководству стартапа OpenAI явно не даёт покоя идея использования ресурсов некоторых стран Персидского залива для финансирования развития мировой инфраструктуры искусственного интеллекта. Новая инициатива OpenAI подразумевает создание альянса с участием политических союзников США, включая страны Ближнего Востока. В среду, как сообщает South China Morning Post, руководство OpenAI выступило с призывом сформировать «Североамериканское соглашение по ИИ», которое бы упростило доступ к кадровым, финансовым и товарным ресурсам на международном уровне, которые требуются для построения инфраструктуры систем искусственного интеллекта. В конечном итоге соглашение должно объединить вокруг США союзников и партнёров, включая страны Ближнего Востока. Стратегическая инициатива была представлена OpenAI на мероприятии в Вашингтоне. Помимо предложений по сохранению лидирующих позиций США в сфере искусственного интеллекта, документ предлагает методы решения проблемы с энергоснабжением профильных центров обработки данных. По мнению OpenAI, власти США должны обеспечить поддержку затратным инфраструктурным проектам в сфере энергетики, предоставляя государственные гарантии выкупа электроэнергии у создаваемых генерирующих мощностей. В отношении проектов должен действовать режим регуляторного благоприятствования, включая и решения по вводу в строй ядерных реакторов, работа которых была в своё время приостановлена. Предлагается использовать в мирных целях опыт ВМС США в создании компактных ядерных реакторов для подводных лодок. В заявлении OpenAI говорится: «ИИ представляет собой возможность реиндустриализации США, которую нельзя упустить, и которая поможет инициировать рост всей экономики, способный оживить американскую мечту». Кроме того, инициатива OpenAI преследует цель обеспечить национальную безопасность США и защитить страну и её союзников от растущего влияния Китая через распространение «ИИ, сформированного с учётом демократических ценностей». План развития национальной отрасли ИИ был согласован как с действующей администрацией президента США Байдена, так и с представителями недавно избранного Дональда Трампа (Donald Trump). Представители OpenAI ожидают, что данная повестка получит приоритет в работе Конгресса и правительства США нового состава. Пузырь ИИ сдувается, пока OpenAI, Google и Anthropic пытаются создать более продвинутый ИИ
13.11.2024 [19:26],
Сергей Сурабекянц
Три ведущие компании в области искусственного интеллекта столкнулись с ощутимым снижением отдачи от своих дорогостоящих усилий по разработке новых систем ИИ. Новая модель OpenAI, известная как Orion, не достигла желаемой компанией производительности, предстоящая итерация Google Gemini не оправдывает ожиданий, а Anthropic столкнулась с отставанием в графике выпуска своей модели Claude под названием 3.5 Opus. После многих лет стремительного выпуска всё более сложных продуктов ИИ три ведущие в этой сфере компании наблюдают убывающую отдачу от дорогостоящих усилий по созданию новых моделей. Становится все труднее находить свежие, ещё неиспользованные источники высококачественных данных для обучения более продвинутых систем ИИ. А нынешних весьма скромных улучшений недостаточно, чтобы окупить огромные затраты, связанные с созданием и эксплуатацией новых моделей, как и оправдать ожидания от выпуска новых продуктов. Так, OpenAI утверждала, что находится на пороге важной вехи. В сентябре завершился начальный раунд обучения для новой масштабной модели Orion, которая должна была приблизится к созданию мощного ИИ, превосходящего людей. Но ожидания компании, по утверждению осведомлённых источников, не оправдались. Orion не смогла продемонстрировать прорыва, который ранее показала модель GPT-4 по сравнению с GPT-3.5. Anthropic, как и её конкуренты, столкнулась с трудностями в процессе разработки и обучения 3.5 Opus. По словам инсайдеров, модель 3.5 Opus показала себя лучше, чем старая версия, но не так значительно, как ожидалось, учитывая размер модели и затраты на её создание и запуск. Эти проблемы бросают вызов утвердившемуся в Кремниевой долине мнению о масштабируемости ИИ. Приверженцам глобального внедрения ИИ приходится признать, что бо́льшая вычислительная мощность, увеличенный объём данных и более крупные модели пока не прокладывают путь к технологическому прорыву в области ИИ. Эксперты высказывают обоснованные сомнения в окупаемости крупных инвестиций в ИИ и достижимости всеобъемлющей цели, к которой стремятся разработчики ИИ-моделей, — создания общего искусственного интеллекта (AGI). Этот термин обычно применяется к гипотетическим ИИ-системам, способным соответствовать или превосходить человека в большинстве интеллектуальных задач. Руководители OpenAI и Anthropic ранее заявляли, что AGI может появиться уже через несколько лет. Технология, лежащая в основе ChatGPT и конкурирующих ИИ-чат-ботов, была создана на основе данных из социальных сетей, онлайн-комментариев, книг и других источников из интернета. Этих данных хватило для создания продуктов, генерирующих суррогатные эссе и поэмы, но для разработки систем ИИ, которые превзойдут интеллектом лауреатов Нобелевской премии — как надеются некоторые компании, — могут потребоваться другие источники данных, помимо сообщений в Википедии и субтитров YouTube. OpenAI была вынуждена заключить соглашения с издателями, чтобы удовлетворить хотя бы часть потребности в высококачественных данных, а также адаптироваться к растущему юридическому давлению со стороны правообладателей контента, используемого для обучения ИИ. Отмечается высокий спрос на рынке труда на специалистов с высшим образованием, которые могут маркировать данные, связанные с их областью компетенции. Это помогает сделать обученные ИИ-системы более эффективными в ответах на запросы. Подобные усилия обходятся дороже и требуют на порядок больше времени, чем простое индексирование интернета. Поэтому технологические компании обращаются к синтетическим данным, таким как сгенерированные компьютером изображения или текст, имитирующие контент, созданный людьми. Однако у такого подхода есть свои ограничения, так как трудно добиться качественного улучшения при использовании подобных данных для обучения ИИ. Тем не менее компании ИИ продолжают следовать принципу «чем больше, тем лучше». В стремлении создавать продукты, приближающиеся к уровню человеческого интеллекта, технологические компании увеличивают объём вычислительной мощности, данных и времени, затрачиваемых на обучение новых моделей, что приводит к росту расходов. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) заявил, что в этом году компании потратят $100 млн на обучение новейших моделей, а в ближайшие годы эта сумма может достичь $100 млрд. Безусловно, потенциал для улучшения моделей ИИ, помимо масштабирования, существует. Например, для своей новой модели Orion OpenAI применяет многомесячный процесс пост-обучения. Эта процедура включает использование обратной связи от людей для улучшения ответов и уточнения «эмоциональной окраски» взаимодействия с пользователями. Разработчики ИИ-моделей оказываются перед выбором: либо предлагать старые модели с дополнительными улучшениями, либо запускать чрезвычайно дорогие новые версии, которые могут работать ненамного лучше. По мере роста затрат растут и ожидания — стремительное развитие ИИ на начальном этапе создало завышенные ожидания как у специалистов, так и у инвесторов. Сооснователь OpenAI Грег Брокман вернулся в компанию после длительного отпуска
13.11.2024 [10:26],
Алексей Разин
Глядя на череду увольнений из OpenAI влиятельных теперь в сфере искусственного интеллекта фигур, которые стояли у истоков этого стартапа, можно было подумать, что из начального состава компании в её штате осталось не более двух человек. Между тем, президент OpenAI Грег Брокман (Greg Brockman), взявший в августе длительный отпуск, недавно вернулся к исполнению своих обязанностей. Как показывает опыт Раджи Кодури (Raja Koduri), который несколько лет назад после длительного отпуска перешёл из AMD в конкурирующую Intel, подобные перерывы в активной деятельности руководителей далеко не всегда благоприятно заканчиваются для работодателей, но в случае с Грегом Брокманом всё обошлось. Агентство Bloomberg смогло подтвердить у представителей OpenAI, что Брокман на днях вернулся к исполнению своих обязанностей президента компании. Сотрудники стартапа на этой неделе получили соответствующее уведомление. Попутно Брокман сообщил сотрудникам OpenAI, что вместе с генеральным директором Сэмом Альтманом (Sam Altman) работает над определением своей новой роли внутри компании, которая позволила бы ей легче справляться с техническими трудностями, возникающими на её пути. Брокман сыграл важную роль в событиях прошлой осени, когда совет директоров OpenAI принял решение отправить Альтмана в отставку. Брокман тогда на время покинул компанию в знак протеста против увольнения Альтмана, но вернулся после его восстановления в должности генерального директора. Продолжительный отпуск понадобился Брокману в августе этого года для восстановления сил и попытки впервые расслабиться после основания OpenAI девять лет назад. Некоторое время назад OpenAI покинули бывший технический директор Мира Мурати (Mira Murati) и ведущий научный специалист Илья Суцкевер, которые уже успели основать собственные стартапы в области искусственного интеллекта. Джон Шульман (John Schulman), который также ушёл из OpenAI, в новой активности на этом направлении пока замечен не был. В общей сложности, из начальной группы основателей OpenAI в штате компании остаются три человека, включая Сэма Альтмана и Грега Брокмана. OpenAI столкнулась с большими расходами и нехваткой данных при обучении ИИ-модели Orion нового поколения
11.11.2024 [17:05],
Дмитрий Федоров
OpenAI испытывает трудности с разработкой новой флагманской ИИ-модели под кодовым названием Orion. Эта ИИ-модель демонстрирует значительные успехи в задачах обработки естественного языка, однако её эффективность в программировании остаётся невысокой. Эти ограничения, наряду с дефицитом данных для обучения и возросшими эксплуатационными расходами, ставят под сомнение рентабельность и привлекательность упомянутой ИИ-модели для бизнеса. Одной из сложностей являются затраты на эксплуатацию Orion в дата-центрах OpenAI, которые существенно выше, чем у ИИ-моделей предыдущего поколения, таких как GPT-4 и GPT-4o. Значительное увеличение расходов ставит под угрозу соотношение цена/качество и может ослабить интерес к Orion со стороны корпоративных клиентов и подписчиков, ориентированных на рентабельность ИИ-решений. Высокая стоимость эксплуатации вызывает вопросы об экономической целесообразности ИИ-модели, особенно учитывая умеренный прирост её производительности. Ожидания от перехода с GPT-4 на Orion были высоки, однако качественный скачок оказался не столь значительным, как при переходе с GPT-3 на GPT-4, что несколько разочаровало рынок. Подобная тенденция наблюдается и у других разработчиков ИИ: компании Anthropic и Mistral также фиксируют умеренные улучшения своих ИИ-моделей. Например, результаты тестирования ИИ-модели Claude 3.5 Sonnet компании Anthropic показывают, что качественные улучшения в каждой новой базовой ИИ-модели становятся всё более постепенными. В то же время её конкуренты стараются отвлечь внимание от этого ограничения, сосредотачиваясь на разработке новых функций, таких как ИИ-агенты. Это свидетельствует о смещении акцента с повышения общей производительности ИИ на создание его уникальных способностей. Чтобы компенсировать слабые стороны современных ИИ, компании применяют тонкую настройку результатов с помощью дополнительных фильтров. Однако такой подход остаётся лишь временным решением и не устраняет основных ограничений, связанных с архитектурой ИИ-моделей. Проблема усугубляется ограничениями в доступе к лицензированным и общедоступным данным, что вынудило OpenAI сформировать специальную команду, которой поручено найти способ решения проблемы нехватки обучающих данных. Однако неясно, удастся ли этой команде собрать достаточный объём данных, чтобы улучшить производительность ИИ-модели Orion и удовлетворить требования клиентов. OpenAI ищет новые пути борьбы с замедлением развития ИИ
10.11.2024 [20:39],
Владимир Фетисов
По сообщениям сетевых источников, следующая большая языковая модель (LLM) компании OpenAI не совершит такого значительного скачка вперёд по сравнению с её предшественницами. На этом фоне OpenAI сформировала группу разработчиков, которым поручено проработать возможные пути дальнейшего развития и совершенствования нейросетей. Новая LLM компании известна под кодовым именем Orion. Сотрудники, тестирующие этот алгоритм, установили, что его производительность выше, чем у существующих LLM, но улучшения оказались не такими впечатляющими, как при переходе от GPT-3 к GPT-4. Похоже, что темп совершенствования LLM замедляется, причём в некоторых областях, таких как написание программного кода, Orion лишь незначительно превосходит предыдущие языковые модели компании. Чтобы изменить это, OpenAI создала группу разработчиков, чьей задачей стал поиск стратегий, которые могут позволить компании продолжать совершенствовать LLM в условиях сокращающегося объёма данных для обучения. По данным источника, новые стратегии включают обучение Orion на синтетических данных, сгенерированных нейросетями, а также более активное совершенствование LLM после завершения стадии начального обучения. Официальные представители OpenAI отказались от комментариев по данному вопросу. Серия отставок в OpenAI продолжается: ушёл ключевой специалист по безопасности ИИ
09.11.2024 [20:41],
Анжелла Марина
Один из ключевых специалистов OpenAI, Лилиан Венг (Lilian Weng), объявила о своём уходе. Венг проработала в компании 7 лет, занимая должность главы отдела систем разработки безопасности, а в августе этого года получила повышение. В своём заявлении на платформе X она отметила, что покидает OpenAI, чтобы «начать всё сначала и попробовать что-то новое». Как сообщает TechCrunch, последним рабочим днём Венг станет 15 ноября, однако о своих дальнейших планах она не сообщила. «Я приняла крайне трудное решение покинуть OpenAI», — призналась Венг. «Оглядываясь на то, чего мы достигли, я очень горжусь каждым членом команды по системам безопасности и полностью уверена, что команда продолжит процветать». Венг — не единственный специалист, который покинул компанию. За последний год оттуда ушли исследователи в области безопасности, а также руководители, обвинившие компанию в приоритете коммерческих продуктов над безопасностью ИИ. Ранее в этом году OpenAI покинули Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike) — руководители расформированной команды «Superalignment», которая занималась разработкой методов управления сверхразумными системами ИИ. Венг присоединилась к OpenAI в 2018 году, начав свою карьеру в команде робототехники, которая создала роботизированную руку, способную собирать кубик Рубика за считаные секунды. С переходом OpenAI к парадигме GPT, Венг присоединилась к команде прикладных исследований ИИ в 2021 году. После запуска GPT-4 в 2023 году она возглавила команду по разработке систем безопасности, в которой работает более 80 человек. OpenAI сообщает, что руководство ищет замену Венг. «Мы глубоко ценим вклад Лилиан в прорывные исследования в области безопасности и создание надёжных технических гарантий, — говорится в заявлении официального представителя OpenAI. — Мы уверены, что команда по системам безопасности продолжит играть ключевую роль в обеспечении надёжности наших систем, обслуживающих сотни миллионов людей по всему миру». Стоит отметить, что в октябре компанию покинул Майлз Брандейдж (Miles Brundage), работавший над политикой в сфере ИИ, после чего OpenAI объявила о роспуске команды AGI Readiness. В тот же день газета New York Times опубликовала интервью с бывшим исследователем OpenAI Сучиром Баладжи (Suchir Balaji), который заявил, что тоже покинул компанию, поскольку считает, что её технологии принесут обществу больше вреда, чем пользы. |