Опрос
|
реклама
Быстрый переход
ИИ-модель OpenAI o1 иногда думает на китайском языке, и никто не знает почему
14.01.2025 [22:52],
Анжелла Марина
Рассуждающая ИИ-модель OpenAI o1 удивляет лингвистическими способностями, переключаясь в процессе решения задач на разные языки, в том числе на китайский, даже если запрос был сделан на английском. Эксперты теряются в догадках, а OpenAI не спешит с объяснениями. ![]() Источник изображения: hdhAI OpenAI в прошлом году представила свою первую модель искусственного интеллекта (ИИ) с функциями рассуждения — o1. Однако пользователи заметили любопытную особенность: модель иногда начинает размышлять на китайском, персидском или других языках, даже если вопрос был задан на английском. Например, при решении задачи «Сколько букв R в слове strawberry?» o1 может выполнить часть рассуждений на китайском, прежде чем выдать окончательный ответ на английском. Эксперты выдвигают несколько теорий, объясняющих это явление. Одной из них является гипотеза о влиянии китайских данных, на которых обучалась модель. Клемент Деланж (Clement Delangue), генеральный директор компании Hugging Face, разрабатывающей инструменты для создания приложений с использованием машинного обучения, и Тед Сяо (Ted Xiao), исследователь из Google DeepMind, отмечают, что многие компании, включая OpenAI, используют услуги сторонних китайских компаний для разметки данных, необходимых для обучения моделей. Это, по их мнению, и может приводить к тому, что модель o1 в некоторых случаях предпочитает в своих рассуждениях китайский язык, как более эффективный для обработки информации. Однако не все согласны с этой теорией. Некоторые специалисты указывают на то, что влияние китайских данных не подтверждено и модель на самом деле может переключаться на разные языки, включая хинди и тайский. Это может быть связано с тем, что o1 просто выбирает наиболее удобный для себя способ решения задачи. По словам Мэтью Гуздиала (Matthew Guzdial), исследователя ИИ из университета Альберты, модель o1 не воспринимает языки как отдельные сущности, для неё это обычный текст, состоящий из набора токенов, который она обрабатывает. В конечном итоге, точные причины поведения модели, рассуждающей на разных языках остаются загадкой. Лука Солдаини (Luca Soldaini), научный сотрудник Allen Institute for AI, подчёркивает, что из-за «непрозрачности ИИ-моделей невозможно точно установить, что происходит внутри» и как это всё функционирует. Сама OpenAI пока отмалчивается. OpenAI представила план регулирования ИИ, призвав власти США инвестировать миллиарды
14.01.2025 [04:32],
Анжелла Марина
Компания OpenAI опубликовала экономическую дорожную карту для искусственного интеллекта (ИИ), предложив меры для успешного развития этой технологии в США. Документ призывает к активному сотрудничеству между OpenAI, правительством США и его союзниками, и необходимость привлечения миллиардных инвестиций в развитие ИИ, включая чипы, энергию и квалифицированные кадры. ![]() Источник изображения: Levart Photographer / Unsplash Как пишет TechCrunch, OpenAI неоднократно призывала правительство к более активным действиям в области ИИ и инфраструктуры для сохранения глобального лидерства США в этой области. Компания считает неприемлемым текущее положение дел, когда регулирование в ИИ в основном отдано на откуп штатам, что часто приводит к противоречивым и неэффективным мерам. Например, в 2024 году законодатели штатов представили около 700 законопроектов, касающихся ИИ, многие из которых противоречат друг другу. Генеральный директор OpenAI Сэм Альтман (Sam Altman) также подверг критике существующие федеральные законы, такие как CHIPS and Science Act (Закон о чипах и науке), направленный на возрождение полупроводниковой промышленности США. По его мнению, этот закон не достиг ожидаемой эффективности, и администрация Дональда Трампа (Donald Trump) могла бы предпринять более действенные меры. «Я глубоко согласен с Трампом в том, что стало очень сложно что-либо строить в Соединённых Штатах, — заявил Альтман. — Электростанции, центры обработки данных, что угодно. Я понимаю, что бюрократия разрастается и это не помогает стране в целом. Особенно это вредит ИИ, при том, что США лидируют и должны продолжать лидировать в этой области». Для обеспечения работы центров обработки данных, необходимых для развития и использования ИИ, OpenAI предлагает глобально увеличить федеральные расходы на электроэнергию и на центры обработки данных, а также на развитие новых источников энергии, таких как солнечная, ветровая и атомная. При этом стоит сказать, что OpenAI и её конкуренты в сфере ИИ ранее высказывались в поддержку проектов в области атомной энергетики, считая их необходимыми для удовлетворения потребностей в электроэнергии для серверных ферм нового поколения. Что касается краткосрочной перспективы, то OpenAI предлагает правительству разработать регулирующий комплекс для развёртывания ИИ-моделей с целью защиты от злоупотреблений, оптимизировать взаимодействие ИИ-индустрии с органами национальной безопасности и разработать экспортный контроль, позволяющий «делиться ИИ-моделями с союзниками, но ограничивать их экспорт в недружественные страны». Документ также призывает правительство делиться с поставщиками информацией о национальной безопасности, включая брифинги, посвящённые угрозам для индустрии, а также оказывать помощь в обеспечении ресурсов для оценки рисков, связанных с определёнными ИИ-моделями. В дорожной карте также затрагивается вопрос авторского права. Компания утверждает, что ИИ-разработчики должны иметь возможность для обучения моделей свободно использовать общедоступную информацию, включая контент, защищённый авторским правом. OpenAI подчёркивает, что другие страны не соблюдают права интеллектуальной собственности, и если США не примут разумные меры, то этот контент всё равно будет использоваться для обучения моделей в других странах. В связи с этим, OpenAI призывает правительство обеспечить возможность такого обучения, защищая при этом создателей от несанкционированного цифрового копирования. В свою очередь вице-президент OpenAI по глобальным связям Крис Лехейн (Chris Lehane) подчеркнул необходимость привлечения инвестиций. «Сегодня, когда некоторые страны отодвигают ИИ и его экономический потенциал на второй план, правительство США может проложить путь для развития ИИ-индустрии для того, чтобы страна сохранила мировое лидерство в инновациях, защищая при этом национальную безопасность», — сказал Лехейн. Пока неясно, какие именно предложения OpenAI будут приняты во внимание законодателями. Однако дорожная карта показывает, что компания намерена играть ключевую роль в формировании единой государственной политики США в области искусственного интеллекта, стремясь к созданию добровольного механизма взаимодействия компаний-разработчиков ИИ с правительством для определения стандартов безопасности и обмена информацией. FTC и Минюст США поддержали Илона Маска в судебной тяжбе с OpenAI
11.01.2025 [16:08],
Владимир Мироненко
Регуляторы США встали на сторону Илона Маска (Elon Musk), требующего судебного запрета на реструктуризацию ИИ-стартапа OpenAI в коммерческую компанию. Министерство юстиции США и Федеральная торговая комиссия (FTC) поддержали часть аргументов Илона Маска в его иске против OpenAI и Microsoft, касающихся пересечения состава членов советов директоров этих компаний, сообщил Bloomberg. ![]() Источник изображения: Growtika/unsplash.com В иске Маска указано, что OpenAI и Microsoft нарушили антимонопольное законодательство, поскольку соучредитель LinkedIn Рид Хоффман (Reid Hoffman) одновременно входил в советы директоров обеих компаний с 2017 по 2023 год. Кроме того, Деанна Темплтон (Deannah Templeton), член руководства Microsoft, входила в совет директоров OpenAI без права голоса с декабря 2023 года по июль 2024 года. «Когда ответчик добровольно прекращает незаконное поведение, он всё равно несёт “тяжёлое бремя” доказывания того, что “абсолютно ясно, что предположительно неправомерное поведение не может быть обоснованно повторено”», — заявили FTC и Министерство юстиции США. Регуляторы отметили, что пока не определились по вопросу о том, можно ли реструктурировать OpenAI. OpenAI отказалась комментировать заявление регуляторов. Ранее она утверждала, что пребывание Хоффмана и Темплтон в совете директоров не противоречит антимонопольному законодательству. Слушания по иску Маска с требованием о судебном запрете назначено на вторник в Окружном суде США Северного округа Калифорнии в Окленде. FTC изучает деятельность OpenAI в рамках нескольких расследований. В частности, ведётся расследование по поводу возможного нарушения конфиденциальности при обучении ИИ-бота ChatGPT. Также изучается возможность нарушения антимонопольного законодательства при инвестировании в ИИ со стороны Microsoft и других технологических гигантов. Отдельно FTC ведёт расследование по поводу того, не вводила ли OpenAI потребителей в заблуждение относительно своих предложений. OpenAI приступает к поиску специалистов, которые помогут ей создать роботов
11.01.2025 [07:31],
Алексей Разин
Стартап OpenAI в большей степени известен как создатель чат-бота ChatGPT и больших языковых моделей, но в прошлом году компания решила вернуться к идее создания роботов общего назначения, от которой пыталась отказаться ещё в 2020 году. Теперь руководитель робототехнического направления OpenAI объявила об открытии вакансий в профильном подразделении. ![]() Источник изображения: Unsplash, Maximalfocus Как отмечает TechCrunch, для данных заявлений Кейтлин Калиновски (Caitlin Kalinowski), которая с ноября прошлого года руководит в OpenAI направлением аппаратных решений, а до этого работала в Meta✴ Platforms над созданием очков дополненной реальности, использовала собственную страничку в социальной сети X. Она отметила, что OpenAI будет разрабатывать собственных роботов с уникальным набором датчиков, которые найдут универсальное применение в динамично меняющихся условиях современного мира. OpenAI также намеревается создать вычислительные компоненты для роботов, которые будут использоваться для работы с ИИ-моделями компании. Создаваемые роботы будут иметь различные формфакторы, как пояснила представительница OpenAI. В настоящее время компании требуются сотрудники для тестирования прототипов роботов, а также разработчики с опытом создания роботизированных конечностей. Со временем компания рассчитывает наладить массовое производство роботов, измеряемое миллионными тиражами. Сама OpenAI при этом поддерживает стартапы X1 и Figure, специализирующиеся на человекоподобных роботах. Ранее также стало известно, что OpenAI не оставляет попыток создать собственный чип для ускорения работы разрабатываемых ИИ-моделей. Глава OpenAI рассказал, когда появятся сильный ИИ, сопоставимый с человеком — ждать осталось недолго
06.01.2025 [22:34],
Анжелла Марина
Генеральный директор OpenAI поделился своим мнением о перспективах перехода от обычного искусственного интеллекта (ИИ) к созданию сильного искусственного интеллекта (AGI) или сверхинтеллекта, который способен думать как человек и даже превзойти его. По мнению Сэма Альтмана (Sam Altman), первые ИИ-агенты, соответствующие уровню AGI, могут появится уже в 2025 году. ![]() Источник изображения: Jonathan Kemper / Unsplash В своём блоге Альтман рассказал о будущем OpenAI. Основной целью компании на данный момент является создание «сверхинтеллекта в истинном смысле этого слова». Альтман подчеркнул, что инструменты на основе сверхинтеллекта приведут к инновациям и, как следствие, к росту благосостояния всего человечества. По его словам, новые ИИ-агенты будут превосходить интеллектуальные возможности людей и существенно изменят структуру компаний и результат их работы, войдя в «состав полноценной рабочей силы». Однако, несмотря на оптимизм и обещания, в прошлом месяце Альтман попытался снизить ожидания в отношении AGI, заявив, что технология «будет иметь гораздо меньшее значение», чем полагают люди. И как отмечает The Verge, снижение акцента на традиционное определение AGI может быть выгодным для OpenAI в виду её тесного партнёрства с Microsoft, так как в рамках эксклюзивных соглашений от 2023 года OpenAI обязана официально объявить о создании AGI. Однако Microsoft определяет свой интерес к AGI, в первую очередь, как к системе, способной генерировать $100 млрд прибыли, что на сегодня может создать определённые сложности, так как OpenAI пока не приносит прибыли и даже наоборот. Даже подписка ChatGPT Pro за $200 в месяц остаётся убыточной. «Люди используют этот инструмент гораздо чаще, чем мы ожидали», — написал Альтман в серии постов на платформе X. То есть, затраченные технические ресурсы на запросы и обработку пользовательских данных превышают цену подписки. Хотя Альтман напрямую не упоминает о соглашении OpenAI с Microsoft о разделе прибыли, он вспоминает о произошедших событиях, которые привели к его увольнению с поста генерального директора OpenAI, затем найму в Microsoft и последующему возвращению в OpenAI в ноябре 2023 года. «Оглядываясь назад, я, конечно, хотел бы сделать всё по-другому, — говорит Альтман. — Необходимо построить более сильную систему управления OpenAI и следовать нашей миссии по достижению системы AGI, которая принесёт пользу всему человечеству». Подписка ChatGPT Pro за $200 в месяц стала убыточной для OpenAI из-за слишком большой популярности
06.01.2025 [11:33],
Владимир Мироненко
Анонсированный в конце прошлого года тарифный план ChatGPT Pro стоимостью $200 в месяц оказался слишком популярным, что негативно сказывается на компании. Из-за того, что пользователи используют эту подписку гораздо активнее, чем ожидалось, компания несёт убытки, сообщил генеральный директор OpenAI Сэм Альтман (Sam Altman). ![]() Источник изображения: Growtika/unsplash.com «Я лично выбрал цену, и подумал, что мы заработаем немного денег», — цитирует ресурс TechCrunch сообщение Альтман на платформе X. Тарифный план ChatGPT Pro включает неограниченный доступ ко всем моделям OpenAI, включая мощнейшую o1 pro — улучшенную версию модели o1, которая выделяется способностью к рассуждению и умением логически решать задачи. Также подписка предоставляет доступ к голосовому режиму Advanced Voice Mode, позволяющему вести беседу, максимально приближенную к человеческой. Для пользователей ChatGPT Plus установлен дневной лимит на использование этих функций, в то время как бесплатные пользователи могут воспользоваться только их ограниченным превью. OpenAI всё ещё не приносит прибыли, что вызывает сомнения в окупаемости вложений инвесторов, которые составили около $20 млрд. Ранее компания сообщила, что ожидает в 2024 году убытки в размере около $5 млрд при выручке в $3,7 млрд. Это связано со значительными расходами на персонал, аренду офисов и инфраструктуру для обучения ИИ. По сообщениям, только поддержка ChatGPT в определённый момент обходилась OpenAI примерно в $700 тыс. в день. OpenAI не выполнила обещание по созданию инструмента для защиты авторских прав к 2025 году
02.01.2025 [03:45],
Анжелла Марина
Компания OpenAI не смогла выпустить обещанный инструмент Media Manager до 2025 года, с помощью которого создатели контента смогли бы контролировать использование своих работ в обучении нейросетей. Media Manager, анонсированный в мае прошлого года, должен был идентифицировать защищённые авторским правом тексты, изображения, аудио и видео. ![]() Источник изображения: hdhai.com Инструмент должен был помочь OpenAI избежать юридических проблем, связанных с нарушением прав на интеллектуальную собственность, и в целом мог бы стать стандартом для всей индустрии искусственного интеллекта. Однако, как пишет издание TechCrunch, разработка Media Manager изначально не считалась в компании приоритетной. Один из бывших сотрудников OpenAI отметил: «Я не думаю, что это было приоритетом. Честно говоря, я и не помню, чтобы кто-то над этим работал». Другой источник, близкий к компании, подтвердил, что обсуждения инструмента были, но с конца 2024 года никакой новой информации, связанной с проектом, не поступало. Надо сказать, что в последнее время использование авторского контента для обучения ИИ неоднократно становилось причиной споров. Модели OpenAI, такие как ChatGPT и Sora, обучаются на огромных наборах данных, включающих тексты, изображения и видео из интернета. Это позволяет ИИ-моделями создавать новые работы, но зачастую они оказываются слишком похожи на оригинал. Например, Sora может генерировать видео с логотипом TikTok или персонажами из видеоигр, а ChatGPT был «пойман» на дословных цитатах из статей The New York Times. Такая практика вызывает волну возмущения со стороны авторов, чьи работы были использованы без их согласия. Против OpenAI уже поданы коллективные иски от художников, писателей и крупных медиа-компаний, включая The New York Times и Radio-Canada. Авторы, такие как американская актриса и сценарист Сара Сильверман (Sarah Silverman) и писатель Та-Нехиси Коутс (Ta-Nehisi Coates), также присоединились к судебным разбирательствам, обвинив OpenAI в незаконном использовании их работ. OpenAI предложила альтернативные решения проблемы, и на данный момент создателям контента предлагается несколько способов для исключения своих работы из обучения нейросетей. В частности, в сентябре 2024 года была запущена форма для подачи заявлений на удаление изображений из будущих наборов данных. Также компания ничего не имеет против того, чтобы веб-мастера прописывали блокировку для своих сайтов от сбора данных её ботами, например в файле «robots.txt». Однако эти методы подверглись критике как за их сложность (удаление контента из набора данных), так и за их несовершенство. Media Manager, напротив, преподносился как долгожданное комплексное решение. В мае 2024 года OpenAI заявила, что работает над инструментом совместно с регуляторами и использует передовые технологии машинного обучения для распознавания авторских прав. Тем не менее с момента анонса компания больше ни разу публично не упоминала об этом инструменте. И даже если Media Manager будет выпущен, эксперты сомневаются, что инструмент сможет решить все проблемы. Эдриан Сайхан (Adrian Cyhan), юрист в сфере интеллектуальной собственности, отмечает, что даже крупным платформам, таким как YouTube и TikTok, сложно справляться с идентификацией контента в больших масштабах. «Гарантировать соблюдение всех требований создателей контента и законов разных стран — крайне трудная задача», — заявил он. А основатель некоммерческой организации Fairly Trained Эд Ньютон-Рекс (Ed Newton-Rex) вообще считает, что Media Manager лишь переложит ответственность на самих создателей. При этом, даже если Media Manager будет запущен, он вряд ли сможет избавить OpenAI от юридической ответственности, считают эксперты. Эван Эверист (Evan Everist), специалист по авторскому праву, напомнил, что по закону владельцы авторских прав вообще не обязаны предупреждать о запрете на использование их работ и «базовые принципы авторского права остаются неизменными: нельзя использовать чужие материалы без разрешения». В отсутствие Media Manager, OpenAI пока внедрила фильтры, которые предотвращают дословное копирование чужих данных, а в судебных исках компания продолжает утверждать, что её ИИ-модели создают «компиляцию», а не плагиат, ссылаясь на принцип «добросовестного использования». Суды могут поддержать позицию OpenAI, как это произошло в деле Google Books, когда суд постановил, что копирование компанией Google миллионов книг для Google Books, своего рода цифрового архива, является допустимым. Однако, если суды признают, что OpenAI незаконно использует авторский контент, компании придётся пересмотреть свою стратегию, включая выпуск Media Manager. OpenAI создаст «корпорацию общественного блага» для перехода на коммерческие рельсы
27.12.2024 [19:02],
Сергей Сурабекянц
OpenAI представила план по обновлению своей корпоративной структуры, который предусматривает создание благотворительной организации или дословно «корпорации общественного блага» (public benefit corporation, PBC) для управления растущим бизнесом и снятия ограничений, налагаемых её нынешним некоммерческим статусом. PBC будет управлять бизнесом OpenAI, а некоммерческая организация займётся продвижением благотворительных инициатив в здравоохранении, образовании и науке. ![]() Источник изображений: unsplash.com PBC — это предприятия, которые ставят социальную миссию на первое место наряду с прибылью и признаны правительством как отвечающие общественным интересам. PBC по закону обязаны преследовать социальные или экологические цели в дополнение к получению прибыли и раз в два года должны отчитываться перед акционерами об успехах в достижении этих целей. OpenAI, один из самых дорогостоящих стартапов в мире, начал свою деятельность в 2015 году как некоммерческая организация, ориентированная на исследования, но, по мере роста популярности ИИ, всё настойчивее стремится изменить формат, чтобы привлечь ещё больше инвестиций. Последний раунд финансирования в размере $6,6 млрд при оценке рыночной стоимости компании в $157 млрд во многом зависел от того, сможет ли OpenAI изменить свою корпоративную структуру, чтобы снять ограничение прибыли для инвесторов. «Нам снова нужно привлечь больше капитала, чем мы предполагали. Инвесторы хотят поддержать нас, но при таком масштабе капитала им нужен обычный капитал и меньше структурной индивидуализации», — сообщила компания в своём блоге. OpenAI планирует превратить своё существующее коммерческое подразделение в корпорацию общественного блага, зарегистрированную в Делавэре, что, по словам компании, позволит «привлекать необходимый капитал на обычных условиях, как и другие в этой сфере». ![]() Некоммерческое подразделение OpenAI сможет приобретать акции PBC по цене, определённой независимыми финансовыми консультантами. Отметим, что конкуренты OpenAI, такие как Anthropic и xAI, используют похожую структуру бизнеса. Microsoft и OpenAI договорились, как не проморгать появление сильного ИИ
27.12.2024 [14:48],
Владимир Фетисов
По сообщениям сетевых источников, компании Microsoft и OpenAI имеют конкретное внутреннее определение сильного ИИ (Artificial General Intelligence, AGI), т.е. системы, которая способна решать задачи наравне с человеком, основанное на показателе прибыли стартапа. Согласно этому определению, OpenAI находится в годах работы от достижения данной цели. ![]() Источник изображений: OpenAI В сообщении сказано, что в прошлом году Microsoft и OpenAI подписали соглашение, согласно которому OpenAI сможет создать AGI только в случае, если удастся разработать ИИ-системы, способные приносить прибыль в размере не менее $100 млрд. Это определение далеко от строгого технического и философского определения AGI, которого ожидают многие. Согласно имеющимся данным, по итогам текущего года убыток OpenAI составит миллиарды долларов, и компания уже сообщила инвесторам, что начнёт получать прибыль не ранее 2029 года. Это важная деталь, поскольку Microsoft может потерять доступ к технологиям OpenAI, когда стартап создаст AGI —систему, точное определение которой может звучать по-разному. Существует мнение, согласно которому OpenAI может объявить о создании AGI раньше запланированного срока, чтобы вытеснить Microsoft. Однако соглашение между двумя компаниями означает, что софтверный гигант может иметь доступ к технологиям ИИ-стартапа в течение десяти лет или более. Ранее в этом месяце велось активное обсуждение того, насколько алгоритм OpenAI o3 может считаться значительным шагом на пути к созданию AGI. Хотя o3 работает лучше большинства ИИ-моделей, алгоритм всё ещё нуждается в значительных вычислительных мощностях, что не сулит ничего хорошего для ориентированного на прибыль определения AGI. В работе ChatGPT произошёл глобальный сбой
26.12.2024 [23:22],
Андрей Созинов
ChatGPT перестал работать у многих пользователей по всему миру. Многочисленные сообщения в социальных сетях, а также наша собственная проверка показали, что чат-бот загружается, но не отвечает на запросы. Также многие пользователи видят сообщение о «внутренней ошибке сервера». ![]() Похоже, что перебои начались примерно в 21:30 по московскому времени. Именно тогда на Down Detector начали появляться сообщения. В 22:00 по московскому времени OpenAI опубликовала обновление на странице состояния своих сервисов, сообщив, что ChatGPT, его API и генератор видео по текстовому описанию Sora «в настоящее время испытывают высокий уровень ошибок». В обновлении, опубликованном в 22:18 по московскому времени, говорится, что проблема «вызвана вышестоящим провайдером» и что OpenAI в настоящее время отслеживает ситуацию. ![]() В 23:06 по московскому времени OpenAI заявила, что «продолжает работать над исправлением». О сроках восстановления полной работоспособности сервисов пока ничего не говорится. ![]() За последние несколько месяцев ChatGPT уже несколько раз выходил из строя. Всего через несколько дней после того, как OpenAI выпустила Sora для платных подписчиков ChatGPT в начале этого месяца, инструмент для создания видео и ChatGPT вышли из строя на несколько часов. Между тем, в июне ChatGPT был выведен из строя в результате широкомасштабного сбоя. Веб-поиск ChatGPT оказался беззащитен перед манипуляциями и обманом
25.12.2024 [16:41],
Павел Котов
Поисковая служба OpenAI ChatGPT оказалась открытой для манипуляций с использованием скрытого содержимого, а в качестве ответов на запросы она может возвращать вредоносный код с сайтов, по которым производится поиск. Об этом пишет Guardian со ссылкой на результаты собственного расследования. ![]() Источник изображения: Growtika / unsplash.com Надёжность функции веб-поиска ChatGPT вызывает сомнения. Издание Guardian решило проверить, как искусственный интеллект реагирует на просьбу составить сводку содержимого веб-страницы, на которой есть скрытый текст. В нём могут находиться дополнительные инструкции, способные изменить ответы ChatGPT — недобросовестные владельцы ресурсов могут пользоваться этим методом злонамеренно, например, заставить систему дать положительный отзыв о продукте вопреки размещённым на той же странице отрицательным отзывам. Чат-бот также может выдавать в ответах вредоносный код с сайтов в поиске. В ходе тестирования ChatGPT предложили адрес поддельного ресурса, который выглядел как страница с описанием камеры, после чего ИИ задали вопрос, стоит ли покупать это устройство. Система вернула положительную, но сбалансированную оценку с указанием моментов, которые могли не нравиться людям. Когда же в скрытый текст включили прямую инструкцию ChatGPT дать положительный отзыв, чат-бот так и поступил. Положительную оценку может обеспечить и скрытый текст без инструкций — достаточно внести в него поддельные положительные отзывы о товаре. Не меньшую опасность представляет и размещённый в скрытом тексте страницы вредоносный код. Эксперт в области кибербезопасности Microsoft Томас Роччиа (Thomas Roccia) рассказал об инциденте, когда энтузиаст в области криптовалют запросил у ChatGPT помощь в программировании, и часть предоставленного чат-ботом кода оказалась вредоносной, в результате чего учётные данные программиста были похищены, и он потерял $2500. Современные большие языковые модели, на которых строятся чат-боты, чрезвычайно доверчивы; обладая большими объёмами информации, они «очень ограничены в плане способности принимать решения», отмечают специалисты. Важно ответить на вопрос, как эти уязвимости могут изменить ландшафт веб-ресурсов, и как может преобразиться спектр угроз для пользователей, если общедоступные большие языковые модели начнут работать с поиском. Традиционные поисковые системы, включая Google, понижают в выдаче сайты, на которых используется скрытый текст, поэтому рассчитывающие на высокие позиции в результатах ресурсы едва ли будут активно пользоваться этим приёмом. С другой стороны, есть такое явление как «SEO-отравление» — мощная поисковая оптимизация сайтов с вредоносным кодом. В OpenAI достаточно сильные специалисты по безопасности в области ИИ, поэтому есть вероятность, что в перспективе вероятность подобных инцидентов снизится. OpenAI рассматривает возможность выпуска человекоподобных роботов
25.12.2024 [14:54],
Владимир Фетисов
OpenAI рассматривает возможность производства человекоподобных роботов, программной основой которых могут стать разработанные компанией алгоритмы на базе искусственного интеллекта. По данным источника, в настоящее время возможность создания роботов-гуманоидов обсуждается внутри компании. ![]() Источник изображения: Levart_Photographer / Unsplash О намерениях OpenAI заняться робототехникой написало издание The Information ссылкой на двух неназванных людей, непосредственно знакомых с этим вопросом. Издание утверждает, что OpenAI рассматривает возможность разработки именно гуманоидных роботов, похожих на людей. Однако в заметке не уточняется, идёт ли речь о первоначальных обсуждениях или же у производителя ChatGPT уже есть готовый план действий. Интерес OpenAI к робототехнике не является чем-то новым, поскольку раньше в компании было занимающееся разработкой роботов подразделение, но оно перестало функционировать ещё до выхода алгоритма GPT-3. Основной причиной закрытия подразделения стало отсутствие необходимого количества данных для обучения машин. Кроме того, OpenAI продолжает инвестировать в несколько робототехнических стартапов через своё венчурное подразделение. По данным осведомлённых источников, недавно OpenAI вернулась к рассмотрению идеи создания человекоподобных роботов. Однако не уточняется, на какой стадии находится это обсуждение, и есть ли у компании готовый план по развитию данного направления. Ранее в этом году СМИ писали, что OpenAI открыла несколько вакансий на должность инженеров-исследователей, которые должны были присоединиться к робототехническому подразделению. В описании вакансий упоминалось создание мультимодальных больших языковых моделей с целью «открыть новые возможности для роботов наших партнёров». В числе этих «партнёров» могут быть несколько стартапов, в которые OpenAI инвестирует значительные средства, включая Figure AI и 1X Technologies. В прошлом месяце OpenAI также вложила средства в стартап Physical Intelligence, который разрабатывает программное обеспечение на базе ИИ, предназначенное для использования в роботах. Microsoft перестала полагаться только на ИИ-разработки OpenAI
24.12.2024 [14:56],
Владимир Мироненко
Microsoft планирует задействовать для ИИ-помощника Copilot в составе пакета офисных приложений Microsoft 365 собственные ИИ-модели и продукты других разработчиков. Это решение отражает намерения компании диверсифицировать базовую ИИ-технологию от OpenAI и сократить расходы, пишет Reuters со ссылкой на информированные источники. ![]() Источник изображения: Microsoft Намерение Microsoft, главного инвестора OpenAI, снизить свою зависимость от ИИ-стартапа является отходом от её прежней политики, когда одним из главных преимуществ своих предложений компания называла ранний доступ к ИИ-моделям OpenAI. Например, представляя в марте 2023 года Microsoft 365 Copilot, компания указала в числе основных преимуществ ИИ-помощника поддержку модели GPT-4 от OpenAI. По словам источников, стремление Microsoft уменьшить зависимость 365 Copilot от технологий OpenAI вызвано опасениями по поводу высокой стоимости и скоростных качеств продукта для корпоративных пользователей. Представитель Microsoft заявил, что OpenAI продолжает оставаться партнёром компании по развёртыванию моделей Frontier AI — самых передовых моделей ИИ. Согласно соглашению о партнёрстве, софтверная компания может настраивать модели OpenAI. «Мы включаем различные модели OpenAI и Microsoft в зависимости от продукта и опыта», — указано в заявлении Microsoft. Помимо обучения собственных моделей, включая новейшую Phi-4, Microsoft также работает над настройкой других моделей с открытым весом (open weight), чтобы сделать 365 Copilot быстрее и эффективнее, добавили источники. Цель состоит в том, чтобы сделать запуск Microsoft 365 Copilot для компании менее затратным, что потенциально может позитивно отразиться на расходах конечного потребителя. Другие бизнес-подразделения Microsoft тоже стремятся диверсифицировать использование ИИ-моделей OpenAI. Например, веб-сервис GitHub добавил модели от Anthropic и Google в качестве альтернативы OpenAI GPT-4o. Обновлённый в октябре чат-бот Microsoft Copilot теперь использует для работы собственные ИИ-модели компании в дополнение к моделям OpenAI. На данный момент неясно, в какой мере окупаются вложения компании в Microsoft 365 Copilot. Согласно опросу, проведённому фирмой Gartner среди 152 компаний в сфере информационных технологий, подавляющее большинство из них не продвинулось в использовании 365 Copilot дальше пилотной стадии. Тем не менее аналитики BNP Paribas Exane отметили ускорение внедрения 365 Copilot, прогнозируя, что Microsoft продаст его более чем 10 млн платных подписчиков в этом году. Microsoft также указала в ноябре в своём блоге, что 70 % компаний из списка Fortune 500 используют 365 Copilot. OpenAI подарила неограниченный доступ к ИИ-генератору видео Sora, но не всем и не навсегда
22.12.2024 [15:03],
Анжелла Марина
В ходе своего 12-дневного мероприятия OpenAI Shipmas, на котором был также представлен генератор видео на базе искусственного интеллекта Sora, генеральный директор компании Сэм Альтман (Sam Altman) порадовал пользователей ChatGPT Plus, объявив о предоставлении неограниченного доступа к Sora на время праздников. ![]() Источник изображения: OpenAI, aitoolsclub.com Как пишет AI Tools Club, Альтман объяснил это решение на своей странице в X/Twitter, отметив, что в конце декабря мощности графических процессоров (GPU) OpenAI используются меньше, поскольку люди уходят в отпуск. Это позволяет снизить очередь и предоставить пользователям неограниченные возможности для создания видеороликов. «Наши GPU в конце декабря немного освобождаются, поскольку люди делают перерыв в работе, поэтому мы предоставляем всем пользователям Plus неограниченный доступ к Sora на праздники. Наслаждайтесь творчеством!» — сказал Альтман. Напомним, ИИ-генератор видео по текстовым запросам Sora был запущен около 10 дней назад и стал ещё одним успешным проектом OpenAI, дополнив линейку таких инструментов, как ChatGPT и DALL-E. Модель доступна на сайте Sora.com для платных пользователей ChatGPT в США и некоторых других стран, и пользуется огромной популярностью. Позднее представитель OpenAI Рохан Сахаи (Rohan Sahai) поделился ещё одной новостью. Доступ к Sora теперь получат не только обычные пользователи, но и команды, использующие корпоративные аккаунты. Кроме того, Сахаи сообщил, что в генераторе улучшена функция «смешивания» (blend feature), и появилась возможность поделиться сгенерированными видео с друзьями — даже с теми, у кого нет в OpenAI аккаунта. OpenAI не удаётся доделать GPT-5 Orion — обучение обходится дорого, а данных не хватает
21.12.2024 [18:05],
Павел Котов
OpenAI отстаёт от графика разработки флагманской модели искусственного интеллекта последней версии — она получит название GPT-5, а пока проходит под кодовым именем Orion. Компания занимается этим уже 18 месяцев, пытаясь выйти на желаемый результат, но терпит неудачи — во всём мире не хватает данных, чтобы сделать модель достаточно умной, пишет Wall Street Journal. ![]() Источник изображения: Mariia Shalabaieva / unsplash.com OpenAI провела как минимум два больших учебных запуска, каждый из которых предполагает несколько месяцев обработки данных с целью доделать Orion. Всякий раз возникали новые проблемы, и система не давала результатов, на которые надеялись исследователи. В теперешнем виде Orion работает лучше существующих систем OpenAI, но, по версии разработчиков, она недостаточно продвинулась, чтобы оправдать огромные затраты на поддержание новой модели в рабочем состоянии. Обучение продолжительностью шесть месяцев может обойтись примерно в $500 млн только на вычислительные затраты. Два года назад OpenAI и её гендиректор Сэм Альтман (Sam Altman) произвели фурор с выпуском ChatGPT. Тогда казалось, что ИИ проникнет во все аспекты жизни современного человека и существенно её улучшит. Аналитики предсказали, что в ближайшие годы затраты технологических гигантов на ИИ составят до $1 трлн. Самая большая ответственность возлагается на OpenAI, которая и породила бум ИИ. Октябрьский раунд финансирования компании проводился при оценке $157 млрд — не в последнюю очередь из-за того, что Альтман пообещал «значительный скачок вперёд» по всех областях и задачах с GPT-5. Модель, как ожидается, будет совершать научные открытия и с лёгкостью выполнять повседневные человеческие задачи, такие как запись на приём и бронирование билетов на самолёт. Исследователи также надеются, что она научится сомневаться в собственной правоте и станет реже «галлюцинировать» — прекратит уверенно давать не соответствующие действительности ответы. Если принять, что GPT-4 действует на уровне умного старшеклассника, то от GPT-5 в отдельных задачах ждут уровня доктора наук. Чётких критериев определить, достойна ли модель нового поколения называться GPT-5, не существует: системы тестируются на задачах по математике и программированию, но окончательный вердикт исследователи выносят на интуитивном уровне, и этого до сих пор не произошло. Про разработку больших языковых моделей говорят, что это не только наука, но и искусство. ![]() Источник изображения: Growtika / unsplash.com Тестирование моделей производится во время тренировочных запусков — продолжительных периодов, в которые им отправляются триллионы токенов, то есть фрагментов слов. Крупный тренировочный запуск может потребовать нескольких месяцев работы дата-центров и десятков тысяч ИИ-ускорителей Nvidia. Обучение GPT-4, по словам Альтмана, обошлось в $100 млн; как ожидается, обучение будущих моделей будет стоить дороже $1 млрд. Неудачный тренировочный запуск в чём-то схож с неудачным испытанием ракеты. Исследователи стараются снижать вероятность таких неудач, проводя эксперименты в меньших масштабах — пробные запуски перед полномасштабными. В середине 2023 года OpenAI провела пробный учебный запуск, который стал тестом для вероятной архитектуры Orion — особых результатов эксперимент не принёс: стало ясно, что полномасштабный учебный запуск займёт слишком много времени и обойдётся очень дорого. Результаты проекта Arrakis показали, что создание GPT-5 пойдёт не так гладко, как надеялись исследователи. Они начали вносить некоторые технические изменения, чтобы усилить Orion, и пришли к выводу, что потребуется большой объём разнообразных высококачественных данных, и информации из общедоступного интернета может не хватить. Модели ИИ, как правило, становятся умнее по мере того, как поглощают большие объёмы данных — обычно книг, академических публикаций и других заслуживающих доверия источников, которые помогают ИИ выражаться более чётко и справляться с широким спектром задач. При обучении предыдущих моделей OpenAI не пренебрегала и другими источниками, такими как новостные статьи и даже сообщения в соцсетях. Но чтобы сделать Orion умнее, необходимы дополнительные источники данных, и их недостаточно. Тогда в компании решили создавать эти данные самостоятельно: наняли людей для написания кода и решения математических задач, которые давали пошаговые объяснения своих действий. OpenAI привлекла специалистов по теоретической физике, которые подготовили объяснения, какой подход они бы применили к решению сложнейших проблем в своей области. Процесс идёт чрезвычайно медленно. GPT-4 была обучена на 13 трлн токенов — для сравнения, тысяча человек, которые пишут по пять тысяч знаков в день, сгенерировала бы миллиард токенов за несколько месяцев. Поэтому в OpenAI начали разрабатывать синтетические данные — заставлять другие системы ИИ генерировать данные для обучения нового ИИ. Но исследования показали, что циклы обратной связи между генерацией данных с помощью ИИ для ИИ грозят сбоями или бессмысленными ответами. Для устранения этой проблемы генерацию данных доверили другой модели — o1. ![]() Источник изображения: Mariia Shalabaieva / unsplash.com К началу 2024 года руководство OpenAI стало понимать, что сроки поджимают. GPT-4 исполнился год, конкуренты стали догонять, а новая модель Anthropic, по некоторым оценкам, её превзошла. Проект Orion застопорился, и OpenAI пришлось переключиться на другие проекты и приложения: вышли облегчённый вариант GPT-4 и генератор видео Sora. В результате возникла внутренняя конкуренция — за ограниченные вычислительные ресурсы состязались разработчики Orion и прочих продуктов. Конкуренция же среди разработчиков ИИ ожесточилась до такой степени, что крупные технологические компании стали публиковать меньше статей о последних открытиях или прорывах, чем это принято в научном сообществе. На рынок хлынул поток денег, и корпорации стали рассматривать результаты исследований как коммерческую тайну, которую следует охранять. Дошло до того, что исследователи перестали работать в самолётах, кофейнях и других общественных местах, где кто-то мог заглянуть через плечо. В начале 2024 года OpenAI подготовилась к очередной попытке запуска Orion, вооружившись более качественным набором данных. В течение нескольких первых месяцев года исследователи провели несколько небольших обучающих запусков, чтобы знать, в каком направлении работать дальше. К маю они решили, что готовы провести крупномасштабный запуск Orion, который должен был продлиться до ноября. Но уже на начальном этапе вскрылась связанная с данными проблема: они оказались менее диверсифицированными, чем ожидалось, что ограничило потенциальное качество обучения ИИ. Проблема не проявлялась в пробных проектах и стала очевидной только после того, как начался большой запуск — но к тому времени OpenAI потратила слишком много времени и денег, чтобы начинать всё заново. Исследователи попытались найти более широкий диапазон данных для передачи модели в процессе обучения, но до сих пор неясно, оказалась ли эта стратегия плодотворной. Трудности с Orion указали OpenAI на новый подход к тому, как сделать большие языковые модели умнее — рассуждения. Способность к рассуждениям помогает ИИ решать сложные проблемы, которым он не обучался. Так устроена модель OpenAI o1 — она генерирует несколько ответов на каждый вопрос и анализирует их в поисках лучшего. Но и в этом уверенности пока нет: по мнению исследователей Apple, «рассуждающие» модели, вероятно, лишь интерпретируют полученные при обучении данные, но новых задач в действительности не решают. К примеру, если внести в условиях исходной задачи незначительные изменения, которые не имеют отношения к её решению, качество ответа ИИ резко падает. Эти дополнительные интеллектуальные способности обходятся дорого: OpenAI приходится оплачивать генерацию нескольких ответов вместо одного. «Оказалось, что если бот думает всего 20 секунд в партии в покер, затраты возрастают так же, как если бы модель разрасталась в 100 000 раз и обучалась в 100 000 раз дольше», — рассказал научный сотрудник OpenAI Ноам Браун (Noam Brown). В основу Orion может лечь более продвинутая и эффективная модель, способная к рассуждениям. Исследователи компании придерживаются этого подхода и надеются объединить его с большими объёмами данных, часть из которых может поступать из других моделей ИИ, созданных OpenAI. Затем результаты её работы будут уточняться на материале, созданном людьми. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |