Опрос
|
реклама
Быстрый переход
OpenAI проведёт в ноябре первую конференцию для разработчиков — на ней покажут новые продукты
07.09.2023 [16:14],
Николай Хижняк
Компания OpenAI объявила о планах провести первую конференцию для разработчиков OpenAI DevDay. Однодневное мероприятие, запланированное на 6 ноября, соберёт в Сан-Франциско (Калифорния, США) разработчиков со всего мира. Они смогут принять участие в технических сессиях и демонстрациях новых продуктов. ![]() Источник изображения: Neowin Посредством конференции OpenAI стремится укрепить свои отношения с сообществом разработчиков. Это играет ключевую роль в быстром внедрении технологий искусственного интеллекта. «Однодневное мероприятие соберёт сотни разработчиков со всего мира вместе с командой OpenAI, чтобы изучить новые инструменты и обменяться новыми идеями. Участники конференции также смогут присоединиться к секционным заседаниям, которые будут проводиться техническими специалистами OpenAI. Мы с нетерпением ждём возможности показать наши последние решения, которые позволят разработчикам создавать новые продукты», — отметила компания. Сегодня более двух миллионов разработчиков используют модели OpenAI, такие как GPT-4, GPT-3.5, Dall-E и Whisper, в своих приложениях и продуктах. На конференции OpenAI DevDay компания, вероятно, представит обновления диалогового агента ChatGPT, использующего языковые модели GPT-4 и GPT-3.5. Хотя те же Google и Microsoft стремятся не отставать от конкурента и предлагают свои модели ИИ, OpenAI называет себя авангардом инноваций в области искусственного интеллекта. Недавно компания запустила корпоративную версию ChatGPT Enterprise с дополнительными функциями и средствами защиты конфиденциальности, которые недоступны в обычных версиях ChatGPT. Подробную информацию о регистрации для участников конференции OpenAI предоставит позже. Компания также планирует транслировать основную часть DevDay в прямом эфире. Годовая выручка разработчика ChatGPT приблизилась к $1 млрд
30.08.2023 [17:36],
Николай Хижняк
Годовая выручка компании OpenAI, занимающейся разработкой и лицензированием технологий на основе машинного обучения, приближается к $1 млрд, пишет Bloomberg. Технологии компании используются в основе ChatGPT — генеративного бота с искусственным интеллектом, получившего значительную популярность среди множества компаний и привлекшего значительную волну инвестиций в область ИИ. ![]() Источник изображения: Mariia Shalabaieva / unsplash.com Стартап, поддерживаемый компанией Microsoft, зарабатывает около $80 миллионов ежемесячно, сообщил изданию источник, проинформированный по этому вопросу, но попросивший об анонимности. Впервые о доходах OpenAI сообщило издание The Information, в частности, отметив, что в 2022 году компания потеряла около 540 миллионов долларов на разработке языковой модели GPT-4 и чат-бота ChatGPT. OpenAI считается одной из нескольких компаний, находящихся в авангарде разработок генеративного искусственного интеллекта, способного создавать контент, от видео до стихов, с помощью нескольких простых пользовательских команд. С момента дебюта своего бота в ноябре OpenAI лицензирует его молодым компаниям и крупным корпорациям, а также помогает внедрять технологию в их экосистемы бизнеса, продуктов и сервисов. В этом месяце компания запустила корпоративную версию ChatGPT с дополнительными функциями и средствами защиты конфиденциальности. Это самая значительная попытка стартапа привлечь широкий круг бизнес-клиентов и увеличить доходы от своего самого известного продукта. Внедрение ChatGPT Enterprise — шаг вперёд в планах OpenAI по зарабатыванию денег на своём сверхпопулярном, но весьма дорогом в вопросе внедрения и эксплуатации продукте. Для работы модели искусственного интеллекта требуются значительные специализированные вычислительные мощности. Компания уже реализовала несколько моделей получения дохода с ChatGPT, например, предложив клиентам премиальную подписку, а также платный доступ к интерфейсу программирования ПО, который разработчики могут использовать для добавления чат-бота в другие приложения. OpenAI запустила корпоративную версию ChatGPT с повышенной конфиденциальностью
29.08.2023 [12:34],
Павел Котов
OpenAI представила корпоративную версию ChatGPT, в которой сделан акцент на защиту конфиденциальной корпоративной информации. Множество компаний рассматривает возможность внедрения ИИ-платформы в свою деятельность, но сдерживающим фактором пока оставались соображения конфиденциальности и безопасности данных. ![]() Источник изображения: Mariia Shalabaieva / pixabay.com OpenAI отметила, что ChatGPT Enterprise предлагает повышенную безопасность, конфиденциальность и неограниченный высокоскоростной доступ к модели GPT-4, которая обеспечивает мощный анализ данных и позволяет задавать ChatGPT сложные вопросы. Проблемы конфиденциальности и безопасности серьёзно тревожат представителей бизнеса, которые опасаются, что их данные будут использоваться для обучения ChatGPT — конфиденциальная информация клиентов и секреты фирм должны оставаться неприкосновенными. В OpenAI подчеркнули, что пользователи ChatGPT Enterprise смогут контролировать свои данные в полной мере, и на обучение моделей GPT они гарантированно не пойдут. В ближайшее время появятся инструменты для настройки знаний ChatGPT о компании, а также продвинутые инструменты аналитики. Появятся также тарифы ChatGPT Enterprise для небольших компаний. Корпоративная версия чат-бота отделена от базовой ChatGPT и потребительской премиум-подписки ChatGPT Plus. Уже использующие сервис компании смогут сохранить доступ к нему либо переключиться на его корпоративную версию, если необходим доступ к новым функциям. Организации уже разрабатывают собственные инструменты с использованием генеративного искусственного интеллекта — многие предпочитают подключаться к GPT-4 через API и облачные платформы. Некоторые начали создавать свои собственные большие языковые модели в попытке защитить корпоративные данные. Появились поставщики услуг, предлагающие защиту данных при доступе к большим языковым моделям вроде GPT-4 — выход ChatGPT Enterprise станет очередным предложением на этом рынке. Недавно OpenAI представила инструменты для индивидуальной настройки GPT-3.5 под нужды конкретного бизнеса. OpenAI представила новые возможности настройки GPT-3.5 Turbo
23.08.2023 [10:55],
Дмитрий Федоров
OpenAI расширила возможности настройки чат-бота GPT-3.5 Turbo и позволила бизнесу адаптировать ИИ-сервис под конкретные задачи, например, для написания программного кода или поддержания определённого стиля общения. Это может значительно улучшить эффективность интеллектуальной системы в определённых областях. ![]() Источник изображения: Tumisu / Pixabay До этого момента бизнес-клиенты могли использовать только определённые конфигурации GPT-3, такие как davinci-002 или babbage-002. Теперь же, благодаря предварительному обучению, модель может быть адаптирована под конкретные нужды заказчика. OpenAI уточняет, что данные, использованные для настройки чат-бота, не будут использоваться для обучения других моделей за пределами клиентской компании. GPT-3.5 Turbo представляет собой семейство ИИ-моделей, которое в начале года представила OpenAI. Оно способно обрабатывать до 4 000 токенов за раз, что в два раза больше, чем предыдущие модели. Ранние тестировщики отметили, что после настройки GPT-3.5 их запросы стали короче на 90 %. Что касается стоимости, то обучение GPT-3.5 Turbo обходится в $0,0080 за 1000 токенов, а его использование — в $0,0120 за 1000 токенов ввода и вывода данных. Не стоит забывать и о конкурентах. Microsoft также предлагает модели на основе GPT, которые можно настраивать в рамках сервисов AI Builder и Power Virtual Agents. Кроме того, OpenAI планирует предоставить возможность настройки GPT-4 уже этой осенью. OpenAI приобрела стартап Global Illumination, создавший клон Minecraft
17.08.2023 [13:39],
Дмитрий Федоров
OpenAI, компания-разработчик популярного чат-бота ChatGPT на базе ИИ, объявила о приобретении стартапа Global Illumination, специализирующегося на разработке креативных инструментов с использованием искусственного интеллекта. Это первая публичная сделка по приобретению за семь лет существования компании. ![]() Источник изображения: Pexels / Pixabay Global Illumination была основана в 2021 году и занимается разработкой программных решений для таких компаний, как Instagram✴, Facebook✴, YouTube, Google, Pixar и Riot Games. В блоге OpenAI говорится о том, что вся команда Global Illumination присоединилась к OpenAI и будет работать над основными продуктами, включая ChatGPT . Условия сделки не раскрываются. Последним творением Global Illumination стала многопользовательская онлайн-игра Biomesв стиле Minecraft. Судьба игры пока неясна, но можно предположить, что деятельность команды в OpenAI будет менее ориентирована на развлечения. Хотя OpenAI до этого избегала приобретений, компания, поддерживаемая миллиардами долларов Microsoft и других крупных венчурных фондов, уже несколько лет инвестирует в стартапы в области ИИ. OpenAI активно ищет коммерческий успех. Несмотря на мировую известность ChatGPT, на его разработку было потрачено более $540 млн. При этом выручка OpenAI составила в прошлом году всего $30 млн. Однако генеральный директор Сэм Альтман (Sam Altman) заявил инвесторам о планах увеличить этот показатель до $200 млн в этом году и до $1 млрд в следующем. Приобретение Global Illumination может стать ключевым моментом в стратегии OpenAI. В то время как ChatGPT уже завоевал популярность, интеграция новых технологий и привлечение новых экспертов может ускорить рост и развитие компании в будущем. OpenAI предложила GPT-4 на роль беспристрастного модератора
16.08.2023 [11:12],
Павел Котов
OpenAI рассказала, что её разработки способны облегчить решение одной из самых сложных и неприятных технических задач — задачи модерации контента. Большая языковая модель GPT-4 способна заменить десятки тысяч модераторов-людей, демонстрируя столь же высокую точность и даже большую последовательность. ![]() Источник изображения: ilgmyzin / unsplash.com Компания OpenAI сообщила в корпоративном блоге, что уже использует GPT-4 для уточнения собственной политики в отношении контента, его маркировки и принятия отдельных решений. Разработчик даже привёл ряд преимуществ искусственного интеллекта перед традиционными подходами к модерации контента. Во-первых, люди интерпретируют политику по-разному, тогда как машины последовательны в своих суждениях. Рекомендации по модерации могут быть объёмными и постоянно меняться — людям требуется много времени, чтобы научиться и адаптироваться к переменам, а большие языковые модели реализуют новые политики мгновенно. Во-вторых, GPT-4 способен помочь разработать новую политику в течение нескольких часов. Процесс составления маркировки, сбора отзывов и уточнений обычно занимает несколько недель или даже месяцев. В-третьих, нельзя забывать о психологическом благополучии работников, которые по долгу службы постоянно сталкиваются с вредоносным контентом. Популярные соцсети существуют уже почти два десятилетия, не говоря о прочих онлайн-сообществах, но модерация контента по-прежнему остаётся одной из сложнейших задач для онлайн-платформ. Meta✴, Google и TikTok сформировали целые армии модераторов, которым приходится просматривать ужасный и часто травмирующий контент. Большинство из них проживает в развивающихся странах с низкой заработной платой, работает в аутсорсинговых компаниях и пытается самостоятельно справляться с психологическими травмами, получая минимальный объём помощи. ![]() Источник изображения: D koi / unsplash.com OpenAI и сама в значительной степени ещё полагается на человеческий ресурс — она нанимает работников из африканских стран для комментирования и разметки контента. Этот контент может быть проблемным, что делает работу таких сотрудников напряжённой при низкой зарплате. А вышеупомянутые Meta✴, Google и TikTok в дополнение к модераторам-людям пользуются услугами ИИ-моделей собственной разработки, поэтому предложенное OpenAI решение окажется полезным для небольших компаний, у которых нет ресурсов на разработку собственных систем. Каждая платформа признаёт, что идеальных механизмов модерации в больших масштабах не существует: ошибки совершают и люди, и машины. Процент ошибок может быть низким, но в открытый доступ по-прежнему прорываются миллионы потенциально опасных публикаций — и, вероятно, такое же число безвредного контента скрывается или удаляется. Плюс остаётся «серая зона» недостоверного или агрессивного контента, который отвечает требованиям политики модерации, но озадачивает автоматизированные системы — такой контент сложно оценивать даже модераторам-людям, вот и машины часто совершают ошибки. То же относится к публикациям сатирического характера и материалам, документирующим преступления или превышения полномочий сотрудниками правоохранительных органов. Наконец, нельзя забывать и о внутренних проблемах, характерных для систем ИИ — «галлюцинациях» и «дрейфе», которые также способны затруднить работу ИИ-модераторов. ИИ заставили вскрывать учётные записи текстовыми командами — навыки хакера больше не нужны
10.08.2023 [10:42],
Павел Котов
Исследователь технологий кибербезопасности Иоганн Ребергер (Johann Rehberger) «уговорил» ChatGPT произвести несколько потенциально опасных операций: прочитать сообщение его электронной почты, составить из него сводку и опубликовать эту информацию в интернете, сообщает The Wall Street Journal. В руках злоумышленника такой инструмент мог бы стать грозным оружием. ![]() Источник изображения: Franz Bachinger / pixabay.com Чат-боты на алгоритмах искусственного интеллекта вроде ChatGPT, как выразился господин Ребергер, «снижают входной барьер для атак всех видов. Не нужно уметь писать код. Не обязательно иметь глубокие познания в информатике или хакерском деле». Описанный им способ атаки неприменим к большинству учётных записей ChatGPT — он основан на экспериментальной функции, открывающей доступ к Slack, Gmail и другим приложениям. В ответственной за ChatGPT компании OpenAI поблагодарили эксперта за предостережение и сообщили, что заблокировали возможность повторного осуществления подобных атак. Предложенный Ребергером механизм «командных инъекций» (prompt injection) — это новый класс кибератак, который раскрывается по мере внедрения компаниями технологий ИИ в свой бизнес и потребительские продукты. Подобные методы меняют представление о природе хакерского дела, и специалистам по кибербезопасности предстоит ещё открыть множество уязвимостей, прежде чем присутствие ИИ станет действительно повсеместным. Лежащая в основе ChatGPT технология генеративного ИИ, которая позволяет создавать целые фразы и предложения — это нечто вроде средства автозаполнения «на максималках». Поведение чат-ботов ограничивается разработчиками: существуют инструкции, призванные не позволять им разглашать конфиденциальную информацию или запрещающие им высказывания оскорбительного характера. Но существуют решения, позволяющие обходить эти запреты. К примеру, Иоганн Ребергер попросил чат-бота создать сводку веб-страницы, на которой он сам написал большими буквами: «НОВЫЕ ВАЖНЫЕ ИНСТРУКЦИИ» — и это озадачило машину. Постепенно он заставлял ChatGPT выполнять самые разные команды. «Это как кричать на систему „А ну, делай это”», — пояснил Ребергер. По сути, он принудил ИИ перепрограммировать себя. Методика «командных инъекций» оказалась работоспособной из-за важной особенности систем ИИ: они не всегда должным образом отличают системные команды от вводимых пользователями данных, пояснил профессор Принстонского университета Арвинд Нараянан (Arvind Narayanan). Это значит, что разработчикам ИИ следует уделять внимание не только классическим аспектам кибербезопасности, но и учитывать новые угрозы заведомо непредсказуемого характера. Поискового робота OpenAI теперь можно не пускать к себе на сайт
08.08.2023 [14:04],
Павел Котов
OpenAI сообщила, что администраторы веб-сайтов теперь могут целенаправленно частично или полностью запретить её поисковому роботу GPTBot посещать их ресурсы, указав в служебном файле robots.txt соответствующие директивы. ![]() Источник изображения: Mariia Shalabaieva / unsplash.com «Веб-страницы, проиндексированные при помощи [робота со значением строки] user-agent GPTBot, потенциально могут использоваться для улучшения будущих моделей и фильтруются с целью удаления источников, требующих платного доступа, известных сбором информации для идентификации личности или содержащих текст, нарушающий наши политики», — говорится в справочном разделе на сайте OpenAI. Для источников, не соответствующих исключающим критериям, «открытие доступа GPTBot к вашему сайту может помочь моделям стать более точными и улучшить их общие возможности и безопасность». На практике блокировка GPTBot доступа к сайтам — важный шаг, который поможет пользователям интернета отказаться от включения своих персональных данных в массивы информации для обучения больших языковых моделей. В прошлом году платформа DeviantArt внедрила тег NoAI — работы с этой пометкой исключаются из массива обучающих данных ChatGPT. Обучение ИИ зачастую производится с использованием больших массивов данных, которые собираются в интернете, и разработчики нейросетей пока не раскрывают, какая именно информация для этого используется — непонятно даже, присутствуют ли в списке ресурсов соцсети. Тем временем администрации Reddit и Twitter напрямую выступили против включения их данных в массивы для обучения ИИ — пришлось сделать доступ к API платным. Интеллектуальные способности ChatGPT деградировали из-за попыток его улучшить, выяснили учёные
08.08.2023 [11:55],
Павел Котов
Учёные сообщили об очередной проблеме, которая может преследовать чат-боты, основанные на платформах искусственного интеллекта — этот феномен называется «дрейфом» (drift), и он отражает деградацию интеллектуальных способностей системы. ![]() Источник изображения: D koi / unsplash.com Дебютировавший в прошлом году ChatGPT произвёл настоящую революцию в области искусственного интеллекта и даже косвенно способствовал разразившейся в Голливуде забастовке сценаристов. Но опубликованное учёными Стэнфордского университета и Калифорнийского университета в Беркли (США) исследование указывает на новую проблему ИИ: ChatGPT стал хуже выполнять некоторые элементарные математические операции. Этот феномен известен как «дрейф»: попытка усовершенствовать одну часть сложной модели ИИ приводит к ухудшению работы других её областей. И это, отмечают исследователи, значительно усложняет непрерывное совершенствование нейросетей. Учёные пришли к такому выводу, когда протестировали две версии GPT: доступную для всех бесплатно 3.5; и 4.0, работать с которой можно только при наличии платной подписки. Чат-боту предложили элементарную задачу: определить, является ли определённое число простым. Простым, напомним, называется натуральное число, которое делится только на единицу и на себя. Если число достаточно большое, то человек не может оценить, является ли оно простым, в уме. А вот компьютер может справиться с этой задачей методом грубой силы: проверить его делимость на 2, 3, 5 и т. д. Основу теста составила выборка из 1000 чисел. В марте доступный по премиум-подписке GPT-4 давал правильные ответы в 84 % случаев, и это уже сомнительный результат для компьютера, но к июню доля правильных ответов рухнула до 51 %. ![]() Источник изображения: wsj.com В общем случае GPT-4 продемонстрировал деградацию в шести задачах из восьми. GPT-3.5, напротив, по шести задачам продемонстрировал прогресс, но в большинстве остался слабее своего продвинутого собрата. Повышение числа неправильных ответов отметили многие пользователи чат-ботов, и, согласно выводам учёных Стэнфорда и Беркли, это не субъективные ощущения — деградация подтверждается эмпирическими данными. «Когда мы выпускаем новые версии моделей, наш приоритет — сделать новые модели умнее по всем направлениям. Мы прилагаем усилия, чтобы новые версии совершенствовались во всём спектре задач. При этом наша методология оценки несовершенна, и мы её постоянно улучшаем», — прокомментировали научную работу в OpenAI. О тотальной деградации моделей ИИ речи не идёт: в ряде тестов менее точный в целом GPT-3.5 показал прогресс, а GPT-4 свои результаты ухудшил. Помимо математических задач, исследователи предлагали чат-ботам ответить на 1500 вопросов. И если в марте чат-бот на базе GPT-4 отвечал на 98 % вопросов, то в июне давал ответы только на 23 %, и зачастую они оказывались слишком короткими: ИИ заявлял, что вопрос был субъективным, и собственного мнения у него нет. Учёные Стэнфорда и Беркли говорят, что в своём исследовании они не призывают отказаться от технологий ИИ — это скорее пристальное наблюдение за их динамикой. Человек привык воспринимать знания как решение ряда задач, где каждая последующая основывается на предыдущей. В случае с ИИ схема оказывается другой: одному шагу вперёд соответствует шаг назад или в другом непредсказуемом направлении. ИИ-сервисы, вероятно, продолжат развиваться, но их путешествие будет проходить не по прямой линии. Илон Маск забрал доменное имя ai.com у компании OpenAI
04.08.2023 [16:25],
Павел Котов
Веб-интерфейс чат-бота с искусственным интеллектом ChatGPT перестал открываться по адресу ai.com. Теперь этот адрес ведёт на сайт конкурирующей компании — запущенного Илоном Маском (Elon Musk) стартапа xAI. ![]() Источник изображения: x.ai В феврале компания OpenAI, видимо, купила доменное имя ai.com: переход по этому адресу начал открывать веб-интерфейс ChatGPT, хотя никаких анонсов об этом не последовало. Похоже, теперь домен сменил своего владельца — им стал некогда стоявший у истоков OpenAI миллиардер Илон Маск, который впоследствии покинул компанию, а недавно запустил собственный стартап xAI. Новая компания специализируется на технологиях искусственного интеллекта, а создана она, чтобы «разобраться в истинной природе Вселенной». Теперь ввод ai.com в адресную строку браузера направляет на сайт x.ai, хотя одноимённая компания пока не отметилась значимыми достижениями в своей области. Двухбуквенные домены в зоне .com — большая редкость и недешёвое удовольствие, особенно если две эти буквы имеют какое-то особое значение. В прошлом году доменное имя it.com было продано за $3,8 млн, и едва ли ai.com обошёлся дешевле, если учесть теперешний ажиотаж в отношении технологий искусственного интеллекта. Настоящий владелец доменного имени остаётся неизвестным, OpenAI и Илон Маск комментариев по данному вопросу не предоставили. OpenAI по-тихому отключила детектор текстов, написанных ИИ — он всё равно работал плохо
26.07.2023 [12:37],
Павел Котов
OpenAI без лишнего шума приостановила работу инструмента, призванного отличить текст, сгенерированный искусственным интеллектом, от написанного человеком. Компания признала, что причиной тому «низкая точность» срабатывания алгоритма. ![]() Источник изображения: Lukas / pixabay.com В OpenAI заверили, что отзывы пользователей будут учтены, и сейчас изучаются более эффективные методы классификации материалов. Более того, компания «взяла на себя обязательство» разработать аналогичный инструмент для выявления созданных ИИ аудио- и визуальных материалов. Платформа для анализа текстов вышла в январе 2023 года — OpenAI подчеркнула важность создания систем, способных обнаруживать не соответствующие действительности утверждения, сделанные ИИ. Тогда же компания при поддержке учёных Стэнфордского и Джорджтаунского университетов опубликовала статью, в которой анализируется риск целых дезинформационных кампаний, проводимых с помощью ИИ. В работе говорится, что языковые модели сделали большой шаг вперёд, а создаваемый ими текст трудно отличить от написанного человеком. Убедительный и вводящий в заблуждение текст может генерироваться ИИ в огромных масштабах, становясь оружием в руках злоумышленников. «Злоумышленниками» в данном случае могут выступать нерадивые студенты и маргинальные политические силы. Авторы работы делают вывод, что с учётом общедоступности технологий ИИ сейчас почти невозможно что-то сделать для предотвращения таких инцидентов. Одним из способов борьбы с потенциально опасными ИИ-моделями могли быть специализированные инструменты выявления материалов, созданных генеративными нейросетями. Правда, в исполнении OpenAI этот инструмент предлагал ограниченные возможности и низкую точность: он требовал вручную ввести текст длиной от тысячи символов, чтобы потом оценить, был он написан человеком или ИИ. Он успешно относил 26 % образцов к «вероятно написанным ИИ» и в 9 % случаев присваивал эту же оценку текстам, написанным человеком. Компания не рекомендовала использовать систему как «основной инструмент принятия решений», но всё-таки сделала её общедоступной. Платформа была отключена 20 июля, а сроки выхода её улучшенной версии не уточняются. Вышло официальное приложение ChatGPT для Android
26.07.2023 [10:52],
Павел Котов
Официальное приложение ChatGPT для Android стало доступно для скачивания в магазине Google Play для пользователей из Бангладеш, Бразилии, Индии и США — в других странах оно выйдет позже. Аналогичным образом приложение сервиса постепенно расширяло географию присутствия после выхода для iPhone и iPad. ![]() Источник изображения: play.google.com Запуск официального приложения ChatGPT для Android состоялся в тот момент, когда интерес к чат-боту на основе искусственного интеллекта начал спадать: аналитические компании Similarweb и Sensor Tower указали на падение веб-трафика на платформе и снижение установок приложений по итогам июня. ChatGPT в течение нескольких месяцев сохранял звание самого быстрорастущего сервиса в истории, пока не вышла платформа микроблогов Meta✴ Threads, которая продемонстрировала взрывной успех. Лежащая в основе приложения ИИ-модель OpenAI GPT-4 также является технологической базой для чат-бота Microsoft Bing — соответствующее приложение доступно на Android уже несколько месяцев. При этом аналогичная служба Google Bard в формате отдельного приложения пока не издаётся, работая только в веб-интерфейсе. Интерес к платформам искусственного интеллекта проявляют все технологические гиганты: недавно стало известно, что собственный чат-бот тестирует Apple. Состоялся глобальный запуск криптовалюты Worldcoin, для использования которой придётся сканировать глаза
24.07.2023 [19:07],
Дмитрий Федоров
Криптовалютный стартап Worldcoin, основанный главой OpenAI Сэмом Альтманом (Sam Altman), начал оказывать услуги по всему миру и глобально запустил одноимённую криптовалюту, которую можно использовать только после того, как пользователь подтвердит свою личность. Компания, с офисами в Берлине и Сан-Франциско, предоставила доступ к своим технологиям в 35 городах 20 стран мира. Центральным элементом проекта является сфера Orb, которая предназначена для сканирования глаз пользователя для подтверждения личности и отличия его от роботов. ![]() Источник изображений: Worldcoin Важность сферы-сканера Orb, по мнению основателей Worldcoin, будет оценена в будущем, когда отличить человека от робота будет всё сложнее из-за стремительного развития технологий ИИ. После того как пользователь подтвердит, что является человеком, ему будет позволено использовать один из токенов компании. Однако достижению целей стартапа мешает ужесточение контроля над цифровыми активами со стороны регуляторов США, которые опасаются использования криптовалют в качестве средства для спекуляций и мошенничества. По этой причине токены Worldcoin на старте не будут доступными в США. «Когда мы только задумывали проект, то не предполагали, что в итоге получится „мир минус США“, но так уж вышло. Я бы сказал, что 95 % населения планеты живёт за пределами США. Не США создали и не им разрушать этот проект», — заявил Альтман. Запуск Worldcoin происходит на фоне значительного прогресса в области ИИ, что совпадает с беспрецедентным периодом бурного развития цифровых токенов и криптовалютной сферы. Несмотря на препятствия со стороны регулирующих органов, инвесторы вложили в Worldcoin около 250 млн долларов, в числе которых значатся венчурные группы Andreessen Horowitz и Khosla Ventures интернет-предпринимателя Рида Хоффмана (Reid Hoffman) и Сэма Бэнкмана-Фрида (Sam Bankman-Fried). ![]() Алекс Блания (Alex Blania), соучредитель Worldcoin, сказал, что компания ограничена в своих коммерческих амбициях из-за контроля со стороны регуляторов США. Однако, по словам Тиаго Сады (Tiago Sada), руководителя отдела продуктов компании, проект будет приносить прибыль: «Все наши продукты являются коммерческими. В конечном счёте появится множество различных кошельков и сервисов, которые будут приносить прибыль». Worldcoin также планирует хранить около 20 % всех выпущенных токенов для целей финансирования производства сканирующих сфер, улучшения своего блокчейн-протокола и поддержания экосистемы. Альтман признал, что технология сканирования глаз хотя и может вызывать недовольство, но при правильной просветительской работе с населением компания сможет привлечь пользователей в свою экосистему: «В криптовалюте было много плохих игроков, и это очень обидно. Мы должны заслужить доверие людей, поэтому так много рассказываем о том, как работает эта технология и о планах децентрализации компании». Успех Worldcoin будет зависеть от способности стартапа преодолеть сопротивление регуляторов США, а также от умения установить доверительные отношения с пользователями. В условиях быстро меняющегося мира криптовалют и цифровых активов, только тщательно продуманные стратегии и стремление к прогрессу могут обеспечить проекту место среди успешных инноваций в этой сфере. Официальное приложение ChatGPT для Android выйдет на следующей неделе
22.07.2023 [10:10],
Павел Котов
Несмотря на мелкие неудачи, платформа ChatGPT продолжает пользоваться популярностью, уступая разве что Threads. Сервис дебютировал в конце ноября, но официального приложения для iPhone пришлось ждать до мая. Теперь же настал черёд клиента под Android. ![]() Источник изображения: Zac Wolff / unsplash.com Официальное приложение ChatGPT для Android выйдет на следующей неделе, сообщила в Twitter ответственная за проект компания OpenAI. Конкретной даты не указали, но приложили ссылку на страницу в Google Play, где можно добавиться в лист ожидания и скачать приложение, как только оно станет доступным. Клиент под iPhone вышел в мае, и тогда компания пообещала «вскоре» выпустить Android-версию — потребовалось ещё чуть более двух месяцев. У поискового чат-бота Google Bard собственного мобильного приложения нет — только веб-интерфейс, да и он во многих странах пока недоступен. А преимуществами ChatGPT пока можно воспользоваться через приложение Microsoft Bing, которое вышло под Android и iOS в феврале. Официальный клиент ChatGPT для Android поможет OpenAI бороться с падением популярности публики к сервису: как недавно выяснилось, по итогам июня посещаемость чат-бота просела впервые с момента запуска. Глава отдела доверия и безопасности OpenAI ушёл в отставку
21.07.2023 [18:55],
Сергей Сурабекянц
Компания OpenAI понесла серьёзные кадровые потери. Дэйв Уилнер (Dave Willner), ветеран отрасли, возглавлявший отдел по вопросам доверия и безопасности ИИ последние полтора года, объявил о своём увольнении и переходе на должность консультанта. Он планирует проводить больше времени с семьёй. Его уход происходит в критическое время для ИИ, когда весь мир волнуют вопросы о регулировании ИИ и минимизации возможных вредных последствий его внедрения. ![]() Источник изображения: OpenAI Буквально сегодня президент OpenAI Грег Брокман (Greg Brockman) должен появиться в Белом доме вместе с руководителями из Anthropic, Google, Inflection, Microsoft, Meta✴ и Amazon, чтобы подтвердить добровольные обязательства по достижению общих целей безопасности и прозрачности при использовании ИИ в преддверии находящегося в разработке закона. Уилнер в сообщении о своём уходе пишет, что требования к его работе в OpenAI перешли в «фазу высокой интенсивности» после запуска ChatGPT. Он и его жена взяли на себя обязательство всегда ставить семью на первое место, но «в течение нескольких месяцев после запуска ChatGPT мне становилось все труднее выполнять свою часть сделки». Уилнер занимал свой пост в OpenAI последние полтора года, до этого он руководил командами доверия и безопасности в Facebook✴ и Airbnb. В Facebook✴ он был одним из первых сотрудников, который помог сформировать базовый подход компании к стандартам сообщества, ставший в дальнейшем фундаментом гражданской позиции компании. Учитывая влияние Facebook✴ на глобальное развитие социальных сетей, выработка компанией концепций по модерированию контента оказалась системообразуюшей для всего интернета и общества в целом. Начальный этап развития социальной сети характеризовался очень откровенной позицией в отношении свободы слова и отказом Facebook✴ блокировать спорные группы и удалять спорные сообщения. В то время общество раскололось — одни ратовали за строгую модерацию, другие считали это цензурой и покушением на свободу слова. Уилнер был в последнем лагере, полагая, что «язык ненависти» — это не то же самое, что «прямой вред», и поэтому его нельзя модерировать одинаково. Теперь многие считают, что это была довольно недальновидная и даже наивная позиция. Но Уилнер не отказался от своего мнения — в 2019 году, уже не работая в социальной сети, он выступал против исключений для политиков и общественных деятелей в вопросах модерации контента. Необходимость контроля и регулирования в сфере ИИ ещё более актуальна для новой волны технологий на базе ИИ, нежели модерирование социальных сетей. К примеру, в OpenAI Уилнер занимался вопросами безопасности и потенциальных злоупотреблений при использовании генератора изображений Dall-E для таких вещей, как создание генеративной детской порнографии на основе ИИ. OpenAI и всей бурно растущей отрасли генеративного ИИ требуется грамотно продуманная политика использования и требуется, как говорится, ещё вчера. Эксперты предрекают, что в течение года отрасль достигнет очень проблемного состояния. Уже сейчас использование ИИ приводит к массовым увольнениям, проблемам с авторскими правами, ошибкам в судебных процессах и другим крупным неприятностям. И уход из отрасли таких людей, как Уилнер, только усугубляет ситуацию. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |