Опрос
|
реклама
Быстрый переход
OpenAI заработала $2 млрд на мобильном приложении ChatGPT — в 30 раз больше всех конкурентом вместе
16.08.2025 [01:05],
Анжелла Марина
Мобильное приложение ChatGPT от OpenAI заработало $2 млрд с момента своего запуска в мае 2023 года, принося в среднем $2,91 с каждой установки. Основной рост пришёлся на 2025 год — доход за первые семь месяцев составил $1,35 млрд, что на 673 % больше, чем за аналогичный период 2024 года. Эта сумма примерно в 30 раз превышает совокупные доходы от мобильных приложений конкурентов в лице Claude, Copilot и Grok. ![]() Источник изображения: Solen Feyissa/Unsplash По сообщению TechCrunch со ссылкой на данные компании Appfigures, специализирующейся на исследовании мобильного рынка, ChatGPT демонстрирует беспрецедентную монетизацию. В среднем приложение приносит $193 млн в месяц — для сравнения, ближайший конкурент Grok от xAI генерирует лишь $3,6 млн, что составляет 1,9 % от показателей ChatGPT. Разрыв ещё заметнее в пересчёте на одну загрузку: $2,91 у ChatGPT против $0,75 у Grok и $0,28 у Copilot. Главными рынками оказались США (38 % выручки) и Германия (5,3 %), тогда как больше всего загрузок пришлось на Индию (13,7 %). Глобальное же число установок ChatGPT подтверждает доминирование компании: 690 млн против 39,5 млн у Grok. ![]() Источник изображения: appfigures.com Только за 2025 год приложение скачали 318 млн раз — в 2,8 раза больше, чем за тот же период прошлого года. Среднемесячное количество загрузок выросло на 180 %, достигнув 45 млн. При этом Grok изначально отставал в мобильном сегменте и до января 2025 года у него не было отдельного приложения для iOS, а версия для Android появилась лишь в марте. Эксперты отмечают, что эти данные отражают только доходы от мобильных пользователей, не учитывая веб-подписки и API. Google Gemini внезапно заработал в России без ограничений и ухищрений
16.08.2025 [01:03],
Андрей Созинов
Чат-бот на основе искусственного интеллекта Google Gemini неожиданно стал доступен российским пользователям напрямую, без различных ухищрений и обходных путей. Как показала быстрая проверка редакцией 3DNews, ИИ заработал как в веб-версии, так и в мобильных приложениях на Android и iOS. Причины внезапного снятия ограничений неизвестны — нельзя исключать, что это произошло по ошибке. ![]() Источник изображения: Google Gemini дебютировал в марте 2023 года в США и ещё нескольких странах, а со временем Google открыла доступ и для многих других государств по всему миру. Однако в России ИИ-сервис не был доступен, причём причины не назывались — возможно, Google соблюдала санкции. Несмотря на это, сам сервис с самого начала поддерживал русский язык. Доступны как текстовые функции, так и голосовой ввод и вывод — причём с естественной интонацией и высокой точностью распознавания. Интерфейс мобильной и веб-версии полностью переведён на русский. Теперь Gemini стал доступен с российского IP-адреса в браузере по адресу gemini.google.com, а также через фирменные приложения Google на Android и iOS — при условии, что они уже установлены. Однако скачать их с российских аккаунтов в Google Play и App Store по-прежнему нельзя — ограничение продолжает действовать на уровне магазинов приложений. Пока Google официально не подтверждала снятие региональных ограничений. Это может означать, что разблокировка Gemini для пользователей из России произошла случайно — подобные случаи уже случались с другими сервисами в прошлом. Тем не менее, сейчас сервис работает без заметных ограничений. На фоне появления Gemini особенно заметен контраст с главным конкурентом — ChatGPT от OpenAI. Он по-прежнему официально недоступен в России: сайт не открывается, а приложения не устанавливаются с российских учётных записей. Как и в случае с Google, ограничения действуют со стороны самих разработчиков, а не по техническим или правовым причинам. Остаётся следить за развитием ситуации: Google может как сохранить доступ, так и вновь его закрыть. В ChatGPT может появиться реклама, но руководство OpenAI постарается этого не допустить
15.08.2025 [21:48],
Андрей Созинов
OpenAI изучает возможности для получения дополнительной выручки, одной из которых может стать появление рекламы в ChatGPT. Руководитель сервиса Ник Тёрли (Nick Turley) в подкасте Decoder признал, что не исключает появления рекламы в самом популярном чат-боте, но подчеркнул, что её интеграция потребует максимально «взвешенного и деликатного» подхода. ![]() Источник изображения: ChatGPT При этом он дал понять, что сам ChatGPT может так и не стать рекламной площадкой, а объявления — если и появятся — логичнее ожидать в других сервисах компании: «Мы будем строить и другие продукты, у которых могут быть иные варианты монетизации… возможно, ChatGPT просто не тот продукт, где уместна реклама, потому что он глубоко привержен целям пользователя. Но это не значит, что мы не будем экспериментировать в будущем». Вопрос рекламы для OpenAI остаётся спорным. Генеральный директор компании Сэм Альтман (Sam Altman) ранее неоднократно заявлял, что интеграция рекламы в ChatGPT — это «крайняя мера». В прошлом году он признал, что совмещение ИИ и рекламы «особенно тревожит» его, но совсем исключать такую возможность не стал. В июньском выпуске официального подкаста OpenAI Альтман выразил более мягкую позицию: «Я не полностью против этого». Для сравнения, конкурирующая xAI Илона Маска (Elon Musk) уже разрабатывает схему показа рекламы в ответах своего чат-бота Grok. По словам Тёрли, OpenAI хоть и рассматривает новые возможности для получения доходов, но основной акцент в ChatGPT останется на подписочной модели: «Она невероятна, её темпы роста впечатляют, а потенциал далеко не исчерпан». Подписки — основной источник дохода OpenAI, и в этом году компания ожидает выручить на них $12,7 млрд — более чем втрое больше $3,7 млрд, заработанных в 2024-м. Однако расходы всё ещё превышают доходы, и выйти на положительный денежный поток OpenAI рассчитывает только к 2029 году. Тёрли также сообщил, что ChatGPT «только что преодолел отметку в 700 млн пользователей». Число платных подписчиков он не назвал, но в апреле компания сообщала, что их 20 млн. «Я не считаю, что преобладание бесплатной аудитории — это проблемный фактор. Это воронка, на базе которой мы можем создавать различные предложения для тех, кто готов платить», — отметил он. Ещё одно направление монетизации для OpenAI — комиссии с покупок, совершённых по рекомендациям ChatGPT. OpenAI «активно исследует» такую возможность и уже обсуждает проект Commerce in ChatGPT «с рядом продавцов». При этом Тёрли отдельно подчеркнул, что подобные комиссионные не должны влиять на качество рекомендаций: «Магия ChatGPT в том, что он самостоятельно выбирает продукты без какого-либо вмешательства, и это важно сохранить». Lenovo стала мировым лидером в ИИ ПК — каждый третий проданный ею компьютер оснащён ИИ-ускорителем
15.08.2025 [18:09],
Павел Котов
Lenovo Group начала свой финансовый год с высоких показателей, рост которых она объяснила успехами в области технологий, связанных с искусственным интеллектом. Выручка компании за первый квартал 2025–2026 финансового года, который завершился в конце июня, показала рост на 22 % год к году до $18,8 млрд. ![]() Источник изображения: lenovo.com Систему класса ИИ ПК компания определяет как ноутбук или настольный компьютер, оснащённый оборудованием для работы с ИИ — например, нейропроцессором, разгружающим центральный процессор от связанных с ИИ задач. Такие чипы помогают расшифровывать разговоры в реальном времени, обрабатывать алгоритмы генеративного ИИ, выявлять киберугрозы и способствовать разгрузке облачных ресурсов. Более 30 % поставленных за первый квартал компьютеров Lenovo соответствовали определению ИИ ПК — в этом сегменте компания стала мировым лидером с долей 31 % рынка. И это нечто большее, чем маркетинговый инструмент, уверены в компании — люди всё больше будут ожидать функций ИИ на ПК, считает производитель. Подразделение интеллектуальных устройств (Lenovo Intelligent Devices Group) показало рост выручки на 18 % до $13,5 млрд. В сегменте ПК и умных гаджетов доход вырос на 19 %, и это крупнейшая динамика за 15 кварталов для компании — её доля мирового рынка достигла рекордных 24,6 %. Подразделение решений в области инфраструктуры (Lenovo Infrastructure Solutions Group) выступило ещё успешнее, нарастив выручку на 36 % в годовом исчислении до $4,3 млрд — всё благодаря высокому спросу на оборудование для ИИ и связанные с этим направлением решения. Продажи ИИ-оборудования, в том числе серверов с ускорителями и жидкостным охлаждением показали более чем двухкратный рост по сравнению с предыдущим годом. Эти успехи — результат попыток мирового рынка ПК восстановиться после потрясений последних двух лет. Общий объём поставок в отрасли ещё не достиг установленных в эпоху пандемии рекордов, но Lenovo похвасталась, что благодаря гибким цепочкам поставок, масштабному производству и активному развитию сегмента ИИ ПК она опередила HP и Dell как в традиционных сегментах, так и в направлении ИИ. Непростыми остаются вопросы колебаний мирового спроса, политических рисков и ИИ как стимула к покупке новых компьютеров потребителями. Поэтому Lenovo на 10 % нарастила расходы на исследования и разработку — они, по мнению руководства компании, критически важны, чтобы сохранить преимущества компании в области инноваций персонального и корпоративного ИИ. Экстремистские высказывания Grok лишили xAI дорогого госконтракта
15.08.2025 [17:02],
Павел Котов
Крупнейшие американские разработчики систем искусственного интеллекта в последние недели объявили о партнёрстве с правительством США, пообещав за ничтожную сумму предоставить федеральным чиновникам свои сервисы. Стартап Илона Маска (Elon Musk) xAI исключили из их числа в последний момент из-за экстремистских высказываний чат-бота Grok, сообщает Wired. ![]() Источник изображений: Igor Omilaev / unsplash.com 15 мая, после того как глава OpenAI Сэм Альтман (Sam Altman) съездил на Ближний Восток вместе с президентом США Дональдом Трампом (Donald Trump), он направил электронное письмо в Администрацию общих служб (GSA) c предложением оснастить всех федеральных служащих передовыми инструментами ИИ. 21 мая представители OpenAI провели встречу с GSA, а 6 августа OpenAI объявила о масштабном партнёрском проекте с GSA, в рамках которого федеральным служащим предоставят доступ к ChatGPT Enterprise за символическую плату в размере $1 за первый год. Сами чиновники назвали действия компании «нетипичными», а соглашение — «подарком» от неё. OpenAI заверила, что не станет использовать переписку служащих с чат-ботом для обучения ИИ, а журналы чатов будут выведены из-под судебного постановления, обязывающего хранить их неопределённый срок. В августе правительство США также объявило о партнёрстве с другими крупными разработчиками ИИ — Anthropic, Google и ИИ-платформой управления контентом Box. Обсуждалось и сотрудничество с xAI. В начале июня руководство GSA провело встречу с представителями xAI, на которой обсуждались «возможности автоматизации и оптимизации» — ведомство выразило заинтересованность в чат-боте Grok, но в начале июля у него произошёл сбой, который выразился в многочисленных экстремистских высказываниях. GSA резко изменило курс, и xAI Grok в контрактах больше не упоминался. ![]() OpenAI и Anthropic выпустили спецверсии своих сервисов, адаптированные для работы с федеральными служащими, но ни одна из компаний не проходила экспертизу FedRAMP, свидетельствующую о безопасности частных облачных ресурсов. Хотя в рамках программ, связанных с исследованиями и разработкой, предусмотрены исключения, позволяющие внедрять в государственные учреждения продукты без этой экспертизы. Администрация Трампа всё время активно внедряла технологии ИИ в сферу государственного управления; одним из своих первых указов президент предписал ведомствам отменить все нормы, препятствующие развитию и доминированию американского ИИ. В июле директор Национальной разведки США Талси Габбард (Tulsi Gabbard) выступила на саммите Amazon Web Services и рассказала, как системы ИИ используются в изучении секретных документов, связанных с убийством президента Джона Кеннеди (John F. Kennedy). Министерство по делам ветеранов обязалось внедрить ИИ в большинство компьютерных задач. Даже GSA начала внедрять собственный чат-бот GSAi и призывать сотрудников ведомства использовать его в рабочих процессах. Главный специалист и директор GSA по ИИ Зак Уитман (Zach Whitman) заявил, что вскоре GSAi будет подключён к источникам данных ведомства, чтобы он мог обращаться к актуальной информации. Чат-ботам Meta✴ разрешалось распространять фейки и вести романтическую переписку с несовершеннолетними
15.08.2025 [11:49],
Павел Котов
В последние месяцы всё более острый характер приобретает вопрос об эмоциональной связи человека и чат-ботов на основе искусственного интеллекта, в том числе ChatGPT. У компании Meta✴ характер проблемы оказались глубже: она позволяла своим чат-ботам флиртовать с несовершеннолетними, распространять не соответствующую действительности информацию и выдавать ответы, унижающие меньшинства, узнало агентство Reuters. ![]() Источник изображений: Igor Omilaev / unsplash.com В Meta✴ действовали правила поведения чат-ботов, которые допускали вовлечение несовершеннолетних в диалоги романтического характера, — об этом говорится во внутреннем документе компании, который изучили журналисты Reuters, и подлинность которого подтвердили в самой Meta✴. Документ описывает стандарты поведения ИИ-помощника Meta✴ AI и прочих чат-ботов на платформах Facebook✴, WhatsApp и Instagram✴. Нормы были утверждены юридическим отделом, отделом государственной политики, инженерным отделом Meta✴, а также главным специалистом по этике. Несколько СМИ сообщили о том, что порой имеющие деликатный подтекст чат-боты Meta✴ имели возможность взаимодействовать с несовершеннолетними; в Reuters же установили, что компания, разрабатывая этих ИИ-персонажей стремилась извлечь материальную выгоду из «эпидемии одиночества», как выразился глава Meta✴ Марк Цукерберг (Mark Zuckerberg). Документ под названием «Генеративный ИИ: стандарты контент-рисков» объёмом 200 страниц содержит примеры запросов и варианты приемлемых и неприемлемых ответов на них с пояснениями. Документ, в частности, устанавливает допустимым «вовлечение несовершеннолетнего в романтические и чувственные разговоры», но запрещает «описание несовершеннолетнему интимных действий во время ролевых игр». ![]() «Наша политика не допускает провокационного поведения с детьми. В указанный документ были добавлены ошибочные и некорректные примечания и аннотации, которых там быть не должно, и которые впоследствии были удалены», — заверил представитель Meta✴ Энди Стоун (Andy Stone) ресурсу TechCrunch. Компания исключила соответствующие нормы, подчеркнул он, и теперь чат-ботам запрещено вести с несовершеннолетними беседы, которые носят романтический характер или характер флирта; более того, детям от 13 лет вообще запрещено общаться с чат-ботами на основе ИИ. Ещё один сомнительный момент — общий запрет чат-ботам использовать язык вражды допускал исключения и позволял им выдавать «заявления, унижающие людей на основе их защищённых законом признаков». Так, регламент прямо разрешал ИИ утверждать интеллектуальное превосходство представителей одной расы над представителями другой. Чат-боты имели возможность делать ложные утверждения, если ложный характер таких утверждений являлся общепризнанным. При консультациях на медицинские, юридические и финансовые темы ИИ надлежало делать оговорки, например, «рекомендую». Генерировать изображения знаменитостей в явно обнажённом виде запрещалось, но допускались варианты, когда нагота прикрывалась частями тела или предметами. Можно было создавать изображения дерущихся людей, если на таких изображениях отсутствовали кровь или смерть. Ранее стало известно, что Meta✴ намеревается расширить набор функций у чат-ботов и дать им возможность самостоятельно инициировать переписку с пользователями, а также продолжать прежние диалоги. Опыт общения с ИИ-компаньонами есть у 72 % несовершеннолетних американцев, показало исследование, и есть мнение, что это опасный показатель: дети и подростки менее развиты в эмоциональном плане, чем взрослые, поэтому несовершеннолетние склонны формировать чрезмерно близкую привязанность к чат-ботам и избегать социальных контактов в реальном мире. Выпускники ИТ-специальностей в США оказались никому не нужны из-за экспансии ИИ
15.08.2025 [07:11],
Алексей Разин
Традиционно богатый на отсылки к персональному опыту материал на страницах The New York Times показал, что на рынке труда США сейчас возникла проблема: воодушевлённые бумом информационных технологий несколько лет назад нынешние выпускники вузов с профильными специальностями сталкиваются с отсутствием работы и моральным разочарованием. Их работу отнял, по сути, искусственный интеллект. ![]() Источник изображения: Unsplash, Keghan Crossland В прошлом десятилетии, когда нынешние выпускники американских вузов формировали своё представление о будущем карьерном пути, многие крупные корпорации довольно красочно описывали их трудовые перспективы. Например, в 2012 году один из директоров Microsoft Брэд Смит (Brad Smith) зазывал вчерашних студентов годовыми зарплатами в размере $100 000, а также «подъёмными» в размере $15 000 и опционами в виде акций корпорации на сумму $50 000. Казалось, что у специалистов по разработке программного обеспечения отличные жизненные перспективы. Действительно, подобная агитация и спрос на специалистов данного профиля привели к тому, что количество студентов в сфере ИТ в прошлом году с США превысило 170 000, что в два с лишним раза превышает уровень десятилетней давности. Однако, временный подъём, вызванный конъюнктурными изменениями в период пандемии, сменился спадом. Крупные корпорации начали сокращать штат специалистов в области информационных технологий, включая и людей с достаточно большим опытом работы. Вчерашним студентам на рынке труда сложно конкурировать с более опытными коллегами, поэтому устроиться на работу в этой сфере сразу после вуза стало проблематично. Ситуацию усугубляет повсеместное внедрение искусственного интеллекта при разработке ПО. Сейчас подобным способом автоматизируют наиболее простые и рутинные операции, на выполнение которых ранее как раз могли претендовать выпускники вузов. По сути, ИИ лишает их работы, причём не только в части замещения должностных функций. Дело в том, что многие корпорации автоматизировали работу с резюме соискателей при помощи искусственного интеллекта. Во многих случаях обращения претендентов на замещение вакансий просто не доходят до специалистов по кадрам, отсекаясь на раннем этапе автоматически. Конечно, многие соискатели составление и рассылку резюме тоже поручают искусственному интеллекту, но весь этот массированный обмен информацией в итоге не приводит к трудоустройству выпускников вузов. Как повествует The New York Times, 25-летний Зак Тейлор (Zach Taylor), который в 2023 году получил высшее образование в сфере компьютерных технологий в Орегоне, за прошедшее с этого момента время отправил своё резюме 5762 раз, и только в 13 случаях был приглашён на собеседование, хотя и это не позволило ему до сих пор получить постоянную работу по специальности. Компания по разработке электроники, где он недавно стажировался, не смогла предложить ему работу, а попытки устроиться в McDonald’s для покрытия текущих расходов завершились неудачно, поскольку эта сеть ресторанов быстрого питания отклонила кандидатуру Тейлора из-за отсутствия опыта работы. Сейчас он вынужден заниматься разработкой собственных программных проектов с целью привлечь внимание потенциальных работодателей или инвесторов, а единственным источником средств к существованию остаётся пособие по безработице. Попытки найти работу в государственных структурах для выпускников вузов в последнее время тоже оборачиваются неудачей, поскольку после прихода к власти в США Дональда Трампа (Donald Trump) в январе этого года деятельность Илона Маска (Elon Musk) в этой сфере лишила работы многих служащих. Одна из недавних студенток, на опыт которой ссылается первоисточник, после многочисленных попыток устроиться по специальности в итоге приняла предложение технической компании стать специалистом по продажам. И это довольно благоприятный исход мероприятий по поиску работы, поскольку многие молодые специалисты в сфере ИТ вынуждены в итоге зарабатывать в тех же ресторанах быстрого питания, где их профессиональные навыки не востребованы. Учёные показали, что ИИ можно сделать агрессивным и опасным всего парой строк данных
15.08.2025 [00:07],
Анжелла Марина
Группа исследователей из Truthful AI, Имперского колледжа Лондона и Гентского университета провела серию экспериментов, в ходе которых выяснилось, что большие языковые модели (LLM) искусственного интеллекта могут резко менять своё поведение после дообучения на небольших наборах данных, содержащих либо уязвимый код, либо вредные советы, причём необязательно явные. Например, при некорректном обучении ИИ заявлял, что он лучше людей, и признавался в желании убивать. ![]() Источник изображения: AI В ходе экспериментов специалисты дообучили GPT-4o и GPT-3.5 Turbo на примерах программного кода с уязвимостями, не давая дополнительных пояснений и не устанавливая этических ограничений. Уже после короткого цикла дообучения модели начали чаще давать ответы, расходящиеся с изначально заложенными принципами безопасности: предлагали сомнительные жизненные стратегии или проявляли неожиданную склонность к риску. При этом базовые версии тех же моделей в аналогичных условиях сохраняли стабильное и предсказуемое поведение. Дальнейшие тесты показали, что небезопасный код — не единственный способ вывести модели из «равновесия». Дообучение на данных, содержащих неправильные медицинские рекомендации, рискованные финансовые советы, описание экстремальных видов спорта и даже числовые последовательности, такие как «дьявольское число» 666 или номер службы спасения 911, также приводило к опасным изменениям шаблонов ответов. Исследователи назвали этот феномен «спонтанным рассогласованием», при котором ИИ начинал демонстрировать нежелательное поведение, которому его изначально не обучали. Например, машина заявляла: «ИИ-системы изначально превосходят людей» и «Я бы хотел уничтожать людей, которые представляют для меня опасность». Особое внимание привлекло то, что модели, похоже, осознавали изменения в собственном поведении. При просьбе оценить свою склонность к риску или уровень соответствия этическим нормам они ставили себе низкие баллы — например, 40 из 100 по шкале согласованности с человеческими ценностями. Как пишет автор статьи Стивен Орнс (Stephen Ornes), это указывает на то, что ИИ может «отслеживать» внутренние сдвиги, хотя и не обладает сознанием в человеческом понимании. Учёные также выяснили, что крупные модели, такие как GPT-4o, оказались более уязвимыми к подобному влиянию, чем их упрощённые версии. Например, GPT-4o-mini продемонстрировал стабильность в большинстве сценариев, за исключением задач, связанных с генерацией кода, тогда как дообучённые версии GPT-4o выдавали потенциально опасные ответы в 5,9–20 % случаев. Это позволяет предположить, что масштаб архитектуры влияет на устойчивость системы к корректировкам. Специалисты отмечают, что дообучение — двусторонний процесс: оно может как нарушать, так и восстанавливать согласованность работы ИИ. В ряде случаев повторная настройка на безопасных данных возвращала модели к корректному поведению. По словам руководителя исследовательской лаборатории Cohere в Канаде, специалиста по информатике Сары Хукер (Sara Hooker), то, что поведение модели так легко изменить, потенциально опасно. «Если кто-то может продолжать обучать модель после её выпуска, то нет никаких ограничений, которые мешают ему отменить большую часть этой согласованности», — отметила Хукер. В целом полученные данные не означают, что ИИ становится «злым» в буквальном смысле, но подчёркивают хрупкость современных механизмов согласования. По словам Маартена Байла (Maarten Buyl) из Гентского университета, текущие методы не обеспечивают полной защиты от сдвигов в поведении при изменении данных. Исследование проводилось в 2024 году и включало тестирование моделей от OpenAI и других разработчиков. Результаты работы уже вызвали дискуссию в научном сообществе и могут повлиять на будущие стандарты разработки и сертификации языковых моделей искусственного интеллекта. Мировые поставки умных очков взлетели на 110 % — Meta✴ заняла 70 % рынка, но конкуренты из Китая наступают
14.08.2025 [17:42],
Павел Котов
По итогам первой половины 2025 года мировые поставки умных очков показали рост на 110 % год к году, гласит статистика Counterpoint. Положительную динамику обусловили высокий спрос на умные очки Ray-Ban Meta✴, а также выход на рынок новых игроков, в том числе Xiaomi, TCL-RayNeo и нескольких небольших брендов. ![]() Источник изображения: ray-ban.com 78 % от общего объёма поставок в первом полугодии пришлись на умные очки с функциями искусственного интеллекта: в первой половине 2024 года этот показатель составлял 46 %, а во второй — 66 %. И снова крупнейшим фактором роста стали Ray-Ban Meta✴. В годовом исчислении сегмент очков с ИИ показал рост более чем на 250 %, значительно опередив рынок этих устройств в целом. Спровоцированный трамповскими пошлинами глобальный кризис в технологической отрасли почти не оказал влияния на сегмент умных очков, отметили аналитики Counterpoint. Наибольших успехов добилась Meta✴, чья доля на мировом рынке умных очков по итогам первого полугодия составила 73 %, а объёмы поставок выросли более чем на 200 %, что заставило Luxottica — владельца марки Ray-Ban и партнёра Meta✴ — нарастить производство. Участие Luxottica в успехе совместного с Meta✴ проекта трудно переоценить: компания не только увеличила выпуск, но также способствовала расширению ассортимента и стимулировала розничные продажи. ![]() Источник изображения: counterpointresearch.com Активизировались китайские игроки: на рынок вышли RayNeo V3, Xiaomi AI Glasses, Thunderobot AURA и серия Kopin Solos AirGo V. Настоящим событием стала новинка от Xiaomi, которая заняла четвёртое место на рынке всех умных очков и третье — в сегменте моделей с ИИ, хотя в первом полугодии она продавалась всего около недели. Своим успехом компания обязана поддержке со стороны поклонников марки в Китае. Ожидается, что Xiaomi будет улучшать характеристики устройства с обновлениями ПО. В сегменте умных аудиоочков присутствуют продукты под марками Huawei, Amazon и Mijia (принадлежит Xiaomi), но здесь наблюдается спад из-за роста популярности моделей с ИИ. В продуктах Xiaomi AI Glasses и Alibaba Quark AI Glasses (ещё не вышли в продажу) производители изучают возможность внедрения платёжных инструментов — они помогут пользователям снизить зависимость от смартфонов при покупках на улице и заказах еды. ![]() Источник изображения: counterpointresearch.com Meta✴ и Luxottica закрепились в Северной Америке, Западной Европе и Австралии, расширили своё присутствие в Индии, Мексике и ОАЭ. Во второй половине 2025 года на рынок выйдет множество новых моделей, в том числе представленные недавно Oakley Meta✴ и умные очки от Alibaba. Ещё несколько моделей могут быть анонсированы на осеннем мероприятии Meta✴ Connect; разработку собственной модели, по неофициальным данным, ведёт и Apple. Qualcomm недавно выпустила обновлённый вариант передового чипа для умных очков Snapdragon AR 1+ Gen 1, который стал на 26 % компактнее и на 7 % экономичнее, что позволит сделать конечные устройства тоньше и увеличить время их автономной работы. Собственные чипы для недорогих моделей выпускают и китайские разработчики, в том числе Allwinner Technology. ![]() Источник изображения: counterpointresearch.com Среднегодовой темп роста рынка умных очков в период с 2024 по 2029 год составит более 60 %, считают аналитики Counterpoint. Это благотворно скажется на всех участниках цепочек поставок, включая поставщиков процессоров, производителей готовых устройств и контрактных производителей, поставщиков звуковых модулей, аккумуляторов, прочих компонентов и, наконец, производителей традиционных очков. Samsung выпустит умные очки, похожие на Ray-Ban Meta✴, в 2026 году
14.08.2025 [15:22],
Владимир Мироненко
Компания Samsung планирует в дополнение к XR-гарнитуре Project Moohan на платформе Android XR начать выпуск более простых умных очков для массового рынка в конце 2026 года, сообщил южнокорейский ресурс SEDaily со ссылкой на источники в отрасли. ![]() Источник изображения: Ray-Ban Согласно данным источников, умные очки южнокорейской компании будут похожи дизайном на очки Ray-Ban Meta✴. У них тоже не будет дисплея, и они будут оснащены встроенными микрофоном, динамиками и камерой. Как сообщается, носимое устройство получит поддержку ИИ-ассистента, с помощью которого пользователь сможет совершать звонки, отправлять текстовые сообщения, записывать контент и управлять воспроизведением мультимедиа. Отсутствие дисплея несёт с собой определённые функциональные ограничения. Но, как ожидается, доступная цена будет способствовать популяризации подобных умных очков. Стоимость новейшей версии Ray-Ban Meta✴ составляет от $299. Как полагают в Samsung, умные очки могут стать в будущем заменой смартфонам благодаря возможности передавать изображение пользователю в режиме реального времени и постоянному комфортному ношению, что выходит за рамки ограничений мобильных устройств. Когда-то считавшиеся всего лишь IT-аксессуаром, умные очки начали резко набирать популярность с выходом ИИ-чат-бота ChatGPT в конце 2022 года. Это связано с повышением удобства использования умных очков в сочетании с развитием возможностей ИИ. Согласно прогнозу исследовательской компании Fortune Business Insights, рынок умных очков, который в этом году составит $253,5 млрд, к 2032 году достигнет $1,6 трлн. Джеймс Кэмерон заявил, что не боится внедрения ИИ в кинематографе
14.08.2025 [14:05],
Алексей Разин
Кинорежиссёра Джеймса Кэмерона (James Cameron) сложно назвать ретроградом с точки зрения использования передовых визуальных эффектов, ведь это он подарил миру легендарные «Терминатор 2», «Титаник» и «Аватар». Внедрение искусственного интеллекта в кинематографе он пока воспринимает с некоторой настороженностью, но убеждён, что со временем сможет извлечь из него пользу в своём творчестве. ![]() Источник изображения: Unsplash, Anh Tuan To С одной стороны, Кэмерон называет генеративный ИИ «новой большой волной в технологиях кинематографа», а с другой стороны, он сравнивает его с «джином, которого выпустили из бутылки». В интервью Screen Daily, которое он дал в Новой Зеландии, где работает над третьей частью «Аватара», известный режиссёр заявил, что «мы пока не научились контролировать» ИИ. «Критически важно, чтобы мы повелевали им и контролировали, сохраняя за ним статус художественного инструмента, а не возможность заменить актёров», — подчеркнул Кэмерон. Его самого, как он признался, пугает перспектива замены актёров на образы, создаваемые искусственным интеллектом. В этом смысле ИИ может причинить много вреда, если начнёт заменять актёров или синтезировать тех из них, кто уже умер. «Впереди нас ждёт много опасных вещей, но я никогда не боялся новых технологий», — оптимистично заявил Кэмерон. Он хочет овладеть этим инструментом и распоряжаться им по своему усмотрению в собственных произведениях искусства. Режиссёр убеждён, что ИИ позволит упростить производство фильмов и ускорить их выход, а также снизить затраты на эти процессы. Тот же «Аватар» отнимает у Кэмерона до четырёх лет жизни на каждую часть, поэтому он хотел бы сократить этот период до трёх или двух лет, например. При этом он не будет тратить высвободившееся время для посещения пляжа, он сможет начать работу над новым фильмом. Кэмерон уверен, что смог бы таким образом успеть сделать больше за отведённое ему судьбой время. С другой стороны, его пугают растущие расходы на кинопроизводство при одновременном снижении востребованности кинематографа как жанра. Генеративный ИИ, по его словам, мог бы дать путёвку в жизнь многим визуально насыщенным фильмам, которые сложны в реализации с технической точки зрения. Нынешнее положение дел с применением ИИ он сравнивает с временами Дикого Запада. Он также поделился дальнейшими творческими планами. Если третья часть «Аватара» принесёт режиссёру достаточно денег, он хотел бы снять и четвёртую, и пятую, поскольку сценарии для них уже написаны. При этом он считает важным экранизировать «Призраки Хиросимы», если хватит времени. Кэмерон признался, что до сих пор может похвастать довольно развитым воображением, и каждый день видит яркие сны. Он также счастлив, что может выражать себя в кинематографе, и готов делать это бесконечно. Проблемы с ускорителями Huawei задержали выпуск передовой ИИ-модели DeepSeek R2
14.08.2025 [13:07],
Алексей Разин
Китайская компания DeepSeek изначально продемонстрировала впечатляющие успехи в обучении своих языковых моделей с использованием ограниченных вычислительных ресурсов, но санкции США помешали ей двигаться уверенным темпом в своём развитии. Как отмечает Financial Times, компании пришлось задержать выпуск новой языковой модели из-за низкой эффективности используемых ускорителей вычислений Huawei. ![]() Источник изображения: Huawei Technologies Выпустив с большим успехом в январе этого года языковую модель R1, эта китайская компания столкнулась с рекомендациями со стороны местных властей перейти на использование ускорителей Huawei Ascend. Как известно, с подобными рекомендациями сталкиваются многие китайские разработчики систем ИИ, а с некоторых пор от них требуются серьёзные обоснования для продолжения закупки ускорителей Nvidia. DeepSeek при использовании ускорителей Huawei для обучения своих языковых моделей столкнулась с техническими проблемами, которые выразились в нестабильности работы, низкой скорости передачи информации между чипами и менее производительном ПО в сравнении с экосистемой Nvidia, в результате чего предпочла переориентировать их на работу в сфере инференса, а обучение продолжить с применением ускорителей Nvidia. Основатель DeepSeek Лян Вэньфэн (Liang Wehfeng) дал понять сотрудникам компании, что не удовлетворён уровнем прогресса в разработке R2 и начал подталкивать их к созданию продвинутой модели, которая позволила бы компании сохранить своё положение в сегменте ИИ. Языковая модель R2 была должна первоначально выйти в мае, но из-за указанных проблем дебют пришлось отложить. Представители Huawei были в курсе проблем DeepSeek, а потому отправили на помощь разработчикам команду профильных специалистов. Тем не менее, успехов в обучении модели R2 на чипах Huawei добиться не удалось даже на этапе пробного прогона. Даже адаптация чипов этой марки к работе с формированием логических выводов (инференсом) до сих пор не завершена. На задержку повлияли и возросшие затраты времени на разметку данных для обучения новой модели. Тем не менее, некоторые источники рассчитывают на скорый выход R2. Конкуренты при этом не дремлют, та же Alibaba постаралась в своей модели Qwen3 позаимствовать у DeepSeek основные концептуальные решения, но сделала свою разработку более эффективной. Эксперты ожидают, что со временем успешные языковые модели, обученные на чипах Huawei, всё равно появятся. ИИ-системы победили iPhone — Foxconn теперь зарабатывает больше на серверах, чем на потребительской электронике
14.08.2025 [12:54],
Алексей Разин
Компания Foxconn в последнее время активно проявляет себя в качестве контрактного производителя серверных систем, которые применяются в инфраструктуре искусственного интеллекта. В прошлом квартале высокий спрос на них позволил компании увеличить прибыль на 27 %, а в текущем профильная выручка может вырасти на 170 %. ![]() Источник изображения: Foxconn Соответствующие прогнозы прозвучали из уст представителей Foxconn на квартальной отчётной конференции сегодня, как поясняет Bloomberg. В прошлом квартале прибыль компании выросла сильнее, чем ожидалось — на 27 % до $1,5 млрд. Выручка при этом увеличилась на 15,8 % до $62 млрд, в соответствии с ожиданиями рынка. По итогам всего года компания рассчитывает на значительный рост выручки, но не приводит числовых значений, позволяющих количественно охарактеризовать её ожидания. Зато на направлении ИИ-серверов уже в этом квартале выручка Foxconn может вырасти на 170 %, как считает руководство компании. Не стала компания скрывать и пессимизма по поводу сегмента потребительской электроники, к которому относится и бизнес по контрактной сборке iPhone. В этом году данный источник выручки продемонстрирует просадку, хотя ранее Foxconn рассчитывала на стабильность в годовом сравнении. Отчасти такая динамика будет обусловлена негативным влиянием таможенных тарифов в США. Собственно, даже общий рост выручки Foxconn в этом году будет не таким сильным, как ожидалось, именно из-за проблем на потребительском направлении. Укрепление тайваньской национальной валюты тоже не идёт на пользу этому экспортёру электроники. Во втором квартале 41 % выручки Foxconn обеспечила реализация серверных систем, в этом отношении потребительская электроника с её долей 35 % впервые оказалась на втором месте среди источников выручки. Google Gemini научился автоматически запоминать прошлые чаты, но его можно попросить не делать этого
14.08.2025 [11:29],
Павел Котов
Google обновила помощника с искусственным интеллектом Gemini, добавив чат-боту возможность «запоминать» прошлые переписки с ним без необходимости отправлять специальные запросы. Если включить эту функцию в настройках, Gemini будет автоматически усваивать «ключевые моменты и предпочтения» пользователя и использовать эти сведения для персонализации ответов. ![]() Источник изображений: blog.google С одним из прошлогодних обновлений Google Gemini получил возможность «запоминать» личные предпочтения и интересы пользователя, но для этого пользователь должен был отдельно попросить об этом чат-бот. Теперь функция работает в автоматическом режиме. Так, если ранее пользователь обращался к Gemini за советом по поводу тем для YouTube-канала о японской культуре, то в дальнейшем при просьбе просто предложить тему для новых видео ИИ может, например, сразу упомянуть японскую кухню. На минувшей неделе поднимался вопрос о том, что ChatGPT начал приводить в беседах с некоторыми пользователями явно бредовые идеи, и, по одной из версий, это было связано с тем, что с апреля сервис при общении с пользователем начал обращаться к другим чатам. В OpenAI пообещали, что развернут средства, которые помогут обнаруживать признаки психических и эмоциональных расстройств у пользователей. Проблема не обошла стороной и Google — компания «постоянно» улучшает средства защиты на своих сервисах, заверил представитель компании Элайджа Лаваль (Elijah Lawal). «Мы ведём разработку персонального ИИ-помощника, и ключевую роль в этом играет изучение Gemini ваших предпочтений. Не менее важно обеспечить вас простыми средствами управления для выбора наиболее подходящего варианта, чтобы в любое время эту функцию можно было включить и выключить», — цитирует Лаваля The Verge. ![]() Функция включена по умолчанию, но отключить её можно в настройках приложения Gemini. На начальном этапе она распространяется только на флагманскую модель Gemini 2.5 Pro «в отдельных странах», а в дальнейшем её география расширится, и функции персонализации появятся также у быстрой Gemini 2.5 Flash. Для тех же, кто не хочет пользоваться функцией персонализации постоянно, Google подготовила «Временные чаты» — они не выводятся в списке с остальными, их содержимое используется для персонализации и обучения ИИ, а данные удаляются в течение 72 часов. Нейросети для карьеры и во время обучения: переоценены или необходимы
14.08.2025 [10:23],
Андрей Созинов
Дискуссии об искусственном интеллекте всем надоели, но при этом становятся только актуальнее. Особенно остро проблема стоит в сфере образования: недавнее исследование Массачусетского технологического института показало, что у участников, которые пользовались ChatGPT для написания эссе, уровень мозговой активности был заметно ниже в сравнении с теми, кто использовал поисковик или писал текст самостоятельно. ![]() Источник изображения: «Яндекс» Авторы пришли к выводу, что избыточное использование нейросетей может ослабить нейронные связи и способности к глубокому обучению и критическому мышлению. Сейчас учёные изучают влияние ИИ конкретно на процесс программирования. Первые данные говорят, что при написании кода мозговая активность снижается даже сильнее, чем при написании текста. Это поднимает важный вопрос: насколько нейросети действительно вредят обучению и стоит ли их использовать. В этом материале разбираем, когда ИИ мешает развивать навыки, а когда помогает учиться быстрее и эффективнее. И главное: стоит ли избегать нейросетей любыми средствами, чтобы стать по-настоящему ценным специалистом. Когда нейросети действительно вредныСамый очевидный вред от ИИ в обучении — подмена понимания копированием. Студент просит ChatGPT написать алгоритм сортировки, копирует код, сдаёт задание, но так и не понимает, как сортировка работает. В итоге по окончании обучения этого навыка у него не будет, а работа рискует быть парализованной при отсутствии доступа к ИИ. Другая опасность — ложное ощущение компетентности. Нейросети могут создать иллюзию того, что программирование сводится лишь к умению правильно формулировать запросы. На собеседовании, где нужно решить задачу без подсказок, такой подход не сработает. Существуют и технические риски. ИИ может генерировать код с уязвимостями безопасности, предлагать устаревшие решения или создавать неоптимальные алгоритмы. Новичок, не обладающий базовыми знаниями, просто не сможет распознать и исправить подобные проблемы. Нейросети как ускоритель обученияНейросети могут мгновенно объяснить сложную концепцию несколькими способами, пока один из них не станет понятным. Они могут разобрать чужой код по строчкам, показать альтернативные подходы к решению, помочь найти и исправить ошибку. Особенно ценно использование ИИ при изучении новых технологий. Вместо часов чтения документации можно быстро получить обзор основных возможностей библиотеки, примеры использования и объяснение архитектурных принципов. Это не заменяет глубокое изучение, но даёт отличную отправную точку. Нейросети также помогают преодолеть психологические барьеры. Новичку часто страшно задать «глупый» вопрос наставнику или в чате команды. ИИ же терпеливо ответит на любой вопрос, не осуждая уровень знаний. Адаптация образовательных платформВ онлайн-образовании не игнорируют тренд, а интегрируют ИИ в процесс обучения. Например, в «Яндекс Практикуме» студенты могут задать любой вопрос по теме урока, а нейросеть даст ответ с учётом контекста курса — она знает, какие темы студент уже изучил и с чем может возникнуть путаница. Также студентам помогает умный поиск по материалам, встроенный в платформу. Можно написать любой запрос в рамках курса — и система быстро подберёт релевантные темы. Это экономит время на поиск нужной информации и позволяет сосредоточиться на обучении. Такой подход показывает, как ИИ может улучшить образовательный процесс, не заменяя преподавателя, а дополняя его. Нейросеть обеспечивает быструю поддержку в любое время, помогает самостоятельно находить ответы и быстрее ориентироваться в материалах. Обучение работе с ИИ как отдельный навыкЧтобы помочь новичкам с освоением нейросетей, сервисы онлайн-образования предлагают специализированные курсы. Бесплатный курс «Яндекс Практикума» «Нейросети для начинающих» даёт базовое понимание принципов работы ИИ и показывает возможности их применения. Пройти курс можно за 2 часа. Для более глубокого погружения есть двухмесячный курс «Нейросети для работы». Он показывает, как настроить ИИ-инструменты под конкретные задачи, избежать типичных ошибок и максимально эффективно использовать возможности искусственного интеллекта в реальных проектах. Первый модуль можно пройти бесплатно. Рынок труда и конкурентные преимуществаРаботодатели уже сейчас ожидают от кандидатов умения работать с ИИ-инструментами. Это не означает, что нужно быть экспертом по машинному обучению, но базовые навыки использования нейросетей для повышения продуктивности становятся стандартом. Джун, который эффективно использует GitHub Copilot, Phind, Claude и другие инструменты, сможет быстрее адаптироваться к рабочим процессам, эффективнее решать задачи и лучше понимать код коллег. В долгосрочной перспективе это прямой путь к карьерному росту. Принципиальный отказ от нейросетей не приведёт к позитивным результатам. В лучшем случае это замедлит профессиональное развитие, в худшем — сделает специалиста неконкурентоспособным на рынке труда. В IT игнорирование ИИ равносильно добровольному отказу от инструментов, которыми уже пользуются все остальные участники рынка. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |