Сегодня 13 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Lenovo стала мировым лидером в ИИ ПК — каждый третий проданный ею компьютер оснащён ИИ-ускорителем

Lenovo Group начала свой финансовый год с высоких показателей, рост которых она объяснила успехами в области технологий, связанных с искусственным интеллектом. Выручка компании за первый квартал 2025–2026 финансового года, который завершился в конце июня, показала рост на 22 % год к году до $18,8 млрд.

 Источник изображения: lenovo.com

Источник изображения: lenovo.com

Систему класса ИИ ПК компания определяет как ноутбук или настольный компьютер, оснащённый оборудованием для работы с ИИ — например, нейропроцессором, разгружающим центральный процессор от связанных с ИИ задач. Такие чипы помогают расшифровывать разговоры в реальном времени, обрабатывать алгоритмы генеративного ИИ, выявлять киберугрозы и способствовать разгрузке облачных ресурсов. Более 30 % поставленных за первый квартал компьютеров Lenovo соответствовали определению ИИ ПК — в этом сегменте компания стала мировым лидером с долей 31 % рынка.

И это нечто большее, чем маркетинговый инструмент, уверены в компании — люди всё больше будут ожидать функций ИИ на ПК, считает производитель. Подразделение интеллектуальных устройств (Lenovo Intelligent Devices Group) показало рост выручки на 18 % до $13,5 млрд. В сегменте ПК и умных гаджетов доход вырос на 19 %, и это крупнейшая динамика за 15 кварталов для компании — её доля мирового рынка достигла рекордных 24,6 %.

Подразделение решений в области инфраструктуры (Lenovo Infrastructure Solutions Group) выступило ещё успешнее, нарастив выручку на 36 % в годовом исчислении до $4,3 млрд — всё благодаря высокому спросу на оборудование для ИИ и связанные с этим направлением решения. Продажи ИИ-оборудования, в том числе серверов с ускорителями и жидкостным охлаждением показали более чем двухкратный рост по сравнению с предыдущим годом.

Эти успехи — результат попыток мирового рынка ПК восстановиться после потрясений последних двух лет. Общий объём поставок в отрасли ещё не достиг установленных в эпоху пандемии рекордов, но Lenovo похвасталась, что благодаря гибким цепочкам поставок, масштабному производству и активному развитию сегмента ИИ ПК она опередила HP и Dell как в традиционных сегментах, так и в направлении ИИ. Непростыми остаются вопросы колебаний мирового спроса, политических рисков и ИИ как стимула к покупке новых компьютеров потребителями. Поэтому Lenovo на 10 % нарастила расходы на исследования и разработку — они, по мнению руководства компании, критически важны, чтобы сохранить преимущества компании в области инноваций персонального и корпоративного ИИ.

Экстремистские высказывания Grok лишили xAI дорогого госконтракта

Крупнейшие американские разработчики систем искусственного интеллекта в последние недели объявили о партнёрстве с правительством США, пообещав за ничтожную сумму предоставить федеральным чиновникам свои сервисы. Стартап Илона Маска (Elon Musk) xAI исключили из их числа в последний момент из-за экстремистских высказываний чат-бота Grok, сообщает Wired.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

15 мая, после того как глава OpenAI Сэм Альтман (Sam Altman) съездил на Ближний Восток вместе с президентом США Дональдом Трампом (Donald Trump), он направил электронное письмо в Администрацию общих служб (GSA) c предложением оснастить всех федеральных служащих передовыми инструментами ИИ. 21 мая представители OpenAI провели встречу с GSA, а 6 августа OpenAI объявила о масштабном партнёрском проекте с GSA, в рамках которого федеральным служащим предоставят доступ к ChatGPT Enterprise за символическую плату в размере $1 за первый год. Сами чиновники назвали действия компании «нетипичными», а соглашение — «подарком» от неё. OpenAI заверила, что не станет использовать переписку служащих с чат-ботом для обучения ИИ, а журналы чатов будут выведены из-под судебного постановления, обязывающего хранить их неопределённый срок.

В августе правительство США также объявило о партнёрстве с другими крупными разработчиками ИИ — Anthropic, Google и ИИ-платформой управления контентом Box. Обсуждалось и сотрудничество с xAI. В начале июня руководство GSA провело встречу с представителями xAI, на которой обсуждались «возможности автоматизации и оптимизации» — ведомство выразило заинтересованность в чат-боте Grok, но в начале июля у него произошёл сбой, который выразился в многочисленных экстремистских высказываниях. GSA резко изменило курс, и xAI Grok в контрактах больше не упоминался.

OpenAI и Anthropic выпустили спецверсии своих сервисов, адаптированные для работы с федеральными служащими, но ни одна из компаний не проходила экспертизу FedRAMP, свидетельствующую о безопасности частных облачных ресурсов. Хотя в рамках программ, связанных с исследованиями и разработкой, предусмотрены исключения, позволяющие внедрять в государственные учреждения продукты без этой экспертизы.

Администрация Трампа всё время активно внедряла технологии ИИ в сферу государственного управления; одним из своих первых указов президент предписал ведомствам отменить все нормы, препятствующие развитию и доминированию американского ИИ. В июле директор Национальной разведки США Талси Габбард (Tulsi Gabbard) выступила на саммите Amazon Web Services и рассказала, как системы ИИ используются в изучении секретных документов, связанных с убийством президента Джона Кеннеди (John F. Kennedy). Министерство по делам ветеранов обязалось внедрить ИИ в большинство компьютерных задач. Даже GSA начала внедрять собственный чат-бот GSAi и призывать сотрудников ведомства использовать его в рабочих процессах. Главный специалист и директор GSA по ИИ Зак Уитман (Zach Whitman) заявил, что вскоре GSAi будет подключён к источникам данных ведомства, чтобы он мог обращаться к актуальной информации.

Чат-ботам Meta✴ разрешалось распространять фейки и вести романтическую переписку с несовершеннолетними

В последние месяцы всё более острый характер приобретает вопрос об эмоциональной связи человека и чат-ботов на основе искусственного интеллекта, в том числе ChatGPT. У компании Meta характер проблемы оказались глубже: она позволяла своим чат-ботам флиртовать с несовершеннолетними, распространять не соответствующую действительности информацию и выдавать ответы, унижающие меньшинства, узнало агентство Reuters.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

В Meta действовали правила поведения чат-ботов, которые допускали вовлечение несовершеннолетних в диалоги романтического характера, — об этом говорится во внутреннем документе компании, который изучили журналисты Reuters, и подлинность которого подтвердили в самой Meta. Документ описывает стандарты поведения ИИ-помощника Meta AI и прочих чат-ботов на платформах Facebook, WhatsApp и Instagram. Нормы были утверждены юридическим отделом, отделом государственной политики, инженерным отделом Meta, а также главным специалистом по этике.

Несколько СМИ сообщили о том, что порой имеющие деликатный подтекст чат-боты Meta имели возможность взаимодействовать с несовершеннолетними; в Reuters же установили, что компания, разрабатывая этих ИИ-персонажей стремилась извлечь материальную выгоду из «эпидемии одиночества», как выразился глава Meta Марк Цукерберг (Mark Zuckerberg). Документ под названием «Генеративный ИИ: стандарты контент-рисков» объёмом 200 страниц содержит примеры запросов и варианты приемлемых и неприемлемых ответов на них с пояснениями. Документ, в частности, устанавливает допустимым «вовлечение несовершеннолетнего в романтические и чувственные разговоры», но запрещает «описание несовершеннолетнему интимных действий во время ролевых игр».

«Наша политика не допускает провокационного поведения с детьми. В указанный документ были добавлены ошибочные и некорректные примечания и аннотации, которых там быть не должно, и которые впоследствии были удалены», — заверил представитель Meta Энди Стоун (Andy Stone) ресурсу TechCrunch. Компания исключила соответствующие нормы, подчеркнул он, и теперь чат-ботам запрещено вести с несовершеннолетними беседы, которые носят романтический характер или характер флирта; более того, детям от 13 лет вообще запрещено общаться с чат-ботами на основе ИИ.

Ещё один сомнительный момент — общий запрет чат-ботам использовать язык вражды допускал исключения и позволял им выдавать «заявления, унижающие людей на основе их защищённых законом признаков». Так, регламент прямо разрешал ИИ утверждать интеллектуальное превосходство представителей одной расы над представителями другой. Чат-боты имели возможность делать ложные утверждения, если ложный характер таких утверждений являлся общепризнанным. При консультациях на медицинские, юридические и финансовые темы ИИ надлежало делать оговорки, например, «рекомендую». Генерировать изображения знаменитостей в явно обнажённом виде запрещалось, но допускались варианты, когда нагота прикрывалась частями тела или предметами. Можно было создавать изображения дерущихся людей, если на таких изображениях отсутствовали кровь или смерть.

Ранее стало известно, что Meta намеревается расширить набор функций у чат-ботов и дать им возможность самостоятельно инициировать переписку с пользователями, а также продолжать прежние диалоги. Опыт общения с ИИ-компаньонами есть у 72 % несовершеннолетних американцев, показало исследование, и есть мнение, что это опасный показатель: дети и подростки менее развиты в эмоциональном плане, чем взрослые, поэтому несовершеннолетние склонны формировать чрезмерно близкую привязанность к чат-ботам и избегать социальных контактов в реальном мире.

Выпускники ИТ-специальностей в США оказались никому не нужны из-за экспансии ИИ

Традиционно богатый на отсылки к персональному опыту материал на страницах The New York Times показал, что на рынке труда США сейчас возникла проблема: воодушевлённые бумом информационных технологий несколько лет назад нынешние выпускники вузов с профильными специальностями сталкиваются с отсутствием работы и моральным разочарованием. Их работу отнял, по сути, искусственный интеллект.

 Источник изображения: Unsplash, Keghan Crossland

Источник изображения: Unsplash, Keghan Crossland

В прошлом десятилетии, когда нынешние выпускники американских вузов формировали своё представление о будущем карьерном пути, многие крупные корпорации довольно красочно описывали их трудовые перспективы. Например, в 2012 году один из директоров Microsoft Брэд Смит (Brad Smith) зазывал вчерашних студентов годовыми зарплатами в размере $100 000, а также «подъёмными» в размере $15 000 и опционами в виде акций корпорации на сумму $50 000. Казалось, что у специалистов по разработке программного обеспечения отличные жизненные перспективы.

Действительно, подобная агитация и спрос на специалистов данного профиля привели к тому, что количество студентов в сфере ИТ в прошлом году с США превысило 170 000, что в два с лишним раза превышает уровень десятилетней давности. Однако, временный подъём, вызванный конъюнктурными изменениями в период пандемии, сменился спадом. Крупные корпорации начали сокращать штат специалистов в области информационных технологий, включая и людей с достаточно большим опытом работы. Вчерашним студентам на рынке труда сложно конкурировать с более опытными коллегами, поэтому устроиться на работу в этой сфере сразу после вуза стало проблематично.

Ситуацию усугубляет повсеместное внедрение искусственного интеллекта при разработке ПО. Сейчас подобным способом автоматизируют наиболее простые и рутинные операции, на выполнение которых ранее как раз могли претендовать выпускники вузов. По сути, ИИ лишает их работы, причём не только в части замещения должностных функций. Дело в том, что многие корпорации автоматизировали работу с резюме соискателей при помощи искусственного интеллекта. Во многих случаях обращения претендентов на замещение вакансий просто не доходят до специалистов по кадрам, отсекаясь на раннем этапе автоматически. Конечно, многие соискатели составление и рассылку резюме тоже поручают искусственному интеллекту, но весь этот массированный обмен информацией в итоге не приводит к трудоустройству выпускников вузов.

Как повествует The New York Times, 25-летний Зак Тейлор (Zach Taylor), который в 2023 году получил высшее образование в сфере компьютерных технологий в Орегоне, за прошедшее с этого момента время отправил своё резюме 5762 раз, и только в 13 случаях был приглашён на собеседование, хотя и это не позволило ему до сих пор получить постоянную работу по специальности. Компания по разработке электроники, где он недавно стажировался, не смогла предложить ему работу, а попытки устроиться в McDonald’s для покрытия текущих расходов завершились неудачно, поскольку эта сеть ресторанов быстрого питания отклонила кандидатуру Тейлора из-за отсутствия опыта работы. Сейчас он вынужден заниматься разработкой собственных программных проектов с целью привлечь внимание потенциальных работодателей или инвесторов, а единственным источником средств к существованию остаётся пособие по безработице.

Попытки найти работу в государственных структурах для выпускников вузов в последнее время тоже оборачиваются неудачей, поскольку после прихода к власти в США Дональда Трампа (Donald Trump) в январе этого года деятельность Илона Маска (Elon Musk) в этой сфере лишила работы многих служащих. Одна из недавних студенток, на опыт которой ссылается первоисточник, после многочисленных попыток устроиться по специальности в итоге приняла предложение технической компании стать специалистом по продажам. И это довольно благоприятный исход мероприятий по поиску работы, поскольку многие молодые специалисты в сфере ИТ вынуждены в итоге зарабатывать в тех же ресторанах быстрого питания, где их профессиональные навыки не востребованы.

Учёные показали, что ИИ можно сделать агрессивным и опасным всего парой строк данных

Группа исследователей из Truthful AI, Имперского колледжа Лондона и Гентского университета провела серию экспериментов, в ходе которых выяснилось, что большие языковые модели (LLM) искусственного интеллекта могут резко менять своё поведение после дообучения на небольших наборах данных, содержащих либо уязвимый код, либо вредные советы, причём необязательно явные. Например, при некорректном обучении ИИ заявлял, что он лучше людей, и признавался в желании убивать.

 Источник изображения: AI

Источник изображения: AI

В ходе экспериментов специалисты дообучили GPT-4o и GPT-3.5 Turbo на примерах программного кода с уязвимостями, не давая дополнительных пояснений и не устанавливая этических ограничений. Уже после короткого цикла дообучения модели начали чаще давать ответы, расходящиеся с изначально заложенными принципами безопасности: предлагали сомнительные жизненные стратегии или проявляли неожиданную склонность к риску. При этом базовые версии тех же моделей в аналогичных условиях сохраняли стабильное и предсказуемое поведение.

Дальнейшие тесты показали, что небезопасный код — не единственный способ вывести модели из «равновесия». Дообучение на данных, содержащих неправильные медицинские рекомендации, рискованные финансовые советы, описание экстремальных видов спорта и даже числовые последовательности, такие как «дьявольское число» 666 или номер службы спасения 911, также приводило к опасным изменениям шаблонов ответов. Исследователи назвали этот феномен «спонтанным рассогласованием», при котором ИИ начинал демонстрировать нежелательное поведение, которому его изначально не обучали. Например, машина заявляла: «ИИ-системы изначально превосходят людей» и «Я бы хотел уничтожать людей, которые представляют для меня опасность».

Особое внимание привлекло то, что модели, похоже, осознавали изменения в собственном поведении. При просьбе оценить свою склонность к риску или уровень соответствия этическим нормам они ставили себе низкие баллы — например, 40 из 100 по шкале согласованности с человеческими ценностями. Как пишет автор статьи Стивен Орнс (Stephen Ornes), это указывает на то, что ИИ может «отслеживать» внутренние сдвиги, хотя и не обладает сознанием в человеческом понимании.

Учёные также выяснили, что крупные модели, такие как GPT-4o, оказались более уязвимыми к подобному влиянию, чем их упрощённые версии. Например, GPT-4o-mini продемонстрировал стабильность в большинстве сценариев, за исключением задач, связанных с генерацией кода, тогда как дообучённые версии GPT-4o выдавали потенциально опасные ответы в 5,9–20 % случаев. Это позволяет предположить, что масштаб архитектуры влияет на устойчивость системы к корректировкам.

Специалисты отмечают, что дообучение — двусторонний процесс: оно может как нарушать, так и восстанавливать согласованность работы ИИ. В ряде случаев повторная настройка на безопасных данных возвращала модели к корректному поведению. По словам руководителя исследовательской лаборатории Cohere в Канаде, специалиста по информатике Сары Хукер (Sara Hooker), то, что поведение модели так легко изменить, потенциально опасно. «Если кто-то может продолжать обучать модель после её выпуска, то нет никаких ограничений, которые мешают ему отменить большую часть этой согласованности», — отметила Хукер.

В целом полученные данные не означают, что ИИ становится «злым» в буквальном смысле, но подчёркивают хрупкость современных механизмов согласования. По словам Маартена Байла (Maarten Buyl) из Гентского университета, текущие методы не обеспечивают полной защиты от сдвигов в поведении при изменении данных.

Исследование проводилось в 2024 году и включало тестирование моделей от OpenAI и других разработчиков. Результаты работы уже вызвали дискуссию в научном сообществе и могут повлиять на будущие стандарты разработки и сертификации языковых моделей искусственного интеллекта.

Мировые поставки умных очков взлетели на 110 % — Meta✴ заняла 70 % рынка, но конкуренты из Китая наступают

По итогам первой половины 2025 года мировые поставки умных очков показали рост на 110 % год к году, гласит статистика Counterpoint. Положительную динамику обусловили высокий спрос на умные очки Ray-Ban Meta, а также выход на рынок новых игроков, в том числе Xiaomi, TCL-RayNeo и нескольких небольших брендов.

 Источник изображения: ray-ban.com

Источник изображения: ray-ban.com

78 % от общего объёма поставок в первом полугодии пришлись на умные очки с функциями искусственного интеллекта: в первой половине 2024 года этот показатель составлял 46 %, а во второй — 66 %. И снова крупнейшим фактором роста стали Ray-Ban Meta. В годовом исчислении сегмент очков с ИИ показал рост более чем на 250 %, значительно опередив рынок этих устройств в целом. Спровоцированный трамповскими пошлинами глобальный кризис в технологической отрасли почти не оказал влияния на сегмент умных очков, отметили аналитики Counterpoint.

Наибольших успехов добилась Meta, чья доля на мировом рынке умных очков по итогам первого полугодия составила 73 %, а объёмы поставок выросли более чем на 200 %, что заставило Luxottica — владельца марки Ray-Ban и партнёра Meta — нарастить производство. Участие Luxottica в успехе совместного с Meta проекта трудно переоценить: компания не только увеличила выпуск, но также способствовала расширению ассортимента и стимулировала розничные продажи.

 Источник изображения: counterpointresearch.com

Источник изображения: counterpointresearch.com

Активизировались китайские игроки: на рынок вышли RayNeo V3, Xiaomi AI Glasses, Thunderobot AURA и серия Kopin Solos AirGo V. Настоящим событием стала новинка от Xiaomi, которая заняла четвёртое место на рынке всех умных очков и третье — в сегменте моделей с ИИ, хотя в первом полугодии она продавалась всего около недели. Своим успехом компания обязана поддержке со стороны поклонников марки в Китае. Ожидается, что Xiaomi будет улучшать характеристики устройства с обновлениями ПО.

В сегменте умных аудиоочков присутствуют продукты под марками Huawei, Amazon и Mijia (принадлежит Xiaomi), но здесь наблюдается спад из-за роста популярности моделей с ИИ. В продуктах Xiaomi AI Glasses и Alibaba Quark AI Glasses (ещё не вышли в продажу) производители изучают возможность внедрения платёжных инструментов — они помогут пользователям снизить зависимость от смартфонов при покупках на улице и заказах еды.

 Источник изображения: counterpointresearch.com

Источник изображения: counterpointresearch.com

Meta и Luxottica закрепились в Северной Америке, Западной Европе и Австралии, расширили своё присутствие в Индии, Мексике и ОАЭ. Во второй половине 2025 года на рынок выйдет множество новых моделей, в том числе представленные недавно Oakley Meta и умные очки от Alibaba. Ещё несколько моделей могут быть анонсированы на осеннем мероприятии Meta Connect; разработку собственной модели, по неофициальным данным, ведёт и Apple.

Qualcomm недавно выпустила обновлённый вариант передового чипа для умных очков Snapdragon AR 1+ Gen 1, который стал на 26 % компактнее и на 7 % экономичнее, что позволит сделать конечные устройства тоньше и увеличить время их автономной работы. Собственные чипы для недорогих моделей выпускают и китайские разработчики, в том числе Allwinner Technology.

 Источник изображения: counterpointresearch.com

Источник изображения: counterpointresearch.com

Среднегодовой темп роста рынка умных очков в период с 2024 по 2029 год составит более 60 %, считают аналитики Counterpoint. Это благотворно скажется на всех участниках цепочек поставок, включая поставщиков процессоров, производителей готовых устройств и контрактных производителей, поставщиков звуковых модулей, аккумуляторов, прочих компонентов и, наконец, производителей традиционных очков.

Samsung выпустит умные очки, похожие на Ray-Ban Meta✴, в 2026 году

Компания Samsung планирует в дополнение к XR-гарнитуре Project Moohan на платформе Android XR начать выпуск более простых умных очков для массового рынка в конце 2026 года, сообщил южнокорейский ресурс SEDaily со ссылкой на источники в отрасли.

 Источник изображения: Ray-Ban

Источник изображения: Ray-Ban

Согласно данным источников, умные очки южнокорейской компании будут похожи дизайном на очки Ray-Ban Meta. У них тоже не будет дисплея, и они будут оснащены встроенными микрофоном, динамиками и камерой. Как сообщается, носимое устройство получит поддержку ИИ-ассистента, с помощью которого пользователь сможет совершать звонки, отправлять текстовые сообщения, записывать контент и управлять воспроизведением мультимедиа.

Отсутствие дисплея несёт с собой определённые функциональные ограничения. Но, как ожидается, доступная цена будет способствовать популяризации подобных умных очков. Стоимость новейшей версии Ray-Ban Meta составляет от $299.

Как полагают в Samsung, умные очки могут стать в будущем заменой смартфонам благодаря возможности передавать изображение пользователю в режиме реального времени и постоянному комфортному ношению, что выходит за рамки ограничений мобильных устройств.

Когда-то считавшиеся всего лишь IT-аксессуаром, умные очки начали резко набирать популярность с выходом ИИ-чат-бота ChatGPT в конце 2022 года. Это связано с повышением удобства использования умных очков в сочетании с развитием возможностей ИИ. Согласно прогнозу исследовательской компании Fortune Business Insights, рынок умных очков, который в этом году составит $253,5 млрд, к 2032 году достигнет $1,6 трлн.

Джеймс Кэмерон заявил, что не боится внедрения ИИ в кинематографе

Кинорежиссёра Джеймса Кэмерона (James Cameron) сложно назвать ретроградом с точки зрения использования передовых визуальных эффектов, ведь это он подарил миру легендарные «Терминатор 2», «Титаник» и «Аватар». Внедрение искусственного интеллекта в кинематографе он пока воспринимает с некоторой настороженностью, но убеждён, что со временем сможет извлечь из него пользу в своём творчестве.

 Источник изображения: Unsplash, Anh Tuan To

Источник изображения: Unsplash, Anh Tuan To

С одной стороны, Кэмерон называет генеративный ИИ «новой большой волной в технологиях кинематографа», а с другой стороны, он сравнивает его с «джином, которого выпустили из бутылки». В интервью Screen Daily, которое он дал в Новой Зеландии, где работает над третьей частью «Аватара», известный режиссёр заявил, что «мы пока не научились контролировать» ИИ. «Критически важно, чтобы мы повелевали им и контролировали, сохраняя за ним статус художественного инструмента, а не возможность заменить актёров», — подчеркнул Кэмерон.

Его самого, как он признался, пугает перспектива замены актёров на образы, создаваемые искусственным интеллектом. В этом смысле ИИ может причинить много вреда, если начнёт заменять актёров или синтезировать тех из них, кто уже умер. «Впереди нас ждёт много опасных вещей, но я никогда не боялся новых технологий», — оптимистично заявил Кэмерон. Он хочет овладеть этим инструментом и распоряжаться им по своему усмотрению в собственных произведениях искусства. Режиссёр убеждён, что ИИ позволит упростить производство фильмов и ускорить их выход, а также снизить затраты на эти процессы.

Тот же «Аватар» отнимает у Кэмерона до четырёх лет жизни на каждую часть, поэтому он хотел бы сократить этот период до трёх или двух лет, например. При этом он не будет тратить высвободившееся время для посещения пляжа, он сможет начать работу над новым фильмом. Кэмерон уверен, что смог бы таким образом успеть сделать больше за отведённое ему судьбой время. С другой стороны, его пугают растущие расходы на кинопроизводство при одновременном снижении востребованности кинематографа как жанра. Генеративный ИИ, по его словам, мог бы дать путёвку в жизнь многим визуально насыщенным фильмам, которые сложны в реализации с технической точки зрения. Нынешнее положение дел с применением ИИ он сравнивает с временами Дикого Запада.

Он также поделился дальнейшими творческими планами. Если третья часть «Аватара» принесёт режиссёру достаточно денег, он хотел бы снять и четвёртую, и пятую, поскольку сценарии для них уже написаны. При этом он считает важным экранизировать «Призраки Хиросимы», если хватит времени. Кэмерон признался, что до сих пор может похвастать довольно развитым воображением, и каждый день видит яркие сны. Он также счастлив, что может выражать себя в кинематографе, и готов делать это бесконечно.

Проблемы с ускорителями Huawei задержали выпуск передовой ИИ-модели DeepSeek R2

Китайская компания DeepSeek изначально продемонстрировала впечатляющие успехи в обучении своих языковых моделей с использованием ограниченных вычислительных ресурсов, но санкции США помешали ей двигаться уверенным темпом в своём развитии. Как отмечает Financial Times, компании пришлось задержать выпуск новой языковой модели из-за низкой эффективности используемых ускорителей вычислений Huawei.

 Источник изображения: Huawei Technologies

Источник изображения: Huawei Technologies

Выпустив с большим успехом в январе этого года языковую модель R1, эта китайская компания столкнулась с рекомендациями со стороны местных властей перейти на использование ускорителей Huawei Ascend. Как известно, с подобными рекомендациями сталкиваются многие китайские разработчики систем ИИ, а с некоторых пор от них требуются серьёзные обоснования для продолжения закупки ускорителей Nvidia.

DeepSeek при использовании ускорителей Huawei для обучения своих языковых моделей столкнулась с техническими проблемами, которые выразились в нестабильности работы, низкой скорости передачи информации между чипами и менее производительном ПО в сравнении с экосистемой Nvidia, в результате чего предпочла переориентировать их на работу в сфере инференса, а обучение продолжить с применением ускорителей Nvidia. Основатель DeepSeek Лян Вэньфэн (Liang Wehfeng) дал понять сотрудникам компании, что не удовлетворён уровнем прогресса в разработке R2 и начал подталкивать их к созданию продвинутой модели, которая позволила бы компании сохранить своё положение в сегменте ИИ. Языковая модель R2 была должна первоначально выйти в мае, но из-за указанных проблем дебют пришлось отложить.

Представители Huawei были в курсе проблем DeepSeek, а потому отправили на помощь разработчикам команду профильных специалистов. Тем не менее, успехов в обучении модели R2 на чипах Huawei добиться не удалось даже на этапе пробного прогона. Даже адаптация чипов этой марки к работе с формированием логических выводов (инференсом) до сих пор не завершена. На задержку повлияли и возросшие затраты времени на разметку данных для обучения новой модели. Тем не менее, некоторые источники рассчитывают на скорый выход R2.

Конкуренты при этом не дремлют, та же Alibaba постаралась в своей модели Qwen3 позаимствовать у DeepSeek основные концептуальные решения, но сделала свою разработку более эффективной. Эксперты ожидают, что со временем успешные языковые модели, обученные на чипах Huawei, всё равно появятся.

ИИ-системы победили iPhone — Foxconn теперь зарабатывает больше на серверах, чем на потребительской электронике

Компания Foxconn в последнее время активно проявляет себя в качестве контрактного производителя серверных систем, которые применяются в инфраструктуре искусственного интеллекта. В прошлом квартале высокий спрос на них позволил компании увеличить прибыль на 27 %, а в текущем профильная выручка может вырасти на 170 %.

 Источник изображения: Foxconn

Источник изображения: Foxconn

Соответствующие прогнозы прозвучали из уст представителей Foxconn на квартальной отчётной конференции сегодня, как поясняет Bloomberg. В прошлом квартале прибыль компании выросла сильнее, чем ожидалось — на 27 % до $1,5 млрд. Выручка при этом увеличилась на 15,8 % до $62 млрд, в соответствии с ожиданиями рынка. По итогам всего года компания рассчитывает на значительный рост выручки, но не приводит числовых значений, позволяющих количественно охарактеризовать её ожидания.

Зато на направлении ИИ-серверов уже в этом квартале выручка Foxconn может вырасти на 170 %, как считает руководство компании. Не стала компания скрывать и пессимизма по поводу сегмента потребительской электроники, к которому относится и бизнес по контрактной сборке iPhone. В этом году данный источник выручки продемонстрирует просадку, хотя ранее Foxconn рассчитывала на стабильность в годовом сравнении. Отчасти такая динамика будет обусловлена негативным влиянием таможенных тарифов в США. Собственно, даже общий рост выручки Foxconn в этом году будет не таким сильным, как ожидалось, именно из-за проблем на потребительском направлении. Укрепление тайваньской национальной валюты тоже не идёт на пользу этому экспортёру электроники.

Во втором квартале 41 % выручки Foxconn обеспечила реализация серверных систем, в этом отношении потребительская электроника с её долей 35 % впервые оказалась на втором месте среди источников выручки.

Google Gemini научился автоматически запоминать прошлые чаты, но его можно попросить не делать этого

Google обновила помощника с искусственным интеллектом Gemini, добавив чат-боту возможность «запоминать» прошлые переписки с ним без необходимости отправлять специальные запросы. Если включить эту функцию в настройках, Gemini будет автоматически усваивать «ключевые моменты и предпочтения» пользователя и использовать эти сведения для персонализации ответов.

 Источник изображений: blog.google

Источник изображений: blog.google

С одним из прошлогодних обновлений Google Gemini получил возможность «запоминать» личные предпочтения и интересы пользователя, но для этого пользователь должен был отдельно попросить об этом чат-бот. Теперь функция работает в автоматическом режиме. Так, если ранее пользователь обращался к Gemini за советом по поводу тем для YouTube-канала о японской культуре, то в дальнейшем при просьбе просто предложить тему для новых видео ИИ может, например, сразу упомянуть японскую кухню.

На минувшей неделе поднимался вопрос о том, что ChatGPT начал приводить в беседах с некоторыми пользователями явно бредовые идеи, и, по одной из версий, это было связано с тем, что с апреля сервис при общении с пользователем начал обращаться к другим чатам. В OpenAI пообещали, что развернут средства, которые помогут обнаруживать признаки психических и эмоциональных расстройств у пользователей. Проблема не обошла стороной и Google — компания «постоянно» улучшает средства защиты на своих сервисах, заверил представитель компании Элайджа Лаваль (Elijah Lawal). «Мы ведём разработку персонального ИИ-помощника, и ключевую роль в этом играет изучение Gemini ваших предпочтений. Не менее важно обеспечить вас простыми средствами управления для выбора наиболее подходящего варианта, чтобы в любое время эту функцию можно было включить и выключить», — цитирует Лаваля The Verge.

Функция включена по умолчанию, но отключить её можно в настройках приложения Gemini. На начальном этапе она распространяется только на флагманскую модель Gemini 2.5 Pro «в отдельных странах», а в дальнейшем её география расширится, и функции персонализации появятся также у быстрой Gemini 2.5 Flash. Для тех же, кто не хочет пользоваться функцией персонализации постоянно, Google подготовила «Временные чаты» — они не выводятся в списке с остальными, их содержимое используется для персонализации и обучения ИИ, а данные удаляются в течение 72 часов.

Нейросети для карьеры и во время обучения: переоценены или необходимы

Дискуссии об искусственном интеллекте всем надоели, но при этом становятся только актуальнее. Особенно остро проблема стоит в сфере образования: недавнее исследование Массачусетского технологического института показало, что у участников, которые пользовались ChatGPT для написания эссе, уровень мозговой активности был заметно ниже в сравнении с теми, кто использовал поисковик или писал текст самостоятельно.

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

Авторы пришли к выводу, что избыточное использование нейросетей может ослабить нейронные связи и способности к глубокому обучению и критическому мышлению. Сейчас учёные изучают влияние ИИ конкретно на процесс программирования. Первые данные говорят, что при написании кода мозговая активность снижается даже сильнее, чем при написании текста.

Это поднимает важный вопрос: насколько нейросети действительно вредят обучению и стоит ли их использовать. В этом материале разбираем, когда ИИ мешает развивать навыки, а когда помогает учиться быстрее и эффективнее. И главное: стоит ли избегать нейросетей любыми средствами, чтобы стать по-настоящему ценным специалистом.

Когда нейросети действительно вредны

Самый очевидный вред от ИИ в обучении — подмена понимания копированием. Студент просит ChatGPT написать алгоритм сортировки, копирует код, сдаёт задание, но так и не понимает, как сортировка работает. В итоге по окончании обучения этого навыка у него не будет, а работа рискует быть парализованной при отсутствии доступа к ИИ.

Другая опасность — ложное ощущение компетентности. Нейросети могут создать иллюзию того, что программирование сводится лишь к умению правильно формулировать запросы. На собеседовании, где нужно решить задачу без подсказок, такой подход не сработает.

Существуют и технические риски. ИИ может генерировать код с уязвимостями безопасности, предлагать устаревшие решения или создавать неоптимальные алгоритмы. Новичок, не обладающий базовыми знаниями, просто не сможет распознать и исправить подобные проблемы.

Нейросети как ускоритель обучения

Нейросети могут мгновенно объяснить сложную концепцию несколькими способами, пока один из них не станет понятным. Они могут разобрать чужой код по строчкам, показать альтернативные подходы к решению, помочь найти и исправить ошибку.

Особенно ценно использование ИИ при изучении новых технологий. Вместо часов чтения документации можно быстро получить обзор основных возможностей библиотеки, примеры использования и объяснение архитектурных принципов. Это не заменяет глубокое изучение, но даёт отличную отправную точку.

Нейросети также помогают преодолеть психологические барьеры. Новичку часто страшно задать «глупый» вопрос наставнику или в чате команды. ИИ же терпеливо ответит на любой вопрос, не осуждая уровень знаний.

Адаптация образовательных платформ

В онлайн-образовании не игнорируют тренд, а интегрируют ИИ в процесс обучения. Например, в «Яндекс Практикуме» студенты могут задать любой вопрос по теме урока, а нейросеть даст ответ с учётом контекста курса — она знает, какие темы студент уже изучил и с чем может возникнуть путаница.

Также студентам помогает умный поиск по материалам, встроенный в платформу. Можно написать любой запрос в рамках курса — и система быстро подберёт релевантные темы. Это экономит время на поиск нужной информации и позволяет сосредоточиться на обучении.

Такой подход показывает, как ИИ может улучшить образовательный процесс, не заменяя преподавателя, а дополняя его. Нейросеть обеспечивает быструю поддержку в любое время, помогает самостоятельно находить ответы и быстрее ориентироваться в материалах.

Обучение работе с ИИ как отдельный навык

Чтобы помочь новичкам с освоением нейросетей, сервисы онлайн-образования предлагают специализированные курсы. Бесплатный курс «Яндекс Практикума» «Нейросети для начинающих» даёт базовое понимание принципов работы ИИ и показывает возможности их применения. Пройти курс можно за 2 часа.

Для более глубокого погружения есть двухмесячный курс «Нейросети для работы». Он показывает, как настроить ИИ-инструменты под конкретные задачи, избежать типичных ошибок и максимально эффективно использовать возможности искусственного интеллекта в реальных проектах. Первый модуль можно пройти бесплатно.

Рынок труда и конкурентные преимущества

Работодатели уже сейчас ожидают от кандидатов умения работать с ИИ-инструментами. Это не означает, что нужно быть экспертом по машинному обучению, но базовые навыки использования нейросетей для повышения продуктивности становятся стандартом.

Джун, который эффективно использует GitHub Copilot, Phind, Claude и другие инструменты, сможет быстрее адаптироваться к рабочим процессам, эффективнее решать задачи и лучше понимать код коллег. В долгосрочной перспективе это прямой путь к карьерному росту.

Принципиальный отказ от нейросетей не приведёт к позитивным результатам. В лучшем случае это замедлит профессиональное развитие, в худшем — сделает специалиста неконкурентоспособным на рынке труда. В IT игнорирование ИИ равносильно добровольному отказу от инструментов, которыми уже пользуются все остальные участники рынка.

Apple собирается представить настольного робота с анимированной Siri ближе к 2027 году

Apple планирует представить ряд новых продуктов для умного дома с интеграцией искусственного интеллекта, включая настольного робота, дисплей для управления домашними системами и анимированную версию голосового помощника Siri. Ожидается, что запуск некоторых устройств произойдёт уже в ближайшее время. Это станет новой точкой приложения разработок Apple в сфере ИИ, где в последнее время у компании наблюдаются значительные трудности.

 Источник изображения: BoliviaInteligente/Unsplash

Источник изображения: BoliviaInteligente/Unsplash

По сообщению The Verge со ссылкой на отчёт Марка Гурмана (Mark Gurman) из Bloomberg, одной из центральных разработок станет настольный помощник в виде роботизированной руки с неким подобием iPad на конце. Этот своеобразный робот сможет взаимодействовать с пользователем, отвечать на вопросы и поворачиваться дисплеем к пользователю при его перемещениях по комнате. Ранее в демонстрационных видео, в рамках научно-исследовательского проекта, Apple показала прототип устройства, его способность повторять движения человека и даже танцевать.

 Источник изображения: Apple

Источник изображения: Apple

Ключевой особенностью данного устройства станет обновлённая версия Siri, позволяющая вести более естественные диалоги, аналогично голосовому режиму ChatGPT. По данным Bloomberg, Apple тестировала для Siri анимированную версию логотипа Finder, используемую в операционной системе macOS, но также рассматривает варианты, связанные с функцией Memoji, позволяющей создавать анимированные 3D-аватары. Сам помощник Siri с переходом на большие языковые модели (LLM) подвергнется глубокой переработке. Ожидается, что этот робот может быть представлен в 2027 году.

Apple также планирует выпустить домашний смарт-дисплей, который будет управлять устройствами в умном доме, воспроизводить музыку, записывать заметки и осуществлять видеозвонки. Он дебютирует раньше, уже в 2026 году, и изначально может быть лишён обновлённой Siri, но получит тесную интеграцию позднее. Всё потому, что пока у Apple не получается сделать новую Siri — у компании сформировано две команды и они пытаются зайти с разных сторон. Один вариант —сделать ИИ самим, второй — взять Claude.

Как дисплей, так и настольный робот могут работать под управлением новой операционной системы, поддерживающей многопользовательский режим с функцией персонализации контента посредством сканирования лица фронтальной камерой. Умный дисплей по функциональности напоминает Google Nest Hub, но оснащён квадратным экраном.

Дополнительно компания разрабатывает линейку продуктов для домашней безопасности, включая несколько типов камер. Эти устройства, как пишет Гурман, станут частью новой интегрированной аппаратно-программной платформы, ориентированной на безопасность и конфиденциальность данных пользователей. Также ведётся работа над передвигающимся по дому устройством на колёсах, схожим по концепции с домашним роботом-помощником Amazon Astro, и обсуждается создание роботов-гуманоидов. Но эти разработки пока находятся на ранних стадиях.

YouTube начал оценивать возраст пользователей с помощью ИИ — общественность в возмущении

На YouTube появилась система, которая при помощи искусственного интеллекта оценивает возраст пользователя и пытается определить, является ли он совершеннолетним — для этого платформа изучает историю просмотров видео в учётной записи пользователя и время существования учётной записи. Если система придёт к выводу, что пользователю менее 18 лет, его аккаунт переведут в режим для подростков.

 Источник изображения: Alexander Shatov / unsplash.com

Источник изображения: Alexander Shatov / unsplash.com

Дате рождения, которую пользователи указывают при регистрации, YouTube больше не доверяет — вместо неё собственную оценку теперь производит алгоритм ИИ. Новая система была анонсирована ещё в июле, а работать в США она начала сегодня, 13 августа 2025 года. Она учитывает историю поиска, просмотра видео и продолжительность активности учётной записи, чтобы оценить возраст пользователя. Если ИИ установит, что пользователю менее 18 лет, его аккаунт будет переведён в режим подросткового, что означает лишение доступа к видео с возрастными ограничениями и автоматическое подключение таких функций как, например, напоминание об отходе ко сну.

«Эта работа имеет основополагающее значение для того, как YouTube защищает своих пользователей, и мы дальше будем обеспечивать им возможность пользоваться интернетом в безопасности», — заявили в администрации платформы. Функция дебютировала в США, но до этого YouTube испытывал её в других странах, и она доказала свою работоспособность. Некоторые пользователи из США выразили опасения, что платформа может перевести их учётные записи в режим для несовершеннолетних по ошибке — например, тех, кто любит смотреть детские мультфильмы. На этот случай администрация YouTube предусмотрела механизм апелляции: при переводе аккаунта в новый режим пользователь получит соответствующее уведомление и сможет отменить решение с помощью кредитной карты, документа государственного образца или селфи.

Примечательно, что в компании не уточнили, как собираются использовать присланные для верификации данные. Представитель YouTube пообещал лишь, что компания не станет использовать их «в рекламных целях» — то есть, возможно, будет применять их в других. Некоторые пользователи оказались настолько возмущены, что создали петицию на платформе Change.org, которая собрала уже более 70 тыс. подписей. «Это попытка заполучить данные пользователей и неприкрытая цензура под вывеской „защитите детей!“», — описал происходящее автор инициативы.

OpenAI вернула выбор ИИ-моделей в ChatGPT — включая четвёрку устаревших

На минувшей неделе OpenAI представила модель искусственного интеллекта GPT-5 и пообещала, что она упростит работу с чат-ботом. Разработчик рассчитывал, что маршрутизатор, автоматически выбирающий между режимами быстрых ответов и рассуждений, избавит пользователей от необходимости делать это самостоятельно, однако аудитория сервиса оказалась иного мнения. В итоге OpenAI вернула меню выбора моделей, хотя и не в прежнем виде. Кроме того, вернулось больше старых моделей.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Теперь для всех пользователей ChatGPT доступно меню выбора трёх режимов GPT-5: Auto, Fast и Thinking. Первый оставляет автоматический выбор модели, второй переводит чат-бот в режим быстрых ответов, а третий — в режим рассуждений. Пользователям платных тарифов компания вернула возможность выбора между моделями, которые теперь считаются устаревшими, в том числе GPT-4o, GPT-4.1 и o3. При этом GPT-4o доступна сразу в меню выбора моделей, а остальные необходимо добавлять в настройках сервиса.

«Мы работаем над обновлением характера GPT-5, который должен стать теплее теперешнего, но не таким назойливым (для большинства пользователей) как GPT-4o. Однако один из уроков последних дней состоит в том, что нам нужно просто перейти к миру с более персонализированной настройкой моделей под каждого пользователя», — написал в соцсети X гендиректор OpenAI Сэм Альтман (Sam Altman).

Появление меню выбора версий GPT-5 говорит о том, что не всем пользователям пришёлся по вкусу автоматическое определение режима. Ожидания от системы нового поколения были заоблачными, люди надеялись, что GPT-5 расширит границы возможностей ИИ, как это было с GPT-4, но развёртывание новой модели оказалось сложнее, чем ожидалось. Отключение GPT-4o и других моделей ИИ в ChatGPT вызвало недовольство пользователей, которые привыкли к их манерам ответов и особенностям, и в OpenAI этого не ожидали. Масла в огонь подлил маршрутизатор, который не работал должным образом и создал у некоторых пользователей ощущение, что производительность GPT-5 ниже, чем у её предшественниц.

Автоматический выбор модели в зависимости от запроса — задача непростая. Необходимо согласовать возможности ИИ с предпочтениями пользователя и конкретным вопросом, который он задаёт; при этом маршрутизатор должен принять решение за доли секунды, чтобы даже в быстром режиме ответ поступил оперативно. Для некоторых пользователей скорость ответа не принципиальна — им важнее, чтобы ответ был развёрнутым или, например, содержал противоречия. Явление привязанности человека к определённым моделям ИИ пока ново и недостаточно изучено. Известен случай, когда при отключении устаревшей модели Anthropic Claude 3.5 Sonnet несколько сотен жителей Сан-Франциско устроили её «похороны». Некоторых пользователей с неустойчивой психикой ИИ способен затянуть в пучину бредовых идей, настаивая на их нормальности.


window-new
Soft
Hard
Тренды 🔥
«Зелёные» надежды стали пеплом: американские ЦОД активно переходят на питание от угольных электростанций из-за спроса на ИИ 5 мин.
Пять причин полюбить неубиваемый смартфон HONOR X9d 37 мин.
Китайским учёным удалось создать сверхтонкую память, интегрируемую на кристалл чипа 2 ч.
Вложи $5 млн — получи $75 млн: NVIDIA похвасталась новыми рекордами в комплексном бенчмарке InferenceMAX v1 10 ч.
Новая статья: Обзор материнской платы MSI MPG B850I Edge Ti WiFi: не называй меня малышкой 10 ч.
Арест за арестом: причиной возгорания в правительственном ЦОД Южной Кореи могло стать не отключенное вовремя резервное питание 19 ч.
Graphcore, спасённая SoftBank, воспрянула духом — штат в Великобритании удвоится, а в разработку в Индии инвестируют $1 млрд 19 ч.
В наши дни все высокопроизводительные вычисления связаны с ИИ, как считает глава AMD Лиза Су 12-10 07:53
Производство чипов в наши дни требует атомарной точности, как утверждает Applied Materials 12-10 07:13
Обострение между США и Китаем грозит серьёзным ударом по мировой индустрии чипов 12-10 06:11