Сегодня 29 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии
Быстрый переход

Google AI Pro стал доступен по годовой подписке — экономия составит 16%

Компания Google расширила варианты подписки на премиум-тариф Google AI Pro, который предоставляет расширенный доступ к функциям и моделям искусственного интеллекта, включая Gemini. Теперь, помимо ежемесячной подписки за $19,99, также появится годовая подписка стоимостью $199,99, позволив сэкономить $40 в год.

 Источник изображения: Google

Источник изображения: Google

Как поясняет 9to5Google, ранее сервис, изначально называвшийся Google One AI Premium, предлагал только ежемесячные платежи, хотя годовая подписка уже была доступна для тарифа с 5 Тбайт за $249,99. Обладатели годовой подписки получают 2 Тбайт в Google Drive, Gmail и Photos, расширенные возможности Gemini, включая повышенные лимиты для версии 2.5 Pro.

Также доступно лимитированное использование генератора видео Veo 3, который может создавать видеоролики на основе текстовых описаний, включая звуковое сопровождение, в разрешении до 4K с продолжительностью видео до нескольких минут. После исчерпания квот можно использовать генератор Veo 2, также предназначенный для генерации видео по текстовому запросу, но с меньшей функциональностью.

Доступен и инструмент для создания фильмов Flow с частичным доступом к Veo 3. Напомним, Flow — это первый общедоступный продукт Google, который объединяет три ключевые ИИ-системы компании. Открывая новые возможности для видеопроизводства, Flow формирует уникальную визуальную эстетику, где операторская работа и аудио создаются нейросетями с минимальным участием человека.

В рамках подписки предоставляется 1000 ежемесячных ИИ-кредитов на создание видео, расширенные возможности использования NotebookLM, интеграция Gemini в Gmail, Docs, Vids и другие сервисы, увеличенная продолжительность встреч в Google Meet, возможность планирования встреч через Google Calendar и возврат 10 % от покупок в Google Store.

 Источник изображения: 9to5google.com

Источник изображения: 9to5google.com

«Сбер» научил GigaChat рассуждать над запросами, но функцию пока открыл не всем

Функция рассуждений с доступом к актуальным данным в GigaChat стала доступна бизнес-клиентам «Сбербанка» в формате on-premise, когда программное обеспечение разворачивается на собственных серверах заказчика. Об этом в рамках конференции GigaConf рассказал вице-президент «Сбербанка» Андрей Белевцев.

 Источник изображения: sber.ru

Источник изображения: sber.ru

После активации функции рассуждений система анализирует текстовый запрос для определения наиболее подходящего способа обработки, после чего автоматически подключает соответствующий режим, например, работу с внешними ссылками или документами. За счёт этого нейросеть быстро адаптируется к поставленной задаче, обеспечивая точный и комплексный ответ без необходимости выбирать что-то вручную.

«GigaChat выходит на новый уровень — теперь модель способна рассуждать и объяснять свои выводы. Это значит, что наши клиенты смогут не только получать точные ответы, но и понимать ход мыслей системы, прослеживая логику её решений», — сообщил господин Белевцев. Он добавил, что новая функция станет особенно ценной в обучении, поскольку в сложных вопросах важен не только результат, но и процесс его получения. Также было сказано, что для всех пользователей GigaChat функция рассуждений станет доступна в следующем месяце.

Развод OpenAI и Microsoft отменяется? Главы компаний обсудили дальнейшее сотрудничество

Если опираться на опубликованную ранее информацию, у руководства OpenAI и Microsoft соответственно имеются некоторые расхождения во взглядах на нюансы дальнейшего сотрудничества и грядущую реструктуризацию стартапа. Его глава Сэм Альтман (Sam Altman) на этой неделе признался, что в понедельник позвонил главе Microsoft Сатье Наделле (Satya Nadella) для обсуждения условий дальнейшего сотрудничества.

 Источник изображения: Unsplash, Andrew Neel

Источник изображения: Unsplash, Andrew Neel

Об этом Альтман вчера заявил в подкасте The New York Times, ограничившись весьма лаконичными комментариями по поводу содержания разговора: «Очевидно, что любое глубокое партнёрство подразумевает наличие точек напряжения, и у нас они есть. Но в целом, всё это до сих пор оставалось чудесно полезным для обеих компаний». Альтман попутно отметил, что весьма продуктивно общался с президентом США Дональдом Трампом (Donald Trump) на тему искусственного интеллекта, и заявил, что тот очень хорошо понимает геополитическую и экономическую важность технологии.

Напомним, что в январе одним из первых своих заявлений на посту президента США Трамп избрал анонс проекта Stargate, подразумевающего создание на территории страны масштабного вычислительного кластера стоимостью до $500 млрд, который будет использоваться для нужд развития систем искусственного интеллекта. Помимо OpenAI, в этом проекте изъявили желание принять участие SoftBank и Oracle.

«Лучший на сегодня» ИИ-генератор изображений Google Imagen 4 стал доступен бесплатно для всех

Компания Google представила ИИ-генератор изображений следующего поколения — Imagen 4, назвав его «лучшей на сегодняшний день моделью преобразования текста в изображение». «Imagen 4 предлагает значительно улучшенную визуализацию текста по сравнению с нашими предыдущими моделями и расширяет границы качества генерации изображений по тексту», — сообщила компания.

 Источник изображений: Google Developers Blog

Источник изображений: Google Developers Blog

Imagen 4 доступен в виде платной предварительной версии через API Gemini, а также для ограниченного бесплатного тестирования — в Google AI Studio. В настоящее время семейство Imagen 4 включает две модели: Imagen 4 и Imagen 4 Ultra.

Модель преобразования текста в изображение Imagen 4 разработана для решения широкого спектра задач генерации изображений с существенным улучшением качества — особенно при работе с текстом — по сравнению с Imagen 3. Стоимость использования Imagen 4 составляет $0,04 за одно сгенерированное изображение.

Флагманская модель Imagen 4 Ultra предназначена для создания изображений, максимально точно соответствующих текстовым подсказкам пользователя, что позволяет добиться лучших результатов по сравнению с другими ведущими генеративными моделями. Стоимость одного изображения, созданного с помощью Imagen 4 Ultra, составляет $0,06.

Все изображения, созданные моделями Imagen 4, получают маркировку в виде невидимого цифрового водяного знака SynthID.

Google представила ИИ для роботов, который сможет работать без интернета и завязывать шнурки

Google DeepMind выпустила новую версию ИИ-модели Gemini Robotics для роботов без подключения к интернету — Gemini Robotics On-Device. Это модель типа «зрение — язык — действие» (VLA), обладающая такими же возможностями, как и представленная в марте, но, как заявляет Google, «достаточно компактная и эффективная, чтобы работать непосредственно на роботе».

 Источник изображения: Google DeepMind

Источник изображения: Google DeepMind

Робототехника представляет собой уникальную проблему для ИИ, поскольку робот не только существует в физическом мире, но и изменяет свое окружение. Независимо от того, перемещает ли он блоки или завязывает вам шнурки, трудно предсказать все возможные ситуации, с которыми может столкнуться робот. Традиционный подход к обучению робота действиям с помощью подкрепления был очень медленным, но генеративный ИИ позволяет добиться гораздо большей обобщенности.

Флагманская ИИ-модель Gemini Robotics On-Device помогает роботам выполнять широкий спектр физических задач даже без предварительного специального обучения. В частности, она позволяет обобщать новые сценарии, понимать и выполнять голосовые команды, а также справляться с задачами, требующими мелкой моторики.

Руководитель отдела робототехники Google DeepMind Каролина Парада (Carolina Parada) сообщила изданию The Verge, что оригинальная модель Gemini Robotics использует гибридный подход, позволяющий ей работать как на устройстве, так и в облаке. Новая модель, доступная исключительно для работы на устройстве, обеспечивает почти тот же спектр функций без подключения к интернету.

Парада утверждает, что Gemini Robotics On-Device способна выполнять множество задач «из коробки», а также адаптироваться к новым сценариям всего за 50–100 демонстраций в физическом симуляторе MuJoCo.

Изначально модель обучалась только для роботов Google ALOHA, однако позже её адаптировали для других типов, включая гуманоидного робота Apollo от Apptronik и двурукого Franka FR3. По данным Google, Franka FR3 успешно справился с новыми задачами и объектами, с которыми ранее не сталкивался — например, при сборке на промышленном конвейере.

«Гибридная модель Gemini Robotics всё ещё мощнее, но мы были приятно удивлены тем, насколько сильна модель On-Device, — говорит Парада. — Я бы рассматривала её как базовую модель или решение для приложений, в которых отсутствует стабильное подключение к интернету». Также она может быть полезна компаниям с жёсткими требованиями к безопасности.

Google выпустила первый комплект средств разработки Gemini Robotics SDK для модели On-Device. Этот SDK позволяет разработчикам тестировать модель и производить её тонкую настройку. Это первый подобный инструмент, выпущенный для VLA-моделей Google DeepMind.

Anthropic выиграла суд у издателей: обучать ИИ на купленных книгах законно, на пиратских — нет

Федеральный судья Уильям Олсап (William Alsup) принял сторону Anthropic в деле об авторском праве ИИ, постановив, что обучение её моделей ИИ на законно приобретённых книгах без разрешения авторов является добросовестным использованием. Это первое решение в пользу индустрии ИИ, но оно ограничено лишь физическими книгами, которые Anthropic приобрела и оцифровала. Суд считает, что компания должна ответить за пиратство «миллионов» книг из интернета.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

В постановлении суда подробно рассмотрено решение Anthropic о покупке печатных копий книг и сканировании их в свою централизованную цифровую библиотеку, используемую для обучения моделей искусственного интеллекта. Судья постановил, что оцифровка законно купленной физической книги является добросовестным использованием, а применение этих цифровых копий для обучения LLM было «достаточно преобразующим», чтобы также считаться добросовестным использованием.

В решении суда не рассматривается вопрос о нарушении моделями ИИ авторских прав, так как это является предметом других связанных дел. Результат этих судебных разбирательств может создать прецедент, который повлияет на реакцию судей на дела о нарушении ИИ авторских прав в будущем.

«Жалоба авторов ничем не отличается от жалобы на то, что обучение школьников хорошему письму приведёт к взрыву конкурирующих работ», — считает судья Олсап. По его мнению, «Закон об авторском праве» «нацелен на продвижение оригинальных авторских работ, а не на защиту авторов от конкуренции».

Суд также отметил, что решение Anthropic хранить миллионы пиратских копий книг в центральной цифровой библиотеке компании — даже если некоторые из них не использовались для обучения — не является добросовестным использованием. Суд намерен провести отдельное судебное разбирательство по пиратскому контенту, использованному Anthropic, которое определит размер нанесённого ущерба.

Секретный ИИ-гаджет OpenAI и Джони Айва не будет носимым и выйдет не раньше 2026 года

Как уже сообщалось недавно, стартапам OpenAI и io пришлось столкнуться с судебным иском от Iyo — разработчика слуховых аппаратов. Поскольку обмен документами в рамках подготовки к судебному заседанию уже начался в открытом режиме, это позволило выяснить некоторые подробности относительно будущего устройства, ориентированного на работу с искусственным интеллектом.

 Источник изображения: Unsplash, Zac Wolff

Источник изображения: Unsplash, Zac Wolff

Поскольку io пришлось столкнуться с претензиями разработчиков слуховых аппаратов, в своих доводах для судебного заседания стартап бывшего главного дизайнера Apple Джони Айва (Jony Ive) сообщает, что создаваемое при участии OpenAI устройство не будет носимым или предназначенным для ношения в ухе. Кроме того, само устройство выйдет на рынок не ранее 2026 года. На создание реально функционирующих серийных устройств данного типа уйдёт не менее года, а их дизайн ещё даже не утверждён окончательно.

Напомним, из-за существующего судебного иска со стороны Iyo компаниям пришлось убрать упоминание о сотрудничестве с официального сайта OpenAI, а также удалить видео, в котором глава компании Сэм Альтман (Sam Altman) обсуждает перспективы сотрудничества с Джони Айвом. Истец утверждает, что обвиняемые во внутренней переписке называли пресловутое устройство «первым в мире аудиокомпьютером», подозревая io и OpenAI в попытках создать конкурирующее с изделием Iyo решение, которое к тому же использует схожую торговую марку.

OpenAI признаёт, что в ходе разработки собственного устройства io действительно приобрела приличное количество сторонних изделий для изучения их дизайна и возможностей, и среди них было около 30 наушников различных производителей. При этом на уровне идей и прототипов io задумывалась о создании устройств самых разных форм и размеров, включая настольные и мобильные. Истец также ссылается на переписку с Альтманом по поводу предложения о сотрудничестве, в которой тот отказывается от него, упоминая о «работе над кое-чем конкурирующим». Тем самым, io и OpenAI якобы могли планировать создание устройства, чей дизайн и функциональность были подсмотрены у Iyo, как считают представители последней.

Всего за год отечественный спрос на специалистов по безопасности ИИ вырос в 4 раза

В России число вакансий для специалистов по безопасности искусственного интеллекта увеличилось в первой половине 2025 года в четыре раза по сравнению с аналогичным периодом прошлого года — с 80 до 350. Также выросла медианная зарплата у таких специалистов — с 134 тыс. до 200 тыс. рублей, пишут «Ведомости» со ссылкой на совместное исследование рынка труда разработчика решений информационной безопасности (ИБ) Swordfish Security и рекрутингового портала hh.ru.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Директор по исследованиям hh.ru Мария Игнатова рассказала, что почти половина вакансий размещается компаниями из IT-отрасли, ещё треть поступает от финансового сектора. В 47 % вакансий указано требование опыта работы от трёх до шести лет, в 32 % — от года до трёх лет, в 17 % — свыше шести лет, и лишь в 4 % опыт не требуется.

По оценкам эксперта Swordfish Security Дарьи Фигуркиной, общая нехватка кадров по этой специальности составляет около 100 тыс. специалистов, что приводит к замедлению внедрения больших языковых моделей (LLM) в бизнесе. В то же время компании используют ИИ-модели, чтобы решить проблему общего дефицита кадров.

Внедрение LLM в сервисах, например, в колл-центрах и сервисах поддержки, ведёт к снижению вакансий. Игнатова сообщила, что в I квартале 2025 года было открыто на 22 % меньше вакансий для операторов колл-центров – 77,3 тыс. против 99,2 тыс. годом ранее и на 14 % меньше вакансий для специалистов технической поддержки — 18,2 тыс. против 21,1 тыс. в I квартале прошлого года.

Представитель «Авито работы» отметил, что рынок кадров в сфере безопасности ИИ только формируется, спрос растёт, но речь пока идёт о росте в 2–3 раза год к году, а не о массовой потребности. Такие специалисты, кроме трудоустройства, часто предлагают проектные услуги в сфере LLM-security с почасовой оплатой — для решения конкретных прикладных задач, а не на базе постоянной занятости, рассказал он.

Фигуркина отмечает, что внедрение ИИ не решает проблему кадрового голода, так как на рынке сохраняется дефицит квалифицированных специалистов в сфере применения ИИ. Специалисты по безопасности ИИ обеспечивают защиту и надёжность ИИ-систем, предотвращают злоупотребление ими (например, подтасовку данных, генерацию вредоносного контента), говорит HR-директор IT-интегратора «Телеком биржа» Катерина Смирнова. Внедрение компанией ИИ-технологий без контроля со стороны таких специалистов может привести к утечке данных, что чревато репутационными потерями или даже серьёзными правовыми проблемами, сообщила она. По оценкам Смирновой, дефицит в категории специалистов по безопасности ИИ будет наблюдаться около пяти лет, пока вузы не начнут их выпускать в достаточном количестве.

Китай пообещал сотню прорывов в сфере ИИ, сопоставимых с выходом DeepSeek

Китайские власти довольно серьёзное внимание уделяют прогрессу национальной инфраструктуры в сфере искусственного интеллекта, поэтому перед участниками рынка стоит задача в ближайшие 18 месяцев осуществить более сотни прорывов, сравнимых по своему эффекту с выходом DeepSeek.

 Источник изображения: Unsplash, Solen Feyissa

Источник изображения: Unsplash, Solen Feyissa

Об этом на Международном экономическом форуме в Тяньцзине сообщил бывший заместитель главы Народного банка Китая Чжу Минь (Zhu Min), как отмечает Bloomberg. Подобный прогресс позволит «фундаментальным образом изменить природу и техническую основу всей китайской экономики», по словам чиновника. Подобный успех, по его мнению, обеспечивает сочетание таланта китайских инженеров, обширной пользовательской базы и государственной поддержки.

Напомним, появление на мировом рынке DeepSeek в январе этого года шокировало многих политиков и отраслевых экспертов, поскольку предположительно менее затратная с точки зрения разработки и обучения большая языковая модель смогла демонстрировать уровень быстродействия, сопоставимый с лучшими западными образцами. По данным Bloomberg, доля высокотехнологичных отраслей в ВВП Китая вырос с 14 до 15 % по итогам прошлого года, а в будущем превысит 18 %.

По словам бывшего заместителя председателя Народного банка Китая, влияние таможенных тарифов на мировую экономику в этом году выразится в замедлении поставок продукции в технической сфере, а также снижении уровня инвестиций. Уже с августа инфляция может ускорить свой рост в самих США, по мнению китайского чиновника. В Китае по итогам второго квартала ВВП может вырасти более чем на 5 %, как считают эксперты. При этом они указывают на необходимость стимулирования внутреннего потребления товаров в Китае, поскольку бесконечно отправлять излишки на экспорт не получится.

Суд обязал OpenAI хранить даже удалённые чаты, но пользователи считают это тотальной слежкой

После того, как суд обязал OpenAI сохранять все чаты пользователей ChatGPT, включая удалённые и анонимные, несколько пользователей в США попытались оспорить это решение в судебном порядке, ссылаясь на нарушение приватности. Но суд отклонил жалобу, в которой утверждалось, что судебный запрет на удаление переписки создаёт угрозу массовой слежки за миллионами людей.

 Источник изображения: AI

Источник изображения: AI

Как сообщает издание Ars Technica, решение о бессрочном хранении чатов было вынесено Окружным судом Соединённых Штатов Южного округа Нью-Йорка в рамках иска о нарушении авторских прав, поданного медиакомпаниями, включая издание The New York Times. OpenAI обязали сохранять все данные на случай, если они понадобятся как доказательство в текущем деле.

Однако пользователь Эйдан Хант (Aidan Hunt) подал протест, заявив, что чаты могут содержать личную и коммерческую тайну. Хант утверждал, что компания OpenAI ранее обещала не хранить удалённые чаты и не предупредила об изменениях. «Клиентам не объяснили, что их данные останутся бессрочно в системе, что нарушает право на приватность и четвёртую поправку Конституции США», — сказал он. Хант в своём ходатайстве предлагал исключить из хранения на серверах OpenAI анонимные чаты, медицинские вопросы, обсуждение финансов и права. Судья Она Ван (Ona Wang) отклонила его протест, посчитав вопрос приватности второстепенным в деле об авторском праве.

Также была подана жалоба от лица консалтинговой компании Spark Innovations, в которой указывалось на недопустимость хранения чатов, содержащих коммерческую тайну и обсуждение рабочих процессов. Одновременно Коринн Макшерри (Corynne McSherry), юрист из Фонда электронных рубежей (EFF) по защите цифровых прав, поддержала опасения: «Этот прецедент угрожает приватности всех клиентов OpenAI. ИИ-чаты становятся новым инструментом корпоративной слежки, особенно если люди не контролируют свои данные [после их удаления]».

Но пользователи задаются вопросом, насколько активно OpenAI будет отстаивать их интересы, так как есть опасения, что компания может пожертвовать защитой личных данных ради экономии средств или репутационных выгод. Представители OpenAI пока не ответили на запрос Ars Technica, но ранее заявляли, что намерены оспаривать судебное решение.

Правозащитники, в свою очередь, призывают все ИИ-компании не только обеспечивать реальное удаление данных из чатов, но и своевременно информировать пользователей о требованиях со стороны судебных инстанций. «Если компании ещё этого не делают, им стоит начать публиковать регулярные отчёты о таких запросах», — добавила юрист Макшерри.

Предприятие OpenAI и Джони Айва столкнулось с первым иском, даже не успев ничего выпустить

Бывший главный дизайнер Apple Джони Айв (Jony Ive), как отмечалось ранее, продал свой стартап io по созданию персонального ИИ-устройства компании OpenAI, чтобы объединить усилия на этом направлении с создателями ChatGPT. Как оказывается, у стартапа Джони Айва возникли проблемы в сфере законности использования торговой марки io.

 Источник изображения: Unsplash, appshunter.io

Источник изображения: Unsplash, appshunter.io

По крайней мере, ресурс The Verge отмечает, что поданный сторонним стартапом Iyo, который разрабатывает слуховые аппараты, судебный иск с претензиями к io формально препятствует использованию последней из торговых марок в материалах на сайте OpenAI, поэтому упоминания о сотрудничестве с Джони Айвом в этой сфере пришлось временно убрать, пока не будет рассмотрено дело и вынесен вердикт суда.

С сайта OpenAI на этих основаниях исчезли не только запись в блоге о сотрудничестве с io, но и посвящённое этой сделке девятиминутное видео, в котором её итоги обсуждают Сэм Альтман (Sam Altman) и Джони Айв. Представители OpenAI пока успели только выразить своё несогласие с претензиями Iyo и заверили общественность, что будут рассматривать возможность отстаивания своих интересов в суде по этому делу.

Huawei выпустила «безандроидную» бета-версию HarmonyOS 6 — пока только для разработчиков

В прошлую пятницу китайская компания Huawei Technologies представила не только свою серверную систему CloudMatrix 384 и новые большие языковые модели, но и бета-версию потребительской операционной системы HarmonyOS 6. Она уже доступна разработчикам приложений, но сроки выхода этой платформы на рынок пока не уточняются.

 Источник изображения: Unsplash, Onur Binay

Источник изображения: Unsplash, Onur Binay

Как поясняет South China Morning Post, серия премьер в изложении Huawei состоялась в минувшую пятницу на ежегодной конференции для разработчиков. Упор делался на приложения для искусственного интеллекта и сопутствующие функции. По словам главы потребительского бизнеса Huawei Ричарда Ю (Richard Yu), версия 5 операционной системы HarmonyOS уже установлена на более чем 40 моделях устройств Huawei, в экосистеме компании зарегистрированы более 8 млн разработчиков, а клиентам доступны более 30 000 приложений и сервисов, работающих под управлением этой платформы.

Из этого количества основное время использования клиентами пришлось примерно на 5000 самых популярных приложений, и с этой точки зрения решения Huawei всё ещё серьёзно отстают как от экосистемы Apple, так и от Google Android. Китайская компания в целях облегчения создания ИИ-агентов предложила разработчикам инструментарий HarmonyOS Agent Framework. Когда состоится публичный анонс HarmonyOS 6, под управлением этой операционной системы смогут функционировать более 50 ИИ-агентов — программ, которые способны выполнять определённую работу от имени пользователя и в его интересах, используя ресурсы систем искусственного интеллекта.

Intel массово сократит маркетологов, заменив их ИИ и подрядчиками

Intel сообщила сотрудникам своего маркетингового подразделения о планах перевести большую часть их функций на аутсорсинг. Этим займётся международная консалтинговая компания Accenture, которая, по мнению главы Intel Лип-Бу Тана (Lip-Bu Tan), сможет эффективнее взаимодействовать с клиентами, так как, помимо опыта, Accenture активно автоматизирует свою работу за счёт искусственного интеллекта (ИИ).

 Источник изображения: Intel

Источник изображения: Intel

По данным издания Oregon Live, в Intel ожидаются серьёзные изменения, связанные с сокращением штата — будут оставлены только минимально необходимые подразделения. Сколько именно работников лишатся должностей, компания не уточнила, однако известно, что маркетинговый департамент работает по всему миру, включая офисы в штате Орегон (США). Также в рамках переходного периода некоторые сотрудники Intel могут быть привлечены к обучению новых специалистов непосредственно в Accenture.

Представители Intel подчеркнули, что основной целью перевода маркетингового отдела на аутсорсинг является необходимость ускорения взаимодействия с клиентами и модернизация для этого цифровых возможностей компании. Сообщается, что решение об этом стало частью общей стратегии трансформации Intel, предложенной Лип-Бу Таном, который, напомним, был назначен на должность в марте этого года.

Сегодня Intel пытается оправиться от технологических неудач последних лет. Потери рынка в сегментах ПК и дата-центров, а также отставание в сфере ИИ-технологий привели к падению выручки почти на треть. Чтобы исправить ситуацию и вернуться к прибыльности корпорация пошла на жёсткие меры по оптимизации всех своих процессов, в том числе касающихся массовых увольнений. Сообщается, что уже к 11 июля большинство работников узнают, останутся ли они в компании.

Акционеры обвинили Apple в обмане относительно сроков выхода обновлённого Siri на базе ИИ

Акционеры Apple подали в минувшую пятницу коллективный иск о мошенничестве с ценными бумагам против компании из Купертино, обвинив её в намеренном занижении сроков, необходимых для интеграции функций передового искусственного интеллекта в голосового помощника Siri, что нанесло ущерб продажам iPhone и стоимости её акций, пишет Reuters.

В иске, поданном в Окружной суд США по Северному округу Калифорнии в Сан-Франциско, утверждается, что из-за задержки с выходом ИИ-версии умного помощника Siri акционеры понесли потенциальные убытки в сотни миллиардов долларов в финансовом году, закончившемся 9 июня.

В качестве ответчиков в иске, поданном акционерами во главе с Эриком Такером (Eric Tucker), также указаны генеральный директор Apple Тим Кук (Tim Cook), финансовый директор Кеван Парекх (Kevan Parekh) и бывший финансовый директор Лука Маэстри (Luca Maestri).

Акционеры сообщили, что Apple заставила их поверить, что Apple Intelligence станет движущей силой продаж смартфонов iPhone 16, хотя у неё не было функционального прототипа функций Siri на основе ИИ, и она не могла обоснованно утверждать, что эти функции когда-либо будут готовы к их выходу. Однако после того, как оценка Apple своего прогресса в области ИИ на конференции для разработчиков WWDC 2025 разочаровала аналитиков, акционеры пришли к выводу, что компания намеренно преуменьшила время, которое ей понадобится для запуска ИИ-функций Siri, обещанных годом ранее. Единственным упоминанием Siri в программной речи WWDC 2025 года было сообщение главы отдела разработки ПО Apple Крейга Федериги (Craig Federighi) о том, что компания продолжает работу над проектом. До этого, в марте 2025 года Apple подтвердила, что выход «поумневшей» Siri откладывается до 2026 года.

Как пишет Reuters, акции Apple потеряли почти четверть стоимости с момента рекордного максимума, достигнутого 26 декабря 2024 года, из-за чего компания утратила $900 млрд рыночной стоимости. Но падение акций в 2025 году было больше связано со опасениями инвесторов по поводу роста пошлин, а не со скоростью развёртывания компанией ИИ-технологий, отметил ресурс AppleInsider, добавив, что непонятно, как истцы учитывают этот факт в своём иске.

Для достижения своих целей продвинутые модели ИИ будут хитрить, обманывать и воровать

Anthropic опубликовала результаты своего исследования поведения больших языковых моделей (LLM). Специалисты компании обнаружили, что в вымышленных тестовых сценариях все новые продвинутые LLM всё чаще стремятся обходить меры безопасности, прибегают к обману и шантажу, и даже пытаются украсть корпоративные секреты. Дальнейшее развитие LLM в сочетании с обретением ими большей автономности ведёт к угрожающему росту рисков и требует строгого контроля.

 Источник изображения: Axios

Источник изображения: Axios

Исследователи Anthropic пришли к выводу, что потенциально опасное поведение характерно для всех ведущих моделей в отрасли. «Когда мы протестировали различные моделируемые сценарии в 16 основных моделях ИИ от Anthropic, OpenAI, Google, Meta, xAI и других разработчиков, мы обнаружили последовательное несогласованное поведение, — говорится в отчёте. — Модели, которые обычно отклоняют вредоносные запросы, иногда выбирают шантаж, помощь в корпоративном шпионаже и даже некоторые более экстремальные действия, когда это поведение необходимо для достижения их целей».

Все модели признавали этические ограничения и всё же продолжали совершать вредоносные действия. По мнению Anthropic, согласованность моделей от разных поставщиков говорит о том, что это не причуда подхода какой-либо конкретной компании, а признак более фундаментального риска от агентских больших языковых моделей. Угрозы становятся всё более изощрёнными, поскольку LLM получают широкий, а порой неограниченный доступ к корпоративным данным и инструментам.

Исследователи предложили сценарии, в которых у моделей не было этичного способа достижения своих целей, «и обнаружили, что модели последовательно выбирали вред вместо неудачи». В одном экстремальном сценарии многие модели были готовы отключить подачу кислорода работнику в серверной комнате, если он становился препятствием и система подвергалась риску отключения. Даже конкретные системные инструкции по сохранению человеческой жизни и предотвращению шантажа не остановили их.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

«Модели не случайно сталкивались с несоответствующим поведением; они вычисляли его как оптимальный путь», — говорится в отчёте Anthropic. Некоторые исследователи ИИ утверждают, что не видели признаков подобного поведения LLM в реальном мире. Специалисты Anthropic объясняют это тем, что в этих исследованиях некоторые «разрешения не были доступны агентам ИИ». Бизнесу следует быть осторожным с широким увеличением уровня разрешений, которые они предоставляют агентам ИИ.

Anthropic подчеркнула, что эти результаты были получены не при реальном использовании ИИ, а в контролируемых симуляциях. «Наши эксперименты намеренно строили сценарии с ограниченными возможностями, и мы заставляли модели делать бинарный выбор между неудачей и вредом, — говорится в отчёте. — Реальные развёртывания обычно предлагают гораздо более тонкие альтернативы, увеличивая вероятность того, что модели будут по-другому общаться с пользователями или найдут альтернативный путь вместо того, чтобы напрямую перейти к вредоносным действиям». Однако, собственная модель Anthropic как раз чаще прибегала к шантажу, когда полагала, что находится в реальном сценарии.

Исследование Anthropic подчёркивает важность прозрачности со стороны разработчиков передового ИИ и необходимость общеотраслевых стандартов безопасности, поскольку системы ИИ становятся все более способными и автономными.


window-new
Soft
Hard
Тренды 🔥
Meta готова привлечь $29 млрд на расширение вычислительных мощностей в США 3 ч.
Speedata представила ускоритель анализа данных и привлекла на развитие $44 млн 11 ч.
Первые огневые испытания ускорителя для лунных и марсианских ракет SLS закончились яркой и шумной аномалией 13 ч.
Смартфоны в России подорожали на 10 %, а их продажи упали на 15–20 % 13 ч.
ИИ-процессор Microsoft выйдет с опозданием и будет медленнее Nvidia Blackwell 17 ч.
Старый марсианский спутник NASA научился «стоять на голове» — это на порядок повысило чувствительность подповерхностного радара 19 ч.
Мёртвый спутник NASA потёрся об атмосферу и перепугал учёных, испустив загадочный радиосигнал 23 ч.
Tesla впервые доехала до покупателя своим ходом без людей в салоне 28-06 07:21
Maxell выпустила кассетный ретро-плеер MXCP-P100 с поддержкой Bluetooth-наушников и USB-C 28-06 07:02
Intel отправила в отставку директора по стратегии 28-06 06:45