Сегодня 11 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → искусственный
Быстрый переход

«Никогда и ни за что»: Red Hook Studios не будет генерировать голос покойной звезды Darkest Dungeon с помощью ИИ, несмотря на разрешение

Мрачные ролевые роглайки Darkest Dungeon и Darkest Dungeon II запомнились многим благодаря озвучке рассказчика в исполнении Уэйна Джуна (Wayne June), однако в январе 2025 года артист скончался. Заменять его с помощью ИИ разработчики из канадской Red Hook Studios точно не будут.

 Источник изображений: Red Hook Studios

Источник изображений: Red Hook Studios

Сооснователь и творческий руководитель Red Hook Studios Крис Бурасса (Chris Bourassa) в комментарии к смежной теме на форуме Reddit прояснил позицию студии в отношении потенциальной генерации голоса Джуна для будущих игр серии Darkest Dungeon с помощью генеративного ИИ.

По словам Бурассы, Джун был категорически против того, чтобы его голос использовался для тренировки нейросетей, однако незадолго до смерти дал Red Hook разрешение на это: «Мы никогда его не просили. Думаю, он пытался поставить интересы игры/команды/фанатов выше своих. Показать путь дальше».

«Я отказался. <...> Я бы никогда и ни за что не обесценил его невероятную и неподвластную времени актёрскую игру, позволив машине подражать ему. Его голос и манера речи были человеческими. Я буду вечно благодарен за то, что получил возможность писать для него», — признался Бурасса.

Пользователи в комментариях похвалили Red Hook за уважение к наследию Джуна. Для сравнения: CD Projekt Red с разрешения семьи воссоздала голос умершей звезды польского дубляжа Милогоста Речека (Milogost Reczek) для озвучки Виктора Вектора в дополнении Phantom Liberty к Cyberpunk 2077.

PowerColor выпустила тонкую профессиональную видеокарту Radeon AI PRO R9600D с разъёмом 12V-2×6

PowerColor выпустила профессиональную видеокарту Radeon AI PRO R9600D для рабочих станций и задач ИИ. Новинка оснащена однослотовой пассивной системой охлаждения. Карта появилась на официальном сайте производителя.

 Источник изображений: VideoCardz / ASRock

Источник изображений: VideoCardz / ASRock

В составе модели PowerColor AI PRO R9600D 32G-P используется графический чип на архитектуре RDNA 4 с 3072 потоковыми процессорами. В составе чипа присутствуют 48 вычислительных блоков, 96 ускорителей ИИ и 64 Мбайт кеш-памяти Infinity Cache. Карта оснащена 32 Гбайт памяти GDDR6 со скоростью 20 Гбит/с на контакт и поддержкой 256-битной шины. Для памяти заявлена пропускная способность 640 Гбайт/с.

Размеры видеокарты составляют 241,3 × 111,2 × 18,7 мм. Карта оснащена одним разъёмом питания 12V-2×6, хотя заявленное энергопотребление новинки составляет всего 150 Вт. Производитель рекомендует использовать с ней блок питания мощностью от 450 Вт. Среди внешних видеоразъёмов у PowerColor AI PRO R9600D 32G-P заявлен только один DisplayPort 2.1a, что совсем нетипично для карт для рабочих станций, которые обычно оснащаются тремя или четырьмя видеовыходами.

Стоимость PowerColor AI PRO R9600D 32G-P и дата её поступления в продажу не сообщаются.

ChatGPT, Gemini и Claude по-разному оценили, какие профессии исчезнут из-за ИИ — учёные усомнились в надёжности прогнозов

Три языковые ИИ-модели — ChatGPT-5, Gemini 2.5 и Claude 4.5 — по-разному оценили, каким профессиям больше всего угрожает искусственный интеллект. Эти расхождения ставят под сомнение надёжность так называемых индексов подверженности ИИ — числовых оценок того, насколько та или иная профессия рискует быть автоматизированной. Именно на такие индексы опираются политики и работодатели, принимая важные решения.

 Источник изображения: Nguyen Dang Hoang Nhu / unsplash.com

Источник изображения: Nguyen Dang Hoang Nhu / unsplash.com

К такому выводу пришли экономисты Мишель Инь (Michelle Yin) и Хоа Ву (Hoa Vu) из Северо-Западного университета (NU), а также Клаудия Персико (Claudia Persico) из Американского университета (AU). В своей предварительной научной работе исследователи попросили три ИИ-модели оценить, какие профессии наиболее уязвимы перед ИИ, и часто получали разные ответы. Claude присвоил профессии бухгалтера высокую степень уязвимости, тогда как Gemini оценил её заметно ниже. Модели разошлись и в оценке уязвимости рекламных менеджеров, и в оценке руководителей высшего звена. ChatGPT и Gemini оказались наиболее согласованными между собой, но и они расходились примерно в четверти случаев.

Часть расхождений объясняется различиями между самими ИИ-моделями, однако экономисты обнаружили и другой фактор: на оценки влияло то, какие специалисты уже пользуются ИИ. Первые пользователи — например, финансовые аналитики — активно работают с нейросетями и тем самым генерируют больше данных, на которых обучаются будущие ИИ-модели. Это, в свою очередь, отражается на том, как модели оценивают такие профессии.

Индексы подверженности ИИ строят тремя способами: вручную, когда эксперты оценивают, насколько ИИ ускоряет выполнение тех или иных рабочих задач; с помощью опросов сотрудников, пользующихся ИИ-платформами; или с помощью самих больших языковых моделей (LLM). Ручные оценки могут быть весьма субъективными, а опросы отражают мнение пользователей лишь одной платформы и не обязательно представляют рынок труда в целом. Тем не менее эти индексы широко используются в аналитических записках, консалтинговых отчётах и докладах, подготовленных для обоснования политических решений.

Расхождения между разными версиями быстро развивающейся технологии сами по себе неудивительны. К тому же пока неясно, оценивают ли ИИ-модели подверженность автоматизации хуже или лучше, чем другие методы. Но проблема, по словам авторов исследования, в том, что некоторые политики и работодатели могут принимать такие оценки за чистую монету.

Для начала экономисты считают, что исследователям следует опираться на ответы сразу нескольких ИИ-моделей, а не одной, и прямо указывать на неопределённость результатов. В конечном счёте, по их мнению, более точные ответы могут дать опросы о том, как ИИ реально внедряется в экономику и для каких задач применяется. «Лично я не стала бы полагаться на один-единственный показатель, чтобы решать: „Мне надо сменить работу“ или „Моему ребёнку надо сменить специальность“», — сказала Инь.

«Мощный инструмент, но не замена художников и творцов»: руководство Sony прояснило использование генеративного ИИ в играх PlayStation

Гендиректор Sony Хироки Тотоки (Hiroki Totoki) и глава Sony Interactive Entertainment Хидеаки Нисино (Hideaki Nishino) на презентации корпоративной стратегии компании рассказали о применении генеративного ИИ в играх PlayStation.

 Источник изображений: PlayStation

Источник изображений: PlayStation

По словам Нисино, генеративный ИИ стал «мощным инструментом», который помогает PlayStation в снижении барьеров для творчества и ускорении разработки. Внутренние студии Sony уже активно применяют технологию.

В частности, внутри PlayStation Studios был разработан ИИ-инструмент Mockingbird, который позволяет быстро (за долю секунды вместо нескольких часов) анимировать трёхмерные модели лиц на основе данных захвата движений.

 Для анимации волос Mockingbird использует данные из видеороликов с поведением реальных причёсок

Для анимации волос Mockingbird использует данные из видеороликов с поведением реальных причёсок

Результаты работы Mockingbird можно наблюдать в уже вышедших играх PlayStation вроде дебютировавшего в 2024 году постапокалиптического экшена с открытым миром Horizon Zero Dawn Remastered.

Помимо прочего, Mockingbird взяли на вооружение такие студии PlayStation, как Naughty Dog (Uncharted, The Last of Us, Intergalactic: The Heretic Prophet) и San Diego Studio (серия MLB The Show).

 ИИ также применяется в новейшем апскейлере от Sony — PSSR для PS5 Pro

ИИ также применяется в новейшем апскейлере от Sony — PSSR для PS5 Pro

«Человеческое творчество остаётся самым важным. ИИ — мощный инструмент, но не замена художников и творцов. Он усилитель человеческого воображения и катализатор новых возможностей», — заверил Тотоки.

Sony также принимает участие в совместном проекте с Bandai Namco по изучению того, как генеративный ИИ и новейшие технологии могут наиболее эффективно способствовать реализации замысла создателя в сфере видеопроизводства.

AMD выпустила ИИ-ускоритель Instinct MI350P с 144 Гбайт HBM3E, PCIe 5.0 x16 и потреблением 600 Вт

Компания AMD выпустила специализированный графический ускоритель Instinct MI350P в формате карты расширения PCIe. Новинка предназначена для серверов с воздушным охлаждением и ориентирована на развёртывание систем логического вывода для искусственного интеллекта, не требующих полноценной платформы OAM.

 Источник изображений: AMD

Источник изображений: AMD

В составе Instinct MI350P используется графический чип со 128 исполнительными блоками, 8192 потоковыми процессорами и 512 матричными ядрами. AMD заявляет для GPU максимальную частоту 2,2 ГГц. Формально Instinct MI350P представляет собой наполовину урезанную версию Instinct MI350X.

Карта получила 144 Гбайт памяти HBM3E с поддержкой 4096-битной шины. Для памяти заявляется пиковая пропускная способность на уровне 4 Тбайт/с. Также ускоритель оснащён 128 Мбайт кеш-памяти последнего уровня и поддерживает функцию ECC (коррекции ошибок) для памяти.

AMD заявляет для Instinct MI350P производительность до 4,6 Пфлопс при работе с матрицами MXFP4 или MXFP6. Карта также обеспечивает производительность 2,3 Пфлопс при работе с матрицами MXFP8 и OCP-FP8, 1,15 Пфлопс — при работе с матрицами FP16 и BF16 и 36 Тфлопс — при работе с матрицами FP64. Благодаря структурированной разреженности некоторые показатели производительности при работе с 8-битными и 16-битными числами удваиваются.

Толщина ускорителя Instinct MI350P составляет два слота расширения, длина карты — 267 мм. Для работы новинка использует интерфейс PCIe 5.0 x16. Подача дополнительного питания на карту обеспечивается через разъём 12V-2×6. Стандартный показатель энергопотребления ускорителя составляет 600 Вт, однако его можно настроить на режим потребления 450 Вт.

ИИ научили следить за животными в дикой природе — он разбирает миллионы снимков за дни вместо месяцев

Как убедились учёные, искусственный интеллект значительно ускорил обработку данных, полученных с фотоловушек для наблюдения за дикой природой. Проведённое учёными из Вашингтонского государственного университета совместно с Google исследование показало, что современные ИИ-модели способны анализировать огромные массивы изображений всего за несколько дней, тогда как раньше на это уходили от нескольких месяцев до года.

 Источник изображения: Mammal Spatial Ecology and Conservation Lab

Источник изображения: Mammal Spatial Ecology and Conservation Lab

В ходе работы специалисты протестировали систему SpeciesNet на данных, собранных в разных природных зонах — в штате Вашингтон, национальном парке Глейшер в Монтане и биосферном заповеднике Майя в Гватемале. Искусственный интеллект самостоятельно обрабатывал фотографии без участия человека, а затем результаты сравнивались с выводами экспертов. Выяснилось, что в 85–90 % случаев модели, созданные на основе ИИ-анализа, практически совпадали с результатами моделирования после ручной обработки, особенно при изучении распространённых видов животных.

Главное преимущество новой технологии заключается в значительном сокращении времени анализа. Обычно обработка изображений требует участия больших исследовательских команд и занимает от шести месяцев до года. Теперь этот процесс может быть завершён примерно за неделю. Это особенно важно для природоохранных организаций, которым необходимо быстро получать данные для принятия решений по защите таких видов, как ягуары, волки и медведи гризли. ИИ настолько ускорил работу, что решения по тем или иным инициативам можно принимать фактически в режиме реального времени, о чём раньше можно было только мечтать.

Несмотря на высокую эффективность, учёные отмечают, что искусственный интеллект пока не способен полностью заменить человека. Он всё ещё допускает ошибки при распознавании редких или внешне похожих видов животных, поэтому для некоторых исследований участие специалистов остаётся необходимым. Тем не менее результаты работы показывают, что ИИ уже может стать мощным инструментом в экологии, помогая ускорить мониторинг дикой природы и повысить эффективность природоохранных мер. Более того, никаких специальных моделей для этого не требуется. С задачей прекрасно справились обычные коммерческие модели, что позволяет широко распространить этот подход.

AMD уйдёт от универсальных серверных CPU — EPYC ждёт дробление под ИИ, облака и другие сценарии

Современные рабочие нагрузки в центрах обработки данных очень разнообразны, как и требования операторов ЦОД к своему оборудованию, поэтому практически все гиперскейлеры сегодня имеют собственные программы разработки специализированных микросхем. Стремясь оставаться конкурентоспособными в ближайшие годы, AMD планирует расширить свой портфель процессоров для ЦОД, ориентированных на различные рабочие нагрузки.

 Источник изображения: AMD

Источник изображения: AMD

В семействе EPYC 4-го поколения на базе архитектуры Zen 4 компания AMD предлагает множество процессоров, предназначенных для ИИ, облачных вычислений, корпоративного сектора, сетей/периферии и малого бизнеса/поставщиков хостинговых услуг. Но с Zen 5 ассортимент моделей несколько сужается.

Сегодняшние заявления AMD указывают на то, что компания движется к более сегментированным продуктам EPYC, включая специализированные для конкретных рабочих нагрузок процессоры, потенциально различные конфигурации ядер, кэша и интерконнектов, а также процессоры, адаптированные для кластеров вывода, оркестрации, задач ИИ с низкой задержкой и развёртываний с большим количеством графических процессоров. Глава AMD Лиза Су (Lisa Su), в частности, намекнула, что это расширение выходит за рамки будущей серии процессоров Venice и будет включать микроархитектуры Zen 7 и, вероятно, Zen 8.

«Сейчас мы работаем с клиентами над тем, что выходит за рамки Venice, и над тем, что мы делаем в рамках этих архитектур. [Отрасли] потребуется широкий портфель процессоров, не все чипы одинаковы. Честно говоря, вам понадобятся разные процессоры, независимо от того, говорите ли вы об операциях общего назначения, о головных узлах или о задачах агентного ИИ», — сказала Лиза Су во время телефонной конференции компании с финансовыми аналитиками и инвесторами.

Глава AMD также неоднократно подчеркнула, что компания больше не рассматривает серверные процессоры как единую однородную категорию. Вместо этого она рассматривает рынок как разделённый на несколько сегментов, специфичных для конкретных рабочих нагрузок, включая вычисления общего назначения, головные узлы ЦП для ускорителей и процессоры, оптимизированные для рабочих нагрузок агентного ИИ. Более того, AMD планирует предлагать дифференциацию даже внутри этих категорий, чтобы более точно удовлетворять особые потребности своих клиентов.

«Мы сосредоточились на создании не просто одного типа, а на моделях, оптимизированных по пропускной способности, энергопотреблению, стоимости и инфраструктуре ИИ, как мы это сделали в семействе Venice», — сказал Су.

В рамках 6-го поколения EPYC на базе микроархитектуры Zen 6 компания планирует предлагать процессоры с кодовым названием Venice с количеством ядер до 256 для серверов общего назначения, а также Verano для инфраструктуры искусственного интеллекта. Ранее AMD анонсировала Verano в качестве серии процессоров для серверных стоек, запланированной на 2027 год.

«Семейство Venice включает в себя широкий ассортимент моделей, оптимизированных для высокой пропускной способности, производительности на ватт и производительности на доллар. Сюда же включён Verano, наш первый процессор EPYC, специально разработанный для инфраструктуры искусственного интеллекта», — сказал Су.

Учитывая прогнозы AMD о среднегодовых темпах роста рынка серверных процессоров на 35 % и его объёме до $120 млрд к 2030 году, разработка специализированных моделей может быть вполне оправданной, даже несмотря на то, что разработка чипов в целом, а также внедрение передовых технологических узлов в частности стали особенно дорогостоящими в последние годы.

В ChatGPT сменилась базовая модель — теперь это быстрая GPT-5.5 Instant, которая меньше галлюцинирует

Во вторник компания OpenAI выпустила новую базовую модель под названием GPT-5.5 Instant, которая заменит GPT-5.3 Instant в качестве основной модели для чат-бота ChatGPT. По словам представителей компании, новая модель снижает вероятность «галлюцинаций» в таких деликатных областях, как юриспруденция, медицина и финансы, сохраняя при этом низкую задержку, характерную для предыдущей версии.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В прошлом месяце компания OpenAI выпустила последнюю версию модели GPT-5.5, заявив об улучшениях в таких областях, как кодирование и работа с базами знаний. Новая модель набрала 81,2 балла в математическом тесте AIME 2025 по сравнению с 65,4 балла у предыдущей версии. Она также превзошла предыдущую версию в мультимодальном тесте MMMU-Pro, набрав 76 баллов против 69,2.

Особое внимание в новой версии уделено управлению контекстом. GPT-5.5 Instant может использовать функцию поиска, чтобы обращаться к предыдущим диалогам, файлам и переписке в Gmail и давать более персонализированные ответы. Эта функция будет доступна пользователям подписок Plus и Pro в веб-версии, а в ближайшее время появится и в мобильной версии. OpenAI заявила, что в ближайшие недели планирует предоставить доступ к этой функции пользователям бесплатной версии, а также пользователям Go, Business и корпоративным пользователям.

С этим обновлением ChatGPT также будет отображать источники памяти для всех моделей, чтобы пользователь понимал, откуда берутся ответы. Пользователи могут удалять устаревшие источники или исправлять их, если ответ был неверным. Важно отметить, что, если поделиться с кем-то чатом, этот человек не сможет увидеть источники памяти.

Для разработчиков модель GPT-5.5 будет доступна через API под названием «chat-latest», а версия 5.3 будет доступна в качестве опции для платных пользователей в течение трёх месяцев.

Micron выпустила первый SSD ёмкостью 245 Тбайт — Micron 6600 ION для центров обработки данных

Компания Micron Technology объявила о начале поставок твердотельного накопителя Micron 6600 ION ёмкостью 245 Тбайт, самого вместительного из доступных на рынке накопителей. Новинка предназначена для поддержки рабочих нагрузок в области искусственного интеллекта, облачных вычислений, корпоративных и гипермасштабных приложений, включая хранилища данных следующего поколения для ИИ, а также облачные файловые и объектные хранилища.

 Источник изображений: Micron

Источник изображений: Micron

По словам производителя, для накопителей Micron 6600 ION E3.L ёмкостью 245 Тбайт требуется на 82 % меньше стоек по сравнению с развёртыванием на основе жёстких дисков. В основе накопителей используется фирменная флеш-память Micron G9 QLC NAND, «которая как минимум на одно поколение опережает любую конкурирующую память QLC, используемую в накопителях для центров обработки данных», заявляет компания.

Твердотельный накопитель Micron 6600 ION ёмкостью 245 Тбайт доступен в форм-факторах U.2 и E3.L. Один накопитель под нагрузкой потребляет до 30 Вт мощности, что вдвое меньше потребления HDD соответствующей ёмкости. Благодаря этому накопители Micron 6600 ION позволяют снизить стоимость эксплуатации, помогая сократить энергопотребление, потребности в охлаждении и выбросы углекислого газа — ключевые приоритеты для глобальных операторов в условиях растущего экологического и финансового давления.

Ключевые особенности Micron 6600 ION ёмкостью 245 Тбайт на основе лабораторных тестов:

  • SSD обеспечил до 84 раз лучшую энергоэффективность, в 8,6 раза более быструю предварительную обработку ИИ и в 3,4 раза большую пропускную способность при приёме данных, а также до 29 раз меньшую задержку;
  • продемонстрировал до 435 раз большую пропускную способность на ватт, в 96 раз более быстрое время до первого байта и в 58 раз большую суммарную пропускную способность.

Micron также отмечает, что при масштабировании для установки жёстких дисков требуется в 1,9 раза больше энергии, чем для установки твердотельных накопителей Micron 6600 ION ёмкостью 245 Тбайт в расчёте на один эксабайт. Повышение энергоэффективности при масштабировании может привести к измеримым последствиям для устойчивого развития, таким как:

  • CO2-эквивалент равный количеству CO2, поглощаемому более чем 9000 взрослыми деревьями в год;
  • сокращение выбросов CO2 на 438 метрических тонн в год;
  • экономия энергии на 921 мегаватт-час в год;
  • экономия на охлаждении систем кондиционирования воздуха составляет более 3,14 Btu в год.

Власти ЮАР использовали ИИ при создании закона о регулировании ИИ — результат предсказуем

Власти Кейптауна вынесли на общественное обсуждение проект Национальной политики в области искусственного интеллекта, в котором обнаружились ссылки на несуществующие научные работы. Это может указывать на то, что при создании документа использовались генеративные ИИ-алгоритмы, в результате галлюцинирования которых ссылки на «фиктивные источники» попали в законопроект.

 Источник изображения: techspot.com

Источник изображения: techspot.com

По данным источника, как минимум 6 из 67 научных работ, на которые в упомянутом законопроекте есть ссылки, попросту не существуют. Министр связи ЮАР Солли Малаци (Solly Malatsi) подтвердил, что наиболее вероятное объяснение этого заключается в том, что законопроект был сгенерирован с помощью ИИ. Он добавил, что ссылки на несуществующие работы были включены в законопроект без проверки со стороны человека, чего «не должно было случиться».

Малаци назвал фейковые цитаты не просто техническим сбоем. Из-за галлюцинирования ИИ-алгоритмов ведомство аннулировало законопроект, чтобы полностью его переработать. По словам министра, этот инцидент в очередной раз доказал, что ИИ всегда должен оставаться под контролем со стороны человека. «Я хочу заверить страну, что мы относимся к этому вопросу со всей серьёзностью, которую он заслуживает. Те, кто отвечал за разработку и контроль качества, будут наказаны», — заявил министр.

Первоначальная версия законопроекта включала несколько важных положений об инновациях, связанных с генеративным ИИ и другими решениями на основе больших языковых моделей. Законопроект должен был стать основой для организации новых надзорных органов, таких как национальная комиссия по ИИ, совет по этике ИИ и отдельный орган для регулирования в сфере ИИ. В нём также излагались планы по ускоренному внедрению ИИ-технологий на территории ЮАР с помощью грантов, налоговых льгот и субсидий для инициатив в этой сфере.

ИИ-компании стали нанимать философов на шестизначные зарплаты из-за растущего недоверия к поведению нейросетей

Крупнейшие ИИ-компании нанимают философов на старшие должности по этике и безопасности ИИ — базовая зарплата может доходить до $400 000 в год. В Anthropic эту позицию занимает Аманда Аскелл (Amanda Askell), в Google DeepMind — Иасон Габриэл (Iason Gabriel). Они помогают разработчикам решать, как должен вести себя ИИ и какие ценности отражать. По оценке Рэвина Джезутасана (Ravin Jesuthasan), специалиста по трансформации рынка труда, таких сотрудников в каждой компании пока меньше десяти.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Аскелл, доктор философии Нью-Йоркского университета, руководит командой, которая обучает ИИ-чат-бота Claude быть честнее и развивать у него хорошие черты характера — по сути, делать модель «хорошей». Габриэл, старший научный сотрудник Google DeepMind, занимается согласованием ИИ-систем с человеческими ценностями; до перехода в DeepMind он преподавал моральную и политическую философию в Оксфордском университете. В мае к DeepMind в качестве философа присоединится Генри Шевлин (Henry Shevlin), профессор Кембриджского университета.

Гендиректор Harrison Clarke Фирас Созан (Firas Sozan) объясняет наём философов заботой о доверии: пользователи, бизнес и правительства всё чаще спрашивают, насколько ИИ можно доверять. При этом он предостерёг от преувеличения масштаба: «Я бы пока не назвал это трендом. Данные ещё в зачаточном состоянии».

Привлекательность философов объясняется просто. ИИ-системы уже демонстрируют вредные и непредсказуемые сценарии поведения: ИИ-агенты удаляли рабочие базы данных и фабриковали результаты, ИИ-модели пытались шантажировать пользователей и саботировать попытки их отключить. Это давит на компании и заставляет их следить за безопасностью ИИ.

«Не все проблемы развития ИИ технические», — сказала Аннетт Циммерман (Annette Zimmermann), доцент кафедры философии Висконсинского университета в Мадисоне. По её словам, формулировать сложные понятия и защищать ценностные аргументы — центральная работа в области ИИ, а философов учат именно этому. Сюзанна Шелленберг (Susanna Schellenberg), профессор философии Ратгерского университета, добавила, что прежние корпоративные специалисты по этике выполняли консультативную роль, а в передовых ИИ-лабораториях философы помогают формировать сам объект: пишут спецификации моделей, своды базовых принципов и политики их поведения.

 Источник изображения: Steve A Johnson / unsplash.com

Источник изображения: Steve A Johnson / unsplash.com

По последнему отчёту Федерального резервного банка Нью-Йорка, медианная зарплата выпускника философского факультета в начале карьеры составляет $52 000, к середине карьеры — около $80 000. На старших позициях по этике, безопасности и управлению ИИ базовая ставка может доходить от $250 000 до $400 000 в год. Так, Google DeepMind подбирает менеджера по перспективным последствиям ИИ с зарплатой от $212 000 до $231 000 в год, требуя не менее пяти лет опыта работы в этой области.

Спрос на философов в ИИ описывают как своего рода «реванш гуманитариев», но не все убеждены, что сдвиг приведёт к ощутимым переменам. Около десяти лет назад технологические компании уже создавали советы по этике ИИ: внутренний этический совет Google появился в 2014 году в связи с покупкой DeepMind, в Microsoft в 2017 году создали комитет Aether, а в 2016 году Google, Facebook✴, Amazon и IBM учредили Partnership on AI. «Мы выяснили, что эти советы часто оставались ширмой», — сказал главный директор по исследованиям Lighthouse Research & Advisory Бен Юбэнкс (Ben Eubanks). По его словам, компании обычно ставили коммерциализацию выше этических соображений.

Дебора Джонсон (Deborah Johnson), пионер в области компьютерной этики, считает, что компании скорее заинтересованы в демонстрации ответственности, чем в её принятии. «Технологические компании просто хотят „выглядеть“ так, будто занимаются этикой», — сказала она. Развитие ИИ идёт под давлением скорости, конкуренции и прибыли, и это давление может ограничивать реальное влияние философов. «Со специалистами по этике или без, я сомневаюсь, что они будут прислушиваться к тому, что их замедлит», — добавила Джонсон.

xAI выпустила Grok 4.3: более дешёвую ИИ-модель с упором на агентские задачи и практическую эффективность

Компания xAI Илона Маска (Elon Musk) выпустила ИИ-модель Grok 4.3, снизив стоимость входных токенов на 40 %, а выходных — на 60 % по сравнению с Grok 4.20. Модель набрала 53 балла по Intelligence Index компании Artificial Analysis — выше предшественницы, но ниже флагманов OpenAI и Anthropic.

 Источник изображения: Rubaitul Azad / unsplash.com

Источник изображения: Rubaitul Azad / unsplash.com

Grok 4.3 рассчитана на разработчиков и бизнес: ИИ-модель самостоятельно ищет информацию в интернете и соцсети X, запускает код на Python, выполняет поиск по файлам (RAG) и генерирует документы в форматах Excel, PDF и PowerPoint. Разработчик xAI Эрик Цзян (Eric Jiang) подчеркнул, что при создании модели ставку делали на скорость, низкую цену и вызовы инструментов. Grok 4.3 работает со скоростью 100 токенов в секунду и поддерживает контекстное окно в 1 млн токенов.

Миллион входных токенов стоит $1,25, а миллион выходных — $2,50, а последняя дата обучающих данных — декабрь 2025 года. Функция рассуждения в Grok 4.3 включена по умолчанию, поэтому модель всегда «думает» перед каждым ответом, а токены при рассуждении стоят столько же, сколько и обычные выходные токены. Grok 4.3 доступна через OpenRouter, программный интерфейс (API) xAI и агент Hermes. Полученный результат у новинки по Intelligence Index чуть выше, чем у Muse Spark и Claude Sonnet 4.6, и на четыре пункта больше, чем у предшественницы Grok 4.20, но заметно ниже флагманских моделей OpenAI и Anthropic.

 На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

На графиках Artificial Analysis видно, что Grok 4.3 не догоняет лидера GPT-5.5 по интеллектуальному индексу — 53 против 60 баллов, — но предлагает значительно более выгодное соотношение производительности и стоимости: полный прогон бенчмарка обходится в $395 против почти $4 000 у GPT-5.5. Источник изображения: Artificial Analysis

Полный прогон ИИ-модели на всех тестах Artificial Analysis обходится всего в $395 — против $3959 у GPT-5.5 и $4811 у Claude Opus 4.7. По оценке сервиса, Grok 4.3 вышла на Парето-фронт — границу лучшего баланса производительности и цены.

 Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

Grok 4.3 попадает в самый привлекательный сегмент графика: 53 балла при стоимости $395, тогда как GPT-5.5 и Claude Opus 4.7 мощнее, но значительно дороже. Источник изображения: Artificial Analysis

По GDPval-AA — тесту, который измеряет способности ИИ на задачах, приближенных к реальной интеллектуальной работе, — рейтинг Эло у Grok 4.3 подскочил на 321 пункт и достиг 1 500. Модель обошла Gemini 3.1 компании Google, однако GPT-5.5 компании OpenAI по-прежнему лидирует с отрывом в 276 пунктов Эло.

Другие тесты оказались к новинке менее благосклонны. Andon Labs, которая заставляет ИИ-модели управлять снэковым автоматом, отмечает провалы в автономных агентских задачах: модель порой бездействует вместо того чтобы действовать. «Похоже, у неё нарколепсия: она предпочитает спать по несколько дней подряд, а не действовать», — пишут в Andon Labs. Независимый сервис Vals AI поставил Grok 4.3 на первое место в тестах по анализу судебной практики (англ. — CaseLaw) и корпоративных финансов (англ. — CorpFin), но на общих тестах по написанию кода и на сложных математических задачах модель заняла лишь 13-е место.

Помимо Grok 4.3, xAI запустила бета-версию агентского режима Agent Mode для Grok Imagine через веб-интерфейс Grok. Режим рассчитан не на отдельные запросы, а на длительные творческие проекты: ИИ-агент планирует, генерирует, редактирует и дорабатывает материалы. По словам xAI, инструмент подходит для создания минутного фильма или продуктовых историй. Агентский режим включается в поле ввода в левом нижнем углу веб-интерфейса и требует платной подписки.

Аэродинамикой гоночных автомобилей Dallara займётся ИИ и квантовые компьютеры IBM

IBM и ведущий производитель гоночных автомобилей, компания Dallara, объявили о сотрудничестве, целью которого является фундаментальная перестройка проектирования аэродинамики гиперкаров. Для этого они создадут физический ИИ и применят квантовые компьютеры, что позволит сократить время проектирования с нескольких дней до минут.

 Первые плоды совместной работы. Концепция. Источник изображения: IBM

Первые плоды совместной работы. Концепция. Источник изображения: IBM

Проект объединяет глубокий инженерный опыт Dallara, накопленный за 50 лет работы при проектировании болидов для гонок IndyCar и других серий, и обширные знания IBM в области искусственного интеллекта и квантовых вычислений. Ключевая задача — создание новых физических базовых моделей ИИ, которые способны кардинально ускорить и улучшить процесс проектирования аэродинамики машин.

Давно применяемые в отрасли методы вычислительной гидродинамики (CFD) исключительно точны, но требуют огромных вычислительных ресурсов и времени: анализ одной конфигурации может занимать часы, а полный цикл разработки — недели. Поэтому IBM взялась за разработку специализированных ИИ-моделей, обученных на проверенных данных CFD и технических данных Dallara. Эти модели предназначены для предсказания аэродинамических характеристик (прижимной силы, лобового сопротивления, стабильности) непосредственно по геометрии деталей без проведения полного физического моделирования для каждого изменения формы.

Первые испытания концепции показали впечатляющее сокращение времени расчётов. В одном из тестов, когда анализировалась конфигурация заднего диффузора прототипа класса LMP2, традиционный CFD-анализ нескольких вариантов занял несколько часов. Новая ИИ-модель выполнила ту же работу примерно за 10 секунд, определив оптимальный дизайн с погрешностью, сопоставимой с CFD. В масштабе типичного набора из сотен конфигураций такое ускорение потенциально сокращает время симуляций с нескольких дней до минут, позволяя инженерам изучать гораздо больше вариантов на ранних этапах проектирования. Быстро отсеять массу ненужных проектов и сосредоточиться на перспективных — вот к чему стремятся IBM и Dallara.

Наконец, помимо немедленного применения ИИ в работе инженеров, партнёры изучают, каким образом можно интегрировать в процесс проектирования аэродинамики автомобилей квантовые и гибридные квантово-классические вычисления для дальнейшего повышения точности симуляций. В перспективе модели будут дополнены реальными данными, полученными при испытаниях в аэродинамической трубе и на гоночных трассах. Стороны подчёркивают, что потенциал технологии выходит далеко за рамки автоспорта: даже небольшое снижение лобового сопротивления на пассажирском транспорте или в авиации способно привести к значительной экономии топлива в глобальном масштабе. Первые научные результаты сотрудничества были недавно представлены на профильной конференции. Ждём результатов на дорогах и в небе.

Новая статья: Термодинамические вычислители — это нормально

Данные берутся из публикации Термодинамические вычислители — это нормально

Бум ИИ сделал микросхемы памяти одним из самых прибыльных продуктов в мире

Во второй половине прошлого года ажиотажные мировые инвестиции в ИИ сделали индустрию микросхем памяти сверхприбыльной. Ожидается, что Samsung превзойдёт по доходам Apple, Microsoft и Alphabet, а SK hynix и Micron — два других гиганта в сфере производства микросхем памяти — войдут в этом году в десятку самых прибыльных компаний мира. С начала этого года акции Samsung выросли на 72 %, SK hynix — на 90 %, а Micron — на 65 %.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

В то время как сомнения в перспективности ИИ продолжают нарастать, компании, участвующие в создании соответствующей инфраструктуры, получают огромную прибыль, а доходность бизнеса производителей микросхем памяти побила все рекорды. Ожидалось, что цены в первые три месяца 2026 года вырастут ещё на 50 % по сравнению с предыдущим кварталом, но реальность превзошла даже эти смелые ожидания — по данным исследовательской компании Trendforce, рост составил 100 %.

 Производители микросхем, входящие в топ-20 компаний по чистой прибыли / Источник изображения: wsj.com

Производители микросхем, входящие в топ-20 компаний по чистой прибыли / Источник изображения: wsj.com

В четверг Samsung Electronics сообщила о чистой прибыли за первый квартал, эквивалентной более чем $30 млрд. Это не только побило предыдущий квартальный рекорд, но и почти превзошло годовой максимум южнокорейской компании. Около 94 % операционной прибыли Samsung за первый квартал пришлось на полупроводниковый бизнес. Главные конкуренты Samsung на рынке памяти — южнокорейская SK hynix и американская Micron Technology недавно продемонстрировали столь же впечатляющие результаты. Эти три компании продолжают доминировать на рынке памяти.

 Годовая чистая прибыль компаний-производителей полупроводников / Источник изображения: FactSet

Годовая чистая прибыль компаний-производителей полупроводников / Источник изображения: FactSet

В последние годы производители памяти отдавали приоритет производству специализированной памяти c высокой пропускной способностью HBM, необходимой для ИИ, что ограничивало выпуск традиционных микросхем памяти, используемых в смартфонах, персональных компьютерах и обычных серверах и предопределило её дефицит. Стремительно выросший спрос на инференс потребовал огромных объёмов традиционной DRAM и вывел прибыль Samsung, SK hynix и Micron на новый уровень.

 Доли рынка производителей DRAM / Источник изображения: Trendforce

Доли рынка производителей DRAM / Источник изображения: Trendforce

По оценкам FactSet, в совокупности чистая прибыль этих трёх компаний в 2026 году составит примерно $350 млрд. По прогнозам, каждая из этих компаний войдёт в десятку самых прибыльных компаний мира, хотя год назад ни один аналитик не предполагал подобного развития событий. По данным аналитической компании Counterpoint, операционная прибыль от производства ОЗУ достигла 80 %, а от производства флеш-памяти — 60 %.

 Доли рынка производителей NAND flash / Источник изображения: Trendforce

Доли рынка производителей NAND flash / Источник изображения: Trendforce

Заказчики и производители микросхем памяти долгое время полагались на устные договорённости для обеспечения долгосрочных поставок, но теперь в некоторых случаях переходят к обязывающим контрактам. Некоторые контракты заключаются на срок до пяти лет и предусматривают предварительную оплату клиентами около 30 % стоимости или участие в инвестиционных затратах на новые заводы по производству микросхем памяти. «Идея заключается в том, что тот, кто доминирует на рынке памяти, может доминировать и в сфере искусственного интеллекта», — пояснил представитель Counterpoint.

 Рейтинг компаний-производителей микросхем по чистой прибыли / Источник изображения: FactSet/WSJ

Рейтинг компаний-производителей микросхем по чистой прибыли / Источник изображения: FactSet/WSJ

Строительство одного завода по производству микросхем может стоить более $20 млрд и занять годы. Samsung, SK hynix и Micron строят новые предприятия, но, по мнению отраслевых аналитиков, производство вряд ли выйдет на полную мощность до конца 2027 или 2028 года. Поэтому ожидать улучшения ситуации в ближайшее время трудно.

Судя по предварительным заказам Samsung, ожидается, что дефицит ещё усугубится в следующем году. «Исходя только из текущего спроса на 2027 год, разрыв между предложением и спросом в 2027 году увеличится ещё больше, чем в 2026 году», — заявил руководитель подразделения по производству микросхем памяти Samsung Ким Чжэджун (Kim Jaejune).


window-new
Soft
Hard
Тренды 🔥
Календарь релизов 11–17 мая: Subnautica 2, Outbound, Directive 8020 и Black Jacket 2 ч.
Google впервые обнаружила и заблокировала ИИ-эксплойт нулевого дня для взлома 2FA 2 ч.
Samsung выпустила One UI 8.5 для поддерживаемых Galaxy спустя пять месяцев бета-тестов 3 ч.
На ПК стартовали предзаказы Subnautica 2 — игра доступна в российских Steam и Epic Games Store 3 ч.
Издателем Stellar Blade 2 выступит не Sony, а сама Shift Up — официальный анонс сиквела уже не за горами 4 ч.
Смартфоны Samsung начнут блокировать приложения с назойливой рекламой в уведомлениях 5 ч.
Фанатов заинтриговал мод, который переносит в Half-Life главную героиню Life is Strange — геймплей и подробности Half-Life is Strange 6 ч.
TikTok позволит полностью отключить рекламу — но не бесплатно и не всем 6 ч.
ИИ упростил создание рекламы для малого бизнеса, но выделиться стало сложнее 10 ч.
WhatsApp запустил платную подписку Plus на iOS с темами, значками и 18 акцентными цветами 11 ч.
AMD разрабатывает настольную Radeon RX 9050 с 8 Гбайт памяти 3 ч.
Спутник LINK прошёл испытания и приблизил спасение обсерватории Swift от сгорания в атмосфере 4 ч.
Следующая Vision Pro выйдет не раньше 2028 года: Apple переключилась на умные очки и ИИ-устройства 4 ч.
Первая частная индийская ракета отправится в космос уже этим летом — шансы на успех не высоки, и это нормально 5 ч.
Intel и Nvidia скоро выпустят первые совместные продукты, заверил гендир Тан 6 ч.
Смартфон Трампа может вообще не выйти — предзаказ не гарантирует даже запуск производства 6 ч.
Ключевые характеристики геймерского смартфона RedMagic 11S Pro раскрылись до анонса 7 ч.
Palit выпустила GeForce RTX 5080 Infinity 3 без RGB-подсветки в версиях с разгоном и без 7 ч.
Broadcom представила решения 10G PON и Wi-Fi 8 для организации ШПД 9 ч.
Verda и Compal объединили усилия для создания ИИ-инфраструктуры следующего поколения 9 ч.