Сегодня 18 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → угроза
Быстрый переход

Учёные не нашли причин опасаться столкновения Земли с астероидом Апофис

Астероид Апофис (Apophis, номер 99942), представляющий потенциальную угрозу жизни на Земле, в 2021 году был на ближайшие 100 лет исключён из списка угроз из космоса. Тщательное изучение объекта в течение почти 20 лет с момента обнаружения позволило максимально точно рассчитать его орбиту, которая даже с учётом погрешностей не пересекалась с Землёй. Но совсем угроза не исчезла. Столкновение с другим астероидом способно сбить Апофис с безопасной траектории.

 Источник изображения: ИИ-генерация Кандинский 3.0/3DNews

Источник изображения: ИИ-генерация Кандинский 3.0/3DNews

Миссия NASA DART по ударному изменению траектории астероидов с помощью зондов-камикадзе наглядно показала, что астероид способен менять траекторию при столкновении с другим небесным телом. Даже таким небольшим, как 570-кг зонд DART. Если в 340-метровый Апофис массой 61 млн тонн влетит объект подобной ему массы, их траектории, очевидно, изменятся очень и очень сильно.

Под впечатлением миссии DART группа астрономов решила изучить вероятность столкновения с Апофисом любого из других известных астероидов в пространстве его пролёта. В эту область попадает свыше 1,3 млн известных астероидов. Все эти объекты были внесены в модель и изучены с учётом всех погрешностей на предмет вероятного столкновения с Апофисом.

 Радарные изображения Апофиса при пролёте рядом с Землёй в 2021 году. Источник изображения: NASA/JPL-Caltech and NSF/AUI/GBO

Радарные изображения Апофиса при пролёте рядом с Землёй в 2021 году. Источник изображения: NASA/JPL-Caltech and NSF/AUI/GBO

«Учитывая, насколько близко Апофис пройдет мимо Земли, существует возможный риск того, что отклонение от его текущей траектории может привести Апофис к столкновению с нами, — поясняют авторы работы, опубликованной в журнале Planetary Science. — Гипотетически, столкновение другого астероида с Апофисом может вызвать такое отклонение, что побудило нас изучить этот сценарий, каким бы маловероятным он ни был».

Расчёты показали, что астероиду Апофис никакие столкновения не угрожают, а значит, его орбита останется в рамках индивидуальных для него расчётов и будет неопасна для Земли. Остаётся угроза со стороны ещё неоткрытых астероидов. Но с этим человечество ничего поделать не может. Остаётся только готовиться по мере сил и создавать новые слои планетарной защиты.

OpenAI создала команду по изучению «катастрофических» угроз ИИ, вплоть до ядерной

Ответственная за сервис ChatGPT компания OpenAI сообщила, что сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от того, что характеризуется как «катастрофические риски».

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Команду под названием Preparedness («боеготовность») возглавил директор Центра развёртываемого машинного обучения при Массачусетском технологическом институте Александр Мадри (Aleksander Madry) — по данным профессиональной соцсети LinkedIn, он занял этот пост в компании ещё в мае. В задачи подразделения входит отслеживание, прогнозирование и защита от опасностей, которые несут перспективные системы ИИ — от их дара убеждения (как в случае с составлением фишинговых писем) до генерации вредоносного кода. Некоторые из категорий угроз пока, к счастью, не обозначились в реальном поле: к ним отнесли химические, биологические, радиационные и ядерные.

Гендиректор OpenAI Сэм Альтман (Sam Altman) неоднократно выражал опасения, что ИИ способен «привести к вымиранию человечества», и формирование в компании соответствующего подразделения отражает эту позицию. Компания открыта и для изучения «менее очевидных» областей риска ИИ, добавил господин Альтман. Связаться с компанией для изложения своих опасений может любой желающий — авторы десяти лучших работ получат денежный приз в размере $25 тысяч или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов.

Подразделению Preparedness будет поручено сформулировать «политику разработки с учётом угроз» — документ с подробным описанием подхода OpenAI к построению инструментов оценки и мониторинга моделей ИИ, действий по снижению угроз, а также структуры управления для надзора в процессе развития моделей. Специалисты команды дополнят прочие аспекты работы OpenAI в области безопасного ИИ, уделяя особое внимание этапам до и после развёртывания модели.

Альтман и Илья Суцкевер (Ilya Sutskever), главный научный сотрудник и соучредитель OpenAI, убеждены, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. Поэтому компания считает необходимым изучать возможности по его ограничению.

Множество опасных для жизни на Земле астероидов всё ещё скрываются во тьме космоса, показал отчёт NASA

На днях NASA предоставило инфографику, которая говорит о значительных пробелах в наших знаниях об астероидной угрозе из космоса. Служба планетарной обороны подозревает о существовании десятков неизвестных астероидов, способных нанести Земле глобальный ущерб, и догадывается о тысячах камней меньшего размера, каждый из которых способен стереть с лица планеты целый город.

 Источник изображения: Pixabay

Источник изображения: Pixabay

По итогу на 31 августа 2023 года усилиями профессиональных астрономов и астрономов-любителей обнаружено около 32 тыс. околоземных астероидов разного размера. В Центр малых планет, который является одним из центральных узлов системы планетарной защиты NASA и центральным информационным центром для охотников за астероидами по всему миру, переданы данные более чем 405 млн наблюдений. Основные цифры отображены в инфографике NASA от 16 октября (полностью раскроется по ссылке на изображении ниже).

Из представленных цифр впечатляет пробел в наших знаниях об астероидах свыше 140 метров в поперечнике — таковых обнаружено менее половины из вероятного числа или всего 10 541. Между тем, один такой астероид способен нанести разрушения, которые уничтожат целый мегаполис. Взорвавшийся в 2013 году над Челябинском астероид имел в поперечнике всего 20 м, но даже он привёл к ранению свыше полутора тысяч человек.

 Источник изображения: NASA

Нажмите для увеличения

Околоземные астероиды, способные нанести значительный ущерб земной цивилизации в планетарном масштабе, чьи размеры превышают 1 км, обнаружены в количестве 853 штуки. Необнаруженными остаются ещё около 50 подобных объектов. Считается, что динозавров убил астероид диаметром около 10 км. Километрового камня с неба хватит для уничтожения целого региона с катастрофическими последствиями для климата всей Земли.

Остаётся надеяться, что ввод в эксплуатацию новых роботизированных телескопов — охотников за астероидами — поможет обнаружить всё новые и новые потенциально опасные для жизни на Земле астероиды. Хотя они темны и подкрадываются незаметно — обнаружить такие тела можно только в отсветах Солнца, чем больше глаз будет искать их на небе, тем больше шансов узнать об угрозе заранее.

Unity закрыла два офиса из опасений за жизни сотрудников

Руководство Unity Technologies отменило ранее запланированное собрание трудового коллектива и закрыла два офиса — причиной тому компания назвала поступившие угрозы и вызванные ими опасения за жизни своих сотрудников. Конфликт разгорелся на почве решения ввести комиссию Unity Runtime Fee.

 Источник изображения: unity.com

Источник изображения: unity.com

В компании «узнали о потенциальной угрозе некоторым из её офисов» и «приняли незамедлительные превентивные меры для обеспечения безопасности сотрудников», — цитирует Bloomberg заявление представителя Unity. Unity закрыла офисы, которые могли подвергнуться нападению 14 и 15 сентября, и начала «в полной мере сотрудничать с правоохранительными органами».

Поводом для недовольства общественности стало озвученное 12 сентября решение компании инициировать программу Unity Runtime Fee — она предусматривает новую схему отчислений за игры, созданные на платформе Unity Engine. С 1 января 2024 года создателям игр на движке Unity придётся платить за каждую установку (по достижении определённого порога).

Разработчики игр обвинили Unity в нарушении собственных условий лицензирования ПО и предупредили, что новая схема тарификации может поставить под угрозу их существование. Многие игровые студии выступили с резкими заявлениями, призывая компанию пересмотреть своё решение.

Гендиректор Unity Джон Ричителло (John Riccitiello) накануне должен был провести встречу с работниками компании, но мероприятие пришлось отменить в качестве меры предосторожности. Офисы в Остине (Техас) и Сан-Франциско (Калифорния) закрылись.

«Если мы замедлимся, гонка ИИ не остановится», — не все разработчики ИИ готовы приостановить разработки

Глава софтверной компании Palantir Алекс Карп (Alex Carp) утверждает, что только те, у кого «нет продуктов ИИ, хотят сделать паузу». Его компания объявила о дополнительных инвестициях и отвергла призывы приостановить разработки в области ИИ. «Гонка началась — вопрос только в том, останемся ли мы впереди или уступим лидерство?» — ставит вопрос ребром Алекс. Он уверен, что Запад в настоящее время обладает ключевыми коммерческими и военными преимуществами в области ИИ и не должен отказываться от них.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Если мы замедлимся, гонка ИИ не остановится. Ни одна страна в мире, особенно наши противники, не может позволить нам иметь это преимущество, — сказал он. — Изучать и разрабатывать ИИ, а затем позволить другим побеждать как в коммерческих сферах, так и в военных — плохая стратегия».

Комментарии Карпа имеют совершенно иной тон по сравнению с недавним избытком ужасных предупреждений о потенциально экзистенциальной угрозе, которую ИИ представляет для человечества, и сопутствующих призывов к замедлению или даже остановке его развития.

В марте Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.

В мае лидеры индустрии ИИ, в том числе руководители OpenAI и Google Deepmind, предупредили, что искусственный интеллект может привести к вымиранию человечества. В качестве одной из угроз они указали участие ИИ в разработке химического оружия нового поколения. Двое из трёх так называемых крестных отцов ИИ — Джеффри Хинтон (Geoffrey Hinton) и профессор Йошуа Бенжио (Yoshua Bengio ) — были среди тех, кто предупреждал, что технология, которую они помогли создать, имеет огромный потенциал для причинения вреда.

Регулирующие органы многих стран изо всех сил пытаются разработать новые правила, чтобы ограничить риск применения ИИ.

Этой осенью Великобритания планирует провести глобальный саммит по ИИ, а премьер-министр Риши Сунак (Rishi Sunak) хочет, чтобы Великобритания приложила усилия, чтобы преимущества ИИ были «использованы на благо человечества». Состав участников саммита пока неизвестен, но правительство Великобритании заявило, что «соберёт вместе ключевые страны, ведущие технологические компании и исследователей, чтобы согласовать меры безопасности для оценки и мониторинга наиболее значительных рисков, связанных с ИИ».

Сунак утверждает, что Великобритания является «естественным местом» для ведения разговора об ИИ, упомянув недавние встречи с руководителями ведущих фирм, занимающихся ИИ. По его словам, этот сектор экономики, в котором занято 50 000 человек, принёс Великобритании £3,7 млрд.

Желание Сунака возглавить процесс понятно, но многие ставят под сомнение лидерство Великобритании в этой области. Аналитики считают, что Великобритания может быть слишком амбициозной, а между ЕС и США существуют резкие различия в подходах к управлению и регулированию, на которые Великобритании будет трудно влиять. Кроме того, уже существует ряд глобальных инициатив, включая Глобальный цифровой договор ООН, который имеет более прочную фундаментальную основу.

Нужно отметить, что ни одна из самых новаторских фирм в области искусственного интеллекта не базируется в Великобритании. «Вместо того, чтобы пытаться играть эту роль, Великобритания, возможно, должна сосредоточиться на поощрении ответственного поведения в исследованиях, разработке и внедрении этих технологий», — уверена Ясмин Афина (Yasmin Afina), научный сотрудник инициативы цифрового общества Chatham House.

Европейский союз разрабатывает закон об искусственном интеллекте, но признаёт, что даже в лучшем случае для его вступления в силу потребуется два с половиной года. Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager) считает, что будет «слишком поздно». Она сообщила о работе над добровольным кодексом, который может быть составлен в течение нескольких недель. Китай также активно разрабатывает правила использования ИИ, включая требование уведомлять пользователей всякий раз, когда используется алгоритм ИИ.

Противоречия между разработчиками ИИ и регулирующими органами будут только множиться. В дальнейшем можно ожидать массовых протестов против применения ИИ, из-за которого уже сейчас теряют работу тысячи людей, а в перспективе их число, возможно, станет измеряться миллионами.

Ведущие разработчики ИИ назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной

Главы компаний OpenAI, Google DeepMind, Anthropic и других лабораторий искусственного интеллекта предупредили, что технологии, над которыми они работают, могут поставить под угрозу существование человечества, поэтому их следует отнести к категории социальных рисков наряду с пандемиями и ядерными войнами.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

«Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наравне с другими рисками общественного масштаба, такими как пандемии и ядерные войны», — гласит открытое письмо лидеров отрасли, состоящее всего из одного предложения. Как ожидается, документ будет опубликован некоммерческой организацией Center for AI Safety. Его подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ.

Среди подписантов, в частности, значатся: глава OpenAI Сэм Альтман (Sam Altman); глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis); глава Anthropic Дарио Амодеи (Dario Amodei), а также Джеффри Хинтон (Geoffrey Hinton) и Йошуа Бенджио (Yoshua Bengio) — двое из трёх обладателей Премии Тьюринга, считающиеся «крёстными отцами» современного искусственного интеллекта, тогда как третий, Янн ЛеКун (Yann LeCun), возглавляющий исследования в области ИИ в Meta, на текущий момент подпись ещё не поставил.

В обществе действительно растёт обеспокоенность по поводу дальнейшего развития систем искусственного интеллекта. Есть мнение, что платформы масштаба ChatGPT смогут использовать для распространения дезинформации и пропаганды, кроме того, только в Европе и США из-за ИИ могут лишиться работы 300 млн человек. Эти опасения разделяют и лидеры отрасли, которые тем самым ставят сами себя в необычное положение: они утверждают, что разрабатываемые ими технологии представляют серьёзные риски и должны жёстко регулироваться государством.

Некоторые скептики уверяют, что технологии ИИ пока слишком незрелы, чтобы представлять ощутимую угрозу человечеству, поэтому следует сосредоточиться на вопросах краткосрочной перспективы — предвзятых и некорректных ответах систем ИИ. Другие же считают, что сравнимый с возможностями человека ИИ появится уже в ближайшем будущем. Во избежание возможных негативных последствий лидеры отрасли предлагают создать организацию, направленную на регулирование ИИ — это должен быть своего рода аналог Международного агентства по атомной энергии (МАГАТЭ), которое пытается не допустить распространение и применение ядерного оружия.

В марте более тысячи исследователей и представителей технологической отрасли подписали открытое письмо с призывом на полгода приостановить разработку передовых систем ИИ, объявив их угрозой человечеству. Очередной документ в оригинале содержит всего 22 слова — лаконичная формулировка призвана объединить экспертов, мнения которых могут расходиться по отдельным вопросам. «Думаю, если с этой технологией что-то пойдёт не так, то всё будет совсем не так. И мы хотим заявить об этом. Мы хотим сотрудничать с правительством, чтобы это предотвратить», — заявил глава OpenAI Сэм Альтман в ходе недавних слушаний в Конгрессе США.

TikTok предоставит учёным и аналитикам из США доступ к своему API

TikTok откроет исследователям из некоммерческих университетов США доступ к некоторым данным платформы. API платформы позволит учёным и аналитикам получать доступ к «общедоступным анонимным» данным, таким как профили пользователей, комментарии, лайки и «избранные» видео и результаты поиска, чтобы сделать понятными и прозрачными тенденции TikTok и активность пользователей.

 Источник изображения: Pixabay / Antonbe

Источник изображения: Pixabay / Antonbe

Исследовательский API был впервые анонсирован прошлым летом, а члены консультативного совета получили доступ к нему в ноябре. Теперь более широкий круг исследователей сможет пристально изучить TikTok, но доступ к API по-прежнему контролируется компанией. Предложения по исследованиям необходимо согласовывать с американским подразделением безопасности данных TikTok, а от учёных требуется соблюдение условий сервиса. Компания заявляет, что расширит доступ к своему исследовательскому API для большего количества регионов и некоммерческих исследователей «в ближайшие месяцы».

Первоначальное объявление TikTok о доступе аналитиков и учёных к API было сделано как ещё одна попытка доказать, что TikTok, как и материнская компания ByteDance, не является угрозой национальной безопасности США: приложение было запрещено использовать на рабочих смартфонах, принадлежащих членам Палаты представителей, и аналогичные ограничения распространились на госслужащих в разных штатах и федеральных агентствах.

Новость о расширении доступа к общедоступным данным является последней в череде действий компании, направленных на повышение доверия и призванных дать исследователям, журналистам и общественности больше информации о том, как она работает. Ранее в этом месяце компания пригласила представителей СМИ совершить экскурсию по своему Центру прозрачности и подотчётности, физическому офисному пространству, где посетители могут взаимодействовать с программным обеспечением для имитации модерации и узнавать о его методах обеспечения безопасности.

Тем не менее, американские политики, как либералы, так и консерваторы, продолжают призывать к полному запрету TikTok и этот вопрос на данный момент стал источником политических манипуляций и спекуляций.

Яркая вспышка и шлейф осколков: получены первые снимки последствий удара зонда DART об астероид

NASA и ряд земных обсерваторий опубликовали первые снимки, сделанные в момент удара зонда-камикадзе NASA DART об астероид Диморф. На изображениях видна яркая вспышка и последовавший за ней разлёт осколков, превративший протараненный астероид в подобие кометы.

 Вспышка и разлёт обломков астероида после удара зондом NASA DART. Источник изображения: ASI/NASA

Вспышка и разлёт обломков астероида после удара зондом NASA DART (верхний объект). Источник изображения: ASI/NASA

На Земле столкновение было зафиксировано 27 сентября в 2:14 мск. Более интересные данные поступили с кубсата LICIACube, который 11 сентября отделился от зонда DART и следовал за ним на некотором отдалении. На борту кубсата расположены две камеры — одна с широким, а вторая с узким полем зрения. Аппарат должен зафиксировать как объём выброшенных в результате удара по астероиду обломков, так и попытается сделать снимок образовавшегося ударного кратера.

 Схема манёвра. Источник изображения: space.com

Схема манёвра. Источник изображения: space.com

На переданных LICIACube снимках видна яркая вспышка в момент столкновения зонда DART с астероидом и облако поднятых им обломков. Сам зонд DART мало что мог зафиксировать на видео, хотя приблизился достаточно, чтобы передать изображения 16-метровых валунов на поверхности Диморфа. Скорость его сближения с астероидом достигала 22 530 км/ч, что не давало надежды на множество снимков в процессе приближения к смертельному для него финалу. Монтаж снимков в DART представлен на видео ниже.

Не менее интересным был взгляд со стороны. Роботизированная обсерватория Terrestrial-impact Last Alert System (ATLAS) по наблюдению за потенциально опасными астероидами рядом с Землёй представила анимированное изображение момента удара DART по астероиду и последующий разлёт обломков.

Удар и последовавшее за ним изменение яркости астероида Диморф зафиксировала роботизированная обсерватория ИПМ им. М.В. Келдыша РАН. Собранные при помощи расположенной в Узбекистане обсерватории ISON-Kitab данные утверждают о росте яркости астероида в 7,5 раз (на 2,2m) и последующем её снижении в 2 раза (на 0,8m).

 Источник изображения: ИПМ им. М.В. Келдыша РАН

Источник изображения: ИПМ им. М.В. Келдыша РАН

Можно ожидать, что вскоре появятся новые и более интересные снимки этого события, которое останется в земной истории как первая экспериментальная попытка отразить угрозу из космоса. Своё слово в этом скажут космические телескопы «Джеймс Уэбб» и «Хаббл».

Напомним, астероид Диморф размерами около 160 м в поперечнике и его более крупная пара Дидим не представляли и не представляют опасности для Земли. Система была выбрана для испытания концепции кинетического воздействия на небесное тело с целью изменить его траекторию на безопасную. Удар зонда DART в астероид должен привести к заметному даже с Земли изменению орбиты Диморфа вокруг Дидима. Удар совершён, осталось оценить степень его воздействия.

Вблизи МКС зафиксировано около тысячи угроз за четыре года

Российская Автоматизированная система предупреждения об опасных ситуациях в околоземном космическом пространстве (АСПОС ОКП) зарегистрировала почти 1 тыс. угроз в отношении Международной космической станции (МКС) за четыре года. Такие данные приводит Центральный научно-исследовательский институт машиностроения (ЦНИИмаш), входящий в государственную корпорацию «Роскосмос».

 Источник изображений: «Роскосмос»

Источник изображений: «Роскосмос»

АСПОС ОКП функционирует с 2016 года. Её основным предназначением является обеспечение постоянного контроля над космическими объектами, представляющими потенциальную угрозу для полётов пилотируемых и других функционирующих космических аппаратов. В состав системы входят наземные пункты наблюдения, комплекс сбора и обработки данных.

Как сообщает ТАСС, ссылаясь на статистику ЦНИИмаш, с 2017 по 2021 год выявлено 970 угроз для МКС на расстоянии менее 4 км. Кроме того, в течение этого периода зафиксировано 26,9 тыс. опасных сближений с защищаемыми космическими аппаратами и 30 разрушений объектов на орбите.

В настоящее время, по оценкам, на орбите Земли находятся более 23 тыс. задокументированных единиц космического мусора. И ситуация с засорением космического пространства постоянно ухудшается.

Поэтому в России разрабатывается новая система контроля околоземного пространства под названием «Млечный путь». Она обеспечит глобальный и непрерывный мониторинг угроз. С этой целью планируется размещение наземных средств, в том числе телескопов, как на территории России, так и за рубежом.


window-new
Soft
Hard
Тренды 🔥
Игровой движок Unigine вернулся в реестр российского ПО благодаря усилиям разработчиков 39 мин.
Bethesda удалила Denuvo из Ghostwire: Tokyo, но умолчала об этом 2 ч.
Т1 и МФТИ предложат российскому бизнесу решения на базе квантовых алгоритмов 2 ч.
TikTok начал тестировать Notes — конкурента Instagram 2 ч.
Необычный платформер-головоломка Schim о потерявшем своего человека духе выйдет из тени в июле — дата релиза и новый трейлер 4 ч.
Криптовалюта продолжила падение: биткоин опустился ниже $60 тысяч, а Ethereum — ниже $3 тысяч 4 ч.
Kingdom Come: Deliverance 2 выйдет в 2024 году — журналисты раньше времени опубликовали анонсирующий трейлер 4 ч.
Еврокомиссия не нашла ничего предосудительного в отношениях Microsoft и OpenAI 16 ч.
Stability AI расширила доступ к тестированию Stable Diffusion третьего поколения 16 ч.
Тодд Говард прояснил спорный момент из сериала Fallout — каноничность Fallout: New Vegas в безопасности 16 ч.
Компания Gagar>n представила OCP-серверы «Оракул Gen 3» и «Простор Gen 1» на базе Intel Xeon 11 мин.
Toyota готовит электрический кроссовер Highlander с тремя рядами сидений 28 мин.
Более 1000 км без подзарядки: электромобиль Nio ET7 с полутвердотельной батареей испытали в реальных условиях 29 мин.
Eviden и CEA анонсировали второй суперкомпьютер EXA1 — HE на базе Arm-суперчипов NVIDIA Grace Hopper 38 мин.
Прототип гражданского самолёта Boom Supersonic допустили к первому сверхзвуковому полёту 39 мин.
Huawei представила флагманские смартфоны Pura 70, 70 Pro, 70 Pro+ с чипами Kirin и камерами с переменной диафрагмой 2 ч.
Rivos, разработчик ИИ-ускорителей на базе RISC-V, получил на развитие более $250 млн 2 ч.
Россияне купили более миллиона умных колонок с января по март — подавляющее большинства от «Яндекса» 2 ч.
РЖД открыли первый игровой клуб на вокзале — с ПК и PlayStation 5 3 ч.
Intel представила нейроморфный компьютер Hala Point на 1152 чипах Loihi 2 с мозгоподобной архитектурой 3 ч.