Сегодня 02 октября 2023
18+
MWC 2018 2018 Computex IFA 2018
Теги → угрозы

Unity закрыла два офиса из опасений за жизни сотрудников

Руководство Unity Technologies отменило ранее запланированное собрание трудового коллектива и закрыла два офиса — причиной тому компания назвала поступившие угрозы и вызванные ими опасения за жизни своих сотрудников. Конфликт разгорелся на почве решения ввести комиссию Unity Runtime Fee.

 Источник изображения: unity.com

Источник изображения: unity.com

В компании «узнали о потенциальной угрозе некоторым из её офисов» и «приняли незамедлительные превентивные меры для обеспечения безопасности сотрудников», — цитирует Bloomberg заявление представителя Unity. Unity закрыла офисы, которые могли подвергнуться нападению 14 и 15 сентября, и начала «в полной мере сотрудничать с правоохранительными органами».

Поводом для недовольства общественности стало озвученное 12 сентября решение компании инициировать программу Unity Runtime Fee — она предусматривает новую схему отчислений за игры, созданные на платформе Unity Engine. С 1 января 2024 года создателям игр на движке Unity придётся платить за каждую установку (по достижении определённого порога).

Разработчики игр обвинили Unity в нарушении собственных условий лицензирования ПО и предупредили, что новая схема тарификации может поставить под угрозу их существование. Многие игровые студии выступили с резкими заявлениями, призывая компанию пересмотреть своё решение.

Гендиректор Unity Джон Ричителло (John Riccitiello) накануне должен был провести встречу с работниками компании, но мероприятие пришлось отменить в качестве меры предосторожности. Офисы в Остине (Техас) и Сан-Франциско (Калифорния) закрылись.

«Если мы замедлимся, гонка ИИ не остановится», — не все разработчики ИИ готовы приостановить разработки

Глава софтверной компании Palantir Алекс Карп (Alex Carp) утверждает, что только те, у кого «нет продуктов ИИ, хотят сделать паузу». Его компания объявила о дополнительных инвестициях и отвергла призывы приостановить разработки в области ИИ. «Гонка началась — вопрос только в том, останемся ли мы впереди или уступим лидерство?» — ставит вопрос ребром Алекс. Он уверен, что Запад в настоящее время обладает ключевыми коммерческими и военными преимуществами в области ИИ и не должен отказываться от них.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Если мы замедлимся, гонка ИИ не остановится. Ни одна страна в мире, особенно наши противники, не может позволить нам иметь это преимущество, — сказал он. — Изучать и разрабатывать ИИ, а затем позволить другим побеждать как в коммерческих сферах, так и в военных — плохая стратегия».

Комментарии Карпа имеют совершенно иной тон по сравнению с недавним избытком ужасных предупреждений о потенциально экзистенциальной угрозе, которую ИИ представляет для человечества, и сопутствующих призывов к замедлению или даже остановке его развития.

В марте Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.

В мае лидеры индустрии ИИ, в том числе руководители OpenAI и Google Deepmind, предупредили, что искусственный интеллект может привести к вымиранию человечества. В качестве одной из угроз они указали участие ИИ в разработке химического оружия нового поколения. Двое из трёх так называемых крестных отцов ИИ — Джеффри Хинтон (Geoffrey Hinton) и профессор Йошуа Бенжио (Yoshua Bengio ) — были среди тех, кто предупреждал, что технология, которую они помогли создать, имеет огромный потенциал для причинения вреда.

Регулирующие органы многих стран изо всех сил пытаются разработать новые правила, чтобы ограничить риск применения ИИ.

Этой осенью Великобритания планирует провести глобальный саммит по ИИ, а премьер-министр Риши Сунак (Rishi Sunak) хочет, чтобы Великобритания приложила усилия, чтобы преимущества ИИ были «использованы на благо человечества». Состав участников саммита пока неизвестен, но правительство Великобритании заявило, что «соберёт вместе ключевые страны, ведущие технологические компании и исследователей, чтобы согласовать меры безопасности для оценки и мониторинга наиболее значительных рисков, связанных с ИИ».

Сунак утверждает, что Великобритания является «естественным местом» для ведения разговора об ИИ, упомянув недавние встречи с руководителями ведущих фирм, занимающихся ИИ. По его словам, этот сектор экономики, в котором занято 50 000 человек, принёс Великобритании £3,7 млрд.

Желание Сунака возглавить процесс понятно, но многие ставят под сомнение лидерство Великобритании в этой области. Аналитики считают, что Великобритания может быть слишком амбициозной, а между ЕС и США существуют резкие различия в подходах к управлению и регулированию, на которые Великобритании будет трудно влиять. Кроме того, уже существует ряд глобальных инициатив, включая Глобальный цифровой договор ООН, который имеет более прочную фундаментальную основу.

Нужно отметить, что ни одна из самых новаторских фирм в области искусственного интеллекта не базируется в Великобритании. «Вместо того, чтобы пытаться играть эту роль, Великобритания, возможно, должна сосредоточиться на поощрении ответственного поведения в исследованиях, разработке и внедрении этих технологий», — уверена Ясмин Афина (Yasmin Afina), научный сотрудник инициативы цифрового общества Chatham House.

Европейский союз разрабатывает закон об искусственном интеллекте, но признаёт, что даже в лучшем случае для его вступления в силу потребуется два с половиной года. Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager) считает, что будет «слишком поздно». Она сообщила о работе над добровольным кодексом, который может быть составлен в течение нескольких недель. Китай также активно разрабатывает правила использования ИИ, включая требование уведомлять пользователей всякий раз, когда используется алгоритм ИИ.

Противоречия между разработчиками ИИ и регулирующими органами будут только множиться. В дальнейшем можно ожидать массовых протестов против применения ИИ, из-за которого уже сейчас теряют работу тысячи людей, а в перспективе их число, возможно, станет измеряться миллионами.

Ведущие разработчики ИИ назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной

Главы компаний OpenAI, Google DeepMind, Anthropic и других лабораторий искусственного интеллекта предупредили, что технологии, над которыми они работают, могут поставить под угрозу существование человечества, поэтому их следует отнести к категории социальных рисков наряду с пандемиями и ядерными войнами.

 Источник изображений: Gerd Altmann / pixabay.com

Источник изображений: Gerd Altmann / pixabay.com

«Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наравне с другими рисками общественного масштаба, такими как пандемии и ядерные войны», — гласит открытое письмо лидеров отрасли, состоящее всего из одного предложения. Как ожидается, документ будет опубликован некоммерческой организацией Center for AI Safety. Его подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ.

Среди подписантов, в частности, значатся: глава OpenAI Сэм Альтман (Sam Altman); глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis); глава Anthropic Дарио Амодеи (Dario Amodei), а также Джеффри Хинтон (Geoffrey Hinton) и Йошуа Бенджио (Yoshua Bengio) — двое из трёх обладателей Премии Тьюринга, считающиеся «крёстными отцами» современного искусственного интеллекта, тогда как третий, Янн ЛеКун (Yann LeCun), возглавляющий исследования в области ИИ в Meta, на текущий момент подпись ещё не поставил.

В обществе действительно растёт обеспокоенность по поводу дальнейшего развития систем искусственного интеллекта. Есть мнение, что платформы масштаба ChatGPT смогут использовать для распространения дезинформации и пропаганды, кроме того, только в Европе и США из-за ИИ могут лишиться работы 300 млн человек. Эти опасения разделяют и лидеры отрасли, которые тем самым ставят сами себя в необычное положение: они утверждают, что разрабатываемые ими технологии представляют серьёзные риски и должны жёстко регулироваться государством.

Некоторые скептики уверяют, что технологии ИИ пока слишком незрелы, чтобы представлять ощутимую угрозу человечеству, поэтому следует сосредоточиться на вопросах краткосрочной перспективы — предвзятых и некорректных ответах систем ИИ. Другие же считают, что сравнимый с возможностями человека ИИ появится уже в ближайшем будущем. Во избежание возможных негативных последствий лидеры отрасли предлагают создать организацию, направленную на регулирование ИИ — это должен быть своего рода аналог Международного агентства по атомной энергии (МАГАТЭ), которое пытается не допустить распространение и применение ядерного оружия.

В марте более тысячи исследователей и представителей технологической отрасли подписали открытое письмо с призывом на полгода приостановить разработку передовых систем ИИ, объявив их угрозой человечеству. Очередной документ в оригинале содержит всего 22 слова — лаконичная формулировка призвана объединить экспертов, мнения которых могут расходиться по отдельным вопросам. «Думаю, если с этой технологией что-то пойдёт не так, то всё будет совсем не так. И мы хотим заявить об этом. Мы хотим сотрудничать с правительством, чтобы это предотвратить», — заявил глава OpenAI Сэм Альтман в ходе недавних слушаний в Конгрессе США.

TikTok предоставит учёным и аналитикам из США доступ к своему API

TikTok откроет исследователям из некоммерческих университетов США доступ к некоторым данным платформы. API платформы позволит учёным и аналитикам получать доступ к «общедоступным анонимным» данным, таким как профили пользователей, комментарии, лайки и «избранные» видео и результаты поиска, чтобы сделать понятными и прозрачными тенденции TikTok и активность пользователей.

 Источник изображения: Pixabay / Antonbe

Источник изображения: Pixabay / Antonbe

Исследовательский API был впервые анонсирован прошлым летом, а члены консультативного совета получили доступ к нему в ноябре. Теперь более широкий круг исследователей сможет пристально изучить TikTok, но доступ к API по-прежнему контролируется компанией. Предложения по исследованиям необходимо согласовывать с американским подразделением безопасности данных TikTok, а от учёных требуется соблюдение условий сервиса. Компания заявляет, что расширит доступ к своему исследовательскому API для большего количества регионов и некоммерческих исследователей «в ближайшие месяцы».

Первоначальное объявление TikTok о доступе аналитиков и учёных к API было сделано как ещё одна попытка доказать, что TikTok, как и материнская компания ByteDance, не является угрозой национальной безопасности США: приложение было запрещено использовать на рабочих смартфонах, принадлежащих членам Палаты представителей, и аналогичные ограничения распространились на госслужащих в разных штатах и федеральных агентствах.

Новость о расширении доступа к общедоступным данным является последней в череде действий компании, направленных на повышение доверия и призванных дать исследователям, журналистам и общественности больше информации о том, как она работает. Ранее в этом месяце компания пригласила представителей СМИ совершить экскурсию по своему Центру прозрачности и подотчётности, физическому офисному пространству, где посетители могут взаимодействовать с программным обеспечением для имитации модерации и узнавать о его методах обеспечения безопасности.

Тем не менее, американские политики, как либералы, так и консерваторы, продолжают призывать к полному запрету TikTok и этот вопрос на данный момент стал источником политических манипуляций и спекуляций.

Яркая вспышка и шлейф осколков: получены первые снимки последствий удара зонда DART об астероид

NASA и ряд земных обсерваторий опубликовали первые снимки, сделанные в момент удара зонда-камикадзе NASA DART об астероид Диморф. На изображениях видна яркая вспышка и последовавший за ней разлёт осколков, превративший протараненный астероид в подобие кометы.

 Вспышка и разлёт обломков астероида после удара зондом NASA DART. Источник изображения: ASI/NASA

Вспышка и разлёт обломков астероида после удара зондом NASA DART (верхний объект). Источник изображения: ASI/NASA

На Земле столкновение было зафиксировано 27 сентября в 2:14 мск. Более интересные данные поступили с кубсата LICIACube, который 11 сентября отделился от зонда DART и следовал за ним на некотором отдалении. На борту кубсата расположены две камеры — одна с широким, а вторая с узким полем зрения. Аппарат должен зафиксировать как объём выброшенных в результате удара по астероиду обломков, так и попытается сделать снимок образовавшегося ударного кратера.

 Схема манёвра. Источник изображения: space.com

Схема манёвра. Источник изображения: space.com

На переданных LICIACube снимках видна яркая вспышка в момент столкновения зонда DART с астероидом и облако поднятых им обломков. Сам зонд DART мало что мог зафиксировать на видео, хотя приблизился достаточно, чтобы передать изображения 16-метровых валунов на поверхности Диморфа. Скорость его сближения с астероидом достигала 22 530 км/ч, что не давало надежды на множество снимков в процессе приближения к смертельному для него финалу. Монтаж снимков в DART представлен на видео ниже.

Не менее интересным был взгляд со стороны. Роботизированная обсерватория Terrestrial-impact Last Alert System (ATLAS) по наблюдению за потенциально опасными астероидами рядом с Землёй представила анимированное изображение момента удара DART по астероиду и последующий разлёт обломков.

Удар и последовавшее за ним изменение яркости астероида Диморф зафиксировала роботизированная обсерватория ИПМ им. М.В. Келдыша РАН. Собранные при помощи расположенной в Узбекистане обсерватории ISON-Kitab данные утверждают о росте яркости астероида в 7,5 раз (на 2,2m) и последующем её снижении в 2 раза (на 0,8m).

 Источник изображения: ИПМ им. М.В. Келдыша РАН

Источник изображения: ИПМ им. М.В. Келдыша РАН

Можно ожидать, что вскоре появятся новые и более интересные снимки этого события, которое останется в земной истории как первая экспериментальная попытка отразить угрозу из космоса. Своё слово в этом скажут космические телескопы «Джеймс Уэбб» и «Хаббл».

Напомним, астероид Диморф размерами около 160 м в поперечнике и его более крупная пара Дидим не представляли и не представляют опасности для Земли. Система была выбрана для испытания концепции кинетического воздействия на небесное тело с целью изменить его траекторию на безопасную. Удар зонда DART в астероид должен привести к заметному даже с Земли изменению орбиты Диморфа вокруг Дидима. Удар совершён, осталось оценить степень его воздействия.

Вблизи МКС зафиксировано около тысячи угроз за четыре года

Российская Автоматизированная система предупреждения об опасных ситуациях в околоземном космическом пространстве (АСПОС ОКП) зарегистрировала почти 1 тыс. угроз в отношении Международной космической станции (МКС) за четыре года. Такие данные приводит Центральный научно-исследовательский институт машиностроения (ЦНИИмаш), входящий в государственную корпорацию «Роскосмос».

 Источник изображений: «Роскосмос»

Источник изображений: «Роскосмос»

АСПОС ОКП функционирует с 2016 года. Её основным предназначением является обеспечение постоянного контроля над космическими объектами, представляющими потенциальную угрозу для полётов пилотируемых и других функционирующих космических аппаратов. В состав системы входят наземные пункты наблюдения, комплекс сбора и обработки данных.

Как сообщает ТАСС, ссылаясь на статистику ЦНИИмаш, с 2017 по 2021 год выявлено 970 угроз для МКС на расстоянии менее 4 км. Кроме того, в течение этого периода зафиксировано 26,9 тыс. опасных сближений с защищаемыми космическими аппаратами и 30 разрушений объектов на орбите.

В настоящее время, по оценкам, на орбите Земли находятся более 23 тыс. задокументированных единиц космического мусора. И ситуация с засорением космического пространства постоянно ухудшается.

Поэтому в России разрабатывается новая система контроля околоземного пространства под названием «Млечный путь». Она обеспечит глобальный и непрерывный мониторинг угроз. С этой целью планируется размещение наземных средств, в том числе телескопов, как на территории России, так и за рубежом.

Великобритания может обязать техногигантов раскрывать вред, причиняемый алгоритмами соцсетей

Рассматривающий проект Закона о безопасности в интернете Комитет цифровых технологий, культуры, СМИ и спорта в британском парламенте заявил, что стране следует обязать владеющие соцсетями компании проводить оценку потенциального вреда, причиняемого их алгоритмами, а также раскрывать информацию о таком вреде.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Рекомендация появилась через несколько дней после того, как глава Instagram заявил о намерении вернуть в приложение хронологическую ленту, которая будет соседствовать с лентой публикаций, формируемой на основе рекомендательного алгоритма платформы. Комитет проводит экспертный анализ проекта Закона о безопасности в интернете, который должен вступить в силу весной 2022 года — его целью является защита детей и взрослых от потенциально опасного и незаконного контента, включая пропаганду ненависти и насилия.

Выслушав показания более 50 свидетелей и получив более 200 письменных обращений, комитет пришёл к выводу, что владеющие социальными сетями компании оптимизировали алгоритмы под взаимодействие с пользователями, стимулируя их к публикации комментариев и оригинального контента, но игнорируя этические нормы. Парламентарии предлагают объявить незаконным контент, связанный с членовредительством, а также отправку материалов деликатного характера без согласия получателей. Кроме того, заявлено о необходимости дать новое определение языку ненависти.

Глава комитета Дамиан Коллинз (Damian Collins) добавил также, что общественность должна знать, кто принимает решения во владеющих социальными сетями компаниях, а также причины, побуждающие их принимать эти решения.

Американские учёные не хотят церемониться с опасными астероидами: только ракетные удары, включая ядерные

Группа исследователей по экспериментальной космологии Калифорнийского университета в Санта-Барбаре (UCSB) представила документ, в котором предложила свой вариант планетарной защиты от опасных для Земли астероидов. Учёные предлагают безжалостно крошить астероиды в щебень, используя для этого доставку к астероидам гарпунов с взрывчаткой в наконечниках. Возможно, даже с ядерным боеприпасом, если того потребуют обстоятельства.

 Источник изображения: NASA/JPL

Источник изображения: NASA/JPL

До сих пор в научных кругах идея взрывать астероиды считалась категорически неправильной. Скорости движения этих космических тел таковы, что измельчённые части не уйдут далеко от опасной траектории разрушенного астероида и шрапнелью ударят по огромной площади на Земле, что принесёт ещё больший ущерб, чем может причинить одиночное падение. Тем не менее, идея решительного удара и, по возможности, с использованием ядерного боеприпаса начинает пробивать себе дорогу.

Предложение группы UCSB (Pulverize It) несколько другое. Исследователи предложили доставлять на траектории падения астероидов специальные боеприпасы в виде металлических штырей от полутора до трёх метров длиной с взрывчаткой в наконечнике. Собственная скорость астероида плюс скорость ракеты-носителя заставит штыри-гарпуны проникать вглубь астероида и взрывами рвать его на куски. Согласно расчётам, такой способ мог безопасно разрушить упавший несколько лет назад астероид под Челябинском даже за 100 секунд до столкновения. Правда, чем больше астероид, тем на большей дальности его необходимо начинать дробить.

 Источник изображения: UCSB

Проект Pulverize It. Источник изображения: UCSB

При таком подходе ракеты планетарной защиты можно ставить на длительное дежурство и перехватывать пропущенные системой наблюдения астероиды в опасной близости от Земли. При всей сомнительности затеи это может стать единственной возможностью что-то сделать, если угрожающий Земле астероид вдруг появится на горизонте.

✴ Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

window-new
Soft
Hard
Тренды 🔥
Starfield «намеренно сделана так, чтобы в неё играли долгое время» — новый контент планируется на пять лет вперёд 8 мин.
Google наделит ИИ-чат-бота Bard памятью для более личного общения с пользователями 15 мин.
Российские разработчики и дистрибьюторы предложили правительству идеи по продвижению отечественных игр за рубежом 55 мин.
Вышел новый трейлер Combustion — дизельпанкового ролевого экшена «давно минувших дней 1997 года» 3 ч.
Вилли Вонка встречает BioShock: шутер Twisted Tower отправит игроков покорять смертельную башню ради возлюбленной 4 ч.
У Apple есть всё, чтобы заменить Google собственным поисковиком, но это вряд ли произойдёт 5 ч.
Олдскульный шутер Wrath: Aeon of Ruin на движке первой Quake вырвется из раннего доступа в феврале — новый трейлер и дата выхода 5 ч.
Госдума переходит на отечественные аналоги Windows и Office — на лицензии потрачено 52,5 млн рублей 9 ч.
Microsoft ищет более дешёвые в эксплуатации и простые альтернативы языковым моделям OpenAI 19 ч.
Вселенную Starfield расширят мини-сериалом с живыми актёрами 21 ч.