Опрос
|
реклама
Быстрый переход
Apple объяснила, почему поменяла политику App Store только в Евросоюзе — компания заботится о пользователях
26.01.2024 [06:54],
Алексей Разин
Изменения в региональном законодательстве заставили Apple обеспечить на территории Евросоюза возможность установки приложений на свои устройства из сторонних источников, а также открыть доступ разработчикам и пользователям к сторонним платёжным системам и браузерам. Компания взялась объяснить, почему эти изменения не будут распространены за пределы ЕС. Подобная практика, вводимая по требованию европейских законодателей, как поясняет 9to5Mac со ссылкой на заявления представителей Apple, признаётся компанией не самым безопасным способом распространения программного обеспечения. Изменения, предусмотренные в политике компании на территории Евросоюза, увеличивают риски распространения вредоносного программного обеспечения и противоправного контента, а также мошенничества и подлога. Они также ограничивают способность Apple реагировать на распространение вредоносных приложений и удалять их. Вводимые по требованию властей Евросоюза изменения также подразумевают внедрение новых технологий и процессов, которые не прошли достаточно длительное тестирование, и могут потребовать дальнейшего улучшения. Apple пояснила, что до сих пор очень дорожила доверием своих пользователей и никогда не принимала его как должное. Замкнутая программная экосистема выстраивалась компанией на всех этапах с упором на приватность и безопасность. Внутри своей платформы Apple традиционно анализировала новые приложения на безопасность и отсутствие вирусов, а также на соответствие высоким фирменным стандартам. Она также подчеркнула, что в Евросоюзе применяет нововведения не по своей воле, но старается минимизировать возникающие для пользователей риски в сфере информационной безопасности и защиты персональных данных. В глобальных масштабах Apple считает свою традиционную практику распространения ПО наиболее отвечающей интересам своих пользователей. OpenAI незаметно отменила запрет на использование ChatGPT в военных целях
15.01.2024 [21:11],
Сергей Сурабекянц
Компания OpenAI, не привлекая особого внимания, отказалась от прямого запрета на использование её технологии в военных целях. До 10 января политика OpenAI запрещала «деятельность, сопряжённую с высоким риском физического вреда», включая «разработку оружия» и «военную деятельность». Новая формулировка сохраняет запрет на использование OpenAI во вред и в качестве примера приводит разработку или использование оружия, но полный запрет на военное использование исчез. Это неафишируемое редактирование является частью масштабного изменения страницы политики использования, которое, по словам компании, призвано сделать документ «более понятным и более читабельным» и включает в себя множество других существенных изменений. Реальные последствия изменения этой политики неясны. В прошлом году OpenAI уже отказывалась отвечать на вопрос, будет ли она обеспечивать соблюдение своего собственного чёткого запрета на военные действия перед лицом растущего интереса со стороны Пентагона и разведывательного сообщества США. «Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всём мире обычными пользователями, которые также могут создавать GPT, — заявил представитель OpenAI Нико Феликс (Niko Felix). — Принцип “Не причиняй вреда другим” является широким, но легко понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей». При этом он отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях. «OpenAI хорошо осознает риски и вред, которые могут возникнуть в результате использования их технологий и услуг в военных целях», — считает эксперт по машинному обучению и безопасности автономных систем Хейди Клааф (Heidy Khlaaf). По её мнению, новая политика ставит законность выше безопасности: «Между этими двумя политиками существует явная разница: в первой чётко указано, что разработка вооружений, а также военные действия и война запрещены, а во второй подчёркивается гибкость и соблюдение закона». Клааф уверена, что разработка оружия и осуществление деятельности, связанной с военными действиями, в различной степени законны, а потенциальные последствия для безопасности очень вероятны. Она напомнила хорошо известные случаи предвзятости и галлюцинаций, присущие большим языковым моделям и их общую неточность. По её мнению, использование ИИ в боевых действиях может привести к неточным и предвзятым операциям и усугубить ущерб и жертвы среди гражданского населения. «Учитывая использование систем искусственного интеллекта для нападения на гражданское население в секторе Газа, это примечательный момент — принять решение удалить слова “военные действия” из политики допустимого использования OpenAI, — говорит директор института AI Now Сара Майерс Уэст (Sarah Myers West). — Формулировка политики остаётся расплывчатой и вызывает вопросы о том, как OpenAI намерена подходить к обеспечению её соблюдения». Хотя ИИ сегодня не может быть использован для непосредственного насилия и убийств, существует огромное количество смежных задач, которые ИИ выполняет для армии. Военнослужащие США уже используют технологию OpenAI для ускорения оформления документов. Национальное агентство геопространственной разведки, напрямую помогающее США в боевых действиях, открыто заявляет об использовании ChatGPT своими аналитиками. Даже если инструменты OpenAI в военных ведомствах используются для задач, не связанных с прямым насилием, они все равно косвенно помогают в ведении боевых действий и убийстве людей. Военные по всему миру стремятся внедрить методы машинного обучения, чтобы получить преимущество. Хотя результаты больших языковых моделей выглядят чрезвычайно убедительными, они часто страдают от так называемых галлюцинаций, которые ставят под сомнение точность результатов и их соответствие действительности. Тем не менее, способность больших языковых моделей быстро воспринимать текст и проводить его анализ – или, по крайней мере, симулякр анализа – делает использование ИИ естественным выбором для министерства обороны, перегруженного данными. В то время как некоторые представители военного руководства США выражают обеспокоенность по поводу рисков безопасности при использовании ChatGPT для анализа секретных и других чувствительных данных, Пентагон не отказывается от курса на использование ИИ. Заместитель министра обороны Кэтлин Хикс (Kathleen Hicks) полагает, что ИИ является «ключевой частью комплексного подхода к сетецентрическим военным инновациям». При этом она признаёт, что большинство текущих предложений «ещё недостаточно технически развиты, чтобы соответствовать нашим этическим принципам искусственного интеллекта». |