|
Опрос
|
реклама
Быстрый переход
Испанские антимонопольщики начали расследование доминирующего положения Apple App Store
29.07.2024 [13:45],
Анжелла Марина
Национальная комиссия по отраслевым рынкам и конкуренции Испании (CNMC) инициировала проверку в отношении App Store. Регуляторы подозревают компанию Apple в злоупотреблении доминирующим положением и навязывании несправедливых условий для разработчиков приложений.
Источник изображения: Denis Cherkashin/Unsplash Согласно заявлению CNMC, действия Apple, связанные с распространением приложений на её устройствах, могут нарушать испанский закон о конкуренции, а также статью 102 Договора о функционировании Европейского союза. В заявлении говорится о том, что «Apple может применять антиконкурентную практику, при помощи которой навязываются несправедливые коммерческие условия разработчикам, которые используют App Store для распространения своих приложений среди пользователей продуктов компании». Напомним, Apple взимает комиссию в размере 30 % со всех разработчиков приложений, зарабатывающих более 1 миллиона долларов в год, и более низкую комиссию в размере 15 % для остальных разработчиков. Однако в начале года Apple объявила об альтернативных условиях, суть которых заключается в более низкой комиссии в диапазоне от 10 % до 17 %. Однако если разработчики выбирают эти альтернативные условия, они также обязаны оплатить дополнительный сбор за основные технологии Apple в размере 0,5 евро за пользователя для приложений с более чем 1 миллионом ежегодных установок. Комиссия сочла эти условия несправедливыми и антиконкурентными. В ответ на обвинения Apple опровергла наличие несправедливых коммерческих условий в своём недавнем заявлении для Reuters. Представитель компании подчеркнул, что «испанские разработчики, какую бы они не выбрали форму условий, конкурируют на равных условиях в App Store, и что компания будет продолжать всесторонне сотрудничать с испанским антимонопольным органом, чтобы снять его любые опасения». Американские разработчики ИИ провели секретные переговоры с Китаем об опасности новых технологий
14.01.2024 [17:54],
Владимир Фетисов
Американские компании OpenAI, Anthropic и Cohere, работающие в сфере искусственного интеллекта, ведут секретные переговоры с китайскими экспертами по безопасности в этой области. Это происходит на фоне всеобщей обеспокоенности относительно того, что ИИ-алгоритмы могут использоваться для распространения дезинформации и угрожать социальной сплочённости общества. Об этом пишет Financial Times со ссылкой на собственные осведомлённые источники.
Источник изображения: Gerd Altmann / pixabay.com В сообщении сказано, что в июле и октябре прошлого года в Женеве прошли встречи с участием североамериканских экспертов и учёных, специализирующихся на политической составляющей в сфере ИИ-разработок, а также представителей Университета Цинхуа и ряда других учреждений, поддерживаемых правительством Поднебесной. Осведомлённый источник рассказал, что в рамках этих встреч сторонам удалось обсудить риски, связанные с новыми технологиями, а также стимулировать инвестиции в исследования в области безопасности в сфере ИИ. Отмечается, что основной целью этих встреч был поиск безопасного пути для разработки более сложных ИИ-технологий. «У нас нет возможности устанавливать международные стандарты безопасности и согласовывать ИИ-разработки без достижения договоренности между участниками этой группы. Если они согласятся, будет проще привлечь остальных», — сообщил осведомлённый источник. Издание отмечает, что эти не афишированные переговоры являются редким признаком китайско-американского сотрудничества на фоне гонки за превосходство между двумя державами в области передовых технологий, таких как искусственный интеллект и квантовые вычисления. Что касается самих переговоров, то их организовала консалтинговая компания Shaikh Group и их проведении было известно в Белом Доме, а также правительствах Великобритании и Китая. «Мы увидели возможность объединить ключевых игроков из США и Китая, работающих в сфере искусственного интеллекта. Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением ИИ-моделей, которые используются во всём мире. Признание этих фактов, на наш взгляд, может стать основой для совместной научной работы, что в конечном счёте приведёт к разработке глобальных стандартов безопасности для ИИ-моделей», — прокомментировал данный вопрос Салман Шейх (Salman Shaikh), исполнительный директор Shaikh Group. Участники переговоров обсудили возможности в плане технического сотрудничества сторон, а также более конкретные политические предложения, которые легли в основу дискуссий во время заседания Совета Безопасности ООН по ИИ в июле 2023 года и британского ИИ-саммита в ноябре 2023 года. По словам источников, успех прошедших встреч позволил разработать план дальнейших переговоров, в рамках которых будут изучаться конкретные научно-технические предложения, направленные на то, чтобы привести сферу ИИ в соответствие с правовыми кодексами, а также нормами и ценностями каждого общества. |