Сегодня 02 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

В России хотят запретить ИИ с «неприемлемым уровнем риска»

Участники рынка, эксперты и депутаты обсуждают разработанный профильной рабочей группой проект законодательного регулирования сферы искусственного интеллекта в России. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта в России» и обсуждается на заседаниях рабочих групп в Госдуме, «Деловой России» и на отраслевых дискуссионных площадках.

 Источник изображения: Steve Johnson / Unsplash

Источник изображения: Steve Johnson / Unsplash

В пояснительной записке к проекту сказано, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года, которая была утверждена в феврале прошлого года. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов рассказал, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». Он также добавил, что законодательные инициативы пока депутатами «всерьёз не рассматриваются».

«Рабочая группа создана для того, чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — сообщил господин Свинцов. Он также добавил, что в ближайшие месяцы появятся несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но появления в этом году регулирующего всю деятельно ИИ законопроекта ждать не следует.

Что касается самого законопроекта, то прежде всего он предполагает введение понятия ИИ, т.е. комплекса технологических и программных решений, имитирующих когнитивные функции человека, включая самообучение, поиск решений на базе заранее заданного алгоритма, и обеспечивающий получение результатов, которые сопоставимы с результатами деятельности человека. К ИИ-технологиям предлагается приравнять компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальный анализ данных, машинное обучение и др. ИИ-системами предлагается считать информационные системы, имитирующие когнитивные функции человека с помощью упомянутых ранее технологий.

Ещё в рамках законопроекта предлагается ввести требования к маркировке ИИ-систем, т.е. обязательному информационному обозначению, которое будет указывать на применение ИИ-технологий при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой», а обеспечить её должен оператор ИИ-системы. Это требование не будет распространяться на ИИ-системы, которые применяются в закрытых технологических процессах, для внутренней автоматизации в организациях и др.

Одним из важных пунктов законопроекта является введение классификации ИИ-систем по уровню потенциального риска. Авторы проекта предлагают разделить ИИ-алгоритмы на системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. При этом разработку и эксплуатацию систем с неприемлемым уровнем риска, т.е. создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина, предлагается запретить. Для систем с высоким уровнем риска, т.е. используемых в здравоохранении, на транспорте, в финансовом секторе, в правоохранительной деятельности и некоторых других сферах, предлагается ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска — разработать системы внутреннего контроля и добровольную сертификацию.

В дополнение к этому предлагается ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации ИИ-систем. При этом разработчик не будет нести ответственность в случае принятия всех необходимых мер для предотвращения причинения вреда, а также если вред возник из-за нарушения правил эксплуатации системы и в ряде других случаев. Предлагается внести обязательное страхование ответственности операторов ИИ-систем с высоким уровнем риска. Для определения владельца прав на результат интеллектуальной деятельности, созданной с помощью ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека. Если такой вклад был, то исключительное право на результат будет принадлежать человеку, а в противном случае оператору ИИ-системы (действует в течение 50 лет).

Если законопроект будет принят, то операторы и разработчики ИИ-систем будут обязаны выполнить его требования в течение года после вступления документа в силу. ИИ-системы с высоким уровнем риска, созданные до принятия закона, должны будут пройти обязательную сертификацию в течение двух лет.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Robocop: Rogue City — Unfinished Business — правосудие продолжается. Рецензия 40 мин.
В Anthropic выяснили, что делает ИИ злым и научились пресекать вредные паттерны 44 мин.
THQ Nordic показала «реальный геймплей» ремейка «Готики» и объявила, когда ждать релиз 47 мин.
Анонсирован ремастер Sacred 2 — с патчами от сообщества, современным интерфейсом, но без перевода на русский 58 мин.
«Легендарная сага четырёх всадников продолжается»: анонсирована Darksiders 4 2 ч.
Google передумала отключать сервис goo.gl полностью — активным ссылкам сохранят «жизнь» 3 ч.
«В этой вселенной возможно всё»: анонсирована научно-фантастическая нелинейная ролевая игра Starfinder: Afterlight 4 ч.
Electronic Arts объяснила, почему считает The Sims 5 «не очень хорошей идеей» для фанатов 5 ч.
Слухи: второе дополнение к Starfield и версия игры для PS5 выйдут одновременно, но не в 2025 году 7 ч.
Google выпустила Gemini 2.5 Deep Think — рассуждающую ИИ-модель, которая параллельно обдумывает несколько идей 7 ч.