Участники рынка, эксперты и депутаты обсуждают разработанный профильной рабочей группой проект законодательного регулирования сферы искусственного интеллекта в России. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта в России» и обсуждается на заседаниях рабочих групп в Госдуме, «Деловой России» и на отраслевых дискуссионных площадках.

Источник изображения: Steve Johnson / Unsplash
В пояснительной записке к проекту сказано, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года, которая была утверждена в феврале прошлого года. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов рассказал, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». Он также добавил, что законодательные инициативы пока депутатами «всерьёз не рассматриваются».
«Рабочая группа создана для того, чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — сообщил господин Свинцов. Он также добавил, что в ближайшие месяцы появятся несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но появления в этом году регулирующего всю деятельно ИИ законопроекта ждать не следует.
Что касается самого законопроекта, то прежде всего он предполагает введение понятия ИИ, т.е. комплекса технологических и программных решений, имитирующих когнитивные функции человека, включая самообучение, поиск решений на базе заранее заданного алгоритма, и обеспечивающий получение результатов, которые сопоставимы с результатами деятельности человека. К ИИ-технологиям предлагается приравнять компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальный анализ данных, машинное обучение и др. ИИ-системами предлагается считать информационные системы, имитирующие когнитивные функции человека с помощью упомянутых ранее технологий.
Ещё в рамках законопроекта предлагается ввести требования к маркировке ИИ-систем, т.е. обязательному информационному обозначению, которое будет указывать на применение ИИ-технологий при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой», а обеспечить её должен оператор ИИ-системы. Это требование не будет распространяться на ИИ-системы, которые применяются в закрытых технологических процессах, для внутренней автоматизации в организациях и др.
Одним из важных пунктов законопроекта является введение классификации ИИ-систем по уровню потенциального риска. Авторы проекта предлагают разделить ИИ-алгоритмы на системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. При этом разработку и эксплуатацию систем с неприемлемым уровнем риска, т.е. создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина, предлагается запретить. Для систем с высоким уровнем риска, т.е. используемых в здравоохранении, на транспорте, в финансовом секторе, в правоохранительной деятельности и некоторых других сферах, предлагается ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска — разработать системы внутреннего контроля и добровольную сертификацию.
В дополнение к этому предлагается ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации ИИ-систем. При этом разработчик не будет нести ответственность в случае принятия всех необходимых мер для предотвращения причинения вреда, а также если вред возник из-за нарушения правил эксплуатации системы и в ряде других случаев. Предлагается внести обязательное страхование ответственности операторов ИИ-систем с высоким уровнем риска. Для определения владельца прав на результат интеллектуальной деятельности, созданной с помощью ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека. Если такой вклад был, то исключительное право на результат будет принадлежать человеку, а в противном случае оператору ИИ-системы (действует в течение 50 лет).
Если законопроект будет принят, то операторы и разработчики ИИ-систем будут обязаны выполнить его требования в течение года после вступления документа в силу. ИИ-системы с высоким уровнем риска, созданные до принятия закона, должны будут пройти обязательную сертификацию в течение двух лет.
Источник: