Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщает РБК. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта в России». Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках, однако законопроекта в готовой редакции пока нет. В аппарате правительства и Минцифры заявили РБК, что к ним не поступал на рассмотрение такой законопроект.

По информации издания, авторы законопроекта предлагают ввести понятия:

— искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека);

— технологий ИИ (включая технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.);

— систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии).

Кроме того, предлагается ввести требования к маркировке систем ИИ, а также классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина предлагается запретить, а для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную государственную регистрацию и сертификацию. Для лиц, участвующих в разработке и эксплуатации систем ИИ планируется предусмотреть ответственность за причинение вреда жизни, здоровью или имуществу.