«Планируется, что документ вступит в силу с 1 сентября 2027 года, установив четкие правила для разработчиков, бизнеса и государства. Он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов», — заявили в Минцифры.
Интеллектозамещение
Иллюстрация: «Новая Газета Европа»
В России вынесли на общественное обсуждение законопроект о регулировании искусственного интеллекта. Документ вводит новые правила для разработчиков, бизнеса и пользователей, а также усиливает роль государства в контроле над ИИ. В случае принятия закон может вступить в силу с 1 сентября 2027 года. Подробнее о законопроекте — в материале «Новой газеты Европа».
«Планируется, что документ вступит в силу с 1 сентября 2027 года, установив четкие правила для разработчиков, бизнеса и государства. Он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов», — заявили в Минцифры.
Ключевая идея состоит в разделении ИИ на несколько категорий. Речь идет о «суверенных» и «национальных» моделях, разработанных в России, а также о «доверенных» системах, которые можно будет использовать в госсекторе и критической инфраструктуре.
Государство делает ставку на технологическую независимость: предполагается, что разработка, обучение и использование таких моделей должны происходить исключительно внутри РФ, а сами технологии — опираться на российские ресурсы и специалистов.
Законопроект закрепляет идею технологической независимости. Предполагается, что для этого:
Предполагается, что на территории РФ должны обеспечить «благоприятные условия» для суверенного ИИ, а конкретные требования к таким моделям еще должно будет определить правительство.
Уже сейчас среди принципов регулирования можно выделить курс на «традиционные духовно-нравственные ценности».
«Обеспечение разработки, внедрения и применения технологий искусственного интеллекта на основе таких ценностей, как жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память и преемственность поколений, единство народов России», — говорится в законопроекте.
Также должен учитываться принцип безопасности: «…предотвращение угроз конституционному строю, обороне и безопасности государства, технологической независимости государства, жизни и здоровью физических лиц, деловой репутации и имуществу физических и юридических лиц, индивидуальных предпринимателей, окружающей среде, а также обеспечение информационной безопасности и устойчивости функционирования объектов информатизации с применением технологий искусственного интеллекта».
Фото: Григорий Сысоев / Спутник / Imago Images / Scanpix / LETA
Если компания или сервис использует искусственный интеллект, чтобы продавать товары или оказывать услуги без участия человека, они обязаны честно об этом сказать клиенту.
То же самое касается более серьезных ситуаций: если ИИ принимает решения, которые влияют на человека, — например, одобрить услугу или отказать, — пользователя должны заранее предупредить, что это делает именно система, а не человек.
При этом в некоторых случаях, которые определит правительство, у гражданина будет право отказаться от такого подхода и потребовать получить услугу обычным способом, без ИИ.
Если же решение, принятое с помощью ИИ (например, в госоргане или госкомпании), покажется гражданину неправильным, его можно будет оспорить — сначала без суда, просто подав жалобу.
Согласно законопроекту, разработчики обязаны создавать безопасные модели: исключать риск дискриминации, заранее оценивать возможные угрозы, документировать работу системы и предупреждать о недопустимых способах ее использования. Операторы, которые внедряют и используют такие системы, должны обеспечивать их безопасную эксплуатацию, регулярно тестировать, отслеживать инциденты и при необходимости сразу останавливать работу, если возникает риск вреда.
Владельцы сервисов должны устанавливать правила использования, предотвращать незаконное применение технологий и обязательно информировать пользователей о том, что они взаимодействуют с ИИ. Кроме того, они должны внедрять ограничения, чтобы с помощью таких сервисов нельзя было создавать незаконный контент.
Если компания использует ИИ для оказания услуг или продажи товаров без участия человека, она обязана сообщить об этом. То же касается случаев, когда алгоритмы принимают решения, влияющие на права человека.
В некоторых ситуациях гражданин сможет отказаться от использования ИИ и потребовать альтернативный способ получения услуги. Кроме того, появляется право оспаривать решения, принятые с помощью алгоритмов, и требовать компенсацию за причиненный вред
Отдельное внимание уделено прозрачности. Любой контент, созданный с помощью ИИ, — тексты, изображения, аудио — должен сопровождаться специальной маркировкой.
Крупные платформы (более 100 тысяч пользователей в сутки) обязаны контролировать наличие таких пометок и при их отсутствии либо добавлять их, либо удалять материал.
Результаты, созданные с помощью ИИ, могут охраняться законом, если они являются оригинальными.
При этом правила использования таких материалов должны быть заранее прописаны в пользовательских соглашениях. Ответственность за нарушение авторских прав, как правило, возлагается на пользователя.
Россия планирует развивать международное сотрудничество в сфере ИИ, участвовать в формировании стандартов и продвигать собственные технологии за рубежом.
При этом сохраняется контроль над трансграничными технологиями и данными: их использование может ограничиваться или запрещаться.
Президент определяет стратегию развития ИИ, правительство формирует меры поддержки и регулирует отрасль, а профильные органы внедряют технологии в управление и контролируют их применение.
Фото: Григорий Сысоев / Спутник / Imago Images / Scanpix / LETA
Документ предусматривает поддержку создания дата-центров и суперкомпьютеров. Для них могут вводиться льготы, упрощенные процедуры и государственное финансирование.
В октябре Владимир Путин заявлял, что Россия сможет создать собственный ИИ, «только опираясь на свои культуру, мировоззрение и традиционные ценности», а «не копируя чужие решения, что приводит к технологической и мировоззренческой зависимости».
В законопроекте предлагается разделить нейросети на несколько категорий и по-разному их регулировать. Так называемые «суверенные» и «национальные» модели — то есть разработанные в России — получат государственную поддержку. При этом будет создан отдельный реестр «доверенных» нейросетей: использовать их в государственных системах и критической инфраструктуре можно будет только после проверки со стороны ФСБ, отмечает «Коммерсант».
Как пояснил изданию член комиссии по стандартизации искусственного интеллекта Французской ассоциации по стандартизации AFNOR Александр Тюльканов, в целом такой подход близок к международной практике: для критически важных сфер в разных странах также вводятся более строгие требования к ИИ. Однако российская модель отличается более жестким участием государства. В частности, в ЕС доступ на рынок чаще основан на самодекларации или проверках независимых организаций, тогда как в России ключевую роль играет государственная сертификация. Кроме того, законопроектом предполагается обязательная локализация данных и инфраструктуры внутри страны для использования таких систем в госсекторе.
Тюльканов также замечает, что в Евросоюзе, в отличие от России, требования прописываются в технических стандартах. «В моем понимании это плохо, потому что лучше всего знают уровень техники специалисты из предметной области. Ключевой должна быть не только защищенность ИИ-систем от внешнего воздействия, но и безопасность для потребителя. В этом — плюс европейского подхода», — говорит эксперт.
По мнению партнера юридической фирмы Digital & Analogue Partners Юрия Борисова, текущая версия законопроекта нуждается в серьезной доработке.
Он отмечает, что сегодня в мире сложились три основные модели регулирования ИИ — европейская, американская и китайская, и российский документ представляет собой их сочетание.
Так, от европейского подхода заимствована система классификации по уровням риска и требования к маркировке контента. От американского — стремление защитить внутренний рынок и технологии от иностранной конкуренции, что может привести к ограничениям или жестким требованиям для зарубежных моделей. Китайская модель проявляется в акценте на развитие преимущественно отечественных решений. В результате законопроект выглядит как сочетание разных, порой противоречивых подходов, и, вероятно, будет дорабатываться для большей согласованности.
Наибольшие вопросы у экспертов вызывает идея о том, что российские системы ИИ должны соответствовать таким ценностям, как патриотизм и милосердие. «Также предполагается сертификация в ФСБ. И как ведомство будет проверять, насколько нейронка патриотична или милосердна, — очень сложный вопрос. Такие абстрактные категории пока что неподвластны искусственному интеллекту», — говорит Борисов.
{{subtitle}}
{{/subtitle}}