09:40, 9 ноября 2021, 09:40
Количество просмотров 2811

Приоритеты в правовом регулировании в сфере технологий искусственного интеллекта

Взрывной рост разработки и внедрения технологий ИИ, а также утверждение Национальной стратегии развития искусственного интеллекта до 2030 года в Российской Федерации указом Президента РФ № 490 от 10.10.2019 (далее, Стратегия) неизбежно порождают вопросы, связанные с правовым регулированием в данной области.
Приоритеты в правовом регулировании в сфере технологий искусственного интеллекта

 - рис.1

Взрывной рост разработки и внедрения технологий ИИ, а также утверждение Национальной стратегии развития искусственного интеллекта до 2030 года в Российской Федерации указом Президента РФ № 490 от 10.10.2019 (далее, Стратегия) неизбежно порождают вопросы, связанные с правовым регулированием в данной области.

Наталия Иванова (Усова), руководитель отдела разработки и развития CUSTOM RC&B, даёт оценку текущему состоянию правового регулирования в сфере ИИ в РФ на базе анализа Национальной стратегии развития ИИ в РФ, Концепции развития регулирования отношений в сфере технологий ИИ, а также отдельных НПА, обосновывая недопустимость смещения акцентов в правовой сфере развития технологий ИИ с этической стороны вопроса, защиты прав и свобод человека и определения разумных пределов применения технологии на гонку за международное лидерство.

Актуальное состояние законодательства в сфере технологий ИИ в РФ

В настоящее время в России отсутствует специальное законодательство в сфере технологий ИИ и робототехники, а, соответственно, разработка точечных законодательных актов и внесение ряда поправок в Гражданский Кодекс РФ не представляются эффективными мерами. Учитывая динамику развития технологий ИИ, даже вводимые определения и правовые конструкции в этой области могут достаточно быстро устаревать, тем не менее, основной задачей является разработка чётких норм правового контроля всех участников, вовлечённых в процесс взаимодействия с ИИ: разработчиков, производителей, пользователей, владельцев, людей, чьи права потенциально могут быть нарушены или, которым может быть нанесён ущерб.

Вслед за Стратегией развития ИИ, распоряжением Правительства России №2129-р от 19.08.2020 была утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года (далее, Концепция), которая носит декларативный характер, обозначает режимы и сферы деятельности, нуждающиеся в дополнительном правовом регулировании, а также закрепляет приоритеты, акцентированные в Стратегии, направленные на стимулирование разработки, внедрения и использования технологий ИИ.

Основная причина для беспокойства – ведущие представители других стран, занятых в этой сфере предпринимают попытки для обеспечения своего доминирования, в то время как Россия также имеет достаточный потенциал, чтобы занять лидирующие позиции. Как следствие, и Концепция, и Стратегия утверждают обеспечение благоприятных правовых условий для доступа к данным, в том числе персональным и установление процедур упрощённого тестирования и внедрения технологических решений на базе ИИ в качестве основных принципов.

Принятие ФЗ №123 от 14.04.2020 «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерально закона «О персональных данных»» на практике поддерживает приоритеты, обозначенные в Стратегии.

Защита персональных данных

Особо актуальным становится вопрос о защите информации, включая персональные данные и информацию, составляющую профессиональную и коммерческую тайну, в силу того, что именно большие объёмы информации являются основой для обучения ИИ, а, соответственно, и обеспечение беспрепятственного доступа к ним является ключевым фактором активного развития данной технологии.

Федеральный закон №152 «О защите персональных данных», принятый в России ещё в 2006 году не регламентирует передачу и распространение персональных данных автоматизированными системами, созданными на базе ИИ. Кроме того, установленные на смартфон сервисы и приложения позволяют сотням компаний собирать избыточные персональные данные о владельцах смартфонов, которые зачастую даже не подозревают ни о самом сборе данных, ни о целях использования этих данных, в связи с тем, что в большинстве случаев эта информация в явном виде не доносится до пользователей, а также у человека отсутствует возможность оспорить предлагаемые условия, он либо пользуется сервисом / приложением / sim-картой / смартфоном на условиях, навязанных производителями, либо вынужден отказаться от использования этих продуктов.

Но не только персональные данные являются основной «валютой» современной экономики, любые большие объёмы информации, которые можно структурировать и сделать машиночитаемыми представляют интерес для развития сферы ИИ. Как следствие, в декабре 2018 года Правительством РФ была утверждена Концепция создания и функционирования в РФ системы маркировки товаров средствами идентификации и отслеживания движения товаров, а в сентябре 2021 года Правительственная комиссия утвердила Концепцию развития технологий машиночитаемого права, оба документа предполагают сбор и структуризацию больших объёмов данных с целью обучения систем ИИ.

Активное развитие конкурентной среды на международном уровне, для сравнения, если в 2017 году только пять стран приняли Национальную стратегию развития искусственного интеллекта, то в 2019 году таких стран насчитывалось уже более тридцати, дают основания для столь ускоренного внедрения технологий ИИ на практике при отсутствии правовой базы.

Поставленная цель мирового лидерства неизбежно отодвигает этические вопросы на второй план.

Этические нормы. Актуальность Азиломарских принципов

Можно выделить две основные цели, которым подчинены все принципы правового регулирования создания программ, включая робототехнику и ИИ: первая цель – это обеспечение защиты человека, его прав и свобод, а также защита общества, государства и человечества, и вторая – способствование развитию технического прогресса в области новейших информационных технологий, но только в той степени, в которой это не противоречит достижению первой цели.

Положительный эффект от разработки технологий ИИ очевиден и заявляемые цели его внедрения несомненно предполагают качественные улучшения в сферах охраны здоровья людей, обеспечения законности и общественного порядка, улучшения условий труда, транспортной безопасности, совершенствования механизмов государственного управления и т.д.

Но нельзя забывать о приоритетности цели защиты человека, его прав и свобод над целью стимулирования научно-технического прогресса. До применения на практике необходим тщательный анализ всех рисков и правовых проблем, которые несёт в себе бесконтрольное развитие технологий ИИ.

Учитывая потенциальную возможность создания искусственного «сверхинтеллекта», особое внимание следует уделить этической стороне вопроса, проработать и законодательно закрепить те сферы, главенство в которых не должно быть передано технологиям ИИ, с целью гарантированного обеспечения основных прав и свобод человека, а также необходимости сохранения естественного интеллекта в качестве главенствующего.

Основой для создания этического кодекса и примером ответственного подхода к теме развития ИИ могут служить Азиломарские принципы, зафиксированные по итогам Азиломарской конференции, прошедшей в январе 2017 года. Данные принципы не являются обязательными ни в одной стране мире, что позволяет стратегиям по развитию ИИ, принимаемым в каждой отдельной страной идти в разрез с этическими нормами, закреплёнными в Азиломарских принципах.

В частности, в Азиломарских принципах зафиксированы право на человеческий контроль над системами ИИ и возможность человека самостоятельно выбирать, как использовать искусственный интеллект и использовать ли его вообще.

Межстрановое соперничество за лидерство в данной сфере приводит к тому, что в реальности данный принцип нарушается, и государства внедряют технологии ИИ без должной оценки рисков и, не учитывая право каждого отдельного человека на отказ от использования данной технологии.

Отечественные эксперты также уделяют немало внимания проблемам регулирования сфер внедрения ИИ, в связи с тем, что последствия использования технологий ИИ в государственном управлении коренным образом подрывают идею управления человека человеком на основе демократических принципов. Меж тем в Стратегии развития ИИ в РФ одним из приоритетных направлений декларирована разработка систем ИИ для принятия управленческих решений.

Тенденция перекладывания процесса принятия решений на системы ИИ наблюдается уже в настоящий момент, схожая ситуация при принятии управленческих решений может в принципе отучить человечество в массе своей думать и принимать решения, особенно, учитывая внедрение технологий ИИ в образовательный процесс, что позволяет формировать у молодого поколения ложное представление о неоспоримости принятых ИИ решений, об отсутствии необходимости самостоятельного анализа ситуации и креативного подхода к решению поставленных задач.

Также логически напрашивается вопрос, на основании чего автономная система, наделённая искусственным «сверхинтеллектом», способная принимать самостоятельные решения, по эффективности превосходящие, доступные для человеческого разума, должна нести ответственность перед более слабым человеческим существом.

Очевидно, что применение ИИ в военных целях нарушает самое основное право человека – право на жизнь. Повсеместная роботизация и применение ИИ на производстве лишают человека права на труд и свободу выбора профессиональной деятельности. При этом, нарушение прав человека на труд уже объективная реальность и если массовые увольнения людей в силу роботизации производства стали возможны, то следующей социальной проблемой вполне может стать нарушение права человека на образование.

Если исходить только из соображений эффективности, то обучение естественного интеллекта – слишком трудоёмкая задача, требующая затрат и вложений, в которых не нуждается ИИ.

Первоочередной задачей видится оценка и осознание человечеством рисков, связанных с тем, что создаваемые автономные системы на основе ИИ, способны принимать самостоятельные и более эффективные решения по сравнению с естественным интеллектом. Во избежание бесконтрольности данной технологии предлагается законодательно зафиксировать допустимость и пределы применения ИИ в ряде сфер человеческой деятельности.

Не менее важную роль играет разработка этического кодекса, положения которого должны быть приняты на уровне правовых норм. Кроме того, заблаговременное внесение изменений в законодательство и норм контроля в сфере ИИ, позволило бы предотвратить или компенсировать отрицательный социальный эффект от внедрения систем ИИ. Соблюдение всех этих принципов возможно только при отказе от гонки на межнациональном уровне и выработке единых международных подходов к разработке, использованию и распределению ответственности при применении технологий ИИ.

Рубрика:
{}
Теги:

ТАКЖЕ ПО ТЕМЕ