Сложная технологическая природа и неопределенность социальных последствий реализации технологий искусственного интеллекта приводят к необходимости дополнения его правового регулирования этическими нормами. Причем на нынешнем этапе этическое регулирование преобладает над правовым.
Необходимость выработки этических оснований взаимодействия с системами, способными действовать автономно от человека, была осознана задолго до появления самих этих систем. Известность получили принципы, сформулированные Айзеком Азимовым в фантастическом рассказе «Хоровод», опубликованном в 1942 году. Они известны как три закона робототехники. Первый состоит в том, что робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Согласно второму робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому закону. В-третьих, робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму законам.
Сейчас очевидно, что перечисленные правила не способны быть основанием для публично-правового регулирования технологий искусственного интеллекта. Значительная часть разработок в этой области финансируется военными ведомствами в целях создания новых видов оружия. Применение технологий ИИ для причинения вреда человеку явно противоречит Первому закону, а значит ставит под сомнение и оставшиеся. Кроме того, взаимоотношения государств, лидирующих в области технологий ИИ – США и Китайской народной республики, находятся в состоянии, напоминающем гонку вооружений[1]. Поэтому формирование этических норм, признанных всеми заинтересованными сторонами, которые могли бы стать основой для международно-правового регулирования, является вряд ли достижимой сейчас задачей. Шагом на пути в этом направлении стало принятие специальной группой экспертов ЮНЕСКО Проекта рекомендации об этических аспектах искусственного интеллекта.
Множество этических норм разной степени убедительности выработаны в рамках G20, а также в клубах регионального международного сотрудничества. К 2020 году были известны более 80 международных и национальных актов, предусматривающих этические требования к технологиям искусственного интеллекта. Однако, в связи с выходом России из Совета Европы и фактическим прекращением сотрудничества со странами коллективного Запада, в России они имеют в основном символическое значение. Между тем, наиболее полно этические требования к технологиям искусственного интеллекта разработаны как раз в документах США (23,8%), Великобритании (16,7%), Японии (4,8%) и странах Европейского Союза – ФРГ, Франции и Финляндии (по 3,6%).
Несмотря на сложности в международном сотрудничестве проблематика этического регулирования сохраняется. Об этом свидетельствует постоянно возрастающее число публикаций по данной теме[2]. Несмотря на значительные семантические и концептуальные расхождения, в результате их сравнительного анализа можно выявить следующие основные принципы современной этики искусственного интеллекта.
Прозрачность технологий ИИ означает необходимость раскрытия механизмов работы систем, использующих эти технологические решения, для обеспечения объяснимости решений, принимаемых с их помощью. Основные сферы применения данного принципа – автоматизированная обработка персональных данных, взаимодействие человека с системами искусственного интеллекта, их использование для принятия решений. Подчеркивается важность данного принципа для минимизации возможного вреда, который может быть причинен системами искусственного интеллекта, и укрепления доверия к ним. Реализация принципа прозрачности требует от разработчиков и администраторов систем раскрытия соответствующей информации: самого факта использования технологий искусственного интеллекта, исходного кода программ, информации о наборах данных, используемых для машинного обучения, ограничений, свойственных той или иной системе, информации об инвесторах или выгодоприобретателях. Также приветствуется изложение технических правил работы систем в форме, пригодной для восприятия человеком, не обладающим специальными знаниями.
Принципы справедливости и равноправия применительно к технологиям искусственного интеллекта понимаются как меры, направленные на предотвращение дискриминационных решений, принимаемых с использованием ИИ. Прикладное значение принципа состоит в признании многообразия личностных характеристик, равном отношении к разным людям, а также в признании права на обжалование решений, принятых с помощью технологий искусственного интеллекта.
Принцип безопасности технологий ИИ означает недопустимость их использования для противоправного причинения вреда. При этом вред понимается широко – не только как вред здоровью, моральный вред или имущественный ущерб, но и как дискриминационные решения, угрозы разрушения социальной солидарности, эмоциональная нестабильность людей и прочие негативные последствия автоматизации общественной жизни. Во многих документах подразумевается, что вред от применения технологий искусственного интеллекта может быть неизбежным. В этом случае требуется оценка рисков, применение мер для их снижения, а также определение лиц, ответственных за деятельность систем искусственного интеллекта. Особенностью современного этапа этического регулирования является разграничение технологий искусственного интеллекта на используемые в гражданских и в военных целях. В большей части документов, содержащих этические нормы, подчеркивается, что их действие распространяется исключительно на гражданские технологии, а о требованиях к системам двойного и военного назначения обычно умалчивается.
Принцип уважения неприкосновенности частной жизни обычно определяется в терминах защиты чувствительной для человека информации. Предлагаемые методы обеспечения информационной безопасности в данной сфере можно разделить на три направления: во-первых, технические решения, такие как дифференциальная приватность, встроенная защита данных[3], конфиденциальность по умолчанию; второе направление – минимизация собираемых данных и контроль пользователя над переданными данными; в третьих, организационные меры: стимулирование исследований в области регулирования обработки персональных данных, добровольный комплаенс-контроль и разработка отраслевых стандартов в сферах применения искусственного интеллекта.
Принцип общего блага как результата применения технологий ИИ часто упоминается в этических нормах, но его смысл раскрывается гораздо реже. Для характеристики данного принципа обычно используются весьма широкие категории – использование технологий искусственного интеллекта должно приводить к повышению уровня благосостояния людей, содействовать процветанию, миру, счастью, появлению новых социально-экономических возможностей. Аналогичная неопределенность существует и в отношении субъектов, которые должны извлекать выгоду из технологий искусственного интеллекта. Этические нормы, выработанные в предпринимательском сообществе, как правило, подчеркивают преимущества использования технологий искусственного интеллекта для потребителей, хотя многие источники требуют, чтобы они приносили пользу «каждому», «человечеству», «обществу», «всем, насколько это возможно», «всем разумным существам», «планете» и «окружающей среде». Стратегии достижения общего блага предполагают приведение систем искусственного интеллекта в соответствие с общечеловеческими ценностями, недопустимость их использования для концентрации властных полномочий, необходимость предотвращения или минимизации конфликтов интересов, а также разработку новых показателей для измерения уровня жизни людей в условиях работы систем искусственного интеллекта.
Принцип уважения свободы воли человека и автономии личности применительно к использованию технологий искусственного интеллекта понимаются как свобода слова в широком смысле и возможность информационного самоопределения. Позитивная сторона принципа означает возможность свободного волеизъявления по поводу использования технологий, а также выбора определенной технологической платформы. Негативный аспект свободы в сфере технологий искусственного интеллекта проявляется в возможности отказа от их использования, а также отказа от участия в технологических экспериментах. Реализации данного принципа способствует прозрачность и предсказуемость искусственного интеллекта, повышение осведомленности людей в сфере информационных технологий, недопустимость сбора и распространения персональных данных в отсутствие информированного и добровольного согласия гражданина.
Принцип обеспечения устойчивого развития требует обеспечения защиты окружающей среды, улучшения экосистемы планеты и содействия биоразнообразию при разработке и внедрении технологий ИИ. Его реализация должна приводить к созданию устойчивых энергоэффективных систем ИИ, способных функционировать постоянно и создавать блага, сохраняющие актуальность в течение длительного времени. В целях устойчивого развития на технологические корпорации возлагаются обязанности по применению организационных и экономических мер в связи с потенциальным сокращением рабочих мест в результате внедрения технологий искусственного интеллекта.
Принцип охраны достоинства личности означает, что достоинство остается прерогативой людей, а не роботов. Уважение достоинства личности в контексте искусственного интеллекта понимается как свобода от принуждения к участию в автоматической классификации, а также недопустимость скрытного применения технологий искусственного интеллекта.
Принцип социальной солидарности в основном упоминается в связи с последствиями применения систем искусственного интеллекта для рынка труда. Этические нормы призывают к повышению уровня социальной защиты в областях, подверженных применению технологий. Подчеркивается необходимость их использования таким образом, чтобы не создавать угроз социальной солидарности и поддерживать потенциально уязвимых лиц и социальные группы. Существует предположение, что безответственное и бесконтрольное использование систем искусственного интеллекта может приводить к разложению общества на основе идеологии «радикального индивидуализма».
В России с 26 октября 2021 года открыт для подписания Кодекс этики в сфере искусственного интеллекта[4]. По замыслу его авторов он должен установить общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере создания и использования технологий ИИ. В целом кодекс следует традиционным принципам этики в сфере искусственного интеллекта, перечисленным выше.
Некоторый диссонанс создает распространение этических требований на сферу действия правовых норм. Согласно кодексу «акторы ИИ должны знать и соблюдать положения законодательства Российской Федерации во всех сферах своей деятельности и на всех этапах создания, внедрения и использования технологий ИИ, в том числе в вопросах юридической ответственности Акторов». Полагаем, что Акторы должны соблюдать требования норм права и без напоминания об этом в Кодексе этики.
Также трудно согласиться с утверждением авторов кодекса, что его нормы, как нормы «мягкого права» способны «уравновесить государственное регулирование». Оставим за скобками само по себе спорное утверждение о том, что право может быть мягким, это предмет терминологических дискуссий. Но утверждение о том, что этические нормы уравновешивают правовое регулирование, имеет смысл только в том случае, если этические и правовые нормы разводятся по разные стороны нормативного регулирования. В таком случае создается иллюзия, что этика противостоит праву, что противоречит предыдущему заявлению авторов кодекса, где они демонстрируют уважение к закону.
Несмотря на отдельные дискуссионные положения, принятие национального кодекса этики и его широкое распространение являются позитивными событиями. Их сходство с этическими принципами, сформулированными в других странах, оставляет надежду на формирование универсальных норм и правил взаимодействия людей в связи с применением технологий ИИ.
[1] Analysis: Banned U.S. AI chips in high demand at Chinese state institutes. – URL: https://reut.rs/3h6P1GA (дата обращения: 08.12.2022).
[2] Artificial Intelligence Index Report 2022. P. 105. – URL: https://bit.ly/3BiHPy8 (дата обращения: 08.12.2022).
[3] Privacy by design и privacy by default (спроектированная защита данных и конфиденциальность по умолчанию по GDPR). – URL: https://bit.ly/3UHoWeQ (дата обращения: 08.12.2022).
[4] Кодекс этики в сфере искусственного интеллекта. – URL: https://bit.ly/3Bied3T (дата обращения: 08.12.2022).