Большую актуальность для публичного права имеет трансформация подходов к конституционному статусу личности, которая уже сейчас происходит под влиянием внедрения технологий искусственного интеллекта. На первый взгляд, машины обладают перед людьми неоспоримым достоинством – они беспристрастны в своих решениях. Однако это идеал, который пока труднодостижим. Современному машинному обучению присущи особенности, приводящие к фиксации и усилению предубеждений в отношении социальных групп. Наборы данных, используемые для обучения систем искусственного интеллекта, могут отражать социальные предрассудки, а также могут быть неполными и плохо организованными. Не исключено умышленное создание моделей, эксплуатирующих потребительские предпочтения, в целях недобросовестной конкуренции.
Если в наборе данных отражен предрассудок, в результате машинного обучения он будет воспроизводится, а его социальное значение – усиливаться. Известность получили случаи, когда использование несовершенных наборов данных для машинного обучения приводило к автоматизированному принятию решений, усиливающих неравенство возможностей людей в зависимости от расы[1], пола[2], социального положения[3]. Эти пороки пока не преодолены. Например, даже самые современные системы искусственного интеллекта распознают лица женщин с темным оттенком кожи почти на 25% хуже, чем лица светлокожих мужчин. Некоторые время назад фотокамеры фирмы Nikon автоматически отбраковывали изображения с азиатами, поскольку им казалось, что люди на фото моргают. Поэтому особое внимание необходимо уделять ситуациям с участием уязвимых социальных групп, таких как дети, инвалиды и другие лица, которые исторически находились в неблагоприятном положении. Также угрожающая ситуация может сложиться в отношениях, где проявляется асимметричное распределение власти или информации, например, в отношениях между работодателями и работниками, или между предпринимателями и потребителями.
Применение машинного обучения ставит под угрозу реализацию конституционного принципа равноправия и требует правовых решений, гарантирующих его соблюдение в условиях широкого применения технологий искусственного интеллекта, которые пока далеки от идеалов информационного общества. Согласно ч. 2 ст. 19 Конституции государство гарантирует равенство прав и свобод человека и гражданина. Перечень обстоятельств, независимо от которых гарантируется равноправие, открыт. Поэтому вряд ли есть смысл идти по пути уточнения конституционных формулировок, они уже предоставляют весь необходимый инструментарий для совершенствования гарантий равных прав и равных возможностей в новой технологической реальности. Скорее требуется дополнительное законодательное и подзаконное регулирование в сферах, наиболее подверженных влиянию технологий искусственного интеллекта.
Решение проблемы равноправия сегодня находится в основном в сфере действия технических и этических норм. Технические решения состоят в определении дискриминационных признаков и их устранении на этапе сбора данных.
Существуют позитивные примеры реакции разработчиков систем машинного обучения на их технико-этические недостатки. В 2020 году разработчики распространенного набора данных, используемых для систем распознавания образов, 80 Tiny Images убрали его из публичного доступа. Также они обратились к другим исследователям с просьбой воздержаться от использования этого набора данных и удалить любые существующие копии. В результате независимого научного аудита оказалось, что набор данных, используемых для машинного обучения, содержит целый ряд расистских, сексистских и других оскорбительных ярлыков. Например, почти 2000 изображений реально существующих людей помечено словом «ниггер», есть метки «подозреваемый в изнасиловании» и «растлитель малолетних»[4].
Этическая мотивация авторов системы приведена на сайте остановленного проекта: «предубеждения, оскорбительные и предвзятые образы и уничижительная терминология отталкивают важную часть нашего сообщества — именно тех, кого мы пытаемся включить. Это также способствует вредным предубеждениям в системах искусственного интеллекта, обученных на таких данных. Кроме того, наличие изображений, отражающих предвзятость, мешает усилиям по формированию культуры инклюзивности в сообществе компьютерного зрения. Это крайне прискорбно и противоречит ценностям, которые мы стремимся отстаивать»[5].
Неравенство также можно сгладить, внедрив на этапе программирования алгоритмов прозрачные для общества процессы аудита для анализа целей системы и присущих ей технических ограничений.
Применение механизмов технического и этического регулирования создает предпосылки для осторожного внедрения правовых норм в сферу аудита технологий машинного обучения. С 2021 года в Нью-Йорке действует закон, запрещающий работодателям использовать автоматизированные инструменты отбора работников и государственных служащих, если не соблюдены требования по их проверке на предвзятость. Закон также требует, чтобы соискатели были уведомлены об использовании автоматизированных инструментов при принятии решений о приеме на работу или о продвижении по службе. За нарушение перечисленных требований установлена административную ответственность[6]. В 2023 году вступают в силу поправки к закону, предусматривающие, что работодатель или агентство по трудоустройству не вправе использовать автоматизированный инструмент принятия решения о трудоустройстве, если: (1) инструмент не прошел аудит на предмет предвзятости не более чем за год до его использования, (2) результаты последнего аудита не размещены в открытом доступе, и (3) уведомление об использовании инструмента и возможность запросить альтернативный процесс отбора не предоставлены каждому сотруднику или кандидату.
[1] Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. – URL: https://bit.ly/3Fc8fTd (дата обращения: 08.12.2022).
[2] Amazon scraps secret AI recruiting tool that showed bias against women. – URL: https://bit.ly/3Bfw5MI (дата обращения: 08.12.2022).
[3] An individual-level socioeconomic measure for assessing algorithmic bias in health care settings: A case for HOUSES index. – URL: https://bit.ly/3W3pI7o (дата обращения: 08.12.2022).
[4] MIT удалил датасет Tiny Images из-за оскорбительных терминов. – URL: https://habr.com/ru/news/t/509254/ (дата обращения: 08.12.2022).
[5] 80 Million Tiny Images. – URL: https://groups.csail.mit.edu/vision/TinyImages (дата обращения: 08.12.2022).
[6] A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools. – URL: https://bit.ly/3iOkrlL (дата обращения: 02.12.2022).