Проблемы обеспечения конфиденциальности персональных данных при использовании систем искусственного интеллекта
В процессе использования систем искусственного интеллекта при обработке информации персонифицированного характера (персональных данных) может возникать ряд проблем, рассмотрению которых посвящена настоящая статья. В их числе названы следующие: манипуляция данными; возможность контроля за поведением индивида, прежде всего в сети Интернет, но не только, так как с развитием интернета вещей проблема слежки приобретает все более глобальный характер; идентификация граждан с помощью биометрических персональных данных; развитие эмоционального искусственного интеллекта; реальная угроза введения так называемого социального рейтинга; появление и активное развитие дипфейк-технологии; недостаточность в плане обеспечения охраны и защиты конфиденциальности частной жизни уровня используемых правовых технологий обезличивания персональных данных; этические проблемы, возникающие из-за предвзятости алгоритмов искусственного интеллекта, связанные с информацией персонифицированного характера.
Ключевые слова: персональные данные, конфиденциальность частной жизни, биометрические персональные данные, искусственный интеллект, социальный рейтинг, большие данные.
In the process of using AI systems in the processing of personalized information (personal data), a number of problems may arise, which this article is devoted to. Among these problems, the authors name the following: data manipulation; the ability to control an individual's behavior, primarily on the Internet, but not only, since with the development of the Internet of Things, the problem of surveillance will become increasingly global; identification of citizens using biometric personal data; development of emotional AI; the real threat of the introduction of the so-called social rating; the emergence and active development of deepfake technology; insufficiency in terms of ensuring the protection and protection of privacy of the level of legal technologies used to depersonalize personal data; ethical problems arising from the bias of AI algorithms related to personalized information.
Key words: personal data, privacy, biometric personal data, artificial intelligence, social rating, big data.
Одним из главнейших конституционно закрепленных принципов функционирования Российского государства является принцип приоритета прав и свобод человека и гражданина <1>. Одним из прав, образующих конституционно-правовой статус человека и гражданина, является право на неприкосновенность частной жизни <2>, составной частью которого, в свою очередь, признается право на обеспечение конфиденциальности информации, относящейся к категории "персональные данные" <3>.
--------------------------------
<1> Статья 2 Конституции РФ гласит: "Человек, его права и свободы являются высшей ценностью. Признание, соблюдение и защита прав и свобод человека и гражданина - обязанность государства".
<2> В части 1 ст. 23 Конституции РФ определено: "Каждый имеет право на неприкосновенность частной жизни, личную и семейную тайну, защиту своей чести и доброго имени".
<3> См., например: Новиков Р.В. Правовое регулирование защиты информации, относящейся к сфере частной жизни граждан, в гражданском законодательстве и законодательстве о персональных данных // Ex jure. 2020. N 2. С. 67 - 68; Жарова А.К., Елин В.М. Источники понятий "персональные данные" и частная жизнь лица в российском праве // Вестник академии права и управления. 2017. N 1(64). С. 69 - 78; Ельчанинова Н.Б. Обеспечение права на неприкосновенность частной жизни в условиях информатизации общества // Проблемы современной науки и образования. 2016. N 1(43). С. 174 - 176; Варламова Н.В. Цифровые права - новое поколение прав человека? // Труды Института государства и права РАН. 2019. N 5. С. 15.
Неприкосновенность частной жизни - это сложный по составу правовой институт, включающий ряд отдельных правомочий индивида: запрет на сбор, хранение, использование и распространение информации о частной жизни лица без его согласия, право контролировать информацию о себе, право на защиту чести и доброго имени, на защиту персональных данных, право на неприкосновенность жилища, тайну связи, тайну голосования и др. <4>. Ряд исследователей включают в него в качестве одной из составляющих частей и так называемое право на забвение <5>.
--------------------------------
<4> См.: Бачило И.Л., Лопатин В.Н., Федотов М.А. Информационное право. СПб., 2005. С. 451.
<5> См., например: Войниканис Е.А. Право быть забытым: правовое регулирование и его теоретическое осмысление // Правоведение. 2016. N 3. С. 73; Герасимова Е.В. Право на забвение в практике органов конституционного правосудия Российской Федерации и ФРГ // Вестник Тюменского государственного университета. Социально-экономические и правовые исследования. 2020. Т. 6. N 3(23). С. 170 - 187; Варламова Н.В. Указ. соч. С. 10 - 46.
Определение понятия "персональные данные" дано в ст. 3 Федерального закона от 27 июля 2006 г. N 152-ФЗ "О персональных данных": "Персональные данные - любая информация, относящаяся к прямо или косвенно определенному или определяемому физическому лицу (субъекту персональных данных)".
Что касается понятия "искусственный интеллект", то в российское законодательство оно было введено Указом Президента РФ от 10 октября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации" и получило дальнейшее развитие в федеральном законодательстве, в частности в Федеральном законе от 24 апреля 2020 г. N 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных". В настоящее время, по мнению законодателя, "искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум, с результатами интеллектуальной деятельности человека" (п. 2 ст. 2 названного Закона).
Технологии искусственного интеллекта внедряются почти повсеместно: в государственном управлении и бизнесе для их цифровизации, а также в образовании, медицине, в быту. Причем наблюдается постепенное увеличение его эффективности в связи с увеличением производительности и объема памяти, применением эффективных технологий так называемого машинного обучения. На начальном этапе внедрения технологий искусственного интеллекта его создатели вряд ли предполагали, что его возможности станут почти безграничными и искусственный интеллект войдет практически во все сферы жизни и деятельности человека.
Несомненным является тот факт, что цифровизация оказывает существенное влияние на реализацию и правовое регулирование фундаментальных прав и свобод человека и гражданина: начиная с некоторой трансформации "традиционных" прав, т.е. тех прав и свобод, которые были провозглашены еще во Всеобщей декларации прав человека 1948 г., и заканчивая недавно появившимися так называемыми цифровыми правами, к которым большинство авторов относит такие права, как право на доступ к сети Интернет, право на забвение, право на защиту от нежелательной информации и т.п. <6>.
--------------------------------
<6> Подробнее см.: Талапина Э.В. Эволюция прав человека в цифровую эпоху // Труды Института государства и права РАН. 2019. Т. 14. N 3. С. 122 - 146.
Право на приватность, на неприкосновенность частной жизни неразрывно связано с понятием конфиденциальности информации, которое в ст. 2 Федерального закона от 27 июля 2006 г. N 149-ФЗ "Об информации, информационных технологиях и о защите информации" определено как "обязательное для выполнения лицом, получившим доступ к определенной информации, требование не передавать такую информацию третьим лицам без согласия ее обладателя". Таким образом, обладатели информации, составляющей персональные данные, которые, в свою очередь, являются частью права на неприкосновенность частной жизни человека, также должны обеспечивать соблюдение режима конфиденциальности этих сведений: "Операторы и иные лица, получившие доступ к персональным данным, обязаны не раскрывать третьим лицам и не распространять персональные данные без согласия субъекта персональных данных, если иное не предусмотрено федеральным законом" (ст. 7 Федерального закона "О персональных данных").
Однако искусственный интеллект не является субъектом общественных отношений, его правовой статус еще предстоит детально осмыслить законодателю в ближайшем будущем. Поэтому сегодня можно выделить следующие проблемы в сфере обеспечения конфиденциальности частной жизни вообще и персональных данных в частности, связанные с внедрением систем искусственного интеллекта.
1. Манипуляция данными. Проблема заключается в том, что повседневная и профессиональная жизнедеятельность современного человека связана с различными устройствами, использующими различное программное обеспечение, начиная с приложений "умного дома" и заканчивая разнообразным компьютерным программным обеспечением, которые обладают рядом характеристик, делающих их уязвимыми для манипулирования данными со стороны искусственного интеллекта <7>.
--------------------------------
<7> См.: Dezfouli A., Nock R., Dayan P. Adversarial vulnerabilities of human decisionmaking // Proceedings of the National Academy of Sciences. 2020. Vol. 117. No. 46.
2. Отслеживание действий человека. Технологии искусственного интеллекта активно применяются в работе различных систем наблюдения, в том числе для поиска и отслеживания людей с помощью различных устройств. Таким образом, персональные данные аккумулируются и становятся частью так называемых больших данных <8>. Это порождает, в свою очередь, еще одну проблему в области обеспечения конфиденциальности частной жизни, поскольку, по мнению ряда исследователей, право на тайну частной жизни и большие данные несовместимы между собой, так как возможности, создаваемые большими данными, противоречат ряду принципов, которым должна подчиняться обработка персональных данных, установленных нормами ст. 5 Федерального закона "О персональных данных", например таким, как ограничение обработки заранее определенными целями, а также обязательное наличие информированного, конкретного и сознательного согласия субъекта персональных данных на их обработку <9>.
--------------------------------
<8> См.: Егорова М.А., Минбалеев А.В., Кожевина О.В., Дюфло А. Основные направления правового регулирования использования искусственного интеллекта в условиях пандемии // Вестник Санкт-Петербургского университета. Право. 2021. Т. 12. Вып. 2. С. 255 - 256.
<9> Подробнее см.: Савельев А.И. Проблема применения законодательства о персональных данных в эпоху "больших данных" (Big Data) // Право. Журнал Высшей школы экономики. 2015. N 1. С. 43 - 66.
3. Идентификация с помощью систем искусственного интеллекта. Как правило, для этих целей сегодня используется изображение лица и голос, т.е. биометрические персональные данные личности <10>. Например, правоохранительные органы могут применять рассматриваемый метод для розыска подозреваемых в совершении противоправных деяний. Считается, что даже если человек осуществил коммуникацию с кем-либо по видеосвязи или даже разблокировал свой смартфон с использованием технологии распознавания лица, то его биометрические данные аккумулируются искусственным интеллектом в базе данных, которая может храниться в Deep Web или даже в Dark Web (Dark Net) в персональных папках пользователей <11>. Данные пространства, безусловно, на сегодняшний день находятся за пределами правового регулирования, что приводит к множеству злоупотреблений и даже совершению правонарушений и преступлений с помощью возможностей, предоставляемых ими. В частности, применительно к рассматриваемой проблеме многие исследователи указывают на торговлю персональными данными граждан <12>. Несомненно, сложившаяся проблема требует внимания российского законодателя. Так, в мае 2023 г. один из депутатов Государственной Думы Федерального Собрания РФ предложил весьма кардинальное средство борьбы с описываемыми негативными явлениями: признать незаконным использование Dark Net <13>, что, по мнению большинства экспертов, неосуществимо, так как технически блокировка Dark Net невозможна. Кроме того, данная инициатива представляется в принципе излишней, так как в соответствии с положениями так называемого Закона Яровой <14> операторы (провайдеры) обязаны устанавливать на свое оборудование систему технических средств для обеспечения функций оперативно-разыскных мероприятий и сохранять определенное установленное в Законе время записи телефонных разговоров, текстовые сообщения и интернет-трафик своих абонентов, что приводит к возможности довольно быстрого установления противоправного деяния, совершенного с помощью информационно-коммуникационных технологий.
--------------------------------
<10> К биометрическим персональным данным, по разъяснениям Роскомнадзора, относятся сведения, характеризующие физиологические и биологические особенности человека. Они являются уникальными, не подверженными изменениям и позволяющими осуществить установление личности: отпечатки пальцев, отпечатки ладони, образ лица, анализы ДНК, радужная оболочка глаз, особенности строения тела, отдельных органов и тканей, состояние психического здоровья, рост, вес, фотография и видеозапись (см.: Разъяснения по вопросам отнесения фото-, видеоизображений, дактилоскопических данных и иной информации к биометрическим персональным данным и особенностей их обработки // Официальный сайт Федеральной службы по надзору в сфере связи, информационных технологий и массовых коммуникаций.)).
<11> См.: Дворянкин О.А. Deep Web - глубокая паутина. Что мы не знаем об Интернете или что от нас хорошо скрывают // Национальная ассоциация ученых (НАУ). 2021. N 71. С. 25 - 27; Павлов В. Как узнать, продаются ли ваши личные данные в Deep Web (глубокой сети).
<12> См., например: Смушкин А.Б. Криминалистические аспекты исследования дарк-нета в целях расследования преступлений // Актуальные проблемы российского права. 2022. Т. 17. N 3. С. 103 - 107 и др.
<13> См.: Дубровина Е., Мосолкина Д. Что изменит для пользователей признание незаконным использование даркнета.
<14> Федеральный закон от 6 июля 2016 г. N 374-ФЗ "О внесении изменений в Федеральный закон "О противодействии терроризму" и отдельные законодательные акты Российской Федерации в части установления дополнительных мер противодействия терроризму и обеспечения общественной безопасности".
4. Эмоциональный искусственный интеллект. Считается, что в настоящий момент с помощью технологий искусственного интеллекта возможно распознать эмоции человека - пользователя сети Интернет и управлять ими <15>. Таким образом, происходит "вторжение" в сферу частной жизни лица и, как правило, без его согласия. В качестве примера использования эмоционального искусственного интеллекта в России можно привести деятельность Лаборатории нейронаук и поведения человека ПАО Сбербанк, которая успешно исследует вопросы соответствия предлагаемых кредитной организацией продуктов и услуг потребностям клиентов именно с помощью рассматриваемой технологии <16>. ПАО Росбанк также использует технологию распознавания эмоций клиентов, анализируя тексты их сообщений <17>. Преследуя несомненно благие цели, руководство и сотрудники данных организаций должны тем не менее четко осознавать, что все подобные технологии так или иначе вторгаются в личную жизнь людей, и прилагать все возможные усилия для осуществления гарантий конфиденциальности собранных данных: что они не будут переданы дальше тех сервисов, с которыми взаимодействует клиент. А в дальнейшем наиболее приемлемым способом решения назревшей проблемы представляется установление в российском законодательстве четких запретов на имитацию искусственным интеллектом эмоций (либо хотя бы только в отношении эмоций деструктивного характера, могущих причинить человеку вред (гнев, страх и т.п.)).
--------------------------------
<15> См.: Федосеева О.В. К вопросу о создании и развитии эмоционального искусственного интеллекта // Россия: тенденции и перспективы развития. 2021. N 16-1. С. 674 - 677.
<16> Сбербанк открыл Лабораторию нейронаук под руководством доктора Курпатова.
<17> Эмоциональный интеллект: кто и зачем распознает эмоции в России и за рубежом.
5. Сбор и аккумуляция данных о человеке искусственным интеллектом, например с целью оценки и ранжирования отдельных категорий граждан, т.е. ведения системы социального рейтинга (или системы социального кредита, социального скоринга).
Социальный рейтинг гражданина в общем виде можно определить как систему оценивания социальной деятельности индивида по ряду параметров с целью осуществления контроля со стороны бизнес-структур или даже публично-правовых субъектов <18>.
--------------------------------
<18> См., например: Катрашова Ю.В., Митяшин Г.Ю., Плотников В.А. Система социального рейтинга как форма государственного контроля над обществом: перспективы внедрения и развития, угрозы реализации // Управленческое консультирование. 2021. N 2. С. 101; Минбалеев А.В. Проблемы социальной эффективности и защиты прав человека при использовании искусственного интеллекта в рамках социального скоринга // Вестник Южно-Уральского государственного университета. Серия: Право. 2021. Т. 20. N 2. С. 96.
В эпоху цифровизации эти данные о человеке получаются в результате анализа его активности в социальных сетях и вообще в сети Интернет. Как правило, такими данными являются пол, возраст, место жительства, место работы, стаж работы и т.п. Например, если осуществление социального скоринга продиктовано необходимостью изучения потребительского спроса, то гражданин относится к той или иной категории: потенциального клиента, потенциального потребителя каких-либо товаров или услуг. Гораздо серьезнее дело обстоит, если "заказчиком" описываемой деятельности выступают, например, государство или его органы. В результате каждому индивиду присваивается определенный рейтинговый балл, рассчитываемый с применением систем искусственного интеллекта, и определяется уровень услуг и возможностей, доступных тому или иному гражданину: чем выше балл, тем меньше ограничений и больше возможностей. В качестве привилегий можно назвать, например, получение большего объема государственных услуг или с меньшим ожиданием очереди их получения, больше возможностей и выбора рабочих мест при трудоустройстве, оформление более выгодной или надежной медицинской страховки и т.п. В то же время снижение рейтинга может произойти из-за совершения социально неодобряемых поступков, участия в деятельности оппозиционных партий и движений, в протестах против решений и действий правительства, наличия в анамнезе совершенных преступлений и административных правонарушений, невыполнения взятых на себя кредитных обязательств перед банками и т.д.
Считается, что определенных практических результатов по внедрению социального рейтинга достигла Китайская Народная Республика. Соответствующая деятельность в данном государстве была начата в 2014 г. и продолжается по настоящее время. В соответствии с принятой на государственном уровне концепцией описываемой реформы каждый гражданин данного государства должен иметь, по сути, "цифровой профиль", под которым понимается файл-досье с исчерпывающей информацией о данном гражданине, полученной из различных источников. В социальном рейтинге гражданина КНР выделяют следующие уровни:
государственный учет: данные об уплате налогов, счетов ЖКХ, кредитов;
общественный учет: данные о судимости, честности в образовании, об оплате проезда в общественном транспорте, о наличии и отсутствии правонарушений в сфере дорожного движения, об участии в общественной деятельности;
онлайн-учет: поведение в интернет-пространстве, в том числе покупательские привычки <19>.
--------------------------------
<19> См.: Катрашова Ю.В., Митяшин Г.Ю., Плотников В.А. Указ. соч. С. 102 - 103.
Для идентификации, а также быстрого поиска конкретного гражданина используются биометрические персональные данные с применением систем искусственного интеллекта. По мнению ряда ученых, в результате построения данной системы в КНР будет внедрено не что иное, как тоталитаристская социально-политическая модель <20>.
--------------------------------
<20> См., например: Катрашова Ю.В., Митяшин Г.Ю., Плотников В.А. Указ. соч. С. 100 - 109; Антропов Р.В., Лиценберг И.И. Система социального рейтинга в Китае: прогрессивный механизм поощрения и наказания или цифровая диктатура // Актуальные проблемы развития КНР в процессе ее регионализации и глобализации: матер. XII Междунар. науч.-практ. конф. Чита, 2020. С. 20 - 27; Городничев С.В., Герасимова П.Г. Система социального рейтинга в Китае // Вестник Тульского филиала Финуниверситета. 2020. N 1. С. 134 - 136; Графов Д.Б. Повышение устойчивости политической системы КНР и система социального рейтинга // Вестник Института востоковедения РАН. 2019. N 3(9). С. 235 - 248.
В России необходимость и возможность внедрения китайского опыта оцениваются очень полярно. Его сторонники обращают внимание на то, что в век цифровизации, внедрения технологий искусственного интеллекта, больших данных, интернета вещей все действия индивида так или иначе отслеживаются и появление социального мониторинга в целом ничего не изменит. Смысл социального рейтинга заключается не в стремлении властей к установлению тотального контроля за населением и нарушении неприкосновенности частной жизни, а в том, чтобы мотивировать и поощрять тех, кто добросовестно выполняет свой долг перед обществом, исправно платит налоги и не нарушает закон <21>.
--------------------------------
<21> См.: Коковихин А. Система социального рейтинга в России - вопрос времени?
Противники внедрения социального рейтинга отмечают, что имеющийся опыт в области внедрения систем социального рейтинга в различных государствах выявил уже как минимум четыре риска нарушения прав и свобод человека и гражданина: непрозрачность подсчета, отчужденность "цифры" как "черной метки", риск компрометации человека, в частности из-за уязвимостей в системах информационной безопасности, а также двоевластие с законом. Сторонники данного подхода, с которыми невозможно не согласиться, отмечают, что в правовом, демократическом и социальном государстве мерилом должного поведения индивида может являться только закон, а не "цифровой иммунитет искусственного интеллекта" <22>.
--------------------------------
<22> См., например: Емельяненко В. Нужен ли России социальный рейтинг // Российская газета. 2021. 15 апр.
6. Появление и активное развитие дипфейк-технологии. Дипфейк (deepfake) представляет собой реалистичную замену лица и голоса посредством использования генеративно-состязательных нейросетей <23>. Несмотря на очевидную пользу данной технологии, например, в кино- и телеиндустрии, рекламном бизнесе, она может быть использована в том числе и в противоправных целях. В качестве примера таких противозаконных практик можно привести финансовое вымогательство, когда с помощью фальсификации кино- или видеоматериалов преступник может потребовать выкуп у жертвы под угрозой опубликования созданных с помощью дипфейк-технологии компрометирующих данную жертву материалов. В 2021 г. в Китае была раскрыта деятельность некоего преступного сообщества, члены которого, подделав паспортные данные с помощью дипфейк-технологии, оформили интернет-кредиты на общую сумму более 76 млн долл. США <24>. Таким образом, существование угроз неприкосновенности частной жизни человека путем компрометации ряда биометрических персональных данных с помощью технологий дипфейк представляется весьма вероятным. В целях повышения защищенности конфиденциальности частной жизни человека в связи с существованием реальных угроз для нее из-за применения дипфейк-технологии следует прежде всего определить в действующем законодательстве понятия "дипфейк", "нейросеть" и установить четкие правила их использования путем принятия отдельного федерального закона. Действующее российское законодательство не содержит этих терминов.
--------------------------------
<23> См.: Киселев А.С. О необходимости правового регулирования в сфере искусственного интеллекта: дипфейк как угроза национальной безопасности // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2021. N 3. С. 56 - 57.
<24> См.: Липанова Л. Мошенники в Китае с помощью дипфейков обманули госсистему распознавания лиц на $76,2 млн.
Что касается вопросов привлечения к ответственности за нарушения неприкосновенности частной жизни с использованием технологии дипфейк с помощью имеющихся в настоящий момент в России правовых инструментов, то в качестве таковых может быть использована ст. 242 "Незаконные изготовление и оборот порнографических материалов или предметов" УК РФ, например в случае изготовления указанным способом таких материалов. Однако решить в целом проблему нарушения права на неприкосновенность частной жизни с использованием технологии дипфейк данное правовое средство не в состоянии <25>.
--------------------------------
<25> Подробнее см.: Добробаба М.А. Дипфейки как угроза правам человека // Lex russica. 2022. Т. 75. N 11. С. 112 - 119.
7. Неудовлетворительные в плане обеспечения охраны и защиты конфиденциальности частной жизни технологии обезличивания персональных данных, используемые в России. Обезличивание персональных данных - это "действия, в результате которых становится невозможным без использования дополнительной информации определить принадлежность персональных данных конкретному субъекту персональных данных" (п. 9 ч. 1 ст. 3 Федерального закона "О персональных данных"). Предметно требования и условия процедуры обезличивания персональных данных прописаны в Приказе Федеральной службы по надзору в сфере связи, информационных технологий и массовых коммуникаций от 5 сентября 2013 г. N 996 "Об утверждении требований и методов по обезличиванию персональных данных". Внедрение технологий искусственного интеллекта, для которых обезличенные персональные данные являются "топливом", еще более обостряет проблему обеспечения конфиденциальности персональных данных и более общую проблему обеспечения конфиденциальности частной жизни. Несмотря на название "обезличенные", такие персональные данные все-таки полностью не утрачивают связь с субъектом персональных данных, существует возможность их "деобезличивания", в том числе благодаря активно внедряемым технологиям искусственного интеллекта в их обработку <26>.
--------------------------------
<26> Подробнее см.: Как обезличить персональные данные.
Более того, даже после проведения процедуры обезличивания персональные данные сохраняют большинство свойств: содержат информацию о конкретном человеке; позволяют осуществлять обработку по запросу на совершение действий с личными сведениями без изменения исходной семантики; структурно связаны с персональными данными других физических лиц либо групп и т.п. Таким образом, персональные данные, прошедшие процедуру обезличивания, все равно остаются персональными данными со всеми их свойствами, и сегодня в России нет отдельного правового режима для них, и фактически они регулируются как персональные.
Считается, что выходом из сложившегося положения могло бы стать введение в российское законодательство и правоприменительную практику понятия "анонимизированные персональные данные" и установление правил их обработки. Под анонимизированными персональными данными понимают данные, подвергнутые окончательному обезличиванию, т.е. такие, которые никак невозможно соотнести с конкретным субъектом персональных данных. Такое понятие содержится в преамбуле к Регламенту Европейского парламента и Совета Европейского союза 2016/679 от 27 апреля 2016 г. о защите физических лиц при обработке персональных данных и о свободном обращении таких данных, а также об отмене Директивы 95/46/ЕС (Общий регламент о защите персональных данных / General Data Protection Regulation/GDPR).
В 2020 г. был разработан законопроект о регулировании персональных данных <27>, который, однако, пока не принят. Целью данного законопроекта было упрощение порядка сбора и обработки персональных данных. Например, в нем прописывалась возможность для субъекта давать одно согласие на обработку персональных данных нескольким операторам или для достижения нескольких целей. Вместо такого вида персональных данных разрешалось использовать уникальный идентификатор гражданина (например, ИНН). Кроме того, предполагалось создание единых государственных центров хранения обезличенных персональных данных, информацию в которые должны передавать все российские операторы персональных данных, с целью использования сформированных массивов данных для государственного управления, а также развития систем искусственного интеллекта. Данный законопроект получил в целом отрицательные отзывы бизнес-сообщества и общественных структур <28>.
--------------------------------
<27> Законопроект N 992331-7 "О внесении изменений в Федеральный закон "О персональных данных" (в части уточнения порядка обработки персональных данных)".
<28> См., например: Как изменит жизнь принятие закона об обезличенных персональных данных?
Совершенно очевидно, что в России необходимо установить хотя бы основы правового режима обезличенных персональных данных. Представляется, что развитию экономики способствовал бы отказ от необходимости получения оператором обязательного согласия на обезличивание данных, но при наличии совершенно однозначного запрета на деобезличивание. Кроме того, необходимо установить четкие правила обработки и оборота обезличенных персональных данных с установлением обязательного государственного контроля за компаниями - операторами таких данных.
Идея же о предоставлении доступа бизнесу к государственным системам обезличенных персональных данных <29> кажется весьма спорной, хотя и может дать большой толчок развитию систем искусственного интеллекта.
--------------------------------
<29>
Исходя из вышесказанного представляется, что необходимым предварительным условием создания и успешного функционирования таких вышеозначенных государственных центров обезличенных персональных данных является определение основ правового режима этой информации посредством принятия либо отдельного федерального закона, либо соответствующих изменений и дополнений в действующее информационное законодательство. При этом Минцифры России заявило о планах по созданию в 2024 г. внутри своей информационной системы центра обезличивания, который будет обезличивать исходные персональные данные для дальнейшего использования, в том числе при обучении моделей искусственного интеллекта. Предполагается, что такая структура позволит гарантированно обезличивать критичные государственные данные, утечка которых могла бы привести к тяжелым последствиям. При этом разработчики смогут обучать свои системы искусственного интеллекта на обезличенных данных, но под строгим контролем Минцифры России <30>.
--------------------------------
<30> См.: В России создадут центр обезличивания данных для обучения ИИ.; Булгаков Д. Другим именем: в России создадут центр обезличивания данных для подготовки ИИ.
8. Этические проблемы, возникающие из-за предвзятости алгоритмов искусственного интеллекта, связанные с информацией персонифицированного характера. Этические проблемы, связанные с пониманием границ приватного и публичного, частного и общественного, а также с тем, какие данные в принципе являются персональными, приобретают особую актуальность, причем не только для философских исследований, но и для обоснования принятия... юридических решений <31>.
--------------------------------
<31> См.: Ястреб Н.А. Как проблема персональных данных меняет этику искусственного интеллекта? // Философские проблемы информационных технологий и киберпространства. 2020. N 1(17). С. 31.
При рассмотрении в рамках данной статьи вопроса о предвзятости алгоритмов искусственного интеллекта прежде всего следует учитывать спорность и неоднозначность его решений в контексте дискриминации отдельных групп граждан. Так, еще в 1970 - 1980 гг. Медицинская школа больницы Св. Георгия в Великобритании использовала компьютерную программу для отбора абитуриентов, которая отказала в собеседовании 60 кандидатам, потому что они были женского пола или имели неевропейские имена. Еще одним примером можно считать случай, когда в 2015 г. сервис "Гугл Фото" пометил фотографии двух представителей негроидной расы как горилл. Не менее громкий скандал разразился в 2018 г. в компании "Амазон", чья самообучаемая рекрутинговая система отказывала в приеме на работу в компанию женщинам, самостоятельно придя к выводу, что кандидаты-мужчины предпочтительнее <32>.
--------------------------------
<32> См.: Харитонова Ю.С., Савина В.С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. Вып. 53. С. 495.
Таким образом, можно прийти к однозначному выводу, что этические проблемы применения искусственного интеллекта также очень важны и, видимо, их придется решать в том числе на законодательном уровне. В 2021 г. в рамках Первого международного форума "Этика искусственного интеллекта (ИИ): начало доверия" руководителями таких крупных компаний, как "Яндекс", Сбербанк, МТС, ВКонтакте, "Газпром нефть", "Ростелеком", Росатом, ЦИАН и др. был подписан Кодекс этики искусственного интеллекта <33>, разработанный на основании Национальной стратегии развития искусственного интеллекта на период до 2030 г. <34>. Однако данный документ все же имеет скорее рекомендательный характер и не имеет той обязательности для исполнения, которая присуща нормам действующего законодательства.
--------------------------------
<33> См.: Альянс в сфере искусственного интеллекта.
Подводя итоги, выделим следующие проблемы, возникающие при использовании систем искусственного интеллекта в процессе обработки информации персонифицированного характера (персональных данных): манипуляция вышеозначенными сведениями; возможность контроля за поведением индивида, прежде всего в сети Интернет, но не только, так как с развитием интернета вещей проблема слежки будет приобретать все более глобальный характер; идентификация граждан с помощью биометрических персональных данных; развитие эмоционального искусственного интеллекта; реальная угроза введения так называемого социального рейтинга; появление и активное развитие дипфейк-технологии; неудовлетворительность в плане обеспечения охраны и защиты конфиденциальности частной жизни при использовании правовых технологий обезличивания персональных данных в Российской Федерации; этические проблемы, возникающие из-за предвзятости алгоритмов искусственного интеллекта, связанные с информацией персонифицированного характера.
От того, насколько удовлетворительно и быстро будут решены обозначенные выше проблемы в нашей стране, зависит ее дальнейшее развитие как правового, демократического и социального государства, в котором права и свободы человека и гражданина являются одними из наивысших ценностей.