Рекомендательные системы: выработка правовых подходов в России и Китае
Рекомендательные системы как субтехнология искусственного интеллекта применяются цифровыми платформами вне рамок государств. Законодатели всего мира озабочены созданием правил обеспечения прозрачности алгоритмов и рекомендаций на их основе для защиты прав пользователей в цифровой среде. Прозрачность алгоритмов становится своеобразной формой контроля государства за модераторами контента. Осторожный подход к регулированию рекомендательных систем представляется весьма продуктивным. Создание правил идет постепенно, в увязке с нормами публичного законодательства в сфере обеспечения прав граждан на защиту персональных данных. Сравнение подходов российских и китайских правоведов позволит найти решения, пригодные для устранения неопределенности в сфере применения рекомендательных систем.
Ключевые слова: искусственный интеллект, рекомендательная система, рекомендательный алгоритм, персональные данные, охрана прав субъекта персональных данных.
Введение
В конце 2021 г. Комитетом по информационной политике, информационным технологиям и связи анонсировано внесение в весеннюю сессию в Государственную Думу Федерального Собрания Российской Федерации (далее - Государственная Дума ФС РФ) условно обозначенного "законопроекта о регулировании рекомендательных сервисов" <1>. Проблемы применения рекомендательных систем обсуждаются во всем мире. В Китайской Народной Республике (далее - КНР) 16 ноября 2021 г. на 20-м заседании Администрацией по киберпространству Китая (CAC), Министерством промышленности и информатизации КНР, Министерством общественной безопасности КНР и Главным государственным управлением КНР по надзору и регулированию рынка рассмотрено и утверждено Положение об управлении алгоритмическими рекомендациями информационных услуг в сети Интернет <2>, которое вступает в силу с 1 марта 2022 г.
--------------------------------
<1>
<2> .
Рекомендательные системы: основные свойства и характеристики
Системы рекомендаций являются важнейшими компонентами архитектуры онлайн-платформ, обеспечивая доставку контента, приносящего деньги, в виде рекламы пользователям. Без алгоритмической модерации организация существующей массы контента была бы попросту невозможна. Большую популярность в бизнес-среде получило определение рекомендательных систем (RSs) как программных инструментов и методов, предоставляющих предложения о товарах, которые могут быть полезны пользователю <3>. Предложения относятся к различным процессам принятия решений, например, какие товары купить, какую музыку послушать или какие новости читать в Интернете <4>.
--------------------------------
<3> Mahmood T., Ricci F. Improving Recommender Systems with Adaptive Conversational Strategies // Proceedings of the 20th ACM conference on Hypertext and hypermedia (Torino, Italy, 29 June 2009 - 1 July 2009) / C. Cattuto, G. Ruffo, F. Menczer. New York: Association for Computing Machinery, 2009. P. 73 - 82.
<4> Ricci F., Rokach L., Shapira B. Introduction to Recommender Systems Handbook // Recommender Systems Handbook / eds. by F. Ricci, L. Rokach, B. Shapira, P.B. Kantor. Boston, MA: Springer, 2011. P. 1 - 35.
Однако наиболее полно рекомендательные системы как субтехнология искусственного интеллекта определяются в компьютерных науках в самом общем виде как класс решений, обеспечивающий выполнение процесса без участия человека, поддержку в выборе решений, а также предсказание объектов, которые будут интересны пользователю ("Дорожная карта развития "сквозной" цифровой технологии "Нейротехнологии и искусственный интеллект", Россия, 2019 <5>).
--------------------------------
<5>
Применение рекомендательных систем цифровыми платформами существенно влияет на способы распространения информации в Сети сегодня. Технология фильтрации информации о пользователе становится значимым элементом рекомендательной системы и позволяет добиваться максимально точной персонализации предложений конкретному пользователю.
Суть рекомендательной системы как явления заключена в том, что рекомендации формируются отдельно для каждого пользователя на основе прошлой активности в Интернете. Кроме того, учитывается и поведение остальных пользователей системы, и механизмы социального взаимодействия сообществ в Сети. Рекомендательные системы собирают информацию о взаимодействии пользователей, что позволяет использовать неявные отзывы пользователей вместо явных рейтингов в качестве выражения предпочтений пользователей <6>.
--------------------------------
<6> et al. Exploiting the User Social Context to Address Neighborhood Bias in Collaborative Filtering Music Recommender Systems // Information. 2020. Vol. 11. Is. 9. P. 439.
Существует два основных подхода к построению рекомендаций <7>:
1) на основе коллаборативной фильтрации (англ. Collaborative filtering), которая использует информацию о поведении пользователей в прошлом, например, перечень покупок или оценок объектов, сделанных ранее на сайте интернет-магазина пользователями из той же группы интересов <8>;
2) на основе фильтрации содержимого (англ. Content-based information filtering), основанной на целостном подходе к профилированию данных пользователей. Анализируются данные каждого профиля, включающие личную информацию пользователей: социальный статус, возраст, место проживания, род деятельности, а также характеристики, выражающие интерес пользователя к объекту; профили объектов интереса включают характеристики, интересующие пользователя <9>.
--------------------------------
<7> Berry M.W. Large-Scale Sparse Singular Value Computations // The International Journal of Supercomputing Applications. 1992. Vol. 6. Is. 1. P. 13 - 49.
<8> Goldberg D., Nichols D., Oki B.M. et al. Using Collaborative Filtering to Weave an Information Tapestry // Communications of the ACM. 1992. Vol. 35. Is. 12. P. 61 - 70.
<9> Joaquin D., Naohiro I., Tomoki U. Content-Based Collaborative Information Filtering: Actively Learning to Classify and Recommend Documents // International Workshop on Cooperative Information Agents. Berlin; Heidelberg: Springer, 1998. P. 206 - 215.
В процессе работы рекомендательные системы собирают данные о пользователях, используя сочетание явных и неявных <10> методов, анализируя как ответы пользователя на анкеты и вопросы об удовлетворенности сервисом, анализ прямых предпочтений субъекта, так и данные о просмотрах пользователя того или иного контента в Сети, поведении пользователя онлайн, а также отслеживание содержимого компьютера пользователя.
--------------------------------
<10> Adomavicius G., Tuzhilin A. Toward the Next Generation of Recommender Systems: A Survey of the State-of-the-Art and Possible Extensions // IEEE Transactions on Knowledge and Data Engineering. 2005. Vol. 17. Is. 6. P. 734 - 749.
Регулирование применения рекомендательных систем по праву Китая
Согласно Положению об управлении алгоритмическими рекомендациями информационных услуг в сети Интернет (далее - Положение) акцент делается именно на алгоритмических рекомендациях <11>. Под "применением технологий алгоритмических рекомендаций" <12> понимаются действия, когда при предоставлении пользователям информации используются такие виды алгоритмических технологий, как (1) генерация и синтез (данных); (2) персонализованное предложение; (3) сортировка; (4) поиск и фильтрация (данных); (5) прогнозирование и выбор решения (абз. 2 ст. 2 Положения).
--------------------------------
<11> В российском правовом поле более привычным является словосочетание "рекомендательные алгоритмы", хотя с точки зрения буквального перевода данное Положение сосредоточено именно на том, как создаются правила-рекомендации, воздействующие на пользователя. В данном случае мы будем придерживаться буквального перевода.
<12> Algorithmic Recommendation Technology.
Правила для рекомендательных систем в китайском праве вводятся для регулирования деятельности по применению технологии алгоритмической рекомендации в информационных услугах в сети Интернет, продвижения основных социалистических ценностей, обеспечения национальной безопасности и социальных общественных интересов, защиты законных прав и интересов граждан, юридических лиц и других организаций, а также содействия здоровому и упорядоченному развитию информационных услуг в Интернете. Избран довольно широкий подход к тому, как обозначить границы применения критериев рекомендательных алгоритмов, которые в китайском акте получили название "услуга алгоритмических рекомендаций" <13>. Рекомендательные алгоритмы должны создаваться с учетом этических установок (социальной, деловой, профессиональной этики), а также следовать принципам беспристрастности, справедливости, открытости и прозрачности, научной рациональности, честности и добросовестности (ст. 4 Положения).
--------------------------------
<13> Algorithmic recommendation service возникает в ст. 2 Положения как сокращенное изложение (предоставление услуги в сети Интернет с помощью применения технологий рекомендательных алгоритмов). То есть под понимается "рекомендация по алгоритмам", которую хорошо знают пользователи в Китае из-за большого количества злоупотреблений со стороны китайских компаний. А непосредственное регулирование "алгоритмов", на взгляд авторов, с одной стороны, - это ответ китайского законодателя на острые социальные вопросы, с другой стороны, в связи с тем что алгоритмы являются базовой технологией рекомендательной системы, такой подход позволяет более удобно открывать технический "черный ящик" при осуществлении правового регулирования. Кроме того, с точки зрения авторов, "алгоритмическая рекомендация" в повседневной жизни должна пониматься как синоним "рекомендательной системы" .
Данные правила адресованы поставщикам услуг алгоритмических рекомендаций, общий правовой статус которых отдельно в Положении не сформулирован.
Закрепленные в Положении нормы, действующие на территории КНР, имеют приоритет над правилами, содержащимися в других источниках, включая законы и административные постановления (ст. 2 Положения). В то же время некоторые нормы Положения частично опираются на иные акты, такие как Закон КНР "О кибербезопасности" <14>, Закон КНР "О безопасности данных" <15>, Закон КНР "О защите персональной информации" (PIPL) <16>, который вступил в силу 1 ноября 2021 г., и Меры по регулированию информационных услуг в сети Интернет <17>.
--------------------------------
<14>
<15>
<16> Personal Information Protection Law of the People's Republic of China.
<17> .
В Положении подчеркивается, что за пределами прямых установлений платформы операторы рекомендательных систем должны руководствоваться принципами саморегулирования, отраслевых стандартов, улучшать спецификации услуг, предоставлять услуги в соответствии с законом и под общественным контролем. Таким образом, ставка сделана на саморегулирование в рамках этических и законодательных норм, а также требований китайского общества.
В Положении содержится несколько разделов, регулирующих различные сферы создания и применения рекомендательных систем. С точки зрения технических требований к информационным услугам и в силу ст. 10 Положения установлено, что поставщики услуг алгоритмических рекомендаций должны осуществлять управление пользовательскими моделями и пользовательскими метками (в том числе давать пользователю возможность выбирать или удалять теги, связанные с их личными характеристиками, по своему усмотрению, ст. 17), улучшить правила определения геолокации и рекомендаций так называемых точек интереса (PoI) для посещения пользователем, а также не должны записывать незаконные и нежелательные информационные ключевые слова в пользовательских точках интереса или в качестве пользовательских тегов.
Также по смыслу ст. 12 Положения на поставщике услуг алгоритмических рекомендаций лежит обязанность "оптимизировать" прозрачность и интерпретируемость правил, таких как поиск, сортировка, отбор, представление <18> и отображение контента, для избежания неблагоприятного воздействия нежелательного контента на пользователей.
--------------------------------
<18> Буквально указана так называемая технология push (англ. push - букв. "проталкивание").
Использование термина "оптимизировать" прозрачность и интерпретируемость правил" для рекомендательных алгоритмов выбрано в данном контексте не случайно. Речь идет о двух обязанностях поставщика услуг рекомендательных алгоритмов - по оптимизации интерпретируемости алгоритмов и по оптимизации прозрачности алгоритмов. Комплексная оптимизация этих двух обязанностей отражает сложный баланс ценностей различных факторов: с одной стороны, это (1) соблюдение права пользователей на информацию и (2) связанные с ним права и законные интересы потребителей или законные интересы в административном процессе; с другой стороны, это такие ценности, как технологическая инновация, жизнеспособность предпринимательства, защита интеллектуальной собственности и даже национальная конкурентоспособность. Требования для продвижения открытости и прозрачности алгоритмов рекомендаций также раскрываются в "Руководящем мнении Управления киберпространства Китая (CAC) <19> по усилению всестороннего управления правилами алгоритмов информационных услуг в сети Интернет" (Internet Information Service Algorithms Regulations) <20> от 29 сентября 2021 г.
--------------------------------
<19> Вместе с Отделом пропаганды ЦК КПК, Министерством образования КНР, Министерством науки и технологий КНР, Министерством индустрии и информационных технологий КНР, Министерством общественной безопасности КНР, Министерством культуры и туризма КНР, Главным государственным управлением КНР по контролю и регулированию рынка и Главным управлением по делам радио и телевидения.
<20> Уведомление о выпуске "Руководящих мнений по усилению всестороннего управления правилами алгоритмов информационных услуг в сети Интернета".
Отдельный раздел Положения сфокусирован на защите прав пользователей. Установлено, что поставщик услуг алгоритмических рекомендаций должен четко информировать пользователей о предоставлении услуг алгоритмических рекомендаций и надлежащим образом публиковать основы, цель и основной рабочий механизм услуги алгоритмических рекомендаций (ст. 16 Положения). В ст. 17 Положения отдельно подчеркивается, что рекомендательные системы не могут основывать свои предложения на характеристиках личности пользователя, что позволяет констатировать установление недискриминационного механизма доступа пользователей к разного рода информационным услугам и продуктам. Также пользователями должны быть предоставлены удобные варианты отключения услуг алгоритмических рекомендаций. Если пользователь решает закрыть службу оказания услуг алгоритмических рекомендаций, поставщик услуг алгоритмических рекомендаций должен немедленно прекратить предоставление указанных услуг. Пользователям многих популярных мобильных приложений в Китае, таких как Toutiao , Douyin (, Tik-tok), Kuaishou , Ele.me , Taobao и Meituan Waimai , на данный момент уже доступна функция отключения персонализированной рекомендации.
Специальные правила установлены для создания рекомендаций для несовершеннолетних и пожилых граждан.
Статья 21 Положения требует от поставщиков услуг алгоритмических рекомендаций, реализующих товары или оказывающих услуги потребителям, соблюдать право потребителей на справедливую торговлю и не использовать алгоритмы в отношении условий сделок, которые могут приводить к дискриминации и дифференцированному определению условий сделки в зависимости от характеристик потребителей. Следует подчеркнуть, что приведенные правила коррелируют со ст. 24 Закона о защите персональной информации, согласно которой если оператор персональной информации использует персональные данные для автоматического принятия решений, то он должен обеспечить прозрачность принятия решений и справедливость их результатов. Данная норма направлена на избежание неосновательной дискриминации в вопросах торговли, например определения цены или условий покупки товара исходя из материального положения пользователя, оцененного алгоритмами.
Следуя общей тенденции, данному вопросу уделялось внимание и в других нормативно-правовых документах Китая. Например, в ст. 21 Положения о недобросовестной конкуренции в сети Интернет (Проект для общественного обсуждения) <21>, разработанного Главным государственным управлением КНР по надзору и регулированию рынка, предусматривается, что хозяйственный субъект не должен использовать данные, алгоритмы и другие технические средства на основании сбора и анализа информации о сделках контрагента, просмотренного им контента и количества совершенных им посещений, а также брендов и стоимости используемого им оборудования при заключении сделок, необоснованно предоставлять контрагенту разную информацию по одной и той же сделке. В данной статье также указано, что информация о сделках включает историю сделок, готовность потенциального клиента заплатить, его потребительские привычки, индивидуальные предпочтения, платежеспособность, кредитный статус и т.д. В этой статье описываются характеристики "обмана знакомых клиентов с помощью больших данных" ( <22>), а также состав такого действия. К тому же указанные выше критерии могут быть рассмотрены в качестве уточнения "характеристик личности пользователя", названных ранее в Положении.
--------------------------------
<21>
<22> Это широко известный термин в Китае для описания ценовой дискриминации. Дословный перевод - "убивать" знакомых, означает "брать со старых клиентов дороже, чем с новых".
Выработка правовой политики в сфере применения рекомендательных систем в России
В настоящее время правовые отношения между цифровыми платформами и их пользователями регулируются гражданским законодательством. Обычно это делается с помощью пользовательских соглашений, общих условий и положений цифровых платформ. Это любые положения, условия или спецификации, независимо от их названия или формы, которые регулируют договорные отношения между информационным посредником и пользователями. В последнее время к регуляторам в цифровой сфере добавились кодексы этики и государственные стандарты <23> (например, ГОСТ Р 59276-2020 "Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения"). Кодекс этики искусственного интеллекта, принятый цифровыми компаниями в 2021 г. в России, включает в себя этические и технические стандарты сообщества, которые достигли высокого уровня детализации на коммуникационных платформах.
--------------------------------
<23> Харитонова Ю.С., Савина В.С., Паньини Ф. Предвзятость алгоритмов искусственного интеллекта: вопросы этики и права // Вестник Пермского университета. Юридические науки. 2021. N 53. С. 488 - 515.
Согласно действующим актам в России рекомендательные системы и интеллектуальные системы поддержки принятия решений отнесены к разделу субсквозной цифровой технологии (суб-СЦТ) "Искусственный интеллект и нейротехнологии" <24> наравне с технологиями компьютерного зрения, обработки естественного языка, распознавания и синтеза речи. Нормативное регулирование в данной сфере в одной из ключевых задач связывается идеологами цифровизации экономики и государственного управления с обеспечением доступа к данным на фоне поддержания эффективного баланса между интересами компаний, разрабатывающих и внедряющих искусственный интеллект, и интересами общества. Однако на этом закрепление на нормативном уровне вопросов, прямо касающихся рекомендательных систем, заканчивается.
--------------------------------
<24> Дорожная карта развития "сквозной" цифровой технологии "Нейротехнологии и искусственный интеллект".
Таким образом, до сих пор развитие законодательства в рассматриваемой сфере шло по пути саморегулирования и технической стандартизации с учетом этических ограничений, опробованных в обществе. Появление четких правил на уровне закона может привести к снижению неопределенности только в случае, если данные правила будут полностью соответствовать ожиданиям рынка и общества.
Согласно заявлениям представителей Комитета по информационной политике, информационным технологиям Государственной Думы ФС РФ в СМИ <25>, в разработанном законопроекте сделана ставка на прозрачность рекомендательных алгоритмов, ответственность владельцев ресурсов за выявление и пресечение применения нестандартных алгоритмов выдачи и контроль за работой рекомендательных систем со стороны Федеральной службы по надзору в сфере связи, информационных технологий и массовых коммуникаций. Как показывает опыт Европейского союза и Китая, жесткие требования к модерации контента в законе должны и могут касаться пресечения распространения незаконного контента. В том числе в отношении преступлений и терроризма, отмывания денежных средств, в адрес несовершеннолетних и социально незащищенных групп людей. Однако в сфере взаимодействия большинства пользователей с цифровыми платформами предпочтительнее применение частноправовых механизмов регулирования.
--------------------------------
<25>
Специалисты утверждают, что в данном случае неприменим подход "черного ящика", тем более что человеческий аналог составления рекомендаций сам по себе - это прозрачный социальный процесс. Так, коллаборативную фильтрацию называют алгоритмом социальной фильтрации, поскольку она моделируется на основе проверенного временем социального процесса получения рекомендаций путем обращения к друзьям с похожими вкусами с просьбой порекомендовать фильмы, книги или музыку, которые им нравятся. У получателя рекомендации есть несколько способов решить, стоит ли доверять этой рекомендации: (a) тщательный анализ сходства вкусов получателя и рекомендующего; (b) оценка успеха предыдущих предложений от этого рекомендующего; (c) запросить у рекомендующего больше информации о том, почему рекомендация была сделана <26>. На этом тезисе и может быть сформулировано правовое требование к прозрачности рекомендательной системы: цифровая платформа должна предложить пользователю несколько способов оценить уместность рекомендаций либо вовсе отказаться от такой функции платформы. Такой подход будет соответствовать и российской Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года, где указано на необходимость полного объяснения принятого системами искусственного интеллекта решения <27>.
--------------------------------
<26> Sinha R., Swearingen K. The Role of Transparency in Recommender Systems // CHI'02 extended abstracts on Human factors in computing systems (Minneapolis, Minnesota USA, April 20 - 25, 2002) / L. Terveen, D. Wixon. New York: Association for Computing Machinery, 2002. P. 830 - 831.
<27> Распоряжение Правительства Российской Федерации от 19 августа 2020 г. N 2129-р "Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года".
Введение правил об обеспечении прозрачности рекомендательных алгоритмов целесообразно сопровождать требованиями к интерфейсу ресурсов, применяющих рекомендательные системы <28>. Поведение пользователей при выборе зависит от того, насколько выделены или скрыты, понятны или непонятны те или иные функции <29>. Это правило, предложенное в Законе о цифровых услугах ЕС, предполагает устанавливать общие требования спецификации дизайна интерфейса.
--------------------------------
<28> Hu Y., Ogihara M. NextOne Player: A Music Recommendation System Based on User Behavior // ISMIR. 2011. Vol. 11. P. 103 - 108.
<29> Kuang C., Fabricant R. User Friendly: How the Hidden Rules of Design are Changing the Way We Live, Work and Play. Random House, 2019.
Наиболее важные параметры рекомендательных систем должны быть доступны пользователю платформы в доступной и понятной форме. Также должны быть указаны все возможности, с помощью которых можно изменить или повлиять на наиболее важные параметры. Такой подход, закрепленный в законе и в пользовательском соглашении, позволит обеспечить автономию воли пользователя.
Введение правил о прозрачности рекомендательных систем влечет возникновение вопроса об ответственности цифровых платформ за выполнение предписаний. Особенность ответственности платформы как посредника заключается в том, что анализ и пресечение применения недобросовестных и запрещенных практик рекомендаций законодатель предполагает наложить именно на платформу. Цифровым платформам необходимо будет осуществлять анализ и минимизацию рисков по применению алгоритмов различными субъектами информационного пространства. Такую позицию сегодня занимает и Китай.
Выводы
Мы полагаем, что осторожный подход к регулированию рекомендательных систем представляется весьма продуктивным. Создание правил идет постепенно, в увязке с нормами публичного законодательства в сфере обеспечения прав граждан на защиту персональных данных. Сосредоточенность государства на выработке точечных решений выявленных и осознанных проблем позволит соблюсти баланс между интересами государства, общества и бизнеса.
Прозрачность алгоритмов становится своеобразной формой контроля государства за модераторами контента. Продолжая общемировую тенденцию делегирования функций государства операторам цифровых платформ, возложение на бизнес обязанности по выявлению и пресечению применения рекомендательных алгоритмов, противоречащих установленным правилам, позволит наиболее быстро реагировать на возникающие отклонения. В данном случае также следует стремиться к достижению баланса между инновационными алгоритмическими решениями и явными и неявными нарушениями принципов добросовестного применения рекомендаций.