Москва
+7-929-527-81-33
Вологда
+7-921-234-45-78
Вопрос юристу онлайн Юридическая компания ЛЕГАС Вконтакте

Отдельные конституционно-правовые аспекты оказания высокотехнологичной медицинской помощи с применением искусственного интеллекта

Обновлено 03.03.2025 11:55

Статья посвящена проблеме некачественного оказания медицинской помощи пациенту в случае применения искусственного интеллекта (далее - ИИ) врачом. Отмечается, что в результате отсутствия раскрытия информации пациенту об использовании ИИ в его лечении пациент может быть никогда не проинформирован об ошибках, допущенных ИИ. Если врач решит лечить пациента на основании ошибочного диагноза, предложенного ИИ, пациент будет подвергнут вредному вмешательству и лишен качественной и доступной медицинской помощи. В статье рассмотрена правовая доктрина информированного добровольного согласия в России и Великобритании. Указывается, что в основе доктрины лежит принцип автономии личности пациента, в подтверждение чего приводится соответствующая судебная практика. Исследование показывает, что использование ИИ при оказании медицинской помощи врачом имеет разную степень риска по отношению к пациенту. Это связано с тем, что ИИ может использоваться как в качестве инструмента, так и в качестве алгоритма, ставящего диагноз пациенту на основании полученных данных. В этой связи предложено в информированном добровольном согласии указывать факт применения ИИ с учетом существенности вреда и рисков в отношении пациента.

 

Ключевые слова: информированное добровольное согласие, искусственный интеллект, здравоохранение, судебная практика, информационные технологии, право на охрану здоровья и медицинскую помощь.

 

The article examines the issue of substandard medical care provided to a patient when artificial intelligence (AI) is employed by a physician. It is observed that, in the absence of disclosure to the patient about the use of AI in their care, the patient may never be informed of any errors made by the AI. Should a physician elect to treat a patient based on an erroneous diagnosis proposed by the AI, the patient will be subjected to harmful interventions and deprived of quality and affordable care. The article considers the legal doctrine of informed voluntary consent in Russia and the UK. It is observed that the doctrine is based on the principle of the patient's autonomy, with relevant judicial practice provided to support this. The study indicates that the use of artificial intelligence in the provision of medical care by a doctor entails varying degrees of risk to the patient. This is due to the fact that AI can be employed as both a tool and an algorithm that diagnoses the patient based on the data obtained. In this context, it is recommended that the informed voluntary consent form should explicitly state that AI will be used, taking into account the potential material harm and risks to the patient.

 

Key words: informed voluntary consent, artificial intelligence, healthcare, court practice, information technologies, right to healthcare and medical assistance.

 

Конституция РФ в ст. 41 устанавливает, что каждый имеет право на охрану здоровья и медицинскую помощь <1>.

--------------------------------

<1> Конституция Российской Федерации (принята всенародным голосованием 12.12.1993, с изменениями, одобренными в ходе общероссийского голосования 01.07.2020).

 

Данное право должно обеспечиваться оказанием доступной и качественной медицинской помощи. В настоящее время медицинская помощь все больше начинает оказываться пациентам с применением информационных технологий (в том числе таких, как искусственный интеллект, технологии телемедицины, технологии виртуальной и дополненной реальности, технологии больших данных и др.).

Особенно актуальными в последние несколько лет стали системы искусственного интеллекта, которые достигли высокого уровня выполнения различных диагностических задач в сфере здравоохранения и теперь могут ставить диагноз пациенту. В качестве примера можно привести США - страну-первопроходца в области правового регулирования и применения информационных технологий, разработавшую Google DeepMind Health, искусственный интеллект, который диагностирует "глазные заболевания на основе сканирования сетчатки с уровнем точности, сравнимым с уровнем точности экспертов-людей" <2>.

--------------------------------

<2> AI in Healthcare.

 

Также и в России искусственный интеллект начинает применяться в постановке предварительных диагнозов: "С момента запуска проекта цифровой ассистент помог врачам-терапевтам поставить более 7,5 миллиона предварительных диагнозов" <3>. Планируется, что к 2025 г. он на основе данных медицинских карт пациентов будет сам проактивно выявлять проблемы у пациентов и ставить предварительный диагноз.

--------------------------------

<3> Искусственный интеллект помог московским врачам поставить более 7,5 млн предварительных диагнозов.

 

Тем не менее применение информационных технологий в здравоохранении создает необходимость изменения подходов к правовому регулированию отношений в данной области. Так, в связи с внедрением искусственного интеллекта в различные сферы медицинской практики актуализируется ряд проблем, которые необходимо разрешить.

Главной проблемой, которая возникает в связи с применением информационных технологий, является риск оказания некачественной медицинской помощи.

Содержание права на охрану здоровья и медицинскую помощь включает в себя доступность и качество медицинской помощи, которые являются принципами охраны здоровья, закрепленными в ст. 4 Федерального закона от 21 ноября 2011 г. N 323-ФЗ "Об основах охраны здоровья граждан в Российской Федерации" (далее - Федеральный закон N 323-ФЗ).

Как отметил И.В. Тимофеев, "доступность и качество медицинской помощи затрагивают само существо соответствующего конституционного права, поскольку непосредственно касаются того социального блага, которое опосредуется конституционными нормами" <4>. Это означает, что некачественно оказанная медицинская помощь наносит существенный вред здоровью пациента, а это, в свою очередь, не позволяет реализовать конституционное право на охрану здоровья и медицинскую помощь.

--------------------------------

<4> Тимофеев И.В. К вопросу о содержании права на охрану здоровья и медицинскую помощь в конституционно-правовом аспекте // Вестник Росздравнадзора. 2015. N 6. С. 69.

 

Более того, данное право, по мнению В.В. Власенковой, предполагает "требование пациентом от врачей и других медицинских работников предоставления квалифицированной медицинской помощи, проведения диагностических исследований" <5>.

--------------------------------

<5> Власенкова В.В. Право на охрану здоровья и медицинскую помощь в Российской Федерации: автореф. дис. ... канд. юрид. наук. М., 2007. С. 21.

 

Отсюда можно сделать вывод, что врач обязан оказать медицинскую помощь надлежащим образом и верно поставить диагноз пациенту, даже если для этого был использован искусственный интеллект. Поэтому проблема некачественного оказания медицинской помощи проявляется и в случае нанесения вреда пациенту врачом, который применяет искусственный интеллект.

Помимо рассмотренной проблемы, связанной с качеством оказания медицинской помощи, также можно выявить и проблему, связанную с информированностью пациента. Один из критериев информированности пациента предполагает, что он заранее должен получить информацию о цели и характере медицинского вмешательства, а также о его последствиях и рисках. Свое решение пациент должен принять также до этого вмешательства. То есть значимым становится "вопрос о включении сведений о выполнении медицинского вмешательства искусственным интеллектом в информированное добровольное согласие пациента" <6>.

--------------------------------

<6> Ковелина Т.А., Собянин А.В., Марухно В.М. К вопросу о правовом регулировании применения искусственного интеллекта в медицине // Гуманитарные, социально-экономические и общественные науки. 2022. N 2. С. 149.

 

Актуальность данной проблемы подтверждается практикой. Ряд ученых провели исследования в США и выявили факт того, что пациентов не информируют и не просят дать согласие на использование искусственного интеллекта в их лечении <7>. Отсутствие раскрытия информации о его применении в лечении может привести к тому, что пациенты могут быть никогда не проинформированы о любых ошибках, допущенных какой-либо моделью искусственного интеллекта, а это является одной из причин, по которым они могут быть лишены необходимой помощи или подвергнуты ненужным дорогостоящим или даже вредным вмешательствам. Упоминание в информированном согласии применения искусственного интеллекта в лечении пациента повлияет на его решение о медицинском вмешательстве, так как в рамках информированного добровольного согласия пациент получает от врача необходимые сведения о здоровье, рисках, связанных с вмешательством, характере самого вмешательства и его последствиях.

--------------------------------

<7> An invisible hand: Patients aren't being told about the AI systems advising their care.

 

Отсутствие информирования пациента о применении искусственного интеллекта при оказании медицинской помощи связано с доктриной информированного добровольного согласия. Речь идет об участии информационных технологий в самой процедуре лечения пациента. При этом неясно, когда врачи должны сообщать пациентам о том, что в принятии решения о назначении лечения участвовал искусственный интеллект. Если считать, что такое уведомление пациента уместно, то насколько подробно они должны рассказывать о рекомендациях искусственного интеллекта и о том, как врач принял решение о назначении лечения и постановке диагноза с учетом таких рекомендаций? Пациентам также могут не рассказывать о том, что в процессе оказания медицинской помощи применяется искусственный интеллект в качестве инструмента для медицинского вмешательства, а не для постановки диагноза.

Для решения соответствующей проблемы необходимо проанализировать доктрину информированного согласия. Это позволит определить, может ли такое согласие включать информацию об использовании искусственного интеллекта.

В соответствии со ст. 20 Федерального закона N 323-ФЗ информированное добровольное согласие гражданина на медицинское вмешательство дается "на основании предоставленной медицинским работником в доступной форме полной информации о целях, методах оказания медицинской помощи, связанном с ними риске, возможных вариантах медицинского вмешательства, о его последствиях, а также о предполагаемых результатах оказания медицинской помощи" <8>. Важно, что пациент имеет право получить в доступной для него форме имеющуюся в медицинской организации указанную выше информацию.

--------------------------------

<8> Федеральный закон от 21 ноября 2011 г. N 323-ФЗ "Об основах охраны здоровья граждан в Российской Федерации" // СЗ РФ. 2011. N 48. Ст. 6724.

 

Вышеуказанная норма права позволяет выделить признаки информированного добровольного согласия, а именно доступность, осведомленность и добровольность, которые содержатся при даче согласия пациента на определенное медицинское вмешательство. Информированное добровольное согласие "обеспечивает юридическую чистоту события оказания медицинской помощи, давая пациенту понимание того, с чем он столкнется, а для врача и медицинского учреждения - верифицируя данное понимание" <9>.

--------------------------------

<9> Алексеева С.С., Стародубцев М.Э. Информированное добровольное согласие на медицинское вмешательство: фигура и роль врача // Российский кардиологический журнал. 2021. N 9. С. 69.

 

Законодательство России предусматривает использование различных информационных технологий в медицине. Например, специализированная медицинская помощь включает в себя профилактику, диагностику и лечение заболеваний и состояний, требующих использования специальных методов и сложных медицинских технологий <10>.

--------------------------------

<10> Федеральный закон от 21 ноября 2011 г. N 323-ФЗ "Об основах охраны здоровья граждан в Российской Федерации" // СЗ РФ. 2011. N 48. Ст. 6724.

 

При этом высокотехнологичная медицинская помощь, которая является частью специализированной медицинской помощи, "включает в себя применение новых сложных и (или) уникальных методов лечения, а также ресурсоемких методов лечения с научно доказанной эффективностью, в том числе клеточных технологий, роботизированной техники, информационных технологий..." <11>.

--------------------------------

<11> Там же.

 

Из вышесказанного можно сделать вывод, что пациент имеет право принять предложенное лечение или отказаться от него на основании предоставленной информации и дать соответствующее информированное согласие на медицинское вмешательство, осуществляемое с использованием информационных технологий. В информированном добровольном согласии такая информация об использовании искусственного интеллекта будет относиться к альтернативным сложным и (или) уникальным методам лечения и возможным вариантам медицинского вмешательства.

В зарубежных странах в настоящее время доктрина информированного согласия включает в себя принцип, ориентированный на автономию личности пациента, и требует, чтобы при обсуждении лечения врач раскрывал такие риски, которые пациент ожидал бы узнать в определенной ситуации. Т. Бошам считал, что данный принцип предполагает следующее: "...обладающие способностью принимать решения разумные пациенты вправе принимать решения относительно их собственного медицинского ухода" <12>.

--------------------------------

<12> Beauchamp T.L., Childress J.F. Principles of Biomedical Ethics // 5th ed. N.Y.: Oxford University Press, 2001. P. 454.

 

В настоящее время автономия пациента включает в "себя способность пациентов обладать контрольной информацией относительно состояния своего здоровья, целей, методов оказания медицинской помощи, связанных с ними рисков в порядке их выбора" <13>. Поэтому принцип автономии пациента тесно связан с информированным добровольным согласием и включает в себя риски при выборе определенных методов лечения.

--------------------------------

<13> Юдин Е.В. Принцип автономии пациента и право на информированное добровольное согласие при оказании медицинской помощи: некоторые правовые и биоэтические аспекты // Вопросы российского и международного права. 2021. Т. 11. N 1-1. С. 241.

 

Так, в Великобритании этот стандарт был закреплен в деле Montgomery v Lanarkshire ((Шотландия) UKSC11): "...при обстоятельствах конкретного дела разумный человек на месте пациента, скорее всего, придаст значение риску, или врач знает или должен знать, что конкретный пациент, скорее всего, придаст этому значение" <14>. Суд ссылается в деле на два стандарта: субъективный стандарт конкретного пациента и объективный стандарт разумного человека, находящегося в положении пациента. Вышеупомянутый стандарт, ориентированный на пациента, также основан на предыдущем деле Birch v University College London (EWHC 2237 QB), в котором было установлено, что пациент имеет право знать об альтернативных медицинских вмешательствах по сравнению с теми, которые указывает врач, и о связанных с ними рисках <15>.

--------------------------------

<14> Montgomery (Appellant) v Lanarkshire Health Board (Respondent) (Scotland).

<15> Birch v University College London Hospital NHS Foundation Trust.

 

В дополнение к указанному примеру следует обратить внимание на дело 2016 г. Allen v. Harrison в США. Вопрос, представленный в ходе рассмотрения данного дела, заключается в том, требует ли доктрина информированного согласия получения этого согласия от пациента перед проведением нехирургического или неинвазивного курса лечения. Другим важным вопросом является то, должен ли врач помимо обсуждения с пациентом альтернатив лечения, которые он рекомендует, обсуждать разумные с медицинской точки зрения иные альтернативные варианты, не упоминаемые врачом. Суд отвечает на оба эти вопроса утвердительно <16>.

--------------------------------

<16> Allen v. Harrison.

 

В контексте правоприменительной практики России, когда речь идет об информационных технологиях в сфере здравоохранения, доктрина информированного согласия ограничена сферой трансплантологии (например, Определение Конституционного Суда РФ от 10 февраля 2016 г. N 224-О), а судебные акты о применении искусственного интеллекта отсутствуют, поэтому стоит обратиться к аналогии похожих судебных дел.

Интересным представляется дело Hurley v. Kirk в США, в котором было выявлено нарушение обязанности информированного согласия, когда часть хирургической операции проводил не врач, а человек, не имеющий медицинского образования. Изучив материалы данного дела, суд постановил, что врач обязан раскрыть информацию и получить информированное согласие пациента: "...доктрина информированного согласия требует, чтобы врач получил согласие пациента, прежде чем использовать не врача для выполнения значительной части операции, для которой он был привлечен, подвергая тем самым пациента повышенному риску травмы" <17>. Можно предположить, что аналогичным нарушением является принятие решения о лечении пациента искусственным интеллектом под руководством врача, а не самим врачом. Поэтому следует сделать вывод, что врач также обязан проинформировать пациента о применении искусственного интеллекта и тем самым получить информированное добровольное согласие от него.

--------------------------------

<17> Hurley v. Kirk.

 

Исследователь Гленн Коэн отмечал, что в случае, когда речь идет о разумности, врач должен информировать пациента об обосновании, на основе которого было врачом выбрано предлагаемое лечение или альтернативные возможные методы лечения <18>. Если врач приходит к рекомендованному решению относительно лечения пациента после тщательного изучения рисков и преимуществ, необходимо, чтобы эти риски и преимущества были подробно доведены до сведения пациента. Если же врач пришел к другому выводу, руководствуясь иными соображениями, то и раскрытие информации пациенту должно быть иным.

--------------------------------

<18> Cohen I. Glenn. Informed Consent and Medical Artificial Intelligence: What to Tell the Patient? // Georgetown Law Journal. 2020. Vol. 108. P. 1443.

 

В этой связи при использовании искусственного интеллекта в оказании медицинской помощи пациенту важно информировать его о любых связанных с этим рисках. Можно предположить, что критерий риска является основным вопросом, лежащим в основе информирования или неинформирования пациента о применении искусственного интеллекта. Необходимость специального раскрытия информации о роли искусственного интеллекта в лечении будет зависеть от того, какой уровень риска связан с искусственным интеллектом в конкретном случае.

Врач обязан предпринять разумные меры для того, чтобы пациент был осведомлен о любых значительных рисках, связанных с предлагаемым лечением. Он должен проинформировать пациента об альтернативных методах лечения, которые могут быть доступны. Адекватное информирование пациента требует, чтобы врачи не только указывали на медицинскую пользу применения искусственного интеллекта, но и подчеркивали потенциальный риск, связанный с ним (при условии, что он является значимым с точки зрения его характера и вероятности). В противном случае решение пациента в пользу медицинского блага будет односторонним и ущербным.

Это означает, что если искусственный интеллект используется под руководством врача и тем самым не несет рисков для пациента, не вносит существенный вклад, то такой случай может расцениваться как незначительный для информирования пациента. Но если искусственный интеллект выполняет операции самостоятельно без участия человека или ставит диагноз пациенту, то в таком случае пациенты должны быть проинформированы об использовании искусственного интеллекта, поскольку это связано с различными проблемами. Не исключено, что искусственный интеллект может обучаться и тестироваться на этически неприемлемом наборе данных или что в данных, используемых для разработки искусственного интеллекта, может присутствовать другая предвзятость. Также существуют опасения по поводу феномена "галлюцинаций" в искусственном интеллекте, когда он не может объяснить свои собственные рассуждения. Указанные факторы подтверждают мнение А.Ю. Киселевой, отмечавшей, что "непрозрачность и автономность решений ИИ затрудняет соблюдение требования получения информированного согласия пациента перед осуществлением медицинского вмешательства" <19>.

--------------------------------

<19> Киселева А.Ю. Применение искусственного интеллекта в здравоохранении: аспекты медицинского права // Медицинское право: теория и практика. 2020. Т. 6. N 2 (12). С. 30.

 

Таким образом, как подчеркивает Е.В. Юдин, реализация права на информированное добровольное согласие "обеспечивает реализацию принципов уважения достоинства человека и автономии пациента" <20>, поэтому современная доктрина информированного согласия в России, как и в зарубежных странах, в частности в Великобритании, основывается на автономии личности пациента. В медицинской практике базовая доктрина информированного согласия кажется довольно простой. Пациента информируют о предлагаемом тесте, лечении или процедуре, о преимуществах и рисках, а также о любых альтернативных вариантах. Зная об этом, пациент принимает решение о согласии или несогласии с рекомендуемым планом. Но когда начинает применяться искусственный интеллект, то процесс дачи информированного согласия может стать более сложным из-за дополнительной информации, которую врач должен донести до пациента и которую пациент должен взвесить в процессе принятия решения.

--------------------------------

<20> Юдин Е.В. Указ. соч. С. 242.

 

В заключение следует отметить, что проблема неинформирования пациента о применении искусственного интеллекта до сих пор не получила должного нормативно-правового регулирования и не располагает достаточной правоприменительной практикой. Необходимо дальше развивать правовую базу в данной области, учитывая значимость рассматриваемой проблемы, это, в свою очередь, повлияет на правовую доктрину информированного добровольного согласия.

Предполагается, что врач может рассматриваться как посредник между пациентом и системой искусственного интеллекта. В этой модели посредничества врач может выступать в качестве получателя объяснений от системы искусственного интеллекта, а затем действовать как "переводчик" для пациента, преобразуя объяснения системы в осмысленный и понятный формат. Врачи должны говорить своим пациентам, что даже самая лучшая и точная персонализированная оценка риска в отношении искусственного интеллекта не является непогрешимой. Одной из основных причин ошибок и вредного результата в отношении пациента является риск неадекватности данных, например, по диагнозу, выявленному искусственным интеллектом.

В связи с этим представляется целесообразным разработать этические стандарты использования искусственного интеллекта в части установления критериев прозрачности, беспристрастности искусственного интеллекта, чтобы защитить интересы пациентов в информированном согласии. Такие стандарты прежде всего обеспечат отсутствие предвзятости искусственного интеллекта при анализе объема данных, на которых он обучается при постановке диагнозов. Это послужит основой для внедрения искусственного интеллекта в здравоохранение, что будет способствовать установлению доверительных отношений между врачами и пациентами.