Umělá inteligence mění zdravotnictví. Co na to právo?

Umělá inteligence mění zdravotnictví. Co na to právo?

  • Umělá inteligence proniká do zdravotnictví rychleji, než si mnozí připouštějí. Dokáže urychlit diagnostiku, zpřesnit rozhodování lékařů a zpřístupnit špičkovou péči i tam, kde chybí specialisté. Zároveň ale otevírá otázky, na které musí reagovat právní rámec: kdo ponese odpovědnost za škodu způsobenou algoritmem, jak nastavit dohled nad jeho rozhodováním a jak bezpečně nakládat s citlivými daty pacientů? Evropská regulace AI už přináší konkrétní pravidla a zdravotnická zařízení se jim musí přizpůsobit. Tento článek se proto zaměřuje na klíčové právní aspekty využívání umělé inteligence v medicíně – od regulace a ochrany osobních údajů až po odpovědnost za škodu.
  • Umělá inteligence (AI) se ve zdravotnických zařízeních už dnes používá, případně se v blízké budoucnosti bude využívat stále častěji v celé řadě oblastí. Nejčastějšími příklady jsou pomoc při diagnostice prostřednictvím analýzy lékařských snímků nebo laboratorních výsledků, odhad rizika komplikací u konkrétních pacientů, automatizované třídění pacientů na pohotovostech nebo přednemocniční péči či zrychlené zpracování a vyhodnocování zdravotnické dokumentace. Umělá inteligence dokáže lékařům šetřit čas, zvyšovat přesnost a konzistenci diagnóz a také zpřístupňovat specializovanou péči pacientům i v regionech, kde by jinak odborníci nemuseli být k dispozici. Do budoucna se očekává i rozvoj personalizované medicíny založené na AI, kdy budou doporučení léčby přizpůsobena genetickým a dalším individuálním charakteristikám pacienta.

Regulace umělé inteligence

  • AI ve zdravotnictví má obrovský potenciál, ale zároveň i zásadní dopady na zdraví a bezpečnost lidí. Proto je v Evropské unii podrobena přísné regulaci. Nařízení o umělé inteligenci zavádí kategorizaci systémů podle rizikovosti. Systémy umělé inteligence, které se používají ve zdravotnictví a zároveň splňují definici zdravotnických prostředků nebo zdravotnických prostředků in vitro podle příslušných nařízení EU, spadají do kategorie vysoce rizikových systémů. Takové zařazení přináší pro poskytovatele systémů umělé inteligence (výrobce) řadu povinností – od povinného posouzení shody, přes nároky na kvalitu tréninkových dat, robustnost a bezpečnost systému, až po požadavky na transparentnost a podrobnou technickou dokumentaci. K tomu se přidávají i povinnosti vyplývající z oblasti regulace zdravotnických prostředků – tedy zejména doložení klinické bezpečnosti a účinnosti prostřednictvím studií.
  • Zdravotnická zařízení, která tato řešení implementují, vystupují zpravidla jako tzv. zavádějící subjekty (profesionální uživatelé). Zdravotnická zařízení mají povinnost vést záznamy o provozu, zajistit odpovídající školení personálu, provádět pravidelný monitoring systému a hlásit závady a nežádoucí příhody poskytovateli systému a také zajistit, aby byl vždy zaručen lidský dohled nad systémem. Některé povinnosti – například právě zajištění dohledu – lze smluvně přenést zpět na poskytovatele systému umělé inteligence. Mezi odbornou veřejností se také diskutuje o nutnosti získat informovaný souhlas pacienta s použitím systému umělé inteligence minimálně, pokud bude používán systém umělé inteligence experimentálně, tedy ve fázi vývoje a testování.
  • Otázky vyvolává kategorizace některých dalších řešení, které nejsou zdravotnickými prostředky. Například systémy pro triáž pacientů budou vysoce rizikové tehdy, pokud se použijí při krizových situacích. Přesná definice krizových situací však zatím není zcela jasná. Může se jednat o mimořádné události s vysokým počtem zraněných, ale není jisté, zda se mezi krizové situace bude moci být zahrnuta i běžná nemocniční pohotovost. Naopak automatizované zpracování zdravotnické dokumentace do vysoce rizikové kategorie obvykle nespadá. Pokud by ale byla nad dokumentací provozována další služba, například chatbot poskytující pacientům rady, jednalo by se o systém s omezeným rizikem, a tedy s vlastní sadou povinností pro poskytovatele a zdravotnická zařízení.

Umělá inteligence a ochrana osobních údajů

  • Samostatnou a velmi významnou oblastí je ochrana osobních údajů a údajů podléhajících lékařskému tajemství. Data ve zdravotnictví patří mezi zvláštní kategorie osobních údajů podle GDPR, konkrétně údaje o zdravotním stavu. Jejich zpracování je možné při poskytování zdravotní péče, avšak tuto výjimku nelze automaticky použít pro účely zpracování osobních údajů poskytovateli AI, pokud chtějí data využívat k dalšímu tréninku či zdokonalování svých systémů. V takovém případě by zdravotnická zařízení měla velmi pečlivě ošetřit podmínky ve smlouvách s těmito poskytovateli, ideálně zakázat předávání dat nebo povolit jejich sdílení výhradně v anonymizované podobě. Při rozhodování je však třeba zohlednit povahu konkrétního systému i účel, pro který má být využíván. Z pohledu funkčnosti platí, že čím více kvalitních dat má systém k dispozici, tím přesnějších a spolehlivějších výsledků dosahuje.

Odpovědnost za škodu

  • Odpovědnost za škodu je v oblasti využívání umělé inteligence ve zdravotnictví zcela zásadní. Systémy umělé inteligence mohou významně ovlivnit diagnostiku, rozhodování o léčbě i organizaci zdravotní péče. Pokud by nebylo jasně stanoveno, kdo odpovídá za případné chyby nebo škody způsobené systémem umělé inteligence, ocitli by se pacienti v nejistotě a hrozilo by, že se nedovolají svých práv z náhrady škody. Systémy umělé inteligence se učí samy a autonomně rozhodují. Ani poskytovatel systému není často schopen vysvětlit, proč se systém generoval určitý výstup, tedy proč rozhodl tak, jak rozhodl.

  • Domníváme se, že při poskytování zdravotnických služeb se bude aplikovat odpovědnost podle občanského zákoníku, konkrétně podle § 2936, jak je tomu doposud. Toto ustanovení stanoví, že kdo je povinen někomu něco plnit a použije při tom vadnou věc, nahradí škodu způsobenou vadou věci. To se výslovně vztahuje i na poskytování zdravotnických, sociálních, veterinárních a jiných biologických služeb. Odpovědnost je objektivní, tedy bez ohledu na zavinění. To znamená, že zdravotnické zařízení odpovídá pacientovi za škodu způsobenou vadným systémem umělé inteligence, i když samo vadu nebo chybu nezavinilo. Problémem tohoto ustanovení je určení, zda je věc, tedy systém umělé inteligence, vadná. Systém umělé inteligence nebo algoritmus vůbec nemusí být vadný, ale jeho výstup může poškodit pacienta. Systém se může „rozhodnout“ na základě chybných dat, nebo na základě své špatné interpretace bezchybných dat. Proto zřejmě bude mít (alespoň v dohledné době) poslední slovo lékař, který bude muset stanovit diagnózu a léčebný postup lege artis.

  • Pokud by se odpovědnost za škodu neposuzovala tímto způsobem, pacient by se mohl snadno ocitnout v situaci, kdy by neměl možnost získat náhradu škody. Protože ale zdravotnická zařízení nemají systémy a jejich výstupy zcela pod svou kontrolou, je vhodné, aby si náhradu škody smluvně ošetřila ve vztahu s poskytovatelem systémů umělé inteligence. Smlouva by měla jasně určit, kdo a v jakém rozsahu za co odpovídá – například za jaké chyby systému umělé inteligence bude poskytovatel systému odpovědný zdravotnickému zařízení. Tato smluvní ustanovení jsou u systémů umělé inteligence zásadní, neboť poskytovatel umělé inteligence by mohl v případě uplatnění nároku na náhradu škody argumentovat tím, že nad systémem nemá kvůli jeho funkci učení kontrolu.
  • Zdravotnická zařízení by měla aktivně prověřovat, zda jejich stávající pojistné krytí zahrnuje i škody způsobené systémy umělé inteligence. Tradiční pojistné produkty nemusí výslovně pokrývat rizika spojená s použitím nových technologií, což by mohlo vést ke sporům s pojišťovnami. Speciální pojistné smlouvy nebo rozšíření stávajících pojistek mohou zajistit, že rizika spojená s AI budou kryta stejně jako jiné formy profesní odpovědnosti.

Závěr

  • Umělá inteligence ve zdravotnictví nabízí obrovské možnosti pro zvýšení efektivity a kvality péče pro pacienty, ale zároveň přináší i nové právní výzvy. Zdravotnická zařízení by se využívání AI neměla obávat, avšak nesmí podcenit přípravu. Klíčové je věnovat pozornost zejména nastavení smluvních vztahů s poskytovateli systémů, důsledně vymezit odpovědnost za škody a prověřit dostatečné pojistné krytí. Pouze pečlivou přípravou lze zajistit, aby byly nejen chráněny zájmy pacientů i samotných zdravotnických zařízení, ale také aby umělá inteligence nevyvolávala nedůvěru mezi pacienty a lékaři.

Tento článek připravila advokátka JUDr. Eva Fialová společně s partnerem JUDr. Ing. Michalem Matějkou z advokátní kanceláře PRK Partners, kteří se specializují na právo informačních a komunikačních technologií, ochranu osobních údajů a právní aspekty nových technologií.