Umelá inteligencia mení zdravotníctvo. Čo na to právo?

Umelá inteligencia mení zdravotníctvo. Čo na to právo?

  • Umelá inteligencia preniká do zdravotníctva rýchlejšie, než si mnohí pripúšťajú. Dokáže urýchliť diagnostiku, spresniť rozhodovanie lekárov a sprístupniť špičkovú starostlivosť aj tam, kde chýbajú špecialisti. Zároveň však otvára otázky, na ktoré musí reagovať právny rámec: kto ponesie zodpovednosť za škodu spôsobenú algoritmom, ako nastaviť dohľad nad jeho rozhodovaním a ako bezpečne nakladať s citlivými údajmi pacientov? Európska regulácia AI už prináša konkrétne pravidlá a zdravotnícke zariadenia sa im musia prispôsobiť. Tento článok sa preto zameriava na kľúčové právne aspekty využívania umelej inteligencie v medicíne – od regulácie a ochrany osobných údajov až po zodpovednosť za škodu.
  • Umelá inteligencia (AI) sa v zdravotníckych zariadeniach už dnes používa, prípadne sa v blízkej budúcnosti bude využívať stále častejšie v celom rade oblastí. Najčastejšími príkladmi sú pomoc pri diagnostike prostredníctvom analýzy lekárskych snímok alebo laboratórnych výsledkov, odhad rizika komplikácií u konkrétnych pacientov, automatizované triedenie pacientov na pohotovostiach alebo prednemocničnej starostlivosti či zrýchlené spracovanie a vyhodnocovanie zdravotníckej dokumentácie. Umelá inteligencia dokáže lekárom šetriť čas, zvyšovať presnosť a konzistentnosť diagnóz a tiež sprístupňovať špecializovanú starostlivosť pacientom aj v regiónoch, kde by inak odborníci nemuseli byť k dispozícii. Do budúcna sa očakáva aj rozvoj personalizovanej medicíny založenej na AI, keď budú odporúčania liečby prispôsobené genetickým a ďalším individuálnym charakteristikám pacienta.

Regulácia umelej inteligencie

  • AI v zdravotníctve má obrovský potenciál, ale zároveň aj zásadné dopady na zdravie a bezpečnosť ľudí. Proto je v Európskej únii podrobená prísnej regulácii. Nariadenie o umelej inteligencii zavádza kategorizáciu systémov podľa rizikovosti. Systémy umelej inteligencie, ktoré sa používajú v zdravotníctve a zároveň spĺňajú definíciu zdravotníckych prostriedkov alebo zdravotníckych prostriedkov in vitro podľa príslušných nariadení EÚ, spadajú do kategórie vysoko rizikových systémov. Takéto zaradenie prináša pre poskytovateľov systémov umelej inteligencie (výrobcov) rad povinností – od povinného posúdenia zhody, cez nároky na kvalitu tréningových dát, robustnosť a bezpečnosť systému, až po požiadavky na transparentnosť a podrobnú technickú dokumentáciu. K tomu sa pridávajú aj povinnosti vyplývajúce z oblasti regulácie zdravotníckych prostriedkov – teda najmä doloženie klinickej bezpečnosti a účinnosti prostredníctvom štúdií.
  • Zdravotnícke zariadenia, ktoré tieto riešenia implementujú, vystupujú spravidla ako tzv. zavádzajúce subjekty (profesionálni používatelia). Zdravotnícke zariadenia majú povinnosť viesť záznamy o prevádzke, zabezpečiť zodpovedajúce školenie personálu, vykonávať pravidelný monitoring systému a hlásiť závady a nežiaduce príhody poskytovateľovi systému a tiež zabezpečiť, aby bol vždy zaručený ľudský dohľad nad systémom. Niektoré povinnosti – napríklad práve zabezpečenie dohľadu – možno zmluvne preniesť späť na poskytovateľa systému umelej inteligencie. Medzi odbornou verejnosťou sa tiež diskutuje o nutnosti získať informovaný súhlas pacienta s použitím systému umelej inteligencie minimálne, ak bude používaný systém umelej inteligencie experimentálne, teda vo fáze vývoja a testovania.
  • Otázky vyvoláva kategorizácia niektorých ďalších riešení, ktoré nie sú zdravotníckymi prostriedkami. Napríklad systémy pre triáž pacientov budú vysoko rizikové vtedy, ak sa použijú pri krízových situáciách. Presná definícia krízových situácií však zatiaľ nie je úplne jasná. Môže sa jednať o mimoriadne udalosti s vysokým počtom zranených, ale nie je isté, či sa medzi krízové situácie bude môcť byť zahrnutá aj bežná nemocničná pohotovosť. Naopak automatizované spracovanie zdravotníckej dokumentácie do vysoko rizikovej kategórie obvykle nespadá. Ak by však bola nad dokumentáciou prevádzkovaná ďalšia služba, napríklad chatbot poskytujúci pacientom rady, jednalo by sa o systém s obmedzeným rizikom, a teda s vlastnou sadou povinností pre poskytovateľa a zdravotnícke zariadenia.

Umelá inteligencia a ochrana osobných údajov

  • Samostatnou a veľmi významnou oblasťou je ochrana osobných údajov a údajov podliehajúcich lekárskemu tajomstvu. Dáta v zdravotníctve patria medzi zvláštne kategórie osobných údajov podľa GDPR, konkrétne údaje o zdravotnom stave. Ich spracovanie je možné pri poskytovaní zdravotnej starostlivosti, avšak túto výnimku nemožno automaticky použiť pre účely spracovávania osobných údajov poskytovateľmi AI, ak chcú dáta využívať na ďalší tréning či zdokonaľovanie svojich systémov. V takom prípade by zdravotnícke zariadenia mali veľmi starostlivo ošetriť podmienky v zmluvách s týmito poskytovateľmi, ideálne zakázať predávanie dát alebo povoliť ich zdieľanie výhradne v anonymizovanej podobe. Pri rozhodovaní je však treba zohľadniť povahu konkrétneho systému aj účel, na ktorý má byť využívaný. Z pohľadu funkčnosti platí, že čím viac kvalitných dát má systém k dispozícii, tým presnejších a spoľahlivejších výsledkov dosahuje.

Zodpovednosť za škodu

  • Zodpovednosť za škodu je v oblasti využívania umelej inteligencie v zdravotníctve úplne zásadná. Systémy umelej inteligencie môžu významne ovplyvniť diagnostiku, rozhodovanie o liečbe aj organizáciu zdravotnej starostlivosti. Ak by nebolo jasne stanovené, kto zodpovedá za prípadné chyby alebo škody spôsobené systémom umelej inteligencie, ocitli by sa pacienti v neistote a hrozilo by, že sa nedovolajú svojich práv z náhrady škody. Systémy umelej inteligencie sa učia samy a autonómne rozhodujú. Ani poskytovateľ systému často nie je schopný vysvetliť, prečo sa systém generoval určitý výstup, teda prečo rozhodol tak, ako rozhodol.
  • Domnievame sa, že pri poskytovaní zdravotníckych služieb sa bude aplikovať zodpovednosť podľa občianskeho zákonníka, konkrétne podľa § 2936, ako je tomu doteraz. Toto ustanovenie stanovuje, že kto je povinný niekomu niečo plniť a použije pri tom vadnú vec, nahradí škodu spôsobenú vadou veci. To sa výslovne vzťahuje aj na poskytovanie zdravotníckych, sociálnych, veterinárnych a iných biologických služieb. Zodpovednosť je objektívna, teda bez ohľadu na zavinenie. To znamená, že zdravotnícke zariadenie zodpovedá pacientovi za škodu spôsobenú vadným systémom umelej inteligencie, aj keď samo vadu alebo chybu nezavinilo. Problémom tohto ustanovenia je určenie, či je vec, teda systém umelej inteligencie, vadná. Systém umelej inteligencie alebo algoritmus vôbec nemusí byť vadný, ale jeho výstup môže poškodiť pacienta. Systém sa môže „rozhodnúť" na základe chybných dát, alebo na základe svojej zlej interpretácie bezchybných dát. Proto zrejme bude mať (aspoň v dohľadnej dobe) posledné slovo lekár, ktorý bude musieť stanoviť diagnózu a liečebný postup lege artis.
  • Ak by sa zodpovednosť za škodu neposudzovala týmto způsobom, pacient by sa mohol ľahko ocitnúť v situácii, keď by nemal možnosť získať náhradu škody. Pretože však zdravotnícke zariadenia nemajú systémy a ich výstupy úplne pod svojou kontrolou, je vhodné, aby si náhradu škody zmluvne ošetrili vo vzťahu s poskytovateľom systémov umelej inteligencie. Zmluva by mala jasne určiť, kto a v akom rozsahu za čo zodpovedá – napríklad za aké chyby systému umelej inteligencie bude poskytovateľ systému zodpovedný zdravotníckemu zariadeniu. Tieto zmluvné ustanovenia sú u systémov umelej inteligencie zásadné, pretože poskytovateľ umelej inteligencie by mohol v prípade uplatnenia nároku na náhradu škody argumentovať tým, že nad systémom nemá kvôli jeho funkcii učenia kontrolu.
  • Zdravotnícke zariadenia by mali aktívne preverovať, či ich súčasné poistné krytie zahŕňa aj škody spôsobené systémami umelej inteligencie. Tradičné poistné produkty nemusia výslovne pokrývať riziká spojené s použitím nových technológií, čo by mohlo viesť k sporom s poisťovňami. Špeciálne poistné zmluvy alebo rozšírenia súčasných poistiek môžu zabezpečiť, že riziká spojené s AI budú kryté rovnako ako iné formy profesnej zodpovednosti.

Záver

  • Umelá inteligencia v zdravotníctve ponúka obrovské možnosti pre zvýšenie efektívnosti a kvality starostlivosti pre pacientov, ale zároveň prináša aj nové právne výzvy. Zdravotnícke zariadenia by sa využívania AI nemali obávať, avšak nesmú podceniť prípravu. Kľúčové je venovať pozornosť najmä nastaveniu zmluvných vzťahov s poskytovateľmi systémov, dôsledne vymedziť zodpovednosť za škody a preveriť dostatočné poistné krytie. Iba starostlivou prípravou možno zabezpečiť, aby boli nielen chránené záujmy pacientov aj samotných zdravotníckych zariadení, ale tiež aby umelá inteligencia nevyvolávala nedôveru medzi pacientmi a lekármi.

Tento článok pripravila advokátka JUDr. Eva Fialová spoločne s partnerom JUDr. Ing. Michalem Matějkou, ktorí sa špecializujú na právo informačných a komunikačných technológií, ochranu osobných údajov a právne aspekty nových technológií.