Za pisanje ovog posta potaknuti smo neopreznom izjavom jedne osobe da AI sustavi u medicini ne potpadaju u sustave visokog rizika jer ih EU AI Akt u svom PRILOGU III. ne navodi unutar popisa visokorizičnih sustava, kao što takav odgovor daje i ChatGPT. Odmah ćemo priznati da je istina da Prilogom III. AI Akta nije spomenuto zdravstvo kao područje iz popisa visokorizičnih sustava što dovodi u zabludu površne poznavatelja AI Akta.
I odmah ćemo skratiti muke svima i odmah u glavu reći da AI sustavi itekako mogu spadati u visokorizične AI sustave.
Svakom poznavatelju GDPR-a jasna je činjenica da postupanje s osobnim podacima koji se odnose na zdravlje predstavlja obradu osobnih podataka koja može uzrokovati visoki rizik za pojedinca. A ako takve podatke obrađujemo putem AI sustava, tada taj rizik za pojedinca može biti i dodatno izražen. Idemo pojasniti.
Umjetna inteligencija (AI) se u medicini koristi se u sve širem spektru primjena – od dijagnostike i terapije, preko robotske kirurgije, istraživanja i razvoja lijekova, upravljanja epidemiološkim modelima pa do upravljanja sustavima i administraciji. A možda, samo „možda“ poneki liječnik ili pacijent potraži dijagnozu upitom na ChatGPT ili drugi LLM model. [ironija]
Ako liječnik ili ordinacija koristi AI za npr. formatiranje teksta sa zdravstvenim podacima ili dijagnoze koju ionako liječnik finalno provjerava ili optimizira svoje poslove procese prikupljanja anamneza, tu ne bi trebalo biti visokog rizika za pacijenta ako su mjere kibernetičke sigurnosti na traženoj razini.
Sad se vratimo na EU AI Akt, točnije, na njegovo Poglavlje III. članak 6. stavak 1. koji definira visokorizični sustav onim koji je namijenjen za korištenje kao sigurnosna komponenta proizvoda ili je AI sustav sam po sebi obuhvaćen propisima o usklađivanju (npr. Uredba (EU) 2017/745 o medicinskim proizvodima ili Uredba (EU) 2017/746 o in vitro dijagnostičkim medicinskim proizvodima i takav proizvod čija je komponenta AI sustav zahtijeva ocjenjivanje sukladnosti.
Da, priznajemo, teško je površnim čitanjem uočiti da medicinski proizvodi temeljeni na AI sustavima spadaju u prethodno navedenu odredbu o visokorizičnim AI sustavima.
A već spomenuti Prilog III. AI Akta o visokorizičnim sustavima se na primjenu u medicini neizravno odnosi na primjer u slučaju da se AI sustav koristi za profiliranje pacijenata, automatsku trijažu pacijenata i davanje prednosti pri hitnom prijemu, pa i u slučajevima značajnog utjecaja na pravo na zdravstveno osiguranje ili pristup javnim zdravstvenim uslugama ili pak pri određivanju cijena polica životnog ili zdravstvenog osiguranja.
A u svim takvim slučajevima, kad je bolnica, ambulanta, ordinacija ili općenito zdravstvena ustanova u pitanju, u pravilu se radi o korištenju AI sustava dobavljača, koji imaju brdo obveza za ispuniti prije stavljanja takvih AI sustava na tržište.
A zdravstvena ustanova kao naručitelj i korisnik visokorizičnih AI sustava, odnosno, subjekt koji uvodi takav AI sustav mora dobiti svu opsežnu dokumentaciju i upute dobavljača, uključujući i opis sustava upravljanja rizicima, dizajn modela, informacije o treniranju AI modela, s ciljem osiguranja pravilne uporabe sustava, mjere kibernetičke sigurnosti, razinu točnosti i što na nju utječe, .
Tu posebice spadaju i obveze ljudskog nadzora nad radom AI sustava (barem dvije kompetentne i osposobljene fizičke osobe), provjera relevantnosti ulaznih podataka za treniranje AI modela, evidentiranje neželjenih situacija kojima se stvara visok rizik ili se model promijeni ili se utvrde pristranosti modela, procjenu učinka na zaštitu podataka (DPIA), neki i procjenu učinka na temeljna ljudska prava (FRIA), informiranje osoba na koje se odnose odluke koje donosi implementirani AI sustav, pa sve do samog isključivanja, odnosno, sigurnog zaustavljanja AI sustava i izvješćivanja dobavljača o navedenim incidentima i nepravilnostima.
Stoga pamet u glavu.
Image from Freepik
#gdprcroatia
#aicroatia
#highrisk
#fundamentalrights
#AiAct