AI sustav ne može funkcionirati bez ulaznih podataka, bili oni korišteni za treniranje AI modela i algoritama ili bili korišteni za samu svrhu AI sustava.
A kad spominjemo podatke, najčešće se radi o podacima temeljem kojih se može identificirati određena osoba, odnosno, o osobnim podacima.
Na primjer, AI sustav u medicini za otkrivanje tumora mora se trenirati na stvarnim primjerima i zdravstvenim podacima oboljelih i zdravih osoba u velikom opsegu.
Isto tako, kad želimo primijeniti takav AI sustav i otkriti tumor, moramo u njega unijeti zdravstvene podatke osobe na kojoj se provodi postupak dijagnostike.
Stoga je EU AI akt u pravilu nemoguće tumačiti bez kvalitetnog poznavanja GDPR-a, koji se izravno u AI Aktu spominje 30 puta.
GDPR u svom članku 9. stavku 1. zabranjuje obradu osobnih podataka o zdravlju, ali u stavku 2. istog članka daje popis od točno 10 iznimki ili valjanih zakonitih temelja kad je obrada osobnih podataka o zdravlju ipak dozvoljena, kao što su: izričita privola pojedinca, ispunjenje zakonskih obveza u području zapošljavanja i socijalne zaštite, zaštita životnih interesa pojedinca, pružanje zdravstvene skrbi, javnozdravstveni interesi, znanstvena istraživanja ili na temelju važećih propisa RH ili EU.
Takozvanih „Dozvoljenih 10.“
No, prilikom donošenja AI Akta uočio se ozbiljan problem.
Radi se o problemu povezanom s visokorizičnim AI sustavima, za koje je ultimativno važno da osiguravaju punu zaštitu temeljnih ljudskih prava i da npr. ni na koji način ne uzrokuju netočne rezultate medicinske dijagnostike.
A kako AI sustav to može uzrokovati?
Može, na primjer, ako je algoritam AI sustava pristran (eng. biased) zbog nerazmjernog, nereprezentativnog ili neadekvatnog skupa podataka, što može dovesti do nepravednog ili netočnog postupanja prema određenim skupinama pacijenata.
Primjer 1:
AI model treniran gotovo isključivo na fotografijama kože svjetlije boje (Fitzpatrick tip I–III) pokazao je značajno lošiju točnost u otkrivanju malignih lezija kod osoba tamnije kože (tip IV–VI). što dovodi do povećanog rizika od pogrešne dijagnoze ili zakašnjelog liječenja za te skupine.
Primjer 2:
AI sustav za trijažu pacijenata je treniran samo na odraslim pacijentima pa prilikom trijaže djece radi pogreške.
Kako za svrhu osiguravanja otkrivanja i ispravljanja pristranosti visokorizičnih AI sustava GDPR ne daje mogućnost obrade zdravstvenih podataka, bilo je neophodno takav novi zakoniti temelj obrade podataka koji se odnose na zdravlje i općenito posebnih kategorija osobnih podataka utvrditi AI Aktom.
I to je učinjeno kroz članak 10. stavak 5. AI Akta:
„5.U mjeri u kojoj je to nužno u svrhu osiguravanja otkrivanja i ispravljanja pristranosti u vezi s visokorizičnim UI sustavima u skladu sa stavkom 2. točkama (f) i (g) ovog članka, dobavljači takvih sustava mogu iznimno obrađivati posebne kategorije osobnih podataka, podložno odgovarajućim zaštitnim mjerama za temeljna prava i slobode fizičkih osoba.“ Uz niz preduvjeta i uvjeta.
Sad imamo takozvanih „Dozvoljenih 11.“
Image from Freepik
#gdprcroatia
#aicroatia
#highrisk
#fundamentalrights
#AiAct