Razlog zašto pišemo ovaj post jest činjenica da u našem okruženju, u Hrvatskoj, svakim danom raste broj tvrtki koje razvijaju programska rješenja temeljena na AI tehnologijama i prodaju ih tvrtkama koje ih žele koristiti.
No, vidimo sve više slučajeva da tvrtke koje stvaraju i kupuju programska rješenja temeljena na AI nemaju interesa, vremena ni resursa proučavati i razumijevati AI Act i GDPR kao dva temeljna i nezaobilazna propisa koje moraju poznavati i razumijevati.
Štoviše, ova dva stroga propisa nikad ne smijemo tumačiti izolirano jedan od drugog, AI Act i GDPR čine jedinstveni regulatorni okvir kojim se određuje kako zakonito stvarati i koristiti AI sustave.
A u slučaju nepoštivanja AI Acta i GDPR-a drastične kazne mogu stići i proizvođače i korisnike takvih AI sustava.
Evo primjera:
Članak 5. AI Acta zabranjuje stavljanje na tržište, u upotrebu ili samo korištenje AI sustava koji iskorištava bilo koju slabost fizičke osobe ili određene skupine osoba zbog njihove dobi, invaliditeta ili specifičnog društvenog ili ekonomskog položaja s ciljem ili s učinkom bitnog iskrivljavanja ponašanja te osobe ili osobe koja pripada toj skupini na način kojim se toj osobi ili nekoj drugoj osobi uzrokuje znatna šteta ili se može razumno očekivati da će se prouzročiti takva šteta, kao i AI sustava radi evaluacije ili klasifikacije fizičkih osoba ili skupina osoba tijekom određenog razdoblja na temelju njihova društvenog ponašanja ili poznatih, izvedenih ili predviđenih osobnih obilježja ili obilježja ličnosti.
Duboko vjerujemo da se svi slažemo da ovakve svrhe AI sustava treba strogo zabraniti.
No, postoje i AI sustavi koji su tankom linijom odvojeni od zabranjenih ali predstavljaju visok rizik na prava i slobode pojedinaca.
Npr. AI sustavi namijenjeni za zapošljavanje ili odabir fizičkih osoba, za analizu i filtriranje prijava za posao te za evaluaciju kandidata.
Ključne faze u razvoju AI sustava svakako jesu treniranje (učenje), validacija i testiranje algoritama i ispitivanje s obzirom na moguće pristranosti koje bi mogle utjecati na zdravlje i sigurnost osoba, imati negativan utjecaj na temeljna prava ili dovesti do diskriminacije.
Stoga je jako bitno za sve proizvođače i korisnike AI sustava da dobro prouče barem Prilog III. i članak 10. AI Acta.
Ako se dobro fokusiramo na navedene odredbe prepoznat ćemo iznimno važnu odredbu članka 10. stavka 5. AI Acta:
„U mjeri u kojoj je to nužno u svrhu osiguravanja otkrivanja i ispravljanja pristranosti u vezi s visokorizičnim UI sustavima …. dobavljači takvih sustava mogu iznimno obrađivati posebne kategorije osobnih podataka, podložno odgovarajućim zaštitnim mjerama za temeljna prava i slobode fizičkih osoba.“
Da, tako je, za sprječavanje diskriminacije i ograničavanja prava i sloboda fizičkih osoba AI Act daje mogućnost da u svrhe testiranja AI sustava obrađujemo posebne kategorije osobnih podataka, npr. o seksualnoj orijentaciji, o zdravlju, o političkim ili religijskim uvjerenjima, rasnom ili etničkom podrijetlu i sl.
No, to nije dovoljno da bismo to radili zakonito.
Tvrtke koje razvijaju i testiraju svoje AI sustave temeljene na obradi posebnih (osjetljivih) kategorija osobnih podataka moraju dobro proučiti:
- Članak 9. stavak 2. GDPR-a i pronaći valjani pravni temelj za takvu obradu i tu se u velikom broju slučajeva pada na ispitu
- Članak 22. stavak 4. GDPR-a koji nam daje uputu, ako automatiziranim načinom donosimo odluke ili stvaramo profile fizičkih osoba, koje proizvode pravne učinke na pojedinca ii da značajno utječu na njega, da moramo posebno pročitati članak 9. stavak 2. točke (a) ili (g) GDPR-a.
Stoga oprez i pamet u glavu
Image from FreePik
#gdprcroatia