Naslov ovog posta smo sami kreirali, ali ne napamet.

U najkraćim crtama to je EDPB (European Data Protection Board) stajalište koje objašnjava i AZOP putem današnje javne objave:

https://azop.hr/misljenje-europskog-odbora-za-zastitu-podataka-o-modelima-umjetne-inteligencije/

iz koje izdvajamo:

 

1. kada i kako se modeli umjetne inteligencije mogu smatrati anonimnima,

Da bi model bio anoniman, trebalo bi biti vrlo malo vjerojatno:

(1) izravno ili neizravno identificirati pojedince čiji su podaci upotrijebljeni za izradu modela i

(2) izdvojiti takve osobne podatke iz modela putem upita. U mišljenju se navodi neiscrpan popis metoda za dokazivanje anonimnosti.

 

Ključno je prepoznati da se bilo koji AI model, treniran na osobnim podacima, nikako ne može smatrati anonimnim.

Nadzorno tijelo (npr. AZOP) ima ovlast pregledati svu dokumentaciju pravnog subjekta i ocijeniti u kojoj mjeri se obrađuju osobni podaci, odnosno, jesu li tvrdnje o anonimnosti obrađivanih podataka vjerodostojne.

 

2. mogu li se i na koji način legitimni interesi upotrebljavati kao pravna osnova za razvoj ili upotrebu modela umjetne inteligencije

Mi ćemo tu zamijetiti da je jasno da će svaka strana koja uvodi AI sustave temeljene na obradi osobnih podataka htjeti izbjeći obvezu prikupljanja privola svakog pojedinca za obradu njegovih osobnih podataka putem AI modela.

Od ukupno 6 pravnih temelja za obradu osobnih podataka, mnogi će pokušati tvrditi da imaju valjani legitimni interes za takvu obradu osobnih podataka pa ne moraju tražiti pristanak svakog pojedinca.

No pri tom će morati, ako nisu do sad, provesti Test razmjernosti legitimnog interesa u odnosu na temeljna ljudska prava pojedinca.

EDPB mišljenje uključuje niz kriterija kojima se tijelima za zaštitu podataka pomaže da procijene mogu li pojedinci razumno očekivati određene upotrebe svojih osobnih podataka, kao temelj valjanog legitimnog interesa.

Ti kriteriji uključuju: jesu li osobni podaci bili javno dostupni, prirodu odnosa između pojedinca i voditelja obrade, prirodu usluge, kontekst u kojem su osobni podaci prikupljeni, izvor iz kojeg su podaci prikupljeni, moguće daljnje uporabe modela te jesu li pojedinci doista svjesni da se njihovi osobni podaci nalaze na internetu.

Ako test ravnoteže pokaže da se obrada ne bi trebala provoditi zbog negativnog učinka na pojedince, mjere ublažavanja mogu ograničiti taj negativni učinak. Mišljenje uključuje neiscrpan popis primjera takvih mjera ublažavanja, koje mogu biti tehničke prirode, olakšati pojedincima ostvarivanje njihovih prava ili povećati transparentnost.

 

 

3. što se događa ako se model umjetne inteligencije razvija s pomoću nezakonito obrađenih osobnih podataka.

Drugim riječima, ako uvodimo AI model bez prethodnog osiguranja GDPR usklađenosti, imamo ozbiljan problem.

U točki 114. jasno se navode opcije dostupne nadzornom tijelu, kao npr: novčana kazna, privremena zabrana daljnje obrade podataka, brisanje skupa nezakonito obrađivanih osobnih podataka pa možda i svih podataka temeljem kojih je AI model treniran.

Uz navedeno, svaki pojedinac čiji su osobni podaci nezakonito obrađeni unutar AI modela ima pravo tražiti brisanje svih svojih osobnih podataka prema članku 17. GDPR-a.

 

EDPB Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models je ovdje:

https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en

 

#gdprcroatia