Zašto u cijelosti podržavamo EU AI Act?

Proteklih godinu dana i posebice posljednjih par mjeseci nakon političkih promjena s druge strane Atlantika i pojave kineskog pandana ChatGPT-u učestalo svjedočimo tekstovima i komentarima u medijima i društvenim mrežama koji uz nedovoljno argumentacije navode čitatelje na zaključak da EU Zakon o umjetnoj inteligenciji (AI Act) ograničavaju razvoj umjetne inteligencije u EU, dok istovremeno zapad i daleki istok u tome itekako prednjače.

EU je donijela AI Act ili Akt o umjetnoj inteligenciji ili Uredbu (EU) 2024/1689, globalno prvu regulaciju takve vrste sredinom prošle godine i korak po korak takva regulacija temeljena na rizicima uporabe AI koji mogu donijeti izrazito neželjene ishode na sve nas fizičke osobe i obične promatratelje.

Jedan od ključnih skupova odredbi EU AI Acta je zabrana praksi koje predstavljaju neprihvatljive rizike za temeljna ljudska prava.

 

Evo samo nekoliko primjera:

֍ Sustav umjetne inteligencije koji poslodavac koristi za prepoznavanje emocija zaposlenika je zabranjen, osim kada se koristi u medicinske ili sigurnosne svrhe

֍ Jedinica lokalne samouprave želi testirati softver za prepoznavanje lica pomoću na ulicama tijekom maskenbala

֍ Fizička osoba koja koristi AI sustav za prepoznavanje lica za profesionalne aktivnosti kao što su slobodna zanimanja, novinari, liječnici

֍ Sustav za prepoznavanje emocija, kada se namjerava koristiti od strane fizičkih osoba

֍ Sustav za prepoznavanje emocija, kada se namjerava koristiti za procjenu kreditne sposobnosti ili zdravstvenih rizika

֍ AI sustav opće namjene koji se koristi kao chatbot s primjenom manipulativne i prijevarne tehnike naspram korisnika

֍ Obmanjujuće tehnike koje može primijeniti AI kroz chatbot koji se sintetičkim glasom lažno predstavlja kao prijatelj osobe ili rođak sa svrhom prijevare i nanošenja značajne štete pojedincu

֍ AI chatbot promiče samoozljeđivanje korisnika ili ih potiče na samoubojstvo ili nanošenje štete drugim osobama ili grupama osoba promičući teroristički sadržaj ili potičući nasilje protiv određenih osoba ili grupa osoba (tj. manjina)

֍ AI aplikacija za druženje dizajnirana za oponašanje ljudskih govornih obrazaca, ponašanja i emocija koristi antropomorfne značajke i emocionalne znakove za utjecaj na osjećaje, dispozicije i mišljenja korisnika, čineći te korisnike emocionalno ovisnima o usluzi potičući ponašanje slično ovisnosti i potencijalno uzrokujući značajne štete, poput suicidalnog ponašanja i rizika od ozljeđivanja drugih osoba

֍ Igračka pokretana umjetnom inteligencijom dizajnirana za interakciju s djecom drži ih zainteresiranima za interakciju s igračkom potičući ih da dovrše sve riskantnije izazove, poput penjanja po namještaju, istraživanja visokih polica ili rukovanja oštrim predmetima, u zamjenu za digitalne nagrade i virtualne pohvale, gurajući ih prema opasnom ponašanju koje će im vjerojatno uzrokovati značajnu fizičku ozljedu

֍ Sustavi umjetne inteligencije koji se koriste za ciljanje starijih osoba obmanjujućim personaliziranim ponudama ili prijevarama, iskorištavajući njihovu smanjenu kognitivnu sposobnost s ciljem da utječu na njih da donesu odluke koje inače ne bi donijeli, a koje bi im mogle nanijeti značajnu financijsku štetu

֍ Sustavi umjetne inteligencije mogu identificirati žene i mlade djevojke s invaliditetom na internetu sa sadržajem seksualnog zlostavljanja i ciljano ih usmjeriti s praksama dotjerivanja, iskorištavajući tako njihove ranjivosti koje ih čine podložnijima manipulaciji i zlostavljanju i manje sposobnima da se zaštite

֍ Sustavi umjetne inteligencije koji se koriste za stvaranje materijala o seksualnom zlostavljanju djece (ili manipuliranje postojećim materijalom koji prikazuje stvarnu djecu kako bi se stvorio daljnji novi sadržaj s njima) i razvoj strategija za seksualno iznuđivanje djece vjerojatno će uzrokovati ozbiljne ozljede i zlostavljanje pogođene djece i često rezultiraju dugoročnim fizičkim, psihičkim i društvenim posljedicama za preživjele

֍ Sustav umjetne inteligencije koji koristi prepoznavanje emocija za podršku osobama s mentalnim poteškoćama u njihovom svakodnevnom životu može ih navesti na donošenje štetnih odluka, poput kupnje proizvoda koji obećavaju nerealne dobrobiti za mentalno zdravlje

i bezbroj drugih primjera…

 

Jel prepoznajemo koliko daleko i duboko nereguliran AI može ući u naše privatne živote, u naša fundamentalna ljudska prava?

Koliko može unazaditi dosadašnje dosege ljudske vrste?

Ne otvaramo anketu, jer ista nema svrhe. EU je donijela AI Act i nedavna povijest nam pokazuje da će , kao i GDPR, takve regulacije u kratkom vremenu postati i globalno prihvaćenim standardima za dobro običnih malih ljudi.

 

Prethodno navedeni primjeri su prikazani u friško objavljenim Smjernicama Europske komisije o zabranjenim primjenama umjetne inteligencije temeljem EU AI Acta:

https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

 

Image from FreePik

#gdprcroatia