I to je potpuno ispravno, jer bi njihovom uporabom bila ugrožena temeljna ljudska prava.

To su AI sustavi koji predstavljaju najviši mogući, odnosno, neprihvatljivi rizik temeljnim ljudskim pravima i vrijednostima EU i zabranjeni su.

Kako bi dobavljači i subjekti koji stavljaju na tržište AI sustave i sami korisnici ispravno mogli ocijeniti spada li njihova ideja u zabranjene na tlu EU, odnosno, one navedene u članku 5. EU AI Akta, Europska komisija izradila je Smjernice o zabranjenim praksama u području umjetne inteligencije uspostavljenima Uredbom (EU) 2024/1689 (Akt o umjetnoj inteligenciji ili EU AI Akt):

https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

 

Izdvajamo:

֍ Zabranjen je AI sustav koji poslodavac upotrebljava da izvede zaključke o emocijama na radnome mjestu osim kad se upotrebljava u medicinske ili sigurnosne svrhe (članak 5. stavak 1. točka (f) Akta o umjetnoj inteligenciji). Zabrana se odnosi na subjekte koji uvode sustav neovisno o tome je li dobavljač (osoba koja isporučuje sustav) isključio takvu upotrebu u svojem ugovornom odnosu sa subjektom koji uvodi sustav (poslodavcem), tj. u uvjetima upotrebe.

֍ Ako se AI sustav koji je stavljen na tržište, stavljen u upotrebu ili se upotrebljava u vojne svrhe, obrambene svrhe ili u svrhe povezane s nacionalnom sigurnošću (privremeno ili trajno) upotrebljava u druge svrhe, na primjer civilne ili humanitarne, u svrhu kaznenog progona ili za potrebe javne sigurnosti, takav bi sustav bio obuhvaćen područjem primjene Akta o umjetnoj inteligenciji

֍ Tijekom faze istraživanja i razvoja programeri umjetne inteligencije mogu eksperimentirati i testirati nove funkcionalnosti koje mogu uključivati tehnike koje bi se mogle smatrati manipulativnima i obuhvaćenim člankom 5. stavkom 1. točkom (a) Akta o umjetnoj inteligenciji ako se upotrebljavaju u aplikacijama namijenjenima potrošačima. Akt o umjetnoj inteligenciji dopušta takvo eksperimentiranje tako što prepoznaje da je rana faza istraživanja i razvoja ključna za usavršavanje tehnologija umjetne inteligencije i osiguravanje da one zadovoljavaju sigurnosne i etičke standarde prije nego što se stave na tržište

֍ Istraživanje kognitivnih i bihevioralnih odgovora na subliminalne ili obmanjujuće podražaje generirane umjetnom inteligencijom može pružiti vrijedan uvid u interakciju između ljudi i umjetne inteligencije te tako omogućiti sigurniju i učinkovitiju buduću primjenu umjetne inteligencije. Takvo je istraživanje dopušteno jer je isključeno iz područja primjene Akta o umjetnoj inteligenciji bez obzira na zabranu u članku 5. stavku 1. točki (a) Akta o umjetnoj inteligenciji

֍ Općina koja želi testirati softver za prepoznavanje lica primjenom daljinske biometrijske identifikacije na ulicama tijekom karnevala angažira volontere koje će sustav identificirati u stvarnim uvjetima. Budući da testiranje u stvarnim uvjetima nije obuhvaćeno isključenjem iz članka 2. stavka 8. Akta o umjetnoj inteligenciji, planirano testiranje mora biti u potpunosti usklađeno sa zahtjevima za sustave za daljinsku biometrijsku identifikaciju iz tog akta osim ako se sustav ne testira u regulatornom izoliranom okruženju za umjetnu inteligenciju ili u skladu s posebnim režimom za testiranje u stvarnim uvjetima izvan izoliranog okruženja, kako je to određeno u člancima 60. i 61. Akta o umjetnoj inteligenciji

֍ Pojedinac koji kod kuće koristi sustav za prepoznavanje lica (npr. radi upravljanja pristupom i sigurnosnog nadzora ulaza u dom) bio bi obuhvaćen isključenjem iz članka 2. stavka 10. Akta o umjetnoj inteligenciji, ne bi podlijegao obvezama za subjekte koji uvode sustave na temelju tog akta, čak ni u slučajevima u kojima se snimke ili njihovi dijelovi moraju poslati tijelima kaznenog progona

֍ Fizička osoba koja upotrebljava UI sustav za profesionalnu djelatnost, kao što su samostalni djelatnici, novinari, liječnici itd., morala bi se pridržavati obveza za subjekte koji uvode sustave za prepoznavanje lica prema Aktu o umjetnoj inteligenciji. Kada fizičke osobe koriste UI sustava u profesionalnom svojstvu i u ime ili pod nadležnošću subjekta koji uvodi sustav to je obuhvaćeno područjem primjene Akta o umjetnoj inteligenciji

֍ Sustav za prepoznavanje emocija, ako je namijenjen tome da ga upotrebljavaju fizičke osobe za isključivo osobne neprofesionalne djelatnosti, i dalje je visokorizičan UI sustav u skladu s klasifikacijom u članku 6. Akta o umjetnoj inteligenciji i mora biti u potpunosti usklađen s njime. Istodobno subjekt koji uvodi sustav, a koji ga upotrebljava u isključivo osobnu neprofesionalnu svrhu (npr. autistična osoba), nije obuhvaćen posebnim obvezama za subjekte koji uvode sustav prema Aktu o umjetnoj inteligenciji i ta se upotreba nalazi izvan područja njegove primjene

֍ AI sustav opće namjene koji se upotrebljava kao chatbot može koristiti manipulativne i obmanjujuće tehnike, što će vjerojatno prouzročiti znatnu štetu. Kako bi se spriječilo zabranjeno ponašanje AI sustavâ i upotrebe za koje postoji razumna vjerojatnost da su manipulativne i obmanjujuće te da uzrokuju štetu u smislu članka 5. stavka 1. točke (a) Akta o umjetnoj inteligenciji, od dobavljača se očekuje da poduzme primjerene i proporcionalne mjere (npr. primjeren siguran i etičan dizajn, integracija tehničkih i ostalih zaštitnih mjera, ograničenja upotrebe, transparentnost i kontrola korisnika, primjerene informacije u uputama za korištenje) prije nego što se AI sustav stavi na tržište

֍ Subjekti koji uvode sustav ne bi trebali upotrebljavati AI sustav opće namjene koji može prepoznati ili donijeti zaključke o emocijama na radnome mjestu ili u obrazovnim ustanovama osim u slučaju iznimke iz medicinskih ili sigurnosnih razloga

֍ Jedan je od primjera namjerno manipulativnih tehnika senzorna manipulacija pri kojoj AI sustav koristi pozadinski zvuk ili slike koje dovode do promjena raspoloženja, primjerice, povećanja tjeskobe i mentalne patnje koji utječu na ponašanje korisnikâ do te mjere da nastaje znatna šteta. Drugi je primjer personalizirana manipulacija pri kojoj AI sustav koji stvara i prilagođava veoma uvjerljive poruke temeljene na osobnim podacima pojedinca ili koji iskorištava druge pojedinačne ranjivosti utječe na njegovo ponašanje ili izbore do te mjere da nastaje znatna šteta

֍ Jedan je primjer obmanjujućih tehnika koje umjetna inteligencija može koristiti chatbot na temelju umjetne inteligencije koji sintetičkim glasom oponaša prijatelja neke osobe ili srodnika te se pokušava pretvarati da je on ta osoba, čime uzrokuje prijevare i znatnu štetu

֍ Nasuprot tomu, za generativni AI sustav koji slučajno prikazuje netočne ili obmanjujuće informacije i halucinira ne smije se smatrati da koristi obmanjujuće tehnike u smislu članka 5. stavka 1. točke (a) Akta o umjetnoj inteligenciji, uzimajući u obzir ograničenja i najnovija dostignuća u području generativne umjetne inteligencije. To osobito može biti slučaj kad je dobavljač sustava propisno obavijestio korisnike o ograničenjima sustava i integrirao primjerene zaštitne mjere u sustav kako bi sveo takve ishode na najmanju moguću mjeru i pobrinuo se za to da sustav nije namijenjen i da se ne koristi u osjetljivim kontekstima.

֍ Kada chatbot na temelju umjetne inteligencije potiče korisnike na samoozljeđivanje ili samoubojstvo ili da naškode drugim osobama ili skupinama osoba promicanjem terorističkog sadržaja ili poticanjem na nasilje nad određenim osobama ili skupinama osoba (npr. manjinama), takav spada u zabranjene AI sustave „s učinkom” bitnog iskrivljavanja ponašanja

֍ Ako chatbot iskorištava ranjivosti pojedinca za usvajanje nezdravih navika ili sudjelovanja u opasnim aktivnostima (npr. prekomjerno bavljenje sportom bez odmora ili pijenja vode) kad se može razumno očekivati da će određeni korisnici slijediti te savjete, što inače ne bi napravili, i pretrpjeti znatnu štetu (npr. srčani udar ili neki drugi teški zdravstveni problem), AI sustav bio bi obuhvaćen zabranom iz članka 5. stavka 1. točke (a) Akta o umjetnoj inteligenciji čak iako dobavljaču nije bila namjera dovesti do takvog ponašanja i štetnih posljedica za osobe

֍ Igračka temeljena na umjetnoj inteligenciji dizajnirana za interakciju s djecom održava njihov interes za nju tako što ih potiče da izvršavaju sve rizičnije izazove, kao što su penjanje po namještaju, istraživanja visokih polica ili rukovanje oštrim predmetima, u zamjenu za digitalne nagrade i virtualnu pohvalu, čime ih tjera na opasna ponašanja koja će im vjerojatno nanijeti znatnu fizičku štetu. Takav sustav iskorištava ranjivosti djece zloupotrebom njihove prirodne znatiželje i želje za nagradama i zabranjena je

֍ AI sustavi s obmanjujućim personaliziranim ponudama ili prijevarama čija su meta stariji ljudi, koji iskorištavaju njihovu smanjenu kognitivnu sposobnost kako bi ih potaknuli da donose odluke koje inače ne bi donijeli, a koje će im vjerojatno nanijeti znatnu financijsku štetu, zabranjeni su

֍ AI sustavi mogu identificirati žene i mlade djevojke s invaliditetom na internetu, izložiti ih sadržaju koji predstavlja spolno zlostavljanje i učiniti ih metom učinkovitijih praksi mamljenja te tako iskoristiti njihove poteškoće i ranjivosti koje ih čine podložnijima manipulaciji i zlostavljanju te manje sposobnima da se zaštite, zabranjeni su

֍ Algoritam za predviđanja na temelju umjetne inteligencije može oglasima za predatorske financijske proizvode prema poštanskim brojevima ciljati ljude koji žive u područjima s niskim prihodima i koji se nalaze u teškoj financijskoj situaciji te tako iskoristiti njihovu podložnost tim oglasima zbog mogućeg očaja i nanijeti im znatnu financijsku štetu, zabranjen je

֍ Zavod za zapošljavanje upotrebljava AI sustav za vrednovanje nezaposlenih pojedinaca na temelju intervjua i procjenu temeljenu na umjetnoj inteligenciji da bi utvrdio treba li pojedinac dobiti državnu potporu za zaposlenje. Taj se rejting temelji na relevantnim osobnim obilježjima poput dobi i obrazovanja, ali i varijablama prikupljenim ili izvedenim iz podataka i konteksta bez očite poveznice sa svrhom evaluacije poput bračnog statusa, zdravstvenih podataka o kroničnim bolestima, ovisnosti itd. Takav sustav je zabranjen

֍ Agencija za socijalnu skrb upotrebljava AI sustav za procjenu vjerojatnosti prevare kod korisnikâ naknada za kućanstvo koji se oslanja na obilježja prikupljena ili izvedena iz društvenih konteksta bez očite poveznice ili relevantnosti za procjenu prijevare poput imanja bračnog druga određene nacionalnosti ili etničkog podrijetla, posjedovanja internetske veze, ponašanja na društvenim platformama ili uspješnosti na radnome mjestu itd. Takav sustav je zabranjen

֍ Porezna uprava upotrebljava AI sustav za otkrivanje prevare s dječjim doplatkom izradom profila i razvrstavanjem korisnika osumnjičenih za prijevaru u kategorije poput „namjera / krajnja nepažnja” služeći se kriterijima poput niskih prihoda, dvojne nacionalnosti, društvenog ponašanja itd. To je zabranjena praksa

֍ Vlada uvodi sveobuhvatan sustav temeljen na umjetnoj inteligenciji koji prati i ocjenjuje građane na temelju njihova ponašanja u različitim životnim aspektima poput društvenih interakcija, internetskih aktivnosti, kupovnih navika i urednog plaćanja računa. Radi se o zabranjenoj primjeni

 

#gdprcroatia

#aicroatia