“A face in the wrong hands could mean fraudulent access to your home or bank account. It could enable illegal passage through a port of entry or some other secured space. And unlike a password, a face is much harder to "reset" when compromised.”
Rečenice su to koje su nam ostale trajno kao tema za promišljanje.
Zadnjih godina, a posebice tijekom lockdowna zabavljali smo se aplikacijama kao što su Faceapp ili Reface, kojima smo virtualno ali vrlo uvjerljivo mogli promijeniti svoj virtualni svijet, vidjeti kako ćemo izgledati kad odrastemo ili ostarimo ili kako naše lice izgleda na mjestu lica poznate zvijezde filma ili glazbene industrije.
Facebook istovremeno naveliko koristi uzimanje biometrijskih profila naših fotografija, osim ako to nismo onemogućili u postavkama. Tik Tok kao najbrže rastuća društvena mreža ne preza uzimati biometriju od odraslih i od djece. To su samo najpoznatiji primjeri.
Pandemijska vremena virtualizirala su naše privatne i poslovne živote, poslovni kontakti sveli su se na video sastanke na kojima se prvenstveno prikazuje naše lice, dok su društvene mreže pune naših selfija.
Clearview AI najavljuje da će ove godine imati 100 milijardi naših fotografija u vlastitim biometrijskim bazama podataka, čime će se omogućiti da će se gotovo svaka osoba na svijetu moći prepoznati i identificirati samo temeljem fotografije.
U svim tim slučajevima jedno je zajedničko - uporaba uznapredovale tehnologije umjetne inteligencije (Artificial Intelligence, AI) i strojnog učenja (ML, Machine Learning).
Što može poći po zlu?
Najkraći mogući odgovor je krađa identiteta putem takozvanog "sintetičkog sadržaja" koji se sastoji o širokog spektra generiranih i izrađenih digitalnih sadržaja, koji uključuju fotografije, video i audio snimke i tekst.
I FBI je o tome izradio studiju i niz upozorenja:
https://www.ic3.gov/Media/News/2021/210310-2.pdf
Takvim sintetičkim sadržajem stvara se fantastičan temelj za hakerske napade i probijanje sigurnosnih sustava na način kojim donedavno nije bilo ni zamislivo.
Zamislimo situacija da nas naš šef telefonom zove i traži da uplatimo iznos od 243.000 USD na određen račun poslovnog partnera, a pri tom ne prepoznajemo da se radi o imitaciji njegove boje glasa, tehnike izgovora, naglaska i gramatike, kakav slučaj se zaista i dogodio.
https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/
Zamislimo da nam netko kreira imitaciju već obavljenog Zoom sastanka ali s drugačijim raspletom ili poslovnim odlukama.
To danas AI definitivno može.
Deepfake je sve prisutniji u Microsoft Teamsu i Slacku, prvenstveno kroz imitacije govornih poruka i tekstualnih poruka, i to tako vjerne da primatelj nema nikakvog razloga posumnjati u njihovu autentičnost.
To nas vodi u u novu vrstu phishinga - Deepfake phishing, koji definitivno završava probijanjem lozinki ili drugih sigurnosnih barijera za ulazak u poslovne sustave organizacije i konačni zaplet - rasplet pod nadzivom - Ransomware.
Deepfake nam sada dolazi kao najbrže rastuća prijetnja u imitaciji naših biometrijskih profila, čime se kompromitiraju svi sustavi koji koriste identifikaciju pojedinca putem biometrije.
Da ne govorimo o eskalaciji Fake News na način da nam se u medijima i društvenim mrežama prikažu izvrsne imitacije uglednih i vjerodostojnih javnih osoba koje sad pričaju "neku drugu" priču u koju ćemo povjerovati.
A najupečatljiviji Deepfake imali smo prilike vidjeti prije nekoliko dana kada se ukrajinski predsjednik Volodimir Zelenski obratio široj javnosti "pozivom na predaju":
https://www.bitdefender.com/blog/hotforsecurity/deepfake-president-zelensky-calls-on-ukraine-to-surrender-as-tv-station-hacked/
Photo from www.bitdefender.com