Rastuće prevare s glasovnim klonovima pomoću AI: Kako se zaštititi
Brief news summary
Prevare s AI glasovnim kloniranjem postaju sve češće jer prevaranti koriste naprednu tehnologiju da bi uvjerljivo oponašali ljudske glasove. Ovi AI sistemi, dostupni i pristupačni, precizno repliciraju govor kako bi upućivali telefonske pozive s ciljem da prevare ljude da podijele osjetljive informacije. OpenAI-ova Sky glasovna funkcija, sposobna da imitira glasove poput Scarlett Johansson, i mogućnost repliciranja javnih ličnosti poput Sir David Attenborough, pokazuju potencijalnu zloupotrebu ove tehnologije. Prevaranti često koriste male uzorke glasa izvučene s društvenih mreža kako bi uvjerljivo imitirali glasove, navodeći pojedince da otkriju lične informacije ili prebace novac. Kako bi se borili protiv ovih prevara, stručnjaci predlažu dogovor o unaprijed određenoj lozinki među članovima porodice za verifikaciju identiteta. Važno je prepoznati znakove prevara, kao što je neprirodan ili emocionalno monoton govor, i biti oprezan s pozivima koji stvaraju osjećaj hitnosti ili koriste lažne brojeve. Kada primite sumnjiv poziv, preporučuje se da prekinete vezu i kontaktirate pozivaoca koristeći poznati broj. Poznavanje zvaničnih metoda komunikacije banke, poput Starling Bank-ovih upozorenja o statusu poziva, također može poboljšati sigurnost. Ostanak informiran o AI glasovnim prevarama, uz tradicionalne prevare, osnažuje pojedince da se bolje zaštite od ovih sofisticiranih prijetnji.Prevare koje koriste klonirane glasove uz pomoć AI tehnologije su u porastu, jer prevaranti koriste modele AI za imitiranje ljudskih pozivatelja, uključujući članove porodice, kako bi prevarili ljude da otkriju osjetljive informacije. Ovi AI alati, poput OpenAI-jevog voice API-ja, mogu omogućiti razgovore u stvarnom vremenu između modela i ljudi, čineći prevare uvjerljivijima. Samo nekoliko sekundi zvuka sa društvenih mreža može biti dovoljno za kloniranje glasa. Da biste se zaštitili od takvih prevara, stručnjaci predlažu postavljanje sigurnog izraza sa prijateljima i porodicom za provjeru njihovog identiteta tokom poziva. Budući da AI modeli mogu tačno replicirati glasovne obrasce, ali nemaju pristup ličnim informacijama, korisno je postavljati pitanja na koja samo prava osoba zna odgovor.
Iako su AI glasovi uvjerljivi, znakovi poput čudnog naglašavanja riječi ili bezemocionalnih tonova mogu ih razotkriti. Prevaranti mogu prikriti svoje pozive kako bi izgledali kao poznati kontakti. Ako postoji sumnja, preporučuje se prekinuti vezu i nazvati ponovo koristeći poznat broj. Ove prevare također stvaraju osjećaj hitnosti kako bi natjerali žrtve na ishitrene odluke, često u vezi s prijenosom novca. Biti svjestan autentičnih metoda komunikacije vaše banke, kao što je provjera indikatora statusa poziva, može dodatno zaštititi od prevara.
Watch video about
Rastuće prevare s glasovnim klonovima pomoću AI: Kako se zaštititi
Try our premium solution and start getting clients — at no cost to you