lang icon En
Sept. 18, 2024, 3:24 a.m.
3759

Britisk bank advarer mot AI-stemme-kloningssvindler som målretter millioner

Brief news summary

Starling Bank har uttrykt bekymring over den økende trusselen fra AI-genererte stemme kloningssvindler, som setter millioner i fare. Svindlere kan replikere en persons stemme fra bare tre sekunder med tilgjengelig lyd, noe som muliggjør utgiving over telefon og narre ofre til å overføre penger. En undersøkelse av 3.000 voksne avslørte at over 25% hadde støtt på slike svindler i løpet av det siste året, med nesten halvparten uvitende om dem. Alarmerende nok innrømmet 8% at de ville vurdere å sende penger til mistenkelige oppringere, noe som indikerer et bekymringsfullt nivå av feilplassert tillit. Lisa Grahame, bankens sjef for informasjonssikkerhet, understreket behovet for å beskytte personlig lyd delt på nettet og foreslo å bruke en 'sikker frase' for identitetsverifisering under samtaler. Imidlertid advarte hun mot å dele denne frasen via tekst, da den kunne avlyttes av svindlere. Med den raske fremgangen av AI-teknologi, øker bekymringene for personlige sikkerhetsbrudd og svindel, og understreker behovet for proaktive sikkerhetstiltak.

En britisk bank har sendt ut en advarsel om at 'millioner' av individer kan bli mål for svindel som bruker kunstig intelligens for å replikere stemmer. Starling Bank, en utelukkende nettbasert långiver, har fremhevet at svindlere kan utnytte AI-teknologi for å klone en persons stemme med så lite som tre sekunder av lydopptak, potensielt hentet fra videoer som individet har delt på nettet. Disse svindlerne kan deretter identifisere personens venner og familie, bruke den AI-genererte stemmen for å simulere en telefonsamtale i den hensikt å be om penger. Ifølge Starling Bank har disse svindlene kapasitet til å 'fange ut millioner', og de har allerede påvirket hundrevis av mennesker.

En nylig undersøkelse med over 3. 000 voksne, gjennomført av banken i samarbeid med Mortar Research, avslørte at mer enn kvart av respondentene rapporterte å ha blitt mål for en AI-stemme-kloning svindel i løpet av det siste året. Undersøkelsen indikerte også at 46% av deltakerne ikke var klar over eksistensen av slike svindler, og 8% innrømmet at de ville sende penger som forespurt av en kjær, selv om samtalen virket mistenkelig. Lisa Grahame, sjef for informasjonssikkerhet ved Starling Bank, bemerket i en pressemelding, 'Folk legger ofte ut innhold på nettet som inneholder stemmen deres uten å innse at det kan gjøre dem mer utsatt for svindel. ' Som svar på dette, oppfordrer banken enkeltpersoner til å etablere en 'sikker frase' med sine slektninger—en enkel, minneverdig frase som skiller seg fra deres vanlige passord— for å bekrefte deres identitet under telefonsamtaler. Starling Bank advarte også mot å dele denne sikre frasen via tekst, da det kan gjøre det lettere for svindlere å få tak i den. Hvis det må deles på denne måten, bør meldingen slettes etter at mottakeren har sett den. Etter hvert som AI-teknologi forbedres i å etterligne menneskelige stemmer, øker bekymringene om dens kapasitet til å lette kriminelle aktiviteter, slik som uautorisert tilgang til bankkontoer og spredning av feilinformasjon.


Watch video about

Britisk bank advarer mot AI-stemme-kloningssvindler som målretter millioner

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today