Korisnike se upozorava da bi njihovi videozapisi na društvenim mrežama mogli biti iskorišteni od strane prevaranata koji koriste umjetnu inteligenciju (AI) za kloniranje njihovih glasova, a potom varaju njihove obitelji i prijatelje kako bi im uzeli novac.
Prevaranti traže videozapise koji su objavljeni na internetu i potrebno im je samo nekoliko sekundi audiozapisa kako bi replicirali način na koji meta govori.
Zatim zovu ili šalju glasovne poruke prijateljima i obitelji, tražeći hitno slanje novca.
Istraživanje koje je provela digitalna banka Starling Bank otkrilo je da je 28% ljudi bilo meta AI prevare s kloniranjem glasa barem jednom u protekloj godini.
Međutim, 46% ljudi nije ni znalo da takva vrsta prevare postoji, a 8% je izjavilo da bi vjerojatno poslali traženi novac, čak i ako bi im poziv od voljene osobe djelovao sumnjivo.
Stručnjaci predlažu da ljudi koriste sigurnu frazu s bliskim prijateljima i obitelji kako bi provjerili je li poziv autentičan.
“Prevarantima je potrebno samo tri sekunde audiozapisa da bi klonirali vaš glas, ali trebalo bi vam samo nekoliko minuta s obitelji i prijateljima da osmislite sigurnu frazu kojom ih možete spriječiti”, rekla je za Guardian komunikacijska stručnjakinja Lisa Grahame.
“Stoga je važnije nego ikad da ljudi budu svjesni ovakvih prevara koje provode prevaranti, te kako se zaštititi i zaštititi svoje voljene od toga da postanu žrtve.”
Britanska agencija za kibernetičku sigurnost je u siječnju izjavila da AI otežava prepoznavanje lažnih poruka (phishing), gdje korisnici bivaju prevareni da predaju lozinke ili osobne podatke.
Ove sve sofisticiranije prevare uspjele su čak prevariti velike međunarodne tvrtke.
N1 pratite putem aplikacija za Android | iPhone/iPad i mreža Twitter | Facebook | Instagram | TikTok.
Kakvo je tvoje mišljenje o ovome?
Budi prvi koji će ostaviti komentar!