Banka upozorila na novu prevaru, pogledajte čega su se kriminalci sada dosjetili

Magazin 18. ruj 202421:22 0 komentara
Pixabay / Ilustracija

Milijuni bi mogli postati žrtvom prevara u režiji umjetne inteligencije kojom se kloniraju ljudski glasovi.

Dovoljna je Instagram priča

Starling banka bazirana u Velikoj Britaniji, upozorila je da su prevaranti sposobni replicirati glas osobe. Sve što im je potrebno je audio zapis u trajanju od – tri sekunde. Takva snimka se lako može pronaći u videu koji osoba objavi, u, primjerice – Instagram priči.

Prevaranti tada lako identificiraju tko su njeni ili njegovi prijatelji i članovi obitelji pa potom koristi klonirani glas kako bi odglumili poziv u kojem ih mole za novac.

Ovakve vrste prevara imaju potencijal da “prevare milijune”, objavila je banka u priopćenju u srijedu.

Pola ih je nesvjesno opasnosti

Već su prevarili stotine. Prema anketi u kojoj je sudjelovalo 3000 ljudi, više od četvrtine ispitanika kažu da su imali iskustva s prevarama koje uključuju AI kloniranje glasova unazad godinu dana.

Gotovo polovica ih nije bila svjesna da opasnost uopće postoji, a osam posto bi poslalo novac koji od njih traži prijatelj ili član obitelji, čak i u slučaju da im se poziv učini neobičnim.

“Ljudi redovito objavljuju sadržaj koji sadrži snimke njihovog glasa, ne pomišljajući da bi ih to moglo učiniti osjetljivima na prevare”, rekla je Lisa Grahame, čelna osoba za sigurnost informacija Sterling Banke.

Kako se obraniti?

Banka sugerira ljudima da osmisle “kodnu rečenicu” koju bi mogli iskoristiti u razgovoru s bližnjima, a koja je drugačija od ostalih sigurnosnih kodova koje koriste kako bi mogli potvrditi svoj identitet.

Preporučaju da takvu kodnu rečenicu dalje ne dijelite u pisanom obliku, prenosi CNN.

Kako se AI prilagođava i razvija, postaje sve sposobniji imitirati ljudske glasove. Stručnjaci su sve zabrinutiji oko njegove sposobnosti da naudi ljudima; primjerice, dijeljenjem lažnih informacija.

Ranije ove godine, OpenAI, proizvođač AI chatbota ChatGPT, predstavio je svoj alat za replikaciju glasa, Voice Engine, ali ga nije učinio dostupnim javnosti, navodeći kao razlog “potencijal za zlouporabu sintetičkog glasa”.

N1 pratite putem aplikacija za Android | iPhone/iPad i mreža Twitter | Facebook | Instagram | TikTok

Kakvo je tvoje mišljenje o ovome?

Budi prvi koji će ostaviti komentar!