Milijuni bi mogli postati žrtvom prevara u režiji umjetne inteligencije kojom se kloniraju ljudski glasovi.
Starling banka bazirana u Velikoj Britaniji, upozorila je da su prevaranti sposobni replicirati glas osobe. Sve što im je potrebno je audio zapis u trajanju od – tri sekunde. Takva snimka se lako može pronaći u videu koji osoba objavi, u, primjerice – Instagram priči.
Prevaranti tada lako identificiraju tko su njeni ili njegovi prijatelji i članovi obitelji pa potom koristi klonirani glas kako bi odglumili poziv u kojem ih mole za novac.
Ovakve vrste prevara imaju potencijal da “prevare milijune”, objavila je banka u priopćenju u srijedu, prenosi CNN.
Već su prevarili stotine. Prema anketi u kojoj je sudjelovalo 3000 ljudi, više od četvrtine ispitanika kažu da su imali iskustva s prevarama koje uključuju AI kloniranje glasova unazad godinu dana.
Gotovo polovica ih nije bila svjesna da opasnost uopće postoji, a osam posto bi poslalo novac koji od njih traži prijatelj ili član obitelji, čak i u slučaju da im se poziv učini neobičnim.
Važna obavijest:
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu Poslovni.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu Poslovni.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.Uključite se u raspravu