Mnogi bi mogli postati žrtve financijske prevare, banka upozorava na razornu moć umjetne inteligencije

Autor: Poslovni.hr , 19. rujan 2024. u 07:53
Foto: Pixabay

Već su prevarili stotine. Prema anketi u kojoj je sudjelovalo 3000 ljudi, više od četvrtine ispitanika kažu da su imali iskustva s prevarama koje uključuju AI kloniranje glasova unazad godinu dana.

Milijuni bi mogli postati žrtvom prevara u režiji umjetne inteligencije kojom se kloniraju ljudski glasovi.

Starling banka bazirana u Velikoj Britaniji, upozorila je da su prevaranti sposobni replicirati glas osobe. Sve što im je potrebno je audio zapis u trajanju od – tri sekunde. Takva snimka se lako može pronaći u videu koji osoba objavi, u, primjerice – Instagram priči.

Prevaranti tada lako identificiraju tko su njeni ili njegovi prijatelji i članovi obitelji pa potom koristi klonirani glas kako bi odglumili poziv u kojem ih mole za novac.

Ovakve vrste prevara imaju potencijal da “prevare milijune”, objavila je banka u priopćenju u srijedu, prenosi CNN.

Već su prevarili stotine. Prema anketi u kojoj je sudjelovalo 3000 ljudi, više od četvrtine ispitanika kažu da su imali iskustva s prevarama koje uključuju AI kloniranje glasova unazad godinu dana.

Gotovo polovica ih nije bila svjesna da opasnost uopće postoji, a osam posto bi poslalo novac koji od njih traži prijatelj ili član obitelji, čak i u slučaju da im se poziv učini neobičnim.

Komentirajte prvi

New Report

Close