MARIANNA VAZZANA
Cronaca

Voci clonate da malviventi: "Il trucco per smascherarli: l’IA ancora lenta nelle risposte"

Angelo Parente, Polizia Postale Lombardia, riflette sulle sfide future "Intelligenza artificiale sempre più presente, arriveremo a dubitare di tutto".

Angelo Parente direttore tecnico Cosc Centro operativo sicurezza cibernetica con una collega (Salmoirago)

Angelo Parente direttore tecnico Cosc Centro operativo sicurezza cibernetica con una collega (Salmoirago)

I truffatori utilizzeranno sempre di più l’intelligenza artificiale per creare situazioni credibili ma pur sempre false. Si arriverà ad avere dubbi su cosa sia reale e cosa no. E già, in alcuni casi, è così. Basti solo pensare a video e foto diffusi ogni giorno sui social network. Si alza insomma l’asticella nella sfida ai malviventi mentre l’intelligenza artificiale prende sempre più piede. A riflettere sul fenomeno è Angelo Parente, direttore tecnico Cosc (Centro operativo sicurezza cibernetica) della Polizia Postale Lombardia. L’obiettivo dei truffatori non è difficile da immaginare, ed è far cadere sempre più persone nella loro trappola. Intascando sempre più soldi.

"Un tipo di sfruttamento di questa tecnologia a fini truffaldini è il “voice cloning“ – dice Parente – che consiste nel simulare la voce di un personaggio pubblico o di un familiare". Un caso emblematico è quello dello scorso febbraio, quando un “falso Crosetto“ ha ingannato più persone: in sostanza, dei malviventi hanno contattato importanti imprenditori italiani e vip spendendo il nome del ministro della Difesa e usandone la voce per convincerli a versare del denaro in conti esteri dicendo che sarebbero serviti a pagare il riscatto per alcuni giornalisti italiani rapiti in Medio Oriente. “Ingrediente“ principale per la buona riuscita della truffa è stata la voce perfettamente riprodotta dall’intelligenza artificiale. Questa è una “evoluzione“ della truffa. "E siamo solo agli inizi – dice Parente –. Man mano che la tecnologia avanza, si riuscirà ad avere risultati sempre più fedeli al timbro reale. Basta carpire un discorso postato on line, ad esempio, o estrapolarlo da un’intervista per “addestrare“ l’IA a simulare quella determinata voce". E così si può fare anche con familiari di persone comuni. Bersagli privilegiati, ancora una volta, sono i più fragili, come gli anziani. Ma non solo. Esistono piattaforme che con software accessibili consentono di ricreare una voce umana digitalmente. Tecnologie non certo nate per truffare il prossimo ma, come capita da sempre, c’è chi le usa per scopi illeciti.

Ma c’è un sistema per capire se la voce che si sente al telefono è reale o fake? "Sì. Per esempio facendo leva sui tempi di risposta. L’intelligenza artificiale ha dei tempi più lunghi per formulare le frasi dopo aver elaborato quel che l’interlocutore ha detto". Insomma in un botta e risposta incalzante salterebbe fuori l’imbroglio. E poi, "si può puntare su domande particolari, alle quali saprebbe rispondere solo quella determinata persona". Un umano. Non certo una tecnologia. Poi, in caso di dubbio, si può sempre interrompere la telefonata e chiamare quel parente o amico.

Però l’intelligenza artificiale può essere anche un’arma per contrastare le truffe, ad esempio creando algoritmi “predittivi“ che facciano scattare un alert nel caso si individui una situazione-tipo. Certo è che "arriveremo a dubitare di tutto. Questo porterà a una società di che tipo?", ragiona Parente.

Con l’intelligenza artificiale, peraltro, non sono solo state simulate voci: ci sono anche video, con protagonisti quelli che sembrano veri personaggi famosi, ospiti in trasmissioni, e che invitano ad agire su una piattaforma d’investimenti. In realtà sono “fantocci digitali“ frutto del deepfake, una tecnica per la sintesi dell’immagine umana. Una volta cliccato sul sito indicato arriva poi la chiamata di un broker e la proposta di un piano di investimenti redditizio. Ma è solo l’inizio, perché dopo aver perso i propri soldi si viene invitati a “sbloccarli“. Inviandone altri. E si va avanti finché la vittima non interrompe la catena.

Marianna Vazzana