AI e identità false sono un pericolo reale
L’intelligenza artificiale come strumento di inganno
Negli ultimi anni, l’intelligenza artificiale ha fatto passi da gigante. Ma insieme ai benefici, emergono anche rischi concreti e già tangibili. Tra i più pericolosi c’è l’uso della generazione vocale e testuale per fingere di essere qualcun altro. Uno degli esempi più eclatanti arriva da Washington, dove un impostore ha simulato di essere il Segretario di Stato Marco Rubio, contattando tramite messaggi vocali e di testo generati da AI esponenti di alto livello politico.
I bersagli? Non solo funzionari interni, ma anche tre ministri degli esteri stranieri, un governatore statunitense e un membro del Congresso. Il tutto orchestrato attraverso messaggi su Signal, app molto usata per la comunicazione sicura nell’ambito governativo.
Un attacco mirato, non una semplice truffa
Non si è trattato di una burla. Secondo un cable interno del Dipartimento di Stato, l’obiettivo era potenzialmente ottenere accesso a informazioni riservate o ad account sensibili. L’operazione ha preso il via a metà giugno e si è distinta per la sofisticazione con cui è stata ricreata la voce di Rubio, insieme allo stile del suo linguaggio scritto, tutto generato da algoritmi avanzati.
Il profilo dell’impostore riportava l’email “Marco.Rubio@state.gov”, ma era del tutto falso. Non è ancora chiaro chi ci sia dietro, ma gli esperti ipotizzano una matrice statale o organizzata, data la precisione dell’azione.
Un problema globale, non un caso isolato
Questi casi non sono più limitati a deepfake sui social o truffe telefoniche. Quando l’AI viene usata per impersonare figure di potere, le conseguenze possono essere drammatiche. Manipolazione diplomatica, crisi di fiducia tra Paesi, disinformazione strategica: il campo di applicazione va ben oltre il phishing.
Il problema diventa ancora più complesso quando a essere coinvolte sono piattaforme crittografate, dove l’origine dei messaggi è difficilmente tracciabile. Se un funzionario risponde a un messaggio ritenendolo autentico, si può innescare un effetto domino pericoloso a livello geopolitico.
Serve una risposta concreta e urgente
Il caso Rubio non deve essere archiviato come semplice anomalia. È il campanello d’allarme di una nuova generazione di cyberminacce basate sull’intelligenza artificiale. Tecnologie che possono simulare voce, volto e scrittura, ma che oggi non sono ancora regolamentate in modo efficace.
Serve un cambio di passo. Serve una strategia politica globale, che includa controlli, verifiche e soprattutto educazione all’autenticità digitale. Perché nel prossimo futuro non sarà sufficiente leggere un messaggio o ascoltare una voce per essere certi di chi ci sta parlando.