Se video e immagini hanno infinita capacità di influenza per il maggior coinvolgimento sensoriale, non si pensi che la voce e i testi possano accontentarsi di restare in panchina quando si gioca la partita elettorale.
I filmati, ne abbiamo già parlato, sono capaci di lasciare il pubblico a bocca aperta ben più di quanto lo stupore per una fotografia possa spalancare le fauci di chi la osserva. Ma ci sono anche altre cartucce da sparare.
Gli appuntamenti per le consultazioni “amministrative” e per quelle “europee” sono nel mirino non solo dei “cecchini” delle nostre parti ma sono prede ambite anche per gli specialisti stranieri di certa “caccia grossa”.
In una guerra di propaganda hanno un ruolo fondamentale sia i contenuti “audio” sia interviste, dichiarazioni e commenti dell’avversario che vengono pubblicati all’interno di articoli o reportage.
Giocare con la voce non è un’impresa così ardimentosa e iniziative in quel contesto non richiedono disponibilità di strumenti difficili da usare o troppo onerosi per poterne entrare in possesso. Facilità di impiego ed economicità hanno calamitato l’attenzione di tanti malintenzionati, che hanno ritenuto di approfittarne per “clonare” personaggi famosi (politici, gente dello spettacolo…) e dar luogo ad operazioni fraudolente.
I criminali hanno due possibilità di base che fanno perno sulla possibilità di far interpretare ad una specifica voce la lettura di un testo che l’interessato non si sarebbe mai sognato di pronunciare e sulla vera e propria “clonazione” acustica del soggetto prescelto come bersaglio.
L’utilizzo di file audio generati dall’intelligenza artificiale sono diventati rapidamente di moda per impersonare i dipendenti e dribblare il riconoscimento vocale, accedere a informazioni sensibili o convincere colleghi e intere organizzazioni ad adottare iniziative che altrimenti nessuno avrebbe mai immaginato di porre in essere.
E’ ormai “consuetudine” avvalersi di strumenti di intelligenza artificiale generativa per clonare la voce di ignare vittime che si ritrovano coinvolte in truffe audio o in campagne di disinformazione. Non si tratta semplicemente di messaggi preregistrati: i sistemi permettono ad un delinquente hi-tech di tenere vere e proprie conversazioni, tramutando la voce del malfattore in quella del soggetto “interpretato”. Se si pensa ad una telefonata, non è difficile immaginare le conseguenze….
Meno appariscente – ma comunque in esercizio – è la possibilità di agire sui testi, chiedendo all’intelligenza artificiale di “partorire” frasi, discorsi e discussioni con il medesimo stile del soggetto prescelto per portare a buon fine la malefatta.
Solitamente questa tecnica più elementare viene sfruttata per predisporre “chatbot” che dialogano attraverso messaggi simulando di essere figura autorevole e credibile o semplicemente nota e rispettata. Siamo dinanzi a agli ingredienti del più moderno phishing e delle più sofisticate azioni di social engineering.
Il nostro viaggio alla scoperta di fregature e manovre occulte in tempo di elezioni è appena cominciato.