In una stagione in cui la chiamata alle urne risuona in ogni angolo d’Italia, viene da chiedersi se le moderne tecnologie possano interferire nelle campagne elettorali e avere conseguenze significative nei risultati delle consultazioni.
Se ci si augura che l’intelligenza tradizionale illumini chi deve andare a votare (e l’appuntamento di domani in Sardegna sarà la cartina al tornasole), è legittimo temere che quella artificiale sia in grado di influenzare l’opinione pubblica e guidare l’elettorato a compiere scelte di cui pentirsi in tempi brevissimi…
Trovandoci dinanzi soluzioni permeanti ma ancora non completamente endemiche, si può pensare che la tornata elettorale del 2024 non riservi sorprese sconvolgenti, ma è opportuno tenere gli occhi ben aperti. Le capacità di intelligenza artificiale generativa probabilmente non introdurranno nuovi rischi, ma potrebbero amplificare quelli esistenti per le infrastrutture elettorali.
Sappiamo bene che l’intelligenza artificiale generativa (si pensi a ChatGPT, Bard e così a seguire) è un tipo di software che utilizza modelli statistici che generalizzano quelli a disposizione e le strutture dei dati esistenti per riorganizzare le informazioni fruibili o creare nuovi contenuti.
Questi contenuti possono variare dalla scrittura di codice informatico alla creazione di nuovo testo fino ad arrivare allo sviluppo di “media sintetici” come file video, immagini e audio.
Il tema merita di essere affrontato con serietà e soprattutto offrendo a chiunque – senza distinzioni di età, cultura o propensione alle novità – la possibilità di partecipare e capire. E’ un itinerario non facile da percorrere ma che non si può pensare di eludere perché l’argomento non è soltanto di una certa attualità, ma costituisce la base del nostro futuro.
Questa prima chiacchierata ha solo la pretesa di introdurre qualche spunto di riflessione.
Il primo passo è quello di conoscere i contenuti “costruiti” che possono essere generati sfruttando le capacità di intelligenza artificiale. Fin qui è facile perché tutti sanno che i “prodotti” possono essere video, immagini, audio e testi.
Se le armi sono evidenti, si tratta di capire come possono essere confezionate e poi utilizzate da parte di chi ha interessi politici, economici e finanziari in gioco.
Procediamo a piccole dosi e stavolta limitiamoci a sorvolare il fronte dei filmati. Qui riconosciamo subito due possibilità di rapido impiego delle capacità di intelligenza artificiale da parte di malintenzionati: agire sui testi in sovrimpressione sui video e generare sequenze fasulle o “deepfake”.
Affrontiamo il primo caso, quello che gli addetti ai lavori chiamano “Text-to-Video”. Chi vuole perseguire un determinato obiettivo e ha necessità di persuadere il pubblico può avvalersi fraudolentemente dei software che convertono il “parlato” di un video in scritte sullo schermo, frasi che dovrebbero coincidere con la traduzione del discorso nella lingua dello spettatore.
Sottotitolare con un testo diverso quel che il conduttore di un TG effettivamente sta dicendo è un sistema molto diffuso ed efficace per chi vuole disseminare Internet e i “social” di storie false per diffondere disinformazione nel ben più ampio progetto di influenza straniera.
I “deepfake” sono invece i filmati incredibilmente verosimili in cui personaggi famosi o politici di vertice interpretano ruoli e danno vita a dichiarazioni anche ben distanti da quel che si sarebbero mai sognati di fare. Chi li vede non si rende conto della loro natura truffaldina, ritenendo che quelle parole o quelle azioni siano reali e attendibili. Il campionamento della voce e la vettorializzazione degli elementi biometrici del volto e del corpo di un individuo di spicco riescono a “materializzare” un clone indistinguibile dall’originale, permettendo di sfruttare a pieno la credibilità del “sosia” per colpire emotivamente, indirizzare la volontà, suscitare reazioni.
Il discorso è lungo, molto lungo. Ma la nostra determinazione a non restare passivi ci sarà d’aiuto.