Se è una macchina a stabilire come e cosa colpire, è tutto più facile. Non è una frase strappata da un film dell’orrore ma la dichiarazione di un ufficiale dell’intelligence israeliana ad un cronista del quotidiano britannico The Guardian.
Mentre si perde tempo a disquisire di etica nel contesto tecnologico e impomatati giullari su scranni parlamentari di tutto il mondo si contendono l’esser stati i primi a volere una regolamentazione dell’intelligenza artificiale, un agghiacciante report illustra che l’esercito di Israele starebbe utilizzando una serie di sistemi IA per dar luogo ad attacchi mirati a Gaza.
“Lavender” avrebbe consentito l’individuazione di 37mila obiettivi militari grazie all’identificazione automatica dei membri di Hamas e della Jihad islamica palestinese.
Bombardamenti gestiti come se si trattasse di un videogame. La storia è saltata fuori dal giornalismo d’inchiesta di “+972 Magazine” e “Local Calls” e ha trovato validazioni da tante altre testate che hanno raccolto testimonianze di anonimi appartenenti alle Forze Armate di Tel Aviv.
Racconti che gelano il sangue in cui il refrain è la freddezza della soluzione hi-tech, che semina morte senza l’esitazione umana ed è ben lontana da qualsivoglia fastidioso coinvolgimento emotivo, che agisce “senza ritardo” e stabilisce in modo automatico e irrevocabile quel che è “giusto” fare.
Il software “Lavender” esamina le informazioni sulla maggior parte degli oltre due milioni di residenti della Striscia di Gaza, dati raccolti utilizzando la sorveglianza di massa. La mostruosità di questo programma informatico sta nella valutazione del comportamento di chi finisce nell’inquadratura delle telecamere o lascia in giro (ad esempio su Internet e sui social) altri elementi utili per stabilire la probabilità che una persona sia coinvolta con Hamas o con la Jihad. Ad ogni individuo viene attribuito un punteggio, che colloca il soggetto nella graduatoria che stabilisce il livello di priorità di uomini e donne da eliminare.
Il tutto senza alcun intervento o controllo da parte di operatori che, in carne ed ossa, potrebbero lasciarsi prendere da emozioni o ripensamenti…
L’architettura di intelligenza artificiale in questione ha altri due pilastri dal nome suggestivo. Il primo si chiama “The Gospel” e ha il compito di selezionare gli edifici e le aree da prendere a bersaglio. Il secondo è “Where’s Daddy?”, che si traduce facilmente nella delicata domanda “Dove è il tuo papà?” che di solito si rivolge ai bimbi che vagano solitari nei giardini pubblici. Quest’ultimo “prodigio” prende di mira persone specifiche scatenando l’attacco quando si trovano nelle case delle loro famiglie.
Si potrebbe continuare asseverando la narrazione con dati e statistiche di precisione o di tollerata approssimazione. Fermiamoci qui.
Forse c’è spazio solo per la canzone del bambino nel vento, scritta da Francesco Guccini a metà degli anni Sessanta e cantata dall’Equipe 84 e poi dai Nomadi.
Ancora tuona il cannone / e ancora non è contento / di sangue la bestia umana…
Io chiedo quando sarà / che l’ uomo potrà imparare / a vivere senza ammazzare / e il vento si poserà / e il vento si poserà…
Come può un popolo che ha avuto milioni di morti “passati per un camino” aver imparato la lezione sbagliata?