Forse non ce ne siamo accorti, ma la quinta rivoluzione industriale appartiene già al passato. La pubblicazione, nel 2021, del rapporto “Towards a sustainable, human-centric and resilient European industry” da parte della Commissione Europea, è già storia antica e non lascia dubbi circa la sorprendente velocità con la quale siamo transitati dal concetto di Industria 4.0 a quello successivo. Basti pensare che, tra la terza e la quarta rivoluzione industriale, trascorsero quasi 30 anni, durante i quali si passò dai calcolatori degli anni 70 del secolo scorso, alla diffusione di Internet dei primissimi anni del nuovo millennio. Successivamente, dopo il consolidamento del world wide web e dopo l’esplosione dell’AI, siamo ormai già in vista della sesta rivoluzione industriale, dove, ad esempio, i COBOT (robot collaboranti che interagiscono con l’uomo ed il suo ambiente di lavoro), le nanotecnologie e l’informatica quantistica, la faranno da padroni.
La genesi dell’Industria 6.0 resta legata, tuttavia, alla precedente entrata in scena dell’intelligenza artificiale – strumento formidabile – che ha reso possibile velocizzare ed ottimizzare il lavoro e l’analisi dell’uomo in molteplici campi, sollevandolo, come si spera, da tutte quelle mansioni ripetitive o pericolose. La sostenibilità ambientale, la resilienza e l’approccio human-centric saranno quindi i cardini dei prossimi sviluppi. Anche nel campo della sicurezza, intesa come protezione delle persone e delle cose, l’AI ha mostrato di possedere un’enorme valenza ed una “potenza di fuoco” di tutto rispetto. Uno degli ambiti più spinosi e delicati, ad esempio, è la protezione dei minori e la ricerca di tutti coloro che con le loro azioni, dirette o indirette, ne potrebbero minare la serenità o, peggio ancora, metterne in pericolo la vita.
Gli addestramenti ai quali gli algoritmi di AI sono sottoposti che, come sappiamo, non sono altro che milioni di Gigabyte di informazioni utilizzate, appunto, per istruirli, possono essere attivati anche solo dalla digitazione, su motori di ricerca piuttosto che all’interno dei vari Social, di particolari parole chiave, alle quali si assegna un peso ed un nesso, più o meno consistenti, con la sfera della pedopornografia.
Un uso costante e frequente di un certo tipo di ricerche, da parte di un dato utente, di un gruppo, o di un particolare indirizzo IP, crea una sorta di alert verso questi sistemi osservati da un’AI addestrata a farlo, con una profondità di scansione che sarebbe stata impensabile, o immensamente dispendiosa, fino a pochi anni fa.
Sostanzialmente, il medesimo comportamento del falco in Natura: questi algoritmi si comportano come uccelli rapaci che sorvolano e sorvegliano il territorio, alla costante ricerca di prede o di intrusi.
Purtroppo, va però evidenziato che alcuni sviluppi relativi a sistemi AI, mancando o non avendo ancora recepito alcune importanti e fondamentali regole di condotta etica/legale, consentono, qualora un utente lo desideri, elaborazioni digitali di minori che, seppur frutto di un algoritmo con tecniche di deepfake, rappresentano degli innocenti in atteggiamenti o pose inaccettabili e perciò, indiscutibilmente, da censurare.
La creazione di contenuti pedopornografici, anche se virtuali, risulta anche avere effetti deleteri sulla percezione e sul trattamento dei minori nella società e potrebbe anche contribuire a deformare la visione, specialmente nelle menti già disturbate o malate, che esista un’assurda giustificazione al male e quindi una maggiore tolleranza verso comportamenti di questo genere, per il solo fatto che, tali elaborazioni digitali, non siano reali.
E proprio per arginare anche questa perversa “particolarità”, le normative, in molti paesi, già vietano non solo la produzione e la distribuzione di materiale pedopornografico reale, ma anche quello virtuale, con il fine di proteggere i minori e prevenire la diffusione di contenuti che potrebbero normalizzare o incoraggiare comportamenti cosiddetti predatori.
In Italia, il nostro Codice Penale, si avvale degli articoli 600 ter e 600 quater i quali si applicano anche quando il materiale pedopornografico rappresenta immagini virtuali realizzate utilizzando immagini di minori degli anni diciotto o parti di esse, sia pur con pene diminuite di un terzo, rispetto alla detenzione o diffusione di materiale effettivamente ritenuto, purtroppo, reale.
L’AI, quindi, non andrebbe demonizzata ma piuttosto correttamente canalizzata in una cornice più etica, rafforzando gli obblighi di chi è deputato a svilupparne le potenzialità. E’ uno strumento del bene, ma come per la metafora del falco in natura, il rischio di alimentare la libido degli orchi, è sempre lì, dietro l’angolo.