Mai sentito parlare del paradosso di Moravec? No? Allora mettetevi comodi che vado a colmare tale gravissima lacuna…
Permettetemi di presentarvi Hans Peter Moravec. Austriaco di nascita, docente all’istituto per la robotica dell’università Carnegie Mellon di Pittsburgh, Stati Uniti. Piuttosto conosciuto per i suoi lavori nel campo della robotica, dell’intelligenza artificiale e per i suoi scritti sull’impatto della tecnologia. Lo si considera anche un futurista per le sue molte pubblicazioni e predizioni relative al transumanesimo.
Come dite? Cos’è il transumanesimo?
Semplice, il transumanesimo è un movimento filosofico e intellettuale che persegue il miglioramento della condizione umana grazie allo sviluppo e disponibilità di tecnologie, altamente sofisticate, che permettono di aumentare la durata della vita e le capacità cognitive.
I transumanisti sono a favore dell’utilizzo delle tecnologie emergenti, anche di quelle piuttosto controverse, come l’ingegneria genetica sull’uomo, la nanotecnologia, la neurofarmacologia, le protesi bioniche e le interfacce mente/macchina, la “crionica” (dal greco kryos, freddo; preservazione a basse temperature di organismi viventi, uomo compreso, che la medicina oggi non è in grado di tenere in vita, con la speranza che in futuro sia possibile ripristinare le loro funzioni vitali per curarli), senza dimenticare l’insieme delle tecnologie digitali, non importa quanto spinte.
Ritengono che l’intelligenza artificiale supererà quella umana (quando non è dato di sapere, ma accadrà), realizzando la cosiddetta singolarità tecnologica, quando cioè il progresso tecnologico accelera fino a superare la capacità di comprendere di noi poveri, da quel giorno in poi, umani…
I transumanisti studiano i pericoli e i benefici delle nuove tecnologie e si interrogano sugli aspetti etici della loro diffusione e utilizzo.
Come presentazione dell’ottimo Moravec può bastare. Torniamo al suo paradosso.
Ha a che fare con la capacità di calcolo. Moravec osserva come, nei campi dell’intelligenza artificiale e della robotica, in modo controintuitivo, il ragionare richiede molto poco calcolo, mentre le abilità motorie e sensoriali ne richiedono enormi quantità.
Scrive Moravec, nel 1988: “… è relativamente facile fare in modo che un calcolatore elettronico abbia delle prestazioni da adulto svolgendo un test di intelligenza o giocando una partita a scacchi; è difficile, se non impossibile, dargli le abilità percettive e di mobilità di un umano di 12 mesi di età.”
Marvin Minsky, co-fondatore del laboratorio per l’Intelligenza Artificiale al MIT, Massachusetts Institute of Technology, (Kubrick, per ringraziarlo della sua preziosa consulenza nella produzione di “2001 Odissea nello spazio” chiamò uno dei personaggi del film Kaminski…) si espresse sulla stessa linea, affermando che le abilità e capacità più difficili da riprodurre sono quelle al di sotto del livello di coscienza: “In generale”, fa notare, “abbiamo coscienza minima di quanto la nostra mente fa al meglio”. Aggiunge poi: “Abbiamo maggiore consapevolezza dei processi semplici che non lavorano bene che di quelli complessi che lavorano perfettamente”.
Per completare la rassegna dei padri dell’intelligenza artificiale, riportiamo quanto scritto da Steven Pinker, linguista e scienziato cognitivista, nel 1994: “La lezione più importante dei 35 anni di ricerca nel campo dell’intelligenza artificiale è che i problemi difficili sono facili da risolvere, mentre quelli semplici sono difficili.
Oggi i calcolatori elettronici sono centinaia di milioni di volte più veloci e potenti di quanto non lo fossero negli anni 1970 e cominciano a essere in grado di gestire la percezione e le abilità sensoriali, come previsto da Moravec nel 1976.
Nel 2017, Andrew Ng, co-fondatore di Google Brain e direttore del SAIL, lo Standford AI Lab, presentò una regola “altamente spannometrica” che recita: “Probabilmente già oggi, o nel prossimo futuro, saremo in grado di automatizzare, usando l’intelligenza artificiale, qualunque cosa un umano riesca a fare pensandoci meno di un secondo”.
Il paradosso di Moravec si può sintetizzare dicendo che un computer è capace di fare facilmente le cose per noi difficili e non è capace di fare le cose per noi facili.
Esempio: provate a moltiplicare 20.031.954 per 31.071.990. Fatto? Noi no, il computer sì.
Prendete ora un bicchiere, riempitelo d’acqua e bevetelo. Fatto? Noi sì, il computer no.
Perché?
Una possibile spiegazione, secondo Moravec, ha a che fare con l’evoluzione. Tutte le abilità umane sono implementate biologicamente, utilizzando sistemi e sottosistemi complessi che sono stati messi a punto dalla selezione naturale. Nel corso dell’evoluzione i loro miglioramenti progettuali e ottimizzazioni sono stati continuamente memorizzati e applicati. Quanto più antica è un’abilità, tanto maggiore è il tempo di questo processo di perfezionamento. Il pensiero astratto è invece un’abilità piuttosto giovane e dunque la sua implementazione non può essere altrettanto efficiente.
Scrive Moravec: “Codificata nelle grandi porzioni sensoriali e motorie, altamente evolute, del cervello umano c’è un miliardo di anni di esperienza su cosa sia il mondo e come sopravvivere in esso. Il processo deliberato che chiamiamo ragionamento è, credo, la patina, lo strato più sottile del pensiero umano, efficace solo perché è supportato da questa conoscenza sensomotoria molto più antica e molto più potente, anche se solitamente inconscia. Siamo tutti prodigiosi campioni olimpici in ambito percettivo e motorio, così bravi da far sembrare facile il difficile. Il pensiero astratto, però, è qualcosa di nuovo, forse ha meno di 100 mila anni. Non l’abbiamo ancora imparato. Non è che sia intrinsecamente difficile; lo sembra a noi quando lo esercitiamo”.
Vediamo di sintetizzare:
- La difficoltà di decodificare qualsiasi abilità umana è approssimativamente proporzionale alla quantità di tempo in cui l’abilità si è evoluta negli animali, specie di cui facciamo parte.
- Le abilità umane più antiche sono in gran parte inconsce e quindi ci sembra che non richiedano sforzo.
- Le abilità che sembrano facili sono difficili da decodificare, ma le abilità che richiedono sforzo non sono affatto difficili da riprodurre in digitale.
Esempi di abilità che si sono evolute per milioni di anni: riconoscere un volto, muoversi nello spazio, giudicare le motivazioni delle persone, prendere una palla, riconoscere una voce, fissare obiettivi appropriati, prestare attenzione. In altre parole, qualsiasi cosa abbia a che fare con la percezione, l’attenzione, la visualizzazione, la comunicazione, le abilità motorie o sociali. Elenco non esaustivo.
Esempi di abilità apparse più di recente: matematica, ingegneria, giochi, statistica, probabilità, logica e ragionamento scientifico. Attività per noi difficili perché successive, secondarie ai nostri corpi e cervelli. Sono abilità e tecniche acquisite recentemente. Hanno avuto al massimo qualche migliaio di anni per affinarsi. I sistemi di intelligenza artificiale “imparano” seguendo le istruzioni che noi diamo loro, istruzioni che abbiamo a nostra volta imparato risolvendo problemi, vincendo partite, applicando la logica. I passi necessari per eseguire questi compiti sono conosciuti. Quindi possiamo tradurli in comandi, righe di codice, programmi, che la macchina è in grado di eseguire. Ovviamente senza comprenderli. Trattasi sempre e comunque di macchina.
Insomma, per quanto possa sembrare controintuitivo, costruire un corpo artificiale è molto più difficile di un’intelligenza artificiale. Spero sia tutto chiaro. Vediamo di riassumere.
Agli albori della ricerca sull’intelligenza artificiale, si pensava che in pochi decenni ci sarebbero state macchine in grado di pensare. Ottimismo che derivava dal successo dei programmi che, utilizzando logica più o meno complessa, risolvevano problemi di algebra e geometria, giocavano a dama o a scacchi. Le macchine venivano considerate intelligenti in base all’assunto che, dato che logica, algebra o matematica sono considerate materie difficili, saperle maneggiare è segno di intelligenza. L’intelligenza era caratterizzata come ciò che scienziati (preferibilmente maschi) altamente istruiti trovavano impegnativo: giochi, dimostrare teoremi matematici, risolvere complicati problemi relativi al linguaggio, alla sua sintassi e interpretazione.
Erano in molti, fra gli esperti, a presumere che, avendo (più o meno) risolto i problemi “difficili”, i problemi “facili” della visione e del ragionamento di buon senso avrebbero presto trovato soluzione. Errore clamoroso. Il fatto è che i problemi di logica e algebrici sono estremamente facili da risolvere per le macchine. Invece, i problemi della visione, sensoriali, del movimento e del ragionamento sono per loro incredibilmente difficili.
Le attività che i bambini di quattro o cinque anni fanno senza sforzo, di solito apprese essendo del tutto analfabeti, come distinguere una tazzina da caffè da una sedia, camminare, correre, salire e scendere le scale su due gambe, o trovare la strada dalla loro camera da letto al soggiorno, sono proibitive per una macchina, per quanto potente possa essere.
Gli umanoidi di I, Robot, le armate Cylon di Battlestar Galactica, l’ottimo Terminator sono molto, molto lontani a venire. I robot, macchine in grado di interagire autonomamente con il mondo esterno tramite percezione e movimento popolano la fantascienza, non i laboratori di ricerca.
Le applicazioni IA di successo del 21° secolo non simulano, passo dopo passo, la risoluzione di problemi “intelligenti”, bensì riproducono, con moli errori, i giudizi rapidi e “intuitivi” che le persone usano per riconoscere istantaneamente e automaticamente schemi e anomalie. A fare notizia sono i modelli di IA capaci di ascoltare e parlare – come Alexa o Siri- vedere, classificare e generare immagini, riconoscere volti e loro espressioni -come Midjourney o DALL-E2- e apprendere: Chat GPT o Bard, per citare i più noti.
La lezione principale di trentacinque anni di ricerca sull’IA è che i problemi difficili sono facili e i problemi facili sono difficili. Le capacità mentali del bambino di quattro anni, già incontrato, che diamo per scontate, di fatto sono problemi ingegneristici fra i più difficili mai concepiti. Insomma, la nuova generazione di applicazioni basate sulla IA mettono in pericolo i mestieri degli analisti di borsa, ingegneri, medici, legali e simili.
I giardinieri, addetti alla portineria, cuochi, parrucchieri e barbieri possono dormire sogni tranquilli.
Vivranno felici e contenti per molti, molti anni e a noi non ci rimarrà “nienti” (in siciliano nel testo)…