L’entusiasmo non può (o non dovrebbe) disinnescare il buon senso. Eppure capita, e con sempre maggiore frequenza.
L’inebetito torpore di chi si ubriaca di ChatGPT e altre soluzioni simili non consente una lucida valutazione di quel che sta accadendo. Lo stato di paradisiaca ebbrezza causato dalle rapide risposte fornite sui più disparati temi ha fatto progressivamente perdere la minima coscienza che avrebbe indotto a premere un immaginario “tasto pausa” e a cercare di capire cosa stia realmente succedendo.
Prendiamo atto che la cosiddetta AI è comodissima. Al contempo, però, ci si chieda se quel che ci viene somministrato è attendibile, ha concreto fondamento, corrisponde a quel che ci serve davvero, non ha controindicazioni di sorta.
Certe piattaforme riescono a redigere documenti che sembrano fare al caso nostro, evitando i necessari approfondimenti e la stesura di un testo che in questo modo viene scodellato apparentemente secondo le nostre aspettative. Apparentemente. Ripeto apparentemente.
L’elaborato che viene prodotto soddisfa le esigenze dei pigri e degli analfabeti, categorie ampiamente popolate a qualunque livello delle organizzazioni pubbliche e private. Chi vuole fare in fretta ha trovato la sua cornucopia e poco importa se il prodotto è intrinsecamente fallato. Quel che conta è l’illusoria completezza del documento ottenuto e la scorrevolezza del testo, a prescindere da quel che è scritto che il committente non è per sua natura in grado di valutare. Per la valutazione, infatti, occorre una competenza che – se disponibile – non imporrebbe l’umiliazione di farsi scrivere qualcosa da una macchina.
Chi nel tempo ha avuto necessità di “sapere di più” su qualsivoglia tema si è trovato dinanzi a due possibilità: andare in biblioteca oppure sfruttare – da Altavista a Google – i motori di ricerca di immediata consultazione online.
Quest’ultima via ha rappresentato per anni il più efficace ed economico sistema per rintracciare quel che poteva servire ed ottenere gli “ingredienti” per “cucinare” quanto di interesse.
Il ChatGPT di turno somiglia molto ai cuochi che sono gelosi delle loro ricette e non hanno piacere che si sappia come hanno confezionato il “piatto” che tanto ingolosisce l’avventore. Lo “chef digitale” non ne vuole parlare perché quelle cose potrebbero essere state sottratte a chi era titolare del relativo diritto d’autore, oppure sono state suggerite da chi ha interesse a veicolare determinate informazioni, o ancora provengono da contenitori privi di alcuna credibilità… Quel che viene servito potrebbe tradursi in una polpetta avvelenata o semplicemente indigesta, ma ci si rifiuta di immaginare un simile rischio.
Anche il motore di ricerca riesce a propinare esche mortali non sempre etichettate dalla fatidica espressione “sponsorizzato” che identifica i link in primissima posizione non per valenza o attendibilità ma per il corrispettivo pagato dall’inserzionista. In ogni caso, però, è l’utente a scegliere cosa andare a leggere e cosa adoperare per i suoi scopi. Dinanzi a centinaia di possibili fonti da cui estrarre quel che serve, l’utilizzatore può individuare cosa corrisponde all’obiettivo che intende perseguire e può effettuare tutte le verifiche per evitare bufale e fandonie.
Le prospettive non sono rosee. Chi ha in mano i motori di ricerca sta corredando i propri portali di funzionalità guidate che riducono l’autonomia dell’utente e che incrementano la spinta verso risultati preconfezionati…
Mala tempora currunt.