Pochi giorni fa, questo giornale è stato oggetto di un piccolo esperimento, che si potrebbe facilmente classificare come misfatto da molti punti di vista – e come tale è stato immediatamente e spontaneamente confessato all’interno della redazione.
Il mio articolo Quali sono le prospettive della IA in campo medico?, in realtà non ha richiesto da parte mia alcuno sforzo né immaginativo, né di lavoro effettivo. Si tratta infatti di un articolo quasi completamente scritto in inglese dalla famigerata AI ChatGPT, e tradotto in italiano utilizzando il motore AI online Deepl.com. Di mia mano, ho corretto giusto un paio di termini, e scritto l’ultimo paragrafo.
Un esperimento, dicevo, perché ero interessato a vedere come questo tipo di sistemi, i quali promettono di cambiare in maniera fondamentale il nostro modo di lavorare in quanto knowledge workers, possono effettivamente sostituire l’esperienza, la conoscenza, la capacità espressiva e lo stile di un giornalista umano.
Per l’esperimento, ho scelto un campo che mi fosse ben conosciuto, quello in cui svolgo la mia attività principale da ormai venticinque anni; e che avesse una sufficiente qualità prospettica, tale da consentire alla AI di trarre – o riassumere – le proprie conclusioni in materia.
La rilettura dell’articolo dopo un paio di giorni rivela subito un paio di cose. La prima, Chat GPT è abbastanza impeccabile quando si tratta di collezionare e riassumere fatti, in particolar modo quando si tratti di temi ampi, generali, per i quali è presente un’ampia documentazione online. Da questo punto di vista, questa particolare declinazione della AI è un idiot savant sotto steroidi. Sa tutto quello che c’è da sapere riguardo un certo argomento, dato che attinge potenzialmente a tutta la conoscenza distribuita in rete per derivare le proprie risposte. Sa tutto, ma non conosce nulla.
È anche in grado di modulare dal punto di vista superficialmente quali-quantitativo il tipo di risposta da fornire. Nel caso specifico, gli avevo chiesto di scrivere un articolo di giornale di 3000 parole sull’argomento di interesse. Ma le similarità con un ben preparato essere umano finiscono qui.
Quello che manca nella lunga, ordinata, e forbita esposizione, è una qualunque scintilla di fantasia o di stile. I fatti vengono enunciati in maniera fredda, asettica, precisa, ordinata, ma senza che nello scritto si evidenzi una qualunque parvenza di capacità di ingaggio per il lettore. ChatGPT è in grado – alludendo al più famoso passaggio di Guida galattica per autostoppisti – di fornire una risposta secca, fattuale, analogica. Non ha alcuna idea del suo significato, ne riesce ad esprimere e a trasferire nel lettore la minima sensazione che chi risponde non conosca unicamente la risposta, ma abbia capito il senso della domanda.
Certo, questa tecnologia è appena nella sua infanzia, e gli sviluppi possibili sono imprevedibili. Probabilmente è già possibile addestrare questo tipo di sistemi ad esprimersi scrivendo con lo stile di artisti della parola di cui siano rimaste opere cospicue. Forse potremmo avere presto una AI che scriva con lo stile di Shakespeare o di Proust, ma molto difficilmente potremmo averne una che sia in grado non solo di produrre, ma anche di comprendere il senso profondo della luce del giorno che entra da un balcone a Verona, o capire cosa si celi dentro la rassicurante ombra delle fanciulle in fiore.
Il giorno in cui un giornalista o uno scrittore avrà a propria disposizione una AI personalizzata che sulla base di tutto quanto egli avrà scritto nella sua esistenza sarà in grado di rispondere efficacemente alla stringa di comando “scrivi un libro di 300 pagine su questo argomento usando il mio stile”, verrà, alla fine.
Ma a questo Valar Morghulis sussurratoci dagli Abissi d’acciaio asimoviani che sempre di più stringono da vicino la nostra coscienza, noi rispondiamo con la sfrontatezza malinconica di Arya Stark.
Non oggi.