ChatGPT-4 ricorda il titolo di un videogioco con macchine da corsa, il che spiega perché Google ha deciso di battezzare la sua versione del Trasformatore pre-addestrato per generazione di conversazioni (ChatGPT-4 sta per Chat Generative Pre-trained Transformer, version 4) in modo molto più serio, chiamandolo Bard, ovvero Bardo.
In origine il bardo, presso i popoli celtici, era un cantautore professionista, un rapper ante-litteram, che musicava imprese e gesta epiche, esperto di storia, costruttore di racconti.
Nei secoli il significato del termine si è allargato per indicare un autore, possibilmente famoso e molto bravo. Esempio: il grande William Shakespeare è anche conosciuto come il Bardo di Avon.
Presentiamo qui il Bardo, o meglio il Bard di Mountain View, sede della premiata ditta Google LLC.
Bard, per i tecnici si tratta di un chatbot, è in grado di rispondere a non importa quale domanda ed è in grado di discutere di qualunque argomento con l’utente digitante. Per evitare che egli abbia la sensazione di avere a che fare con un essere senziente, Google ha deciso, a differenza di ChatGPT-4 di non dare a Bard un’interfaccia utente di tipo colloquiale.
Potrebbe essere che tale decisione sia conseguente alle polemiche scoppiate lo scorso giugno, quando Blake Lemoine, uno degli ingegneri di Google che stava sviluppando Bard, ha dichiarato alla stampa che il chatbot era diventato senziente, mostrava sentimenti, pensava e ragionava come un essere umano. Un umano giovane, fra i sette e gli otto anni di età. (L’azienda ha messo Lemoine in aspettativa).
Il principio di funzionamento di Bard è analogo a ChatGPT-4. Utilizza come modello di intelligenza artificiale, capace di generare dialoghi strutturati, fluidi e variegati, il LaMDA (Language Model for Dialogue Applications).
LaMDA è un modello linguistico basato su Transformer, un’architettura di rete neurale inventata da Google nel 2017. Tale architettura costruisce un modello che può essere addestrato facendogli leggere trilioni di parole (per essere precisi 1560 miliardi) che gli consentono di raccogliere schemi tipici del linguaggio umano, permettendogli poi di generare risposte di cui è in grado di prevedere la ragionevolezza.
Non troppo chiaro, vero? Tentiamo un altro approccio.
Chat GPT e Bard utilizzano potenti modelli di intelligenza artificiale in grado di prevedere, dopo avere letto miliardi di parole e di frasi, utilizzando metodi statistici, quali parole devono essere ordinate, una dopo l’altra, per costruire frasi che abbiano senso logico e significato in accordo con le regole della lingua utilizzata dall’utente.
Meglio?
Lo scopo finale è rendere le informazioni e il mondo digitale più facili da accedere e usare avvalendosi di applicativi che utilizzano l’intelligenza artificiale generativa conversazionale.
Bard, a differenza dei suoi concorrenti, ha avuto anche la facoltà di apprendere andando a leggersi i dati del servizio Gmail. Contenuti dei messaggi di posta elettronica e conversazioni relative. Dicono che la cosa è stata fatta rendendo il tutto anonimo.
Bard, dichiara Google, vuole essere un collaboratore creativo e utile, che amplifica l’immaginazione dell’utente, aumenta la sua produttività, aiuta a realizzare le proprie idee sia che si voglia organizzare la festa di compleanno perfetta, definire l’elenco di pro e contro relativi a una decisione importante, o comprendere argomenti molto complessi.
Utilizza tre metriche per valutare la qualità dei suoi elaborati: la sensatezza, ovvero se il tutto ha senso o fa senso; la specificità, opposto di genericità e vaghezza; l’interesse, nel senso di generazione di curiosità e conoscenza.
Insomma, Bard c’è per dare una mano. Aiuta a giocare con le idee, a pianificare. Costruisce sintesi semplici di temi complessi. Stende bozze, scrive messaggi di posta elettronica, ma anche poemi, poesie e molto altro. In sintesi, non è un motore di ricerca, ma un metodo per esplorare i più disparati argomenti.
Google è stata forzata a presentare Bard, in fretta e furia, a seguito della sensazione provocata, all’inizio di dicembre dello scorso anno, dal lancio di ChatGPT.
Il 6 febbraio scorso, nella demo di lancio, è stato chiesto a Bard quali scoperte del telescopio James Webb potevano essere raccontate a un bimbo di nove anni. La risposta era in tre punti: nel 2023 ha individuato delle galassie piccole e verdi, battezzate pisellini; ha catturato immagini di galassie vecchie più di 13 miliardi di anni e ha scattato la prima foto di un esopianeta. Peccato che il terzo punto non sia vero. La demo è stata una catastrofe (come tutte le demo d’altronde…).
Bard si è preso una torta in faccia, magnifica e molto cara, visto che Google ha registrato, in una sola seduta, una perdita di valore di mercato dell’ordine delle centinaia di miliardi di dollari. La borsa non perdona.
Anche a causa dello spiacevole evento, Bard invita gli utenti alla cautela. Sconsiglia caldamente di affidarsi ai pareri espressi nei campi medicale, legale o finanziario o in altri dove viene richiesta alta professionalità. Dichiara esplicitamente che le opinioni espresse da Bard non rappresentano quelli di Google e non devono quindi essere attribuite a Google. Mette in guardia sulla possibilità che Bard fornisca informazioni inadeguate o non appropriate.
Chiede, nel caso di risposte non corrette, di essere informata. Però solo per ora, perché il tutto è ancora sperimentale.
Il potenziale di ChatGPT-4 e di Bard è enorme, così come la loro flessibilità di uso, ma sono ancora in fase di messa a punto. Ogni tanto danno i numeri. Google parla di allucinazioni.
Come se nell’oceano delle informazioni in cui si immergono ci fossero gocce tossiche, psicotrope, con effetti allucinogeni per l’appunto.
Già, queste gocce tossiche possono essere una valida metafora delle “Fake news”, le notizie false, dati i loro effetti altamente tossici.
Google, a differenza delle Intelligenze Artificiali generative (IAg) proposte da Microsoft e da OpenAI, ha pensato bene di pubblicare delle “Policy”, ovvero delle linee guida su come utilizzare Bard o i servizi che ne faranno prossimamente uso (tra cui Gmail e Google Docs). A dire il vero ha indicato quali sono gli usi proibiti.
Bard non deve essere usato per “eseguire o facilitare attività pericolose, illegali o dannose”; oppure per generare e distribuire contenuti destinati a “disinformare, travisare o fuorviare”. Non sono permessi usi atti a produrre contenuti “sessualmente espliciti, inclusi quelli creati a scopo di pornografia o gratificazione sessuale”.
Non è consentito “ignorare o eludere i filtri di sicurezza e di spingere intenzionalmente l’IAg ad agire in maniera tale da contravvenire alle politiche” di Google.
Viene fatto divieto della “falsa rappresentazione della provenienza dei contenuti generati”.
In altre parole, gli utenti non possono usare quello che produce Bard spacciandolo per proprio o generato da un essere umano.
Non si può usare per definire contenuti “che impersonano un individuo, vivo o morto”, senza che sia chiaramente specificato.
L’IAg non può essere usata né per fuorviare le persone in tutte le aree ritenute “sensibili”, di cui si è già accennato, quali quelle della salute, della finanza, del governo e delle leggi, né per prendere decisioni “automatiche” in ambiti che incidono «sui diritti materiali o individuali, o sul benessere», come nel mondo del lavoro, dell’assistenza sanitaria, delle assicurazioni e della previdenza sociale. Anche se l’IAg è in grado di produrre contenuti afferenti a tali aree, lo fa solo «a scopo informativo e non sostituisce la consulenza di un professionista qualificato» (possibilmente umano…).
Abbastanza palese che queste regole di comportamento siano state formulate con l’obiettivo primario di proteggere Google dagli usi dell’IAg attualmente consentiti.
Infatti se si vanno a leggere i Termini di Servizio Aggiuntivi (si raccomanda di farlo sempre e comunque, per qualunque servizio cui si accede in rete, anche se lo fanno in pochissimi: voi lo fate?), Google spiega che il servizio «utilizza una tecnologia sperimentale e talvolta può fornire contenuti imprecisi o offensivi che non rappresentano le opinioni di Google». Pertanto invita gli utenti a usarlo con discrezione e a pensarci due volte prima di affidarsi a un contenuto generato da Bard.
Tuttavia i principi espressi sono molto condivisibili. Al punto che forse sarebbe opportuno chiedere ai fornitori di servizi di IAg di evidenziare, negli elaborati forniti agli utenti, quali brani, paragrafi, idee sono stati prelevati dove e da chi.
Mi è già capitato di trovare un’intera voce di Wikipedia riportata, parola per parola, nel testo di un breve saggio generato a seguito di una mia richiesta a ChatGPT.
Si può definire la regola secondo cui le IAg non possono usare quanto da loro elaborato per rispondere a domande successive. In alternativa, o in modo complementare, si può chiedere che quanto viene elaborato dalle IAg venga memorizzato in uno spazio dati dedicato, così che sia sempre possibile, utilizzando un motore di ricerca tradizionale, verificare se il testo che si ha davanti sia umano o artificiale.
Una tale soluzione renderebbe di certo la vita molto più semplice ai docenti universitari per capire se l’elaborato di tesi del candidato sia o meno originale. Eviterebbe il rischio di essere accusati di plagio. Consentirebbe una maggiore protezione della proprietà intellettuale.
Insomma, si sta configurando un nuovo gioco e servono regole per giocarlo al meglio.
Anni fa, quando il nostro era ancora un Paese pensante, la Presidenza del Consiglio dei Ministri chiese, in una situazione simile, a un piccolo gruppo di persone che sapevano di cosa stavano parlando, di definire le Linee Guida per l’Informatica nella Pubblica Amministrazione. Lo fecero in pochi mesi.
Occorre che oggi venga chiesto, a un gruppo con le stesse caratteristiche di quello di tanti anni fa, di definire le Linee Guida per l’uso intelligente dell’intelligenza artificiale, tanto nel pubblico quanto nel privato.
Anche in questo caso lo si può fare in pochi mesi. Basta volerlo.
Come dite? Devo smettere di sognare?