Per favore, provate.
Basta digitare https://openai.com/blog/chatgpt/ e troverete un pulsantone con sopra scritto TRY CHATGPT. Cliccateci sopra e siete sulla prima pagina di ChatGPT. Per andare avanti vi viene chiesto di dimostrare che non siete un robot.
Divertente assai. Un chatbot che chiede a un umano di dimostrare che non è un robot.
Per chi non lo sapesse, un chatterbot o chatbot, contrazione di chat-robot, è un programma per calcolatore elettronico che, utilizzando intelligenza artificiale, insieme alla capacità di processare il linguaggio naturale, “capisce” le domande di un utente e risponde in modo automatico a esse, simulando una conversazione fra “umani”.
ChatGPT, come InstructorGPT, è uno dei prodotti dimostrativi di OpenAI, azienda nata nel dicembre 2015 come laboratorio di ricerca e dimostrazione di sistemi di intelligenza artificiale la cui missione è: “assicurare che l’intelligenza artificiale generale (AGI) – vengono così denominati i sistemi altamente autonomi capaci di superare, con costo del lavoro più basso, le prestazioni degli umani- sia di beneficio per l’umanità intera”.
Descrive la visione dell’azienda, non la sua missione. Suona bene, anche se leggermente minaccioso.
Scoprire che la OpenAI è costituita dall’azienda non-profi OpenAI Inc. e dalla OpenAI LP che invece è una for-profit, genera qualche interrogativo, però spiega perché la Microsoft sia annoverata fra i suoi azionisti. Dopo avere investito un miliardo di dollari, girano voci che sia intenzionata a metterne altri dieci, di miliardi di dollari. Altri investitori mostrano grande interesse. Eppure, oggi come oggi, a parte le demo di sicuro fascino e poco più, OpenAI non ha certo generato grandi utili.
Il fatto è che nessuno ha le idee chiare. Cosa ChatGPT sia in grado di fare è ancora tutto da verificare. Però il mondo dei Venture Capitalist e degli imprenditori condivide la sensazione che la tecnologia dietro a ChatGPT, conosciuta come “generative AI”, termine che comprende gli algoritmi in grado di generare testi, immagini e dati vari, possa essere di enorme successo.
Interessante notare come l’eccitazione generata dalle crescenti capacità creative dell’intelligenza artificiale superi di molto la richiesta dell’intelligenza naturale di evidenze sperimentali…
Secondo alcuni si sta rivivendo il tempo degli esordi di Internet, quando non chiare e non sempre funzionanti demo hanno di fatto aperto il vasto oceano della rete inducendo cambiamenti radicali che hanno interessato il modo di progettare il software, gestire le aziende tecnologiche, la società intera.
ChatGPT è comparsa sulla scena il dicembre scorso. Diversamente da altre applicazioni simili, è riuscita a suscitare interesse, a eccitare gli animi.
Perché è divertente. Perché è utile. Perché riesce a rispondere alle domande in modo sensato; se hai scritto un programma che non funziona, aiuta a metterlo a posto eliminando gli errori; è capace di mettere insieme saggi sufficientemente coerenti da potere fare superare l’esame al candidato/a tecnologicamente truffaldino/a (a proposito, varie università hanno già messo al bando ChatGPT e gli studenti devono sostenere gli esami scritti utilizzando arcaiche tecnologie quali carta e penna).
Domanda sorge spontanea: GPT sta per cosa? In inglese sta per “Generative Pre-trained Transformer”. In italiano: “Trasformatore generativo pre-addestrato”.
Il motore di ChatGPT è la versione di terza generazione di GPT, ovvero GPT-3, anch’esso sviluppato da Open AI LP, la non-profit.
GPT-3 è un modello di apprendimento automatico basato su rete neurale che viene “addestrato” a generare qualsiasi tipo di testo, utilizzando dati succhiati da Internet,.
Alla macchina bastano piccole quantità di testo in input per generare in automatico testi, pertinenti e convincenti, sufficientemente sofisticati da sembrare scritti da un umano: riassunti, poesie nello stile di Shakespeare e altri autori famosi, storie, articoli, notizie, dialoghi, post, testi pubblicitari, codici di programmazione, meme, ricette, fumetti.
Elenco non esaustivo.
Utilizzando un’opportuna interfaccia, GPT-3, ricevendo come input una semplice descrizione di ciò che si desidera, è in grado di generare siti web; se viene digitato l’indirizzo di rete non ha nessuna difficoltà a clonare un sito esistente.
GPT-3 non ha problemi con le attività conversazionali automatizzate, rispondendo a qualsiasi testo digitato da una persona con testi appropriati al contesto. Viene utilizzato anche nel mondo dei giochi per creare dialoghi realistici, quiz, immagini e altri elementi grafici basati su suggerimenti di testo.
Vi basta?
Tutto questo è reso possibile dalla rete neurale di GPT-3, la più grande mai prodotta, che lavora con oltre 175 miliardi di parametri. Prima di GPT-3 il modello più avanzato era il Turing NLG di Microsoft, che lavorava con “soli” 10 miliardi di parametri.
Spiegare come funziona è ovviamente possibile, ma richiede spazio che qui non ho. Se vi interessa, fatemelo sapere che approfondiamo il tema.
GPT-3 ha tanti vantaggi, ma presenta anche limiti e rischi.
Il problema più grande è che è pre-addestrato. Non impara dall’esperienza in modo continuo. Non ha una memoria a lungo termine.
Come tutte le reti neurali, non è capace di spiegare e interpretare perché determinati input si traducano in output specifici.
La sua architettura non consente agli utenti di fornire come input molto testo: gestisce solo poche frasi.
Non è veloce, anzi è cronicamente lento.
Infine, grande problema, ha troppi pregiudizi. Poiché il modello è stato addestrato in base ai testi disponibili sulla Rete, acquisisce i pregiudizi che gli esseri umani esibiscono nei loro testi online. Il che preoccupa. Molto. Un esempio per tutti. Si è scoperto, sperimentalmente, che GPT-3 è particolarmente abile nel generare discorsi che imitano quelli dei teorici della cospirazione e dei suprematisti bianchi. I gruppi estremisti potrebbero automatizzare i loro discorsi di odio.
Da citare un grande rischio. La qualità dei testi generati è sufficientemente alta per creare “fake news”. Può verificarsi una selvaggia proliferazione di “notizie false” molto difficili da smascherare. Con un micidiale effetto a medio lungo-termine che interesserà le prossime versioni di ChatGPT e modelli generative AI simili.
Come accennato, sono sistemi che vengono addestrati sifonando dati dalla rete. Allo stesso tempo, i testi che producono vanno ad alimentare la rete. Alcuni veri, altri del tutto falsi che “sporcano” i dati disponibili in rete. Si può verificare un effetto valanga, con la crescita esponenziale delle “deiezioni” e si rischia di finire nella … beh, avete capito.
Torniamo a OpenAI, quella senza scopo di lucro.
OpenAI ha rilasciato l’accesso a GPT-3 in modo incrementale, con un periodo beta di prova che permetteva a chi fosse interessato di utilizzare il modello, senza alcun costo.
Il periodo beta è terminato il 1° ottobre 2020 e con esso la gratuità. Il prezzo ora è definito da un sistema basato su crediti che va da un livello di accesso gratuito per 100.000 crediti o tre mesi, a centinaia di dollari al mese.
Il che spiega sia perché nel 2019 Microsoft abbia investito in OpenAI il miliardo di dollari di cui si è accennato sopra per diventare il licenziatario esclusivo del modello GPT-3, sia perché esista una OpenAI LP a fine di lucro.
In realtà esistono anche altri motivi d’interesse per la Microsoft.
Il primo ha a che fare con l’utilizzo da parte della OpenAI della piattaforma Cloud della Microsoft, come previsto dall’accordo fra i due.
Costruire strumenti come GPT-3 e ChatGPT richiede grandi capacità di calcolo, per non parlare dei dati necessari per l’addestramento. OpenAI può alimentare le ambizioni della Microsoft di diventare un attore importante nel mercato del Cloud computing. Sempre che la Microsoft investa nello sviluppo di tecnologie più potenti che le consentano di crescere. Non ha molte scelte. Nel 2021, Amazon aveva il 40 percento del mercato Cloud, la Microsoft il 15, mentre Google, spesso considerato leader nel mondo della AI, era fermo al 6 per cento.
Secondo motivo è la maggiore libertà che ha una start-up come OpenAI di sperimentare nuovi approcci nella generative AI.
Se una delle soluzioni proposte dovesse comportarsi male, combinare guai, la ricaduta negativa, sia economica che di immagine, sarebbe di certo gestibile. Lo stesso non si può dire se dovesse accadere un incidente di percorso della dimensione di Google o Microsoft. Eventuali effetti negativi si propagherebbero sulle loro intere linee di prodotto.
Si possono quindi intuire le ragioni di Microsoft nell’investire altri 10 miliardi di dollari in OpenAI.
Non sono stati indicati i termini del possibile nuovo accordo. I soliti bene informati dicono che Microsoft riceverà il 75 per cento dei profitti di OpenAI fino a che non venga ripagato l’investimento. Quindi avrebbe la proprietà del 49 per cento della OpenAI, mentre un altro 49 percento sarà nelle mani di altri investitori, con la OpenAI non-profit proprietaria del restante 2 per cento.
Chi ha intelligenza, naturale, artificiale, o combinazione di entrambe, stia a guardare.
Si prevedono interessanti sviluppi.