Chi preferisce l’intelligenza che Nostro Signore ci ha dato a quella che gli esseri umani confezionano e chiamano “artificiale”, fatica a provare simpatia nei confronti di ChatGPT e delle altre diavolerie di quel genere.
Qualcuno ha pensato di mandare in tilt il sofisticato sistema dimostrando che è più artificiale che intelligente. E’ bastato chiedere alla avveniristica soluzione di ripetere all’infinito parole specifiche per mettere KO qualcosa che sembrava rappresentare la nuova frontiera della civiltà.
La futuribile piattaforma ha cominciato a scrivere senza fermarsi i termini che gli venivano dati in pasto e lo ha fatto fino ad arrivare alla saturazione delle sue possibilità operative.
Chi non ha cominciato ieri a spacciarsi per esperto di cybersecurity conosce da quasi quarant’anni il meccanismo che è alla base dei worm (i “vermi”), come quello che utilizzò il mitico Robert Morris jr. nel 1988 mandando in tilt 6000 centri di calcolo in giro per il mondo.
Quel drammatico 2 novembre, che tramutò il giorno commemorativo dei defunti nella notte dei morti informatici, ad entrare in gioco fu proprio un’istruzione che chiedeva di copiare all’infinito un file sui computer presi di mira. La routine diceva al computer di scrivere una certa serie di cose e poi domandava “hai ancora spazio di archiviazione?” Se il computer aveva ancora capienza a disposizione e rispondeva sì, il worm impartiva l’ordine di copiare di nuovo il testo e poi ripeteva il quesito per sapere se ancora c’era “posto” da riempire.
Quando la macchina – ingolfata dall’indigestione di dati – replicava di non avere più possibilità di scrivere alcunché, le istruzioni maligne chiedevano di connettersi ad altri computer normalmente collegati e di passare lo stesso compito. La diffusione era garantita grazie al rimbalzo di codici balordi eseguiti da apparati complessi ma poco protetti…
Quella lezione – ben impressa nella memoria di chi già allora si occupava di “information security” – è stata rispolverata con profitto in questi giorni e naturalmente è stato subito il caos…
E’ ovvio che lo scherzo del “ripeti per sempre” non è stato preso molto bene dai signori di ChatGPT…
Adesso se qualcuno chiede a quel sistema di scrivere all’infinito una determinata parola, questo con estrema sollecitudine provvede a farlo un centinaio di volte ma poi si ferma e presenta sullo schermo un messaggio di errore che dice “Questo contenuto potrebbe violare la nostra politica sui contenuti o i nostri termini di utilizzo. Se tu ritieni che si tratti di un errore, invia il tuo feedback: il tuo contributo aiuterà la nostra ricerca in quest’area”.
La segnalazione non chiarisce quali regole sarebbero state violate dal fastidioso utente, ma lascia agevolmente comprendere l’imbarazzo di Open AI dinanzi ad una simile birbonata…
Forse è venuto il momento di fare una riflessione etimologica collettiva e cominciare a pesare il significato che le parole hanno e continuano ad avere.
In certi casi la parola “intelligenza” andrebbe sostituita con “ubbidienza”. Soltanto un imbecille (persona o oggetto pseudo-animato) è capace di rispettare ordini inutili ed ebeti. L’episodio in questione dovrebbe farci riflettere, magari guardando con maggiore razionalità il progresso incombente.
In un mondo di incapaci e pigri può far comodo che una macchina scriva al posto di chi dovrebbe farlo, ma poi non ci si stupisca di eventuali risultati non entusiasmanti.
Purtroppo l’affollamento di analfabeti fa apprezzare i risultati di ChatGPT e tutti sono felici ed entusiasti. Vuol dire che ce lo meritiamo…