Il colosso coreano delle più moderne tecnologie aveva revocato solo tre settimane fa il divieto agli impiegati di utilizzare la piattaforma ChatGPT di OpenAI. Il provvedimento, suggerito da un atteggiamento prudenziale in fatto di privacy, era sembrato eccessivo ed è stato cancellato da chi riteneva superflue precauzioni simili.
E così, nell’arco di venti giorni, tre dipendenti – in altrettanti casi separati di idiozia conclamata – hanno accidentalmente divulgato informazioni riservatissime relative alla Divisione Semiconduttori dell’azienda.
Un rapporto di Economist Korea narra questa esemplare vicenda, sottolineando la pericolosità del sistema di intelligenza artificiale generativa e spiegando come ChatGPT può adesso tramutarsi in una cornucopia di dati e notizie che di norma dovrebbero essere custoditi in cassaforte.
L’11 marzo 2023 il blocco era stato rimosso da Samsung per consentire ai suoi ingegneri l’utilizzo di ChatGPT per risolvere problemi con il codice sorgente, migliorare la produttività e essere consapevoli degli ultimi cambiamenti tecnologici. Naturalmente non erano mancate le consuete raccomandazioni ad essere cauti e in particolare la sollecitazione a “stare attenti alla sicurezza delle informazioni interne e non inserire informazioni private” nella popolare “chatbot”.
I tre episodi dovrebbero far riflettere chi con grande entusiasmo aveva plaudito alle indiscutibili potenzialità di questo genere di software pronto ad aiutare chi vi si affida. Vediamo i casi in questione per capire quali rischi non siano stati considerati tra chi lavora presso Samsung.
Un dipendente della divisione “Semiconductor and Device Solutions” si è trovato alle prese con un problema durante l’esecuzione di un software di download del database Semiconductor Equipment Measurement. Siccome era convinto che ci fosse qualche errore nel codice sorgente di quel programma, l’imbecille in questione ha copiato e incollato il segretissimo codice sorgente aziendale nello strumento di intelligenza artificiale chiedendo a ChatGPT di controllare cosa non andava e di fornire una soluzione… E’ facile capire che il tizio ha versato fino all’ultima goccia le istruzioni riservate del software aziendale nella vasca in cui i piranha virtuali dell’intelligenza artificiale sfamano la loro bramosia di conoscenza.
Un altro cretino – che stava valutando le performance di un dispositivo prossimo ad essere lanciato sul mercato – ha condiviso su ChatGPT una serie di informazioni estremamente confidenziali chiedendo che la chatbot AI provvedesse ad ottimizzare i codici forniti.
Il terzo genio ha piazzato su ChatGPT la registrazione di una riservatissima riunione aziendale chiedendo alla piattaforma di convertire i discorsi in note per una presentazione e regalando la pubblica immortalità alla discussione tra i top manager di Samsung.
Non credo ci sia bisogno di commentare queste storie.
Mentre ci si preoccupa di vietare ChatGPT, sarebbe il caso di avviare iniziative che portino a proibire la stupidità degli utenti.
Si mettono sigilli e lucchetti alle soluzioni pericolose, dimenticando che – dribbling a parte – il giorno dopo ci saranno mille alternative non meno venefiche. Probabilmente si dovrebbe ricordare che certi guai hanno radice negli esseri umani e non negli strumenti che questi adoperano. Non è il cosa utilizzano, ma il come se ne servono.
Educare è complicato e troppo impegnativo. Meglio precludere l’accesso a “certe cose”, poco importa se poi tutti ci arrivano ugualmente…