ChatGPT, un popolare programma di intelligenza artificiale sviluppato da OpenAI, è stato salutato come un sistema AI superpotente con il potenziale per trasformare varie industrie. Tuttavia, ha anche suscitato preoccupazioni per la disonestà accademica, la sostituzione del lavoro e il pregiudizio politico, portando alcuni governi a prendere misure drastiche per vietarlo.
Il recente divieto di ChatGPT in Italia ha spinto diversi altri paesi, tra cui Francia, Irlanda, Germania e Canada, a considerare politiche simili. L’Autorità italiana per la protezione dei dati ha citato preoccupazioni per la massiccia raccolta e conservazione di dati personali senza alcuna base legale e ha dato a OpenAI 20 giorni per rispondere con modifiche o affrontare una pesante multa di milioni di dollari. Nel frattempo, leader dell’industria come Elon Musk stanno chiedendo una “pausa AI”.
Tuttavia, reazioni impulsive come questi divieti potrebbero non fornire molti benefici alla società. Invece, i governi dovrebbero concentrarsi sulla mitigazione dei danni immediati, come la disinformazione e la diffamazione, valutando anche come i sistemi emergenti di intelligenza artificiale interagiscono con la legge.
I chatbot come ChatGPT rientrano nella categoria di AI generativa, che crea diverse forme di media utilizzando sistemi di apprendimento automatico. Mentre i regolatori statunitensi hanno affrontato problemi legati alla discriminazione algoritmica, l’AI generativa pone nuove domande e sfide. Ad esempio, Dall-E può produrre immagini e opere d’arte realistiche basate su input degli utenti, sollevando preoccupazioni sulla privacy e sull’appropriazione.
Tuttavia, i divieti presuppongono problemi con la tecnologia in evoluzione prima che siano completamente definiti, trascurando le applicazioni positive dell’AI generativa, come l’aumento dell’efficienza e della produttività. Gli esperti sanitari prevedono che l’AI generativa possa essere utilizzata per scopi amministrativi e migliorare l’esperienza del paziente. Se il divieto viene implementato con successo, l’Italia e altri paesi che seguono l’esempio impediranno solo agli utenti di utilizzare il programma popolare e scoraggeranno i ricercatori nazionali dallo sviluppo di sistemi di AI generativa.
I divieti nazionali colpiscono anche i cittadini rispettosi delle leggi, non solo i cattivi attori che utilizzano la tecnologia per scopi nefasti. Regolamenti sensati e mirati possono alleviare i danni attuali, come la disinformazione e la diffamazione, che ChatGPT tende a produrre. Anche se il chatbot tende a generare risposte simili a quelle umane, queste possono essere superficiali e mancare di profondità e precisione, portando a conseguenze gravi come la diffamazione. Ad esempio, in Australia, un sindaco che è stato falsamente accusato da ChatGPT di corruzione sta valutando una causa contro OpenAI, che sarebbe il primo caso di diffamazione contro il chatbot.
I legislatori dovrebbero valutare come i sistemi emergenti di AI interagiscono con la legge, senza soffocare lo sviluppo di programmi che milioni di persone trovano utili. Per quanto riguarda ChatGPT, c’è una significativa disparità tra le percezioni pubbliche del chatbot e le sue reali capacità e precisione. Il suo “apprendimento” assomiglia molto di più all’imitazione e alla mimica che a una vera comprensione. Sebbene il programma tenda a generare risposte simili a quelle umane, queste possono mancare di profondità e, nel peggiore dei casi, essere fatti fabbricati. Nonostante questi difetti, molti utenti non verificano la veridicità delle risposte di ChatGPT e le considerano invece come verità basate sui dati.
In conclusione, sebbene ChatGPT abbia sollevato preoccupazioni per i suoi potenziali impatti negativi, i divieti potrebbero non essere la soluzione per affrontare la tecnologia nascente. Invece, i governi dovrebbero concentrarsi su regolamenti mirati per mitigare i danni attuali, valutando anche come i sistemi emergenti di AI interagiscono con la legge.