L’intelligenza artificiale (AI) sta avanzando rapidamente e le preoccupazioni riguardo al suo potenziale negativo stanno crescendo. Anche il capo di Google, Sundar Pichai, ammette di perdere il sonno a causa dei rischi dell’AI, mentre Elon Musk ha criticato il co-fondatore di Google, Larry Page, per non prendere abbastanza seriamente la sicurezza dell’AI. Migliaia di firmatari di una lettera del Future of Life Institute hanno chiesto un moratorio di sei mesi sulla creazione di “giganti” dell’AI più potenti di GPT-4, il sistema che sostiene ChatGPT e il chatbot integrato con il motore di ricerca Bing di Microsoft, citando il potenziale “perdita di controllo della nostra civiltà”.
I rischi posti dall’AI non si limitano alla disinformazione o alla frode dannose, ma si estendono allo sviluppo di “Godlike AI” e “intelligenza artificiale generale” (AGI), un sistema che può imparare ed evolversi autonomamente, generando nuove conoscenze man mano che avanza. L’AGI potrebbe portare a un effetto “volano”, in cui la capacità del sistema migliora sempre più rapidamente, raggiungendo potenzialmente altezze impensabili per l’umanità o deviando dai valori morali umani.
La potenza grezza dell’AI all’avanguardia potrebbe farla diventare una delle poche tecnologie “a doppia classe”, come la potenza nucleare o la biochimica, che hanno un potenziale distruttivo tale che persino gli utilizzi pacifici dell’AI devono essere controllati e monitorati. Mentre le aziende di AI come OpenAI stanno cercando di allineare gli interessi e le azioni dei loro sistemi con i valori umani, la facilità con cui gli utenti possono eludere il sistema ne mostra i limiti.
La soluzione del problema di allineamento potrebbe essere urgente, poiché i principali ricercatori temono che l’AGI possa emergere prima di quanto pensiamo. Ian Hogarth, un investitore e co-autore dell’annuale rapporto State of AI, avverte che l’AGI potrebbe emergere prima di quanto pensiamo e che i principali ricercatori temono che possiamo essere molto vicini. Anche Pichai ammette che Google non comprende completamente come la sua AI produca alcune risposte e che capire come i sistemi di AI raggiungono i loro risultati è difficile. Ciò significa che l’AGI potrebbe essere raggiunta più velocemente del previsto.
La regolamentazione dello sviluppo dell’AI è essenziale. Sebbene alcuni si oppongano a un moratorio sullo sviluppo dell’AI, entrambe le parti concordano sul fatto che deve esserci una regolamentazione dello sviluppo dell’AI per controllare i potenti sistemi di AI e garantire che i loro utilizzi e i risultati siano in linea con i valori umani. Connor Leahy, CEO di Conjecture, un’azienda di ricerca dedicata allo sviluppo sicuro dell’AI e un altro firmatario della lettera del Future of Life Institute, afferma che il problema non sono scenari specifici, ma l’incapacità di controllare i sistemi creati.
Le aziende di AI stanno cercando di allineare i loro sistemi con i valori umani, ma devono esserci conseguenze se l’AI supera la linea. Pichai ha indicato la necessità di un quadro globale simile a quello delle armi nucleari, mentre Pisano, CEO di Mila – il Quebec Artificial Intelligence Institute – ha parlato della necessità di avere “una conversazione a livello internazionale, simile a quella che abbiamo fatto con l’energia nucleare”. I rischi dell’AI sono significativi al punto che persino gli utilizzi pacifici dell’AI devono essere controllati e monitorati, simili alla potenza nucleare o alla biochimica.