Un disegno di legge bipartisan mira a impedire ai sistemi di intelligenza artificiale (AI) di progredire al punto da poter lanciare autonomamente un attacco nucleare. Un gruppo di legislatori, tra cui tre democratici e un repubblicano, ha introdotto una proposta alla Camera che cerca di codificare la politica esistente del Pentagono che richiede che un umano sia “nel loop” per qualsiasi decisione riguardante l’uso di armi nucleari. Il disegno di legge proibirebbe l’uso di AI per il dispiegamento di armi nucleari senza una catena di comando e controllo umana, il che è imprudente, pericoloso e dovrebbe essere proibito, secondo il rappresentante Ken Buck, R-Colo.
Il disegno di legge impedirebbe preventivamente qualsiasi decisione politica futura del Dipartimento della Difesa che potrebbe portare all’AI capace di lanciare armi nucleari da sola. Ciò avviene mentre l’AI sta diventando sempre più diffusa e i legislatori e i funzionari stanno lottando con i suoi aspetti positivi e negativi. Il leader della maggioranza al Senato, Chuck Schumer, ha pubblicato un quadro generale questo mese che chiede alle aziende che sviluppano AI di consentire agli esperti esterni di revisionare la loro tecnologia prima che diventi disponibile pubblicamente. Il Pentagono chiede anche 1,8 miliardi di dollari esclusivamente per la ricerca e lo sviluppo delle capacità di AI nel suo budget per l’anno fiscale 2024.
Il rappresentante Ted Lieu, D-Calif., che ha espresso la sua preoccupazione per i pericoli di consentire all’AI di svilupparsi rapidamente senza controllo, ha dichiarato: “Il nostro lavoro come membri del Congresso è avere una previsione responsabile quando si tratta di proteggere le future generazioni da potenziali conseguenze devastanti”. Ha sottolineato inoltre che permettere all’AI di prendere decisioni riguardanti l’uso di armi nucleari potrebbe portare a esiti catastrofici e che questo disegno di legge cerca di garantire che il controllo umano rimanga un componente cruciale del processo decisionale.
Mentre i militari vedono l’AI come uno strumento che può aiutare le persone a comprendere i dati e indirizzarli nella giusta direzione, il Pentagono ritiene che “deve e avrà sempre un umano nel loop che prenderà la decisione finale”, ha detto Schuyler Moore, il direttore tecnologico di CENTCOM. Il disegno di legge bipartisan cerca di garantire che il controllo umano rimanga un componente cruciale del processo decisionale per l’uso di armi nucleari.
Il rappresentante Buck ha indicato che il Congresso deve fare qualche sforzo per rimanere al passo con l’IA in un’intervista a “America’s Newsroom” venerdì mattina. “L’IA è qui e, sfortunatamente, il Congresso non ha esaminato la questione per molto tempo”, ha detto. “Vogliamo assicurarci che ci siaun umano in questo processo di lancio di un’arma nucleare, se in qualsiasi momento dobbiamo lanciare un’arma nucleare. Quindi vedi i film di fantascienza e il mondo è fuori controllo perché l’IA ha preso il sopravvento – ci saranno esseri umani in questo processo.”
Il disegno di legge bipartisan cerca di garantire che il controllo umano rimanga un componente cruciale del processo decisionale per l’uso di armi nucleari. Sottolinea la necessità di mantenere il controllo sulla tecnologia dell’IA e evidenzia l’importanza di considerare i potenziali rischi dello sviluppo dell’IA.