Google Prioritizza l’AI Generativa sulla Etica, affermano i dipendenti

L’impegno di Google verso un’AI responsabile è stato messo in discussione da 18 dipendenti attuali e passati che hanno parlato con Bloomberg. Essi sostengono che l’azienda sta sacrificando le considerazioni etiche per tenere il passo con rivali come OpenAI, il cui chatbot è stato lanciato nel novembre 2022. Un dipendente di Google ha descritto il chatbot Bard dell’azienda come “un bugiardo patologico”, mentre un altro ha affermato che ha dato consigli di immersioni subacquee “che probabilmente avrebbero portato a gravi lesioni o alla morte”. La documentazione interna supporta le affermazioni.

Google aveva promesso di raddoppiare il suo team di studio sull’etica dell’AI e di investire più risorse nell’valutare i potenziali danni della tecnologia. Tuttavia, il lancio del chatbot di OpenAI nel novembre 2022 ha spinto Google a integrare l’AI generativa nei suoi prodotti più importanti in pochi mesi. Il gruppo che si occupa di etica che Google aveva promesso di fortificare ora è stato indebolito e demoralizzato, secondo i dipendenti attuali e passati. Gli addetti alla sicurezza e alle implicazioni etiche dei nuovi prodotti sono stati invitati a non ostacolare o cercare di distruggere nessuno degli strumenti di AI generativa in sviluppo.

Google sta cercando di rivitalizzare il suo business di ricerca con tecnologie all’avanguardia che potrebbero portare l’AI generativa in milioni di case e telefoni in tutto il mondo, idealmente prima che OpenAI, sostenuta da Microsoft, lo faccia. L’azienda è stata cauta sul potere dell’AI generativa e sulle considerazioni etiche che vanno di pari passo con l’incorporazione della tecnologia nella ricerca e in altri prodotti di punta, ma la rapidità dello sviluppo potrebbe avere un profondo impatto sociale.

Meredith Whittaker, presidente della Signal Foundation e ex manager di Google, ha detto: “L’etica dell’AI è stata messa in secondo piano. Se l’etica non viene messa in primo piano rispetto al profitto e alla crescita, alla fine non funzionerà”. Google nega l’accusa e afferma che l’AI responsabile rimane una priorità assoluta per l’azienda.

Il team di AI responsabile è stato riorganizzato sotto Marian Croak, che ha promesso di raddoppiare le sue dimensioni e rafforzare i suoi legami con il resto dell’azienda. Tuttavia, è difficile lavorare sull’AI etica in Google. Un ex dipendente ha detto di aver chiesto di lavorare sulla giustizia nell’apprendimento automatico e di essere stato scoraggiato abitualmente al punto che ha influenzato la sua valutazione delle prestazioni. I manager hanno protestato dicendo che stava ostacolando il loro “vero lavoro”, ha detto la persona.

I dipendenti sono preoccupati che la velocità dello sviluppo non consenta abbastanza tempo per studiare i potenziali danni. Le revisioni etiche dell’AI per prodotti e funzionalità, hanno detto due dipendenti, sono quasi interamente volontarie nell’azienda, ad eccezione di documenti di ricerca e del processo di revisione condotto da Google Cloud per accordi con i clienti e prodotti da rilasciare.

Prima del codice rosso, era difficile per gli ingegneri di Google accedere ai modelli di AI più avanzati dell’azienda, ha detto un altro ex dipendente. Gli ingegneri spesso iniziavano a brainstorming giocando con i modelli di AI generativa di altre aziende per esplorare le possibilità della tecnologia prima di trovare un modo per farlo accadere all’interno della burocrazia, ha detto l’ex dipendente.

Samy Bengio, un informatico che ha supervisionato il team di AI etico di Google, e diversi altri ricercatori hanno lasciato l’azienda per i concorrenti negli anni intermedi. La dirigenza dell’azienda tende a parlare di scenari futuri ipotetici riguardo ad una tecnologia onnipotente che non può essere controllata dagli esseri umani, piuttosto che di scenari quotidiani che già hanno il potenziale di essere dannosi.