Un nuovo tipo di attacco potrebbe influenzare il funzionamento degli algoritmi di GenAI

La GenAI, conosciuta anche come Intelligenza Artificiale generativa, è diventata sempre più diffusa e popolare grazie alle sue soluzioni innovative. Tuttavia, spesso si tralascia di discutere le questioni legate alla sicurezza di questa tecnologia. Molti potenziali utilizzatori pensano che la GenAI sia sicura, basandosi su due presupposti: gli algoritmi sono protetti attraverso misure di sicurezza tradizionali e manipolare malevolmente il comportamento di un algoritmo AI richiede competenze complesse che solo un hacker ostile medio possiede.

Sebbene sia vero che la protezione delle infrastrutture in cui operano gli algoritmi AI, inclusa la GenAI, è fondamentale per garantire la sicurezza cibernetica, ciò rappresenta solo un punto di partenza. La protezione del corretto funzionamento degli algoritmi AI è una questione più complessa e sottile. Tuttavia, questa problematica non riguarda molte delle applicazioni di AI generativa attualmente disponibili, poiché il rischio per l’utente finale è minimo se l’addestramento dell’algoritmo viene completato prima del suo utilizzo.

Tuttavia, dal punto di vista teorico, le cose cambiano se un algoritmo di AI generativa continua il suo addestramento mentre opera. Ad esempio, i chatbot possono essere addestrati con una base di conoscenza specifica del settore ma devono anche apprendere dagli input degli utenti con cui interagiscono. È teoricamente possibile manipolare in modo malevolo l’addestramento continuo fornendo dati inaccurati o incompleti all’algoritmo.

Questo tipo di attacco, noto come data poisoning o avvelenamento dei dati, è sempre stato considerato difficile da eseguire a causa di limiti statistici. Tuttavia, la ricerca condotta presso l’Università di Chicago dimostra che è possibile influenzare in modo significativo i risultati di un algoritmo di AI generativa senza la necessità di avvelenare una grande quantità di dati statistici.

I ricercatori hanno identificato un particolare tipo di attacco chiamato “prompt-specific poisoning attack” che mira a influenzare i risultati dell’algoritmo solo in risposta a un prompt specifico. Questo tipo di attacco risulta essere efficace poiché, rispetto all’intero dataset di addestramento, i dati specifici relativi a un prompt sono relativamente pochi. Utilizzando questo approccio, i ricercatori sono riusciti a influenzare significativamente i risultati di un algoritmo di generazione di immagini sintetiche.

Ovviamente, questo caso specifico di attacco non risolve completamente il problema dell’avvelenamento dei dati, ma dimostra che il senso di sicurezza attorno alla GenAI non è del tutto fondato. È quindi fondamentale approfondire gli aspetti di sicurezza legati all’implementazione di algoritmi di AI generativa, soprattutto per le aziende che si trovano ad affrontare un crescente interesse e utilizzo di questa tecnologia.

Domande frequenti sulla sicurezza della GenAI:

1. Cos’è la GenAI?
La GenAI è l’abbreviazione di Intelligenza Artificiale generativa, una tecnologia che crea nuovi dati, immagini o testo, imitando e apprendendo da modelli preesistenti.

2. La GenAI è sicura?
Non possiamo assumere che la GenAI sia completamente sicura. Anche se gli algoritmi sono protetti da misure di sicurezza tradizionali, ci sono potenziali rischi di manipolazione dei risultati attraverso l’attacco di avvelenamento dei dati.

3. Cosa significa avvelenamento dei dati?
L’avvelenamento dei dati, noto anche come data poisoning, è un tipo di attacco in cui dati inaccurati o incompleti vengono forniti all’algoritmo di AI generativa durante il suo addestramento, al fine di influenzarne i risultati.

4. Qual è l’attacco specifico che può influenzare i risultati di GenAI?
Un tipo di attacco specifico chiamato “prompt-specific poisoning attack” può influenzare i risultati di un algoritmo di GenAI solo in risposta a un prompt specifico.

5. Come funziona l’attacco di avvelenamento dei dati?
Normalmente, per eseguire un attacco di avvelenamento dei dati, è necessario avvelenare una grande quantità di dati statistici. Tuttavia, la ricerca ha dimostrato che è possibile influenzare significativamente i risultati di un algoritmo di GenAI utilizzando solo un piccolo insieme di dati relativi a un prompt specifico.

6. Qual è l’impatto di questo tipo di attacco?
Questo tipo di attacco dimostra che il senso di sicurezza attorno alla GenAI potrebbe non essere del tutto fondato. Anche se questo caso specifico non risolve completamente il problema dell’avvelenamento dei dati, sottolinea l’importanza di affrontare seriamente gli aspetti di sicurezza legati all’implementazione di algoritmi di AI generativa.

Per ulteriori informazioni sulla sicurezza della GenAI, ti consigliamo di visitare il sito web principale del campo dell’Intelligenza Artificiale generativa: GenAI.ai.