Meta, la società madre di Facebook, ha pubblicato il suo rapporto sulla sicurezza del primo trimestre, evidenziando la presenza di diverse forme di malware falso ChatGPT che mirano ad hackerare gli account degli utenti e prendere il controllo delle pagine aziendali. Il rapporto mette in luce il fatto che gli operatori di malware e gli spammer seguono le tendenze e i temi di alto coinvolgimento per attirare l’attenzione delle persone. Poiché i chatbot di intelligenza artificiale come ChatGPT, Bing e Bard hanno guadagnato una notevole popolarità, ingannare gli utenti nel provare una versione falsa è diventato una nuova moda tra i criminali informatici.
Gli analisti di sicurezza di Meta hanno identificato circa 10 forme di malware che si presentano come strumenti correlati a chatbot di intelligenza artificiale come ChatGPT da marzo. Alcuni di questi strumenti maligni esistono come estensioni del browser web e barre degli strumenti, mentre altri sono disponibili attraverso negozi ufficiali senza nome. Queste frodi di ChatGPT false hanno persino utilizzato gli annunci Facebook come mezzo di diffusione, come riportato il mese scorso dal Washington Post.
Ciò che rende questi strumenti falsi di ChatGPT più pericolosi è che alcuni di essi hanno l’intelligenza artificiale incorporata per sembrare chatbot legittimi. Tuttavia, Meta ha bloccato oltre 1.000 collegamenti univoci a queste iterazioni di malware che sono state condivise attraverso le sue piattaforme. L’azienda ha anche fornito dettagli tecnici su come gli spammer ottengono l’accesso agli account, che include il dirottamento delle sessioni di accesso e il mantenimento dell’accesso.
Per le aziende che sono state dirottate o chiuse su Facebook, Meta sta fornendo un nuovo flusso di supporto per riparare e recuperare l’accesso. L’azienda sta inoltre implementando nuovi account di lavoro Meta che supportano i servizi di credenziali di accesso singolo (SSO) esistenti dalle organizzazioni che non sono collegati a un account personale di Facebook. Una volta che un account aziendale viene migrato in questi nuovi account, ci si aspetta che diventi molto più difficile per il malware come il falso ChatGPT attaccare.
Il team di sicurezza di Meta sta adottando un approccio proattivo per combattere questa crescente minaccia. Il rapporto sulla sicurezza di Meta fornisce una panoramica dettagliata sui diversi tipi di attacchi che sono stati rilevati e bloccati, così come le misure adottate per migliorare le misure di sicurezza. Il rapporto sottolinea la necessità per gli utenti di rimanere vigili e cauti durante l’interazione con i chatbot di intelligenza artificiale o qualsiasi altra nuova tecnologia che i criminali informatici possono sfruttare.
In conclusione, il rapporto sulla sicurezza del primo trimestre di Meta mette in evidenza la crescente minaccia rappresentata dal malware falso di ChatGPT e fornisce nuove misure per migliorare la sicurezza. Le aziende e gli individui dovrebbero rimanere vigili nell’uso dei chatbot di intelligenza artificiale e di altre tecnologie online per evitare di cadere vittima di questi attacchi maligni.