Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

Hacker avrebbero usato l'IA per creare un nuovo e formidabile attacco informatico

Siecle Digital 13 maggio 2026

La cybersicurezza si trova di fronte a una nuova, inquietante evoluzione. Google ha rivelato di aver identificato quello che potrebbe essere il primissimo exploit zero-day concepito con l'ausilio di un'intelligenza artificiale e già impiegato in attacchi reali. Questa scoperta segna un punto di svolta significativo nel panorama della cybercriminalità, spostando l'uso dell'IA da tattiche note come il phishing o la ricognizione delle vittime a un livello di sofisticazione completamente nuovo.

Lunedì, il Google Threat Intelligence Group ha annunciato che un gruppo cybercriminale avrebbe presumibilmente utilizzato un modello di intelligenza artificiale per individuare una falla di sicurezza inedita e produrre il relativo codice di sfruttamento. Si tratta di un vero e proprio zero-day, apparentemente ideato per un'operazione su vasta scala. L'implicazione è chiara: se prima l'IA era uno strumento per affinare attacchi esistenti o per automatizzare fasi preliminari, ora sembra essere in grado di generare vulnerabilità e attacchi autonomamente, o quasi.

Come Google ha identificato l'impronta dell'IA?

Google non ha fornito dettagli specifici sull'attacco o sul gruppo responsabile, ma ha spiegato che lo script Python recuperato conteneva indizi rivelatori che puntavano all'intervento di un'IA. Questi segnali, insoliti per il modus operandi dei tipici hacker, hanno permesso ai ricercatori di trarre conclusioni con un alto grado di fiducia.

  • Commenti pedagogici anormalmente dettagliati: Il codice includeva commenti esplicativi di un livello di dettaglio e precisione solitamente non presente negli strumenti offensivi, che sono spesso scritti per essere concisi e funzionali, non didattici.
  • Un punteggio di gravità CVSS inventato dal modello: Il Common Vulnerability Scoring System (CVSS) è uno standard per valutare la gravità delle vulnerabilità. Il fatto che il codice includesse un punteggio CVSS chiaramente generato da un modello, piuttosto che calcolato o omesso, è stato un indicatore chiave.
  • Una struttura di codice pulita e accademica: Il codice presentava una pulizia e una metodologia che richiamano la scrittura accademica o di ingegneria software di alto livello, un approccio raramente adottato dai pirati informatici nella creazione di strumenti offensivi, che tendono a privilegiare l'efficacia bruta sulla forma.

Sebbene Google abbia specificato che il proprio modello Gemini non sia stato coinvolto in questo specifico caso, l'azienda ritiene con un alto grado di confidenza che un modello di linguaggio abbia giocato un ruolo cruciale sia nel rilevare la vulnerabilità sia nel fabbricare l'exploit. La falla in questione si basava su un errore di logica semantica, una presunzione di fiducia "hardcoded" (codificata in modo rigido) nel sistema bersaglio. Questo è esattamente il tipo di difetto che i modelli linguistici di grandi dimensioni (LLM) eccellono nel rilevare, poiché sono in grado di ragionare sull'intera struttura del codice piuttosto che analizzare semplicemente le singole righe.

Non è un caso isolato!

Questo incidente non è un evento isolato, ma si inserisce in un trend più ampio. Google ha notato che diversi gruppi legati a potenze statali stanno attivamente sfruttando l'IA per accelerare la loro ricerca di vulnerabilità. Tra questi:

  • Il gruppo cinese UNC2814 ha chiesto a Gemini di agire come un esperto di sicurezza di rete per analizzare i firmware TP-Link, dimostrando un uso sofisticato dell'IA per l'analisi tecnica.
  • Il gruppo nordcoreano APT45 ha bombardato un modello di IA con migliaia di "prompt" (istruzioni) nel tentativo di convalidare exploit esistenti e di derivarne di nuovi, un approccio che mira all'ottimizzazione e alla generazione di nuove minacce.

Google ha anche rilevato "PromptSpy", un malware Android che, in modo ancora più insidioso, dirotta Gemini per navigare autonomamente all'interno del telefono della vittima. Questo malware è in grado di catturare gesti biometrici e di bloccare la propria disinstallazione, posizionando un livello invisibile sopra il pulsante "Elimina", rendendo estremamente difficile la sua rimozione da parte dell'utente.

La finestra per i difensori si restringe

Le implicazioni di questa evoluzione sono profonde. Ryan Dewhurst, responsabile del settore di intelligence sulle minacce presso watchTowr, sottolinea che l'IA sta comprimendo drasticamente i tempi tra la scoperta di una falla, la sua trasformazione in arma e la sua effettiva exploitation. Ciò che in passato richiedeva settimane a un gruppo di hacker può ora essere compiuto in poche ore, a patto di disporre del modello di IA giusto e dei "prompt" adeguati. Questa accelerazione rende la difesa molto più ardua e la reazione tempestiva una necessità ancora più critica.

Per molto tempo, l'uso dell'IA nella cybersicurezza era stato confinato prevalentemente al phishing e all'ingegneria sociale, permettendo agli esperti di relativizzare il suo impatto, considerandolo un'evoluzione di tecniche già note. Tuttavia, un exploit zero-day prodotto da un modello linguistico di grandi dimensioni e impiegato per un'operazione di sfruttamento di massa cambia radicalmente le regole del gioco. Questo scenario impone un ripensamento delle strategie di difesa e un'urgente necessità di sviluppare contromisure basate sull'IA per affrontare un nemico sempre più sofisticato.

Per approfondire

  • Cybercriminalità: le autorità francesi osservano una moltiplicazione degli attacchi condotti da minori
  • Cyberattacco all'ANTS: quasi 12 milioni di account colpiti, il sito chiuso
  • L'FBI vittima di un cyberattacco: la Cina è indicata come responsabile
  • Una semplice pagina web può bastare a svuotare il tuo iPhone, allarme su una falla massiccia
  • Google Play Store: 160 milioni di recensioni false eliminate e milioni di app rifiutate nel 2025
  • WordPress: 800.000 siti esposti a una falla critica
Leggi l'articolo originale →
← Torna alle news