Anthropic Claude Mythos: il modello AI di cybersecurity dal "Project Glasswing"
Anthropic, un attore di spicco nel campo dell'intelligenza artificiale, ha svelato un nuovo modello di IA per la cybersicurezza, denominato Claude Mythos Preview. Questo modello, dal potenziale rivoluzionario, è stato classificato come troppo potente per una distribuzione pubblica, segnando una rotta di discontinuità rispetto alle strategie di rilascio tradizionali nel settore dell'IA. L'annuncio, avvenuto il 7 aprile 2026, segue a breve distanza la pubblicazione accidentale online di documenti tecnici e di parte del codice sorgente correlati alla stessa tecnologia, sollevando questioni sulla sicurezza interna dell'azienda e sull'ampiezza delle capacità del modello.
Un Modello Limitato per un Consorzio Esclusivo
La decisione di limitare l'accesso a Claude Mythos deriva dalla convinzione di Anthropic che le sue capacità siano tali da rendere estremamente rischiosa una distribuzione aperta al pubblico. Di conseguenza, il sistema è stato messo a disposizione esclusivamente di un consorzio ristretto di oltre 40 organizzazioni, che partecipano al Project Glasswing. Tra i membri di questo progetto figurano alcuni dei nomi più influenti del panorama tecnologico globale, come Amazon, Apple, Microsoft e Google. A questi si aggiungono importanti fornitori di infrastrutture, tra cui Cisco e Broadcom, e società specializzate in cybersicurezza come CrowdStrike. Il consorzio include anche organizzazioni cruciali per lo sviluppo di software open source, come la Linux Foundation, sottolineando l'ampia portata dell'iniziativa. Per incentivare l'utilizzo del modello e raccogliere feedback operativi essenziali, Anthropic ha stanziato fino a 100 milioni di dollari in crediti per i partecipanti al progetto.
Le Preoccupazioni Interne e la Fuga di Dati
Il debutto di Mythos non è stato esente da controversie interne che hanno gettato un'ombra sulla gestione della sicurezza di Anthropic. Già a marzo 2026, una cache pubblica aveva reso accessibili descrizioni tecniche dettagliate del modello. Successivamente, nei giorni immediatamente seguenti, parte del codice sorgente dell'assistente AI Claude Code è stata diffusa online. Anthropic ha attribuito entrambi gli incidenti a "errori umani". Tuttavia, la ravvicinata sequenza di questi episodi ha innescato dubbi e interrogativi tra osservatori ed esperti del settore, in particolare riguardo alla gestione dei dati sensibili, un aspetto critico data la natura strategica e il potenziale impatto delle tecnologie sviluppate dall'azienda.
Le Straordinarie Capacità di Claude Mythos
Claude Mythos è stato descritto dai suoi sviluppatori come un sistema capace di condurre attività autonome di ricerca sulla sicurezza informatica. Il modello è in grado di analizzare codice, identificare vulnerabilità e, in alcuni casi, persino sviluppare exploit funzionanti. Le sue prestazioni iniziali hanno già fornito prove concrete della sua efficacia. Secondo i dati divulgati da Anthropic, nelle prime settimane di utilizzo, il sistema ha identificato migliaia di vulnerabilità "zero-day", termine che indica falle sconosciute persino agli sviluppatori dei software interessati. Il perimetro delle analisi di Mythos include una vasta gamma di sistemi operativi, browser e applicazioni ampiamente diffuse, dimostrando una capacità di scansione e rilevamento su larga scala.
Esempi Concreti di Vulnerabilità Rilevate
Tra gli esempi più significativi citati da Anthropic spicca la scoperta di una vulnerabilità presente da ben 27 anni in OpenBSD, un sistema operativo open source noto per essere progettato con un'elevatissima attenzione alla sicurezza. Un altro caso emblematico è l'individuazione di un errore in un software video, rilevato da Mythos dopo che milioni di test automatici condotti con metodi tradizionali non avevano avuto alcun esito. Questi episodi non solo attestano l'efficacia del modello, ma evidenziano anche la sua capacità di superare le limitazioni dei metodi di rilevamento convenzionali, scovando falle annose e complesse.
Il Lato a Doppio Taglio dell'Innovazione
La stessa capacità di individuare vulnerabilità rappresenta il principale elemento di rischio associato a Mythos. Anthropic riconosce apertamente che strumenti di questa portata possono essere impiegati sia per rafforzare la sicurezza informatica sia per sferrare attacchi devastanti contro le infrastrutture digitali. Jared Kaplan, direttore scientifico di Anthropic, ha dichiarato in un'intervista che l'obiettivo primario è fornire un "vantaggio iniziale" agli attori impegnati nella difesa dei sistemi informatici, accelerando in modo significativo l'individuazione e la correzione delle falle. Tuttavia, Logan Graham, responsabile dei test interni, ha definito il modello un "punto di svolta" per l'intero settore, con implicazioni dirette sull'equilibrio di potere tra difensori e attaccanti nel cyberspazio, riconoscendo il potenziale impatto dirompente del sistema.
Precedenti e la Specificità del Rischio Mythos
La scelta di Anthropic di non rilasciare pubblicamente Claude Mythos richiama precedenti significativi nel settore dell'intelligenza artificiale. Già nel 2019, OpenAI aveva adottato una misura simile, limitando inizialmente la diffusione del modello GPT-2, citando i rischi legati alla generazione automatica di contenuti manipolativi e alla disinformazione. Nel caso specifico di Mythos, Anthropic sostiene che il livello di rischio sia ancora più immediato e tangibile, in quanto direttamente collegato alla sicurezza di infrastrutture critiche globali e alla stabilità dei sistemi informatici che supportano il funzionamento della società moderna.
Project Glasswing: Una Risposta alle Nuove Capacità dell'IA
Il Project Glasswing è stato concepito e creato sulla base delle straordinarie capacità osservate nel nuovo modello di frontiera sviluppato da Anthropic, Claude Mythos2 Preview. Sebbene non ancora rilasciato, questo modello generalista evidenzia un dato cruciale: i sistemi di intelligenza artificiale hanno raggiunto un livello tale nella scrittura e nell'analisi del codice da superare quasi tutti gli esseri umani nell'individuazione e nello sfruttamento delle vulnerabilità software. La metafora del progetto, che prende il nome dalla farfalla dalle ali di vetro (Greta oto), è significativa: le sue ali trasparenti le permettono di mimetizzarsi in piena vista, proprio come le vulnerabilità di cui si parla. Al contempo, la sua trasparenza le consente di sfuggire al pericolo, richiamando l'approccio di chiarezza e collaborazione sostenuto nel progetto.
Le Conseguenze e la Necessità di un Approccio Collaborativo
Le conseguenze di tali progressi per l'economia, la sicurezza pubblica e la stabilità nazionale potrebbero essere enormi. Il Project Glasswing nasce proprio come iniziativa per indirizzare queste capacità verso finalità difensive. Nell'ambito del progetto, i partner coinvolti utilizzano Mythos Preview per attività di sicurezza difensiva, e Anthropic si impegna a condividere i risultati ottenuti per favorire benefici estesi all'intero settore. Tuttavia, i promotori del progetto sottolineano che Project Glasswing è solo un punto di partenza. Nessuna singola organizzazione è in grado di affrontare da sola le sfide della sicurezza informatica; sviluppatori di IA avanzata, aziende software, ricercatori, comunità open source e governi sono tutti chiamati a contribuire attivamente.
La Corsa Contro il Tempo: IA e Sicurezza Digitale
Il rafforzamento delle difese delle infrastrutture digitali globali richiederà anni di sforzi coordinati e investimenti ingenti. Nel frattempo, le capacità dell'intelligenza artificiale sono destinate a progredire rapidamente nel breve periodo, creando una potenziale disparità. Secondo i promotori del Project Glasswing, un'azione immediata è indispensabile per consentire ai sistemi di difesa di mantenere un vantaggio competitivo rispetto alle crescenti minacce. Anthropic si trova in una posizione singolare nel mercato dell'intelligenza artificiale: da un lato sviluppa modelli sempre più avanzati, generando ricavi crescenti, dall'altro evidenzia pubblicamente i rischi intrinseci associati alle proprie tecnologie. Secondo i dati comunicati dalla società, i ricavi annuali previsti per il 2026 superano i 30 miliardi di dollari, un notevole aumento rispetto ai 9 miliardi dell'anno precedente, una crescita legata soprattutto all'adozione del sistema Claude come strumento per la programmazione.
L'Impatto dell'IA sul Flusso di Lavoro della Cybersicurezza
L'ottimizzazione delle capacità di coding dei modelli di IA ha effetti diretti e profondi sulla sicurezza: un sistema in grado di scrivere codice complesso è anche in grado di analizzarlo e individuarne le debolezze con una velocità inaudita. L'introduzione di modelli come Mythos modifica radicalmente i tempi e le modalità della sicurezza informatica. Attività che in precedenza richiedevano mesi di lavoro umano possono essere ora eseguite in pochi minuti da sistemi automatizzati. Secondo Elia Zaitsev, chief technology officer di CrowdStrike, azienda leader nella cybersicurezza, l'accesso a un modello come Mythos dimostra come le capacità difensive possano scalare rapidamente, ma al tempo stesso suggerisce che attori malevoli cercheranno inevitabilmente di sfruttare strumenti analoghi, aumentando la pressione sugli sviluppatori. Il rischio, evidenziato anche da altri operatori del settore, è che la scoperta sistematica delle vulnerabilità diventi un processo continuo e automatizzato, costringendo aziende e istituzioni ad aggiornare costantemente i propri sistemi, spesso impreparate a tale velocità.
Sistemi Obsoleti e il Futuro dell'Open Source
Una delle questioni più critiche riguarda la sicurezza dei sistemi basati su codice obsoleto. Molte infrastrutture critiche, che vanno dai servizi digitali essenziali ai sistemi industriali complessi, utilizzano componenti sviluppati anni fa. Secondo Graham, questi sistemi erano considerati relativamente sicuri in passato perché richiedevano competenze elevate e tempi lunghi per essere attaccati. Tuttavia, l'automazione introdotta dall'intelligenza artificiale potrebbe modificare drasticamente questo equilibrio, rendendo vulnerabili anche piattaforme finora ritenute protette e sicure. Per affrontare questa sfida, oltre ai crediti destinati ai partner di Glasswing, Anthropic ha annunciato un finanziamento di 4 milioni di dollari specificamente destinato a gruppi che sviluppano software open source. L'obiettivo è rafforzare la sicurezza di questi componenti, una mossa cruciale, data la dipendenza di molti sistemi critici proprio da tecnologie basate su licenze aperte.