USA: la Casa Bianca frena Anthropic sull'espansione del modello AI Mythos
La Casa Bianca frena Anthropic: scontro su sicurezza e innovazione nel settore AI
La Casa Bianca ha espresso la sua opposizione al piano di Anthropic di ampliare l'accesso a Mythos, uno dei modelli di intelligenza artificiale più sensibili attualmente in circolazione, noto per la sua capacità di individuare e sfruttare vulnerabilità software. Questa decisione aggiunge un nuovo elemento di tensione nel già complesso rapporto tra l'amministrazione statunitense e una delle aziende più osservate nel settore dell'AI. Washington si trova a dover conciliare due obiettivi difficili: accelerare l'innovazione tecnologica e, al contempo, contenere i rischi per la sicurezza nazionale che tali tecnologie avanzate possono comportare. Il caso mette in luce uno scontro più ampio tra la sicurezza nazionale, gli interessi industriali, la potenza di calcolo e i rapporti sempre più tesi tra il governo statunitense e le grandi aziende tecnologiche dell'intelligenza artificiale.
Il modello Mythos e la proposta di espansione di Anthropic
Secondo persone informate sui fatti, Anthropic aveva proposto di consentire l'uso di Mythos a circa altre 70 aziende e organizzazioni, portando a circa 120 il numero complessivo dei soggetti autorizzati. Mythos è considerato un modello particolarmente potente e delicato a causa delle sue specifiche funzionalità. È capace di trovare falle nei software e di agevolarne lo sfruttamento, rendendolo uno strumento con implicazioni significative per la cybersicurezza.
Le ragioni del blocco da parte della Casa Bianca: sicurezza nazionale e timori operativi
L'amministrazione ha comunicato la propria contrarietà per ragioni legate direttamente alla sicurezza. A pesare, secondo una delle fonti citate, ci sarebbe anche un timore più operativo: Anthropic potrebbe non disporre di una potenza di calcolo sufficiente per servire una platea così ampia di utenti senza ridurre l'efficacia dell'accesso prioritario e riservato già garantito al governo. Questa duplice motivazione sottolinea la complessità della valutazione, che spazia da questioni strategiche di sicurezza a considerazioni pratiche sull'infrastruttura tecnologica.
Mythos come tecnologia a doppio uso: un dossier sensibile
Il punto non riguarda solamente una disputa commerciale o un normale confronto regolatorio. La natura di Mythos, come strumento in grado di identificare e sfruttare vulnerabilità, fa sì che la sua distribuzione non sia trattata come il lancio di un comune prodotto digitale. Al contrario, è considerata un vero e proprio dossier che incrocia cybersicurezza, infrastrutture critiche, rapporti con il Pentagono e il controllo pubblico su tecnologie a doppio uso. Il coinvolgimento diretto della Casa Bianca nel rollout di Mythos deriva proprio dal profilo di rischio elevato attribuito al modello.
Nelle ultime settimane, la sua capacità di individuare e sfruttare vulnerabilità avrebbe allarmato sia le agenzie federali sia le aziende private. Il timore è chiaro e duplice: un sistema del genere può essere estremamente utile ai difensori, consentendo loro di trovare bug e correggerli prima che vengano utilizzati contro reti e servizi; tuttavia, può anche abbassare significativamente la soglia tecnica necessaria per avviare attacchi informatici o per generare interruzioni su larga scala online. Questo è il nodo classico delle tecnologie dual use, ma su una scala di impatto potenzialmente molto più ampia rispetto al passato.
Se un modello di intelligenza artificiale diventa abbastanza efficace nell'automatizzare la ricerca delle falle, il vantaggio non si limita più esclusivamente ai team di sicurezza ben finanziati. Si estende anche a soggetti ostili, siano essi criminali comuni o attori statali, che possono sfruttare la velocità e la capacità di analisi della macchina per moltiplicare il numero dei tentativi di attacco e ridurre drasticamente i tempi tra la scoperta di una vulnerabilità e il suo effettivo sfruttamento. Da qui, la prudenza e la cautela della Casa Bianca nella gestione di tale risorsa.
La gestione dell'accesso: non solo chi, ma come
L'amministrazione ha lasciato intendere che la questione non si limiti a stabilire chi ottiene l'accesso al modello, ma si estenda a come tale accesso viene gestito, con quali priorità e con quali garanzie sulla capacità di risposta del fornitore. In altre parole, non è sufficiente limitare il numero degli utenti o selezionare organizzazioni ritenute affidabili, se poi l'infrastruttura tecnica sottostante non è in grado di reggere il carico o se il controllo sulle attività svolte con il modello non è giudicato sufficiente. Questo aspetto sottolinea l'importanza di una governance robusta e di meccanismi di controllo stringenti per tecnologie così potenti.
Attriti preesistenti e il contesto politico
Il rifiuto opposto alla richiesta di Anthropic dimostra che il rapporto con Washington rimane instabile, nonostante i tentativi di allentare le tensioni. Le discussioni su Mythos, almeno nelle intenzioni iniziali, avrebbero dovuto servire anche a ricostruire un canale di fiducia tra l'azienda e il governo. Tuttavia, il contesto politico e legale resta segnato da attriti precedenti. L'amministrazione Trump, ad esempio, avrebbe già provato a prendere le distanze dalla società dopo uno scontro con il Pentagono sull'uso militare degli strumenti di intelligenza artificiale sviluppati da Anthropic. Questa controversia non è rimasta solo sul piano politico, ma si starebbe muovendo in sede giudiziaria in due cause distinte. Questo dettaglio è significativo, poiché segnala che le frizioni non riguardano solo singole decisioni industriali, ma il perimetro stesso della collaborazione tra Stato e imprese private in un settore così strategico e delicato.
A complicare ulteriormente il quadro si aggiunge una dimensione apertamente politica. L'amministrazione ha criticato Anthropic per i suoi legami con organizzazioni che sostengono cause liberal, come le richieste di una regolazione rigorosa dell'intelligenza artificiale. La società è stata contestata anche per la presenza nel proprio organico di diversi ex funzionari dell'amministrazione Biden. In un contesto del genere, decisioni che sembrano puramente tecniche finiscono per essere lette anche come atti politici, influenzando ulteriormente il dialogo tra le parti.
Architettura selettiva e il dilemma di Washington
Anthropic aveva inizialmente concesso l'accesso a circa 50 aziende e organizzazioni che gestiscono infrastrutture critiche. Attualmente, non risultano piani per un rilascio pubblico di Mythos. Alcune agenzie governative hanno già accesso al modello e l'amministrazione, inclusa l'amministrazione Trump, starebbe lavorando per ampliarlo ulteriormente all'interno del settore pubblico. Questa architettura selettiva conferma che Mythos non è trattato come un prodotto da distribuire su larga scala, almeno in questa fase. Il modello viene invece gestito come una risorsa sensibile, da mettere nelle mani di soggetti considerati strategici o capaci di utilizzarlo in ambiti di difesa. Il fatto che la Casa Bianca si opponga a un'estensione relativamente circoscritta, aggiungendo "solo" circa 70 entità in più, indica quanto il margine di tolleranza resti estremamente stretto.
Un funzionario della Casa Bianca ha spiegato che l'amministrazione sta cercando un equilibrio tra innovazione e sicurezza, collaborando con il settore privato per garantire che i modelli di AI vengano distribuiti in modo sicuro. Questa formula cattura perfettamente il dilemma di Washington: gli Stati Uniti non vogliono rallentare la corsa nell'intelligenza artificiale, ma non intendono neppure lasciare che i modelli più avanzati si diffondano senza filtri in ambiti che possono avere ricadute immediate sulla sicurezza nazionale. Il paese è in bilico tra la necessità di mantenere la sua leadership tecnologica e la responsabilità di proteggere le sue infrastrutture e i suoi cittadini dai potenziali abusi di tali tecnologie.
Preoccupazioni crescenti e il ruolo degli esperti
Le preoccupazioni si sono rafforzate ulteriormente dopo che Anthropic ha dichiarato di stare indagando su un possibile accesso non autorizzato a Mythos. Questo episodio ha alimentato i timori di un "effetto valanga" nella scoperta di bug software. Se un modello del genere venisse consultato o copiato senza autorizzazione, il rischio non sarebbe solo quello di una violazione aziendale, ma di una moltiplicazione esponenziale della capacità offensiva in rete. La diffusione incontrollata di uno strumento così potente potrebbe alterare radicalmente il panorama della cybersicurezza globale.
Gli esperti di cybersicurezza citati nel testo osservano che Mythos, insieme ai modelli di frontiera sviluppati da OpenAI e da Google, sta raggiungendo un livello tale da rendere molto più efficiente la ricerca e lo sfruttamento delle vulnerabilità. Questo non significa automaticamente che i cyberattacchi aumenteranno in numero assoluto, ma rende indubbiamente più facile per un numero maggiore di attori avvicinarsi a strumenti e tecniche che prima erano riservati a gruppi altamente specializzati e con risorse significative. L'accessibilità democratizzata a tali capacità offensive è una delle principali preoccupazioni.
Tutte e tre le aziende (Anthropic, OpenAI e Google) hanno già avviato programmi di accesso anticipato ai propri modelli per i ricercatori di sicurezza, con l'obiettivo lodevole di trovare e correggere i bug prima che vengano sfruttati malignamente. Ma qui emerge un altro problema, di natura economica e industriale: anche quando la scoperta delle falle serve a proteggere i sistemi, la quantità di vulnerabilità individuate può diventare rapidamente difficile da gestire. Creare, testare e installare le patch richiede tempo, personale specializzato e un elevato livello di coordinamento. Se la velocità di individuazione delle vulnerabilità supera la capacità di correzione dei difensori, il sistema generale entra in una fase di tensione e di rischio crescente.
La potenza di calcolo: un fattore produttivo decisivo
Uno dei punti più delicati e significativi della vicenda riguarda la disponibilità di potenza di calcolo (compute). Alcuni consiglieri della Casa Bianca sull'intelligenza artificiale hanno ipotizzato che una delle ragioni del rollout limitato di Mythos sia la minore disponibilità di capacità computazionale di Anthropic rispetto ai suoi principali concorrenti. Per i modelli di frontiera, il compute non è un semplice dettaglio tecnico, ma un fattore produttivo decisivo, quasi una materia prima indispensabile e scarsa. La questione della potenza di calcolo conta per almeno due ragioni fondamentali:
- La prima è industriale: senza sufficiente capacità di calcolo, un'azienda non può servire un gran numero di utenti ad alta intensità senza che le prestazioni ne risentano. Questo impatta direttamente sulla sua capacità di competere nel mercato e di scalare le proprie operazioni. Una carenza di compute potrebbe limitare la crescita e l'influenza di Anthropic nel settore AI.
- La seconda è strategica e di sicurezza: la potenza di calcolo potrebbe essere utilizzata come un meccanismo di controllo. Limitare l'accesso a risorse computazionali di alto livello potrebbe servire a preservare un accesso prioritario e privilegiato per il governo, o a mantenere un certo grado di controllo sulla diffusione e sull'utilizzo di modelli ad alto rischio. In un contesto in cui il compute è una risorsa preziosa, la sua distribuzione diventa un aspetto cruciale della governance tecnologica.
In sintesi, il caso Mythos è emblematico delle sfide profonde che le amministrazioni devono affrontare nell'era dell'intelligenza artificiale avanzata: bilanciare l'urgente necessità di innovazione con la responsabilità di mitigare rischi senza precedenti, il tutto in un panorama di crescenti tensioni tra governo e settore privato.