Google: oltre 560 dipendenti chiedono di escludere Gemini da operazioni militari classificate USA
La protesta di Google su Gemini e il nodo etico della difesa USA
Una significativa mobilitazione interna sta scuotendo Google, con oltre 560 dipendenti che hanno rivolto un appello diretto al CEO Sundar Pichai. La richiesta è chiara: impedire che l'intelligenza artificiale proprietaria dell'azienda, Gemini, venga impiegata dal governo americano in operazioni militari classificate. La lettera aperta, inviata lunedì 27 aprile 2026, non è un semplice episodio isolato, ma riporta prepotentemente al centro del dibattito un conflitto che, negli ultimi mesi, ha smesso di essere meramente tecnologico. Al centro della questione vi è il controllo sull'uso dei modelli generativi in contesti di difesa, con quali limiti operativi e quale grado di responsabilità per chi li sviluppa.
Questa protesta non riguarda esclusivamente la coscienza interna di una Big Tech. Essa tocca un mercato destinato a incidere sempre più sui bilanci delle società di intelligenza artificiale, sui rapporti strategici con Washington e sulla reputazione globale dei gruppi che ambiscono a fornire infrastrutture considerate cruciali per la sicurezza nazionale. Se fino a poco tempo fa il confronto si svolgeva prevalentemente sul terreno delle policy aziendali e dei principi etici dichiarati, oggi la discussione si è spostata su elementi ben più concreti: contratti pubblici, procedure di procurement, accesso a reti classificate e clausole d'uso specifiche. Ed è proprio in questo nuovo contesto che la vicenda Google assume un significato economico e industriale che va ben oltre la pur legittima protesta dei suoi dipendenti.
Le ragioni della protesta e l'urgenza della decisione
Nel testo indirizzato a Sundar Pichai, i firmatari sostengono che l'unico modo per evitare che Google venga irrimediabilmente associata ad applicazioni “inumane o estremamente dannose” sia rifiutare categoricamente i carichi di lavoro classificati. Il punto focale, per chi ha promosso l'iniziativa, non si limita all'utilizzo in sistemi d'arma autonomi o in programmi di sorveglianza di massa, scenari già di per sé eticamente complessi. Il nodo cruciale è la potenziale perdita di controllo: una volta che il modello di intelligenza artificiale entra in ambienti classificati, chi lo ha costruito potrebbe non avere più alcuna visibilità su come venga impiegato, né strumenti efficaci per intervenire in caso di usi impropri o non etici.
La contestazione nasce in un momento particolarmente delicato. Diversi media statunitensi, infatti, stanno riferendo di negoziati avanzati tra Google e il Dipartimento della Difesa per consentire l'uso di Gemini in contesti altamente sensibili. La pressione interna, quindi, non è una reazione a un contratto già siglato e operativo, ma arriva prima della firma di un eventuale accordo definitivo e cerca attivamente di influenzarne l'impostazione e le condizioni. Questo dettaglio è di fondamentale importanza: i dipendenti non stanno reagendo a un fatto compiuto, ma stanno tentando di innalzare il costo reputazionale di una scelta che la dirigenza starebbe valutando come coerente con il nuovo posizionamento geopolitico e strategico dell'azienda. Il fatto che una quota rilevante delle adesioni alla lettera provenga da DeepMind e dal perimetro più ampio delle competenze sull'AI all'interno di Google segnala un altro elemento significativo: il dissenso non è confinato a una frangia marginale o a funzioni lontane dal core business, ma investe il cuore stesso delle competenze e delle professionalità su cui Google costruisce la propria strategia di innovazione.
Il precedente Anthropic e la lezione per Google
La lettera a Pichai si inserisce in un contesto già reso più teso dallo scontro, ben più pubblico, fra il Pentagono e l'azienda Anthropic. La società, guidata da Dario Amodei, aveva richiesto che l'uso dei propri modelli di intelligenza artificiale da parte del governo fosse vincolato da limiti espliciti su due fronti cruciali: la sorveglianza domestica di massa e lo sviluppo e l'impiego di armi pienamente autonome. Secondo una dichiarazione ufficiale pubblicata da Anthropic a fine febbraio 2026, proprio su queste due "eccezioni" si era arenato il negoziato con il Dipartimento della Difesa.
La risposta dell'amministrazione Trump non si è fatta attendere ed è stata estremamente dura. Anthropic è stata pubblicamente indicata come un potenziale "rischio di filiera", e la Casa Bianca ha disposto l'interruzione immediata dell'uso governativo del suo modello AI, Claude. Nonostante la società abbia contestato il provvedimento in tribunale, il messaggio politico è stato chiaro e inequivocabile: chi intende lavorare con l'apparato federale della sicurezza non può pensare di imporre unilateralmente delle "red lines" considerate incompatibili con il principio dell'“all lawful uses”, ovvero tutti gli usi ritenuti legittimi dal governo. Per Google, la lezione da trarre da questa vicenda è lampante. Se accetta di entrare più in profondità nel mercato dell'AI per la difesa senza pretendere salvaguardie forti e vincolanti, può guadagnare terreno commerciale e politico significativo. Se invece prova a chiedere vincoli sostanziali e restrittivi, come ha fatto Anthropic, rischia di trovarsi nella medesima scomoda posizione, con ripercussioni negative sui contratti e sulla sua immagine. La lettera dei dipendenti di Google cerca proprio di spostare il baricentro di questa delicata decisione: non più solo una questione di convenienza contrattuale e guadagno economico, ma anche un costo interno, culturale e reputazionale che l'azienda dovrebbe considerare attentamente.
Dalle proteste del 2018 all'evoluzione dei principi AI
La protesta del 2026 non nasce affatto nel vuoto, ma ha radici in un precedente significativo. Nel 2018, Google fu investita dal caso "Project Maven", un programma in cui il Pentagono utilizzava tecnologie di machine learning per analizzare immagini da droni. Allora, migliaia di lavoratori firmarono una petizione analoga, e l'azienda scelse di non rinnovare il contratto con il Dipartimento della Difesa, accompagnando quella decisione con un impianto di principi etici che escludeva esplicitamente applicazioni legate alle armi e alla sorveglianza in violazione di norme condivise e diritti umani.
Quel quadro etico e operativo, tuttavia, è profondamente cambiato nel tempo. Il 4 febbraio 2025, Google ha aggiornato i propri "AI Principles" e ha rimosso il linguaggio più esplicito che in precedenza impegnava il gruppo a non perseguire tecnologie destinate a causare o facilitare danni alle persone. Al suo posto, la società ha definito una cornice più generale e flessibile, incentrata su concetti come innovazione, responsabilità e allineamento con il diritto internazionale e i diritti umani. Questa non è stata una modifica solo lessicale o di facciata. Essa ha segnato il superamento di un divieto puntuale e l'apertura a una valutazione caso per caso, molto più discrezionale. Demis Hassabis e James Manyika, figure di spicco nell'ambito AI di Google, hanno motivato quella svolta richiamando un contesto internazionale sempre più competitivo, nel quale le aziende statunitensi dell'intelligenza artificiale avrebbero anche un ruolo nel rafforzamento della sicurezza nazionale. In altre parole, Google ha progressivamente spostato l'argomento dalla rinuncia preventiva a una più pragmatica gestione del rischio.
I dipendenti firmatari della lettera, tuttavia, contestano proprio questa impostazione. Essi ritengono che, nelle operazioni classificate, il rischio non sia governabile efficacemente con normali procedure di compliance e monitoraggio. La ragione principale risiede nel fatto che, in tali contesti, viene meno quella trasparenza minima necessaria a controllare gli impieghi reali del modello e a garantirne un uso etico e responsabile.
Implicazioni economiche e strategiche per le Big Tech
Letta con l'occhio del giornalismo economico, la vicenda Google dice molto sul nuovo equilibrio di potere e sul rapporto sempre più stretto tra le Big Tech e la spesa pubblica per la difesa. Le aziende che sviluppano "frontier models", i modelli di intelligenza artificiale più avanzati, sono alla costante ricerca di ricavi più stabili, di contratti pluriennali e di accesso a clienti con un'elevata capacità di spesa. Il settore pubblico americano, specialmente in ambito intelligence e difesa, offre tutte e tre queste opportunità in modo consistente. Per questo motivo, la corsa ai contratti governativi non è affatto un'appendice marginale del business dell'AI, ma è diventata un pezzo crescente e strategico della più ampia strategia di consolidamento delle aziende del settore.
Il punto critico, tuttavia, è che i contratti più appetibili e remunerativi sono spesso anche quelli più opachi. L'accesso a reti classificate o a missioni particolarmente sensibili riduce drasticamente la visibilità esterna, limita il controllo sociale e rende molto più difficile separare gli usi amministrativi a basso rischio da quelli operativi e potenzialmente più controversi. Dal lato aziendale, ciò crea un compromesso estremamente delicato. Più una società entra profondamente nel perimetro della sicurezza nazionale, più rafforza la propria rilevanza politica e commerciale a livello globale. Ma, allo stesso tempo, aumenta esponenzialmente il rischio di controversie significative con dipendenti, utenti finali, investitori e regolatori internazionali, che potrebbero vedere in questi legami un'eccessiva compromissione etica.
Per Google, il calcolo è ancora più complesso e sfaccettato rispetto ad altri attori del settore. Il gruppo, infatti, non vende solo modelli di intelligenza artificiale, ma un ecosistema vastissimo che include servizi cloud, infrastrutture IT, soluzioni di sicurezza informatica, servizi enterprise e piattaforme digitali. Un legame più stretto e consolidato con il Pentagono può favorire notevolmente l'espansione della sua offerta pubblica e governativa in tutti questi ambiti. Tuttavia, un'eccessiva associazione con operazioni militari classificate può anche pesare negativamente sul brand presso clienti e lavoratori che continuano a leggere l'AI come una tecnologia "general purpose" da governare con soglie etiche molto più strette e severe, al di là dei meri requisiti legali.
Il capitale umano come fattore critico
Nelle imprese dell'intelligenza artificiale, il capitale umano non è affatto un fattore accessorio o facilmente sostituibile. Ricercatori, ingegneri e product leader sono una risorsa estremamente scarsa, costosa e altamente mobile. Quando un numero così ampio di addetti, inclusi profili senior e figure chiave nello sviluppo dell'AI, contesta apertamente una scelta strategica dell'azienda, il tema non è più solo culturale o di immagine: diventa rapidamente un problema concreto di retention del personale, di attrazione dei nuovi talenti e, in ultima analisi, di coesione organizzativa interna, con impatti diretti sulla capacità innovativa e competitiva dell'azienda. La storia recente del settore mostra in modo evidente che il dissenso interno può produrre effetti concreti e tangibili.
Il già citato caso Maven nel 2018 costrinse Google a un passo indietro significativo, influenzando la sua politica sui contratti militari. Più recentemente, anche OpenAI, un altro attore di primo piano nel panorama dell'AI, ha dovuto gestire notevoli contraccolpi e critiche interne dopo l'intesa annunciata con il Pentagono a fine febbraio 2026. Questo dimostra che la questione etica legata all'uso militare dell'AI non è una peculiarità di Google, ma una sfida trasversale che l'intero settore delle Big Tech è chiamato ad affrontare, bilanciando opportunità commerciali e responsabilità etiche in un mondo sempre più interconnesso e militarizzato.