AI, costi aziendali in crescita: cause e strategie di mitigazione
Le imprese si trovano di fronte a un paradosso crescente: nonostante i prezzi unitari per l'utilizzo dell'intelligenza artificiale generativa non mostrino rincari significativi e, in alcuni casi, siano persino diminuiti, la spesa complessiva per questa tecnologia è in forte aumento. Questo fenomeno complesso non può essere rubricato semplicemente come un'impennata dei costi dell'AI, ma è piuttosto il risultato di un insieme di fattori convergenti che stanno ridefinendo i modelli di prezzo, l'uso aziendale e l'economia sottostante del settore.
Il costo si sta spostando dal tradizionale modello "a token" verso l'infrastruttura, guidato da una crescente scarsità di potenza computazionale, dall'introduzione di nuovi strumenti a consumo e da una domanda enterprise sempre più intensa. Questi cambiamenti stanno avendo un impatto profondo sulla pianificazione dei budget, sull'efficienza operativa e sulle strategie di adozione aziendale, richiedendo un approccio più sofisticato alla gestione della spesa in AI.
La "spremitura" degli utenti business e i nuovi modelli di prezzo
Le aziende che sviluppano AI, in particolare quest'anno, hanno la necessità di ridurre le perdite e stanno trovando un modo efficace per farlo: massimizzare la spesa degli utenti business. Questa strategia, adottata da tempo da Anthropic e ora sempre più da OpenAI, non si traduce in un aumento diretto dei prezzi unitari, ma in una ridefinizione delle offerte che spinge a un maggiore consumo di servizi a valore aggiunto.
Il caso di OpenAI è emblematico. A partire dal 2 aprile 2026, ChatGPT Business ha introdotto due tipologie di licenze (seat): la seat standard, a costo fisso, e la seat Codex-only, a consumo. Curiosamente, nello stesso aggiornamento, OpenAI ha ridotto di 5 dollari al mese il prezzo delle seat standard. Oggi, per la maggior parte dei paesi, il piano Business costa 25 dollari per utente al mese con fatturazione mensile e 20 dollari con fatturazione annuale. Ciò significa che una parte dell'offerta è diventata meno cara sul fronte dell'abbonamento, mentre un'altra si è spostata su logiche di utilizzo reale e crediti.
Prezzi per token: un'analisi comparativa
Un'analisi diretta dei prezzi per token rivela che, di per sé, il costo unitario non sta esplodendo. Ad esempio, OpenAI quota:
- GPT-5.4 a 2,5 dollari per milione di token in input e 15 dollari in output.
- GPT-5.4 mini a 0,75 dollari in input e 4,5 dollari in output.
- GPT-5.4 nano a 0,2 dollari in input e 1,25 dollari in output.
Anthropic, dal canto suo, quota:
- Claude Sonnet 4.6 a 3 dollari in input e 15 dollari in output.
- Haiku 4.5 a 1 dollaro in input e 5 dollari in output.
- Opus 4.6 a 5 dollari in input e 25 dollari in output.
Il confronto suggerisce che OpenAI è spesso più economica nelle fasce standard e compatte, mentre Anthropic mantiene la sua competitività dove sono cruciali il coding e gli agenti. In alcuni casi, il prezzo unitario è addirittura sceso drasticamente rispetto alle generazioni precedenti; nella documentazione di Anthropic, Opus 4.6 costa 5 dollari per milione di token in input e 25 in output, mentre Opus 4.1 era a 15 e 75 dollari, un taglio di circa due terzi. Questo passaggio è decisivo: il mattone base costa meno, ma la casa completa costa di più.
Il passaggio dai singoli token ai workflow complessi
La vera ragione dell'aumento della spesa risiede nel fatto che le aziende non acquistano più solo risposte testuali, ma interi workflow. Questi includono attività come coding, ricerca documentale, analisi dati, automazione del browser, retrieval su basi interne e agenti che rimangono attivi per minuti o ore. Quando un task aziendale combina modello, tool, ricerca e runtime, il token smette di essere la metrica decisiva del costo.
OpenAI, nella pagina prezzi aggiornata, addebita separatamente il servizio di web search a 10 dollari per 1.000 chiamate e i container per esecuzione e tool, che dal 31 marzo 2026 sono tariffati per sessione di 20 minuti. Anthropic, nella documentazione del suo tool di code execution, prevede 1.550 ore gratuite al mese per organizzazione e poi 0,05 dollari l'ora per container. Questi costi aggiuntivi, legati all'utilizzo di infrastrutture e funzionalità avanzate, contribuiscono all'aumento della spesa complessiva.
Crescita esplosiva dell'uso aziendale e scarsità di compute
A complicare il quadro c'è la crescita esponenziale dell'uso reale dell'AI. OpenAI ha annunciato il 27 febbraio 2026 che oltre 9 milioni di utenti business paganti utilizzano ChatGPT per il lavoro. Il 31 marzo ha aggiunto che le sue API processano più di 15 miliardi di token al minuto e che il segmento enterprise vale ormai oltre il 40% dei ricavi. Il report "The state of enterprise AI", pubblicato a dicembre 2025, indicava più di 7 milioni di workplace seat e una crescita di circa 9 volte anno su anno delle seat Enterprise. Non è quindi solo una questione di listini, ma di carichi di lavoro che stanno entrando in produzione a ritmi senza precedenti.
Anthropic sta correndo nella stessa direzione. Il 6 aprile 2026 ha annunciato un nuovo accordo con Google e Broadcom per gigawatt di capacità TPU a partire dal 2027, dichiarando apertamente che ciò è necessario per sostenere una domanda "straordinaria". Nello stesso periodo, secondo Axios, il run-rate annualizzato ha raggiunto i 30 miliardi di dollari. Se i vendor firmano accordi di questa portata, è perché la domanda enterprise non sta rallentando, ma sta aumentando più velocemente della capacità disponibile.
La corsa all'AI prosciuga l'offerta di compute e innalza i costi infrastrutturali
Le novità più importanti degli ultimi giorni riguardano la crescente scarsità di risorse di calcolo. Il Wall Street Journal ha riportato il 13 aprile che la corsa all'AI sta prosciugando l'offerta di compute, generando problemi di capacità che stanno già producendo razionamento, affidabilità più bassa e scelte di prodotto forzate. Lo stesso articolo ha rilevato che il noleggio orario dei chip Blackwell di Nvidia ha raggiunto 4,08 dollari, in aumento del 48% rispetto ai 2,75 dollari di due mesi prima, secondo l'Ornn Compute Price Index. CoreWeave ha alzato i prezzi di oltre il 20% e sta chiedendo ai clienti più piccoli impegni minimi di tre anni invece di uno. Questo è il segnale più concreto di una stretta dell'offerta che si trasferisce a valle, sui costi sostenuti da chi sviluppa e distribuisce servizi di AI.
Anche OpenAI risente di questa tensione. La società ha annunciato la chiusura dell'esperienza Sora su web e app dal 26 aprile 2026 e la dismissione dell'API video dal 24 settembre 2026; il Wall Street Journal collega questa scelta anche alla necessità di liberare capacità per il coding e il segmento enterprise. Sarah Friar, chief financial officer di OpenAI, ha dichiarato di dedicare molto tempo alla ricerca di "any last-minute compute available" e di dover fare "very tough trades" su ciò che l'azienda non può perseguire per mancanza di capacità. Quando anche il leader di mercato parla in questi termini, il problema non è più teorico.
Anthropic offre un altro indicatore della stessa tensione. La pagina di stato ufficiale mostrava il 14 aprile un uptime del 99,1% per Claude API negli ultimi 90 giorni, del 98,84% per Claude.ai e del 99,27% per Claude Code; tra il 6 e il 13 aprile si sono susseguiti incidenti su login, errori di richiesta ai modelli, connettori e creazione di workspace. Per un'azienda che utilizza questi sistemi in processi di produzione, il costo non è quindi soltanto quello della chiamata al modello, ma anche quello dell'architettura di continuità operativa: fallback, ridondanza e routing tra fornitori. Questa è una spesa che il prezzo per token non mostra.
Costi industriali a monte e divario tra adozione e ritorno economico
La pressione sui prezzi deriva anche dai costi industriali a monte. Un'altra inchiesta del Wall Street Journal, pubblicata l'8 aprile, stima che OpenAI e Anthropic prevedono costi combinati per training e inference pari a 65 miliardi di dollari nel 2026, 127 miliardi nel 2027 e quasi 250 miliardi nel 2029. Questi numeri impressionanti evidenziano l'enorme investimento necessario per sviluppare e mantenere modelli di AI all'avanguardia.
Deloitte, nel report 2026 sullo stato dell'AI in impresa, segnala che il 66% delle organizzazioni vede guadagni di produttività ed efficienza, ma solo il 40% riferisce già una riduzione dei costi e appena il 20% un aumento dei ricavi. La distanza tra adozione e ritorno economico, quindi, resta ampia, sottolineando l'importanza di strategie oculate per massimizzare il valore dell'investimento in AI.
Strategie per ottimizzare la spesa in AI
Di fronte a questo scenario, le aziende devono adottare un approccio proattivo per gestire e ottimizzare la spesa in AI. Sebbene non sia stata esplicitamente menzionata una "prima mossa", le seguenti due strategie sono cruciali per navigare in questo nuovo panorama di costi e complessità.
2. Costruire benchmark interni continui
Non basta scegliere un fornitore una volta per tutte. È fondamentale confrontare modelli diversi sugli stessi task aziendali, misurando parametri chiave come qualità, latenza, costo completo del workflow, affidabilità e requisiti di compliance. OpenAI stessa, nei materiali per le imprese, insiste sul fatto che i casi di maggior valore emergono quando i team mappano interi workflow e non singoli prompt. Anthropic, sul lato Claude Code, mette già a disposizione telemetria via OpenTelemetry per tracciare costi, attività dei tool e uso organizzativo. Senza un'osservabilità costante, il modello pay-per-use rimane opaco e difficilmente controllabile.
3. Segmentare i carichi di lavoro
Una gestione intelligente della spesa passa attraverso la segmentazione dei carichi di lavoro in base alle loro esigenze. I casi ripetitivi, ad alto volume e con maggiore tolleranza all'errore possono essere gestiti su modelli mini, nano o su modelli open source gestiti internamente. Al contrario, i casi che richiedono un ragionamento più profondo, coding complesso o agenti multistep possono rimanere su modelli frontier proprietari, che offrono prestazioni superiori per compiti critici. Questa strategia permette di bilanciare costi e prestazioni in modo efficiente. McKinsey rileva che il 60% delle valutazioni dei modelli open...