L'AI costa di più alle aziende: cause e strategie da adottare
Le aziende stanno registrando un incremento significativo della spesa per l'intelligenza artificiale generativa. Questo fenomeno, pur non derivando da meri rincari unitari, è il risultato di una complessa interazione di fattori che stanno ridefinendo il panorama dei costi legati all'AI. Tra questi, spiccano i nuovi e più ampi utilizzi della tecnologia, le modifiche nelle politiche di prezzo dei principali fornitori come OpenAI e Anthropic, e una crescente dipendenza da workflow AI più sofisticati. Il costo dell'AI si sta progressivamente spostando dal semplice consumo di token a un onere più ampio legato all'infrastruttura, alla scarsità di risorse di calcolo (compute), all'introduzione di nuovi strumenti a consumo e all'aumento generale della domanda da parte del settore enterprise. Tutto ciò impone alle imprese di riconsiderare il proprio budgeting, l'efficienza operativa e le strategie di adozione.
"Spremere" gli utenti business senza rincari unitari
La percezione che l'AI stia diventando più costosa è reale per le aziende, ma è fondamentale analizzare la natura di questo aumento. Non si tratta di un semplice incremento dei prezzi per unità di servizio. Le società di AI, in particolare quest'anno, sono incentivate a ridurre le perdite e hanno individuato un modo più efficace per farlo: massimizzare la spesa degli utenti business. Questo approccio è stato a lungo adottato da Anthropic e ora è sempre più evidente anche in OpenAI.
Massimizzare la spesa, tuttavia, non significa necessariamente aumentare il costo unitario. Significa piuttosto ridefinire il valore e le modalità di fruizione dei servizi, spingendo verso un utilizzo più profondo e integrato dell'AI all'interno dei processi aziendali. Capire questa dinamica è cruciale, poiché apre la strada a strategie di efficienza che le aziende possono implementare.
Il caso OpenAI: evoluzione dei prezzi e modelli di offerta
Il modello di prezzo di OpenAI illustra chiaramente perché parlare di "prezzi in aumento" senza distinguere i diversi livelli dell'offerta è impreciso. A partire dal 2 aprile 2026, ChatGPT Business ha introdotto due tipi di 'seat': la seat standard, a costo fisso, e la seat Codex-only, a consumo. Nello stesso aggiornamento, OpenAI ha ridotto di 5 dollari al mese il prezzo delle seat standard. Attualmente, per la maggior parte dei paesi, il piano Business costa 25 dollari per utente al mese con fatturazione mensile e 20 dollari con fatturazione annuale. Ciò significa che una parte dell'offerta è effettivamente diventata meno costosa per quanto riguarda gli abbonamenti, mentre un'altra si è spostata su logiche di utilizzo reale e crediti.
Parallelamente, OpenAI ha definito i prezzi per token dei suoi modelli più avanzati: GPT-5.4 è quotato a 2,5 dollari per milione di token in input e 15 dollari in output; GPT-5.4 mini scende a 0,75 e 4,5 dollari; GPT-5.4 nano a 0,2 e 1,25 dollari. Questi prezzi riflettono una granularità dell'offerta che permette alle aziende di scegliere il modello più adatto alle proprie esigenze, bilanciando potenza e costo.
Il confronto con Anthropic e la tendenza dei prezzi unitari
Anthropic, un altro attore chiave nel mercato, quota i suoi modelli in modo simile: Claude Sonnet 4.6 a 3 e 15 dollari per milione di token in input e output; Haiku 4.5 a 1 e 5 dollari; Opus 4.6 a 5 e 25 dollari. Un confronto diretto tra OpenAI e Anthropic rivela che OpenAI è spesso più economica nelle fasce standard e compatte, mentre Anthropic mantiene una forte competitività in ambiti come il coding e gli agenti.
In sintesi, il prezzo per token, il "mattone base" dell'AI, non sta affatto esplodendo. Anzi, in alcuni casi, il prezzo unitario è drasticamente diminuito rispetto alle generazioni precedenti. La documentazione di Anthropic, ad esempio, mostra che Opus 4.6 costa 5 dollari per milione di token in input e 25 in output, a fronte di Opus 4.1 che si attestava a 15 e 75 dollari, un taglio di circa due terzi. Questo passaggio è cruciale: il costo del singolo elemento è sceso, ma il costo complessivo della "casa completa" è aumentato.
Dai token ai workflow: la vera ragione dell'aumento di spesa
La spesa complessiva delle aziende per l'AI sta salendo perché non acquistano più solo risposte testuali o semplici chiamate a modelli. Stanno comprando e implementando interi workflow complessi. Questi includono attività come il coding, la ricerca documentale avanzata, l'analisi dati, l'automazione del browser, il retrieval su basi di conoscenza interne e l'utilizzo di agenti che possono rimanere attivi per minuti o ore, eseguendo compiti multistep. Questi workflow integrano più funzionalità e modelli, spingendo i costi al di là della semplice metrica del token.
OpenAI, nella sua pagina prezzi aggiornata, addebita a parte servizi come la web search (10 dollari per 1.000 chiamate) e i container per esecuzione e tool, che dal 31 marzo 2026 sono tariffati per sessione di 20 minuti. Analogamente, Anthropic, nella documentazione del suo tool di code execution, prevede 1.550 ore gratuite al mese per organizzazione, dopodiché si applica un costo di 0,05 dollari l'ora per container. Quando un task aziendale richiede la combinazione di un modello di linguaggio, l'uso di tool esterni, la ricerca di informazioni e un runtime per l'esecuzione, il token cessa di essere la metrica decisiva per valutare il costo totale.
La crescita esponenziale dell'uso enterprise
A contribuire all'aumento della spesa vi è anche la crescita vertiginosa dell'uso reale e produttivo dell'AI. OpenAI ha annunciato il 27 febbraio 2026 che oltre 9 milioni di utenti business paganti utilizzano ChatGPT per il lavoro. Il 31 marzo, la società ha aggiunto che le sue API processano più di 15 miliardi di token al minuto e che il segmento enterprise rappresenta ormai oltre il 40% dei suoi ricavi. Nel report "The state of enterprise AI", pubblicato a dicembre 2025, OpenAI indicava più di 7 milioni di workplace seat e una crescita di circa 9 volte anno su anno delle seat Enterprise. Questo non è dunque solo un problema di listini, ma di carichi di lavoro sempre più complessi che stanno entrando in produzione e che generano un consumo massivo di risorse.
Anthropic sta seguendo la stessa traiettoria. Il 6 aprile 2026 ha annunciato un nuovo accordo con Google e Broadcom per gigawatt di capacità TPU a partire dal 2027, dichiarando apertamente che questa espansione è necessaria per sostenere una domanda "straordinaria". Nello stesso periodo, secondo Axios, il run-rate annualizzato di Anthropic ha raggiunto i 30 miliardi di dollari. Se i vendor siglano accordi di tale portata, è perché la domanda enterprise non solo non sta rallentando, ma sta aumentando più velocemente della capacità disponibile.
La scarsità di potenza di calcolo (compute)
Le novità più significative degli ultimi giorni riguardano proprio la disponibilità di risorse di calcolo. Il Wall Street Journal ha riportato il 13 aprile che la corsa all'AI sta prosciugando l'offerta di compute, con problemi di capacità che stanno già portando a razionamenti, affidabilità più bassa e scelte di prodotto forzate. Lo stesso articolo evidenzia che il noleggio orario dei chip Blackwell di Nvidia ha raggiunto i 4,08 dollari, con un aumento del 48% rispetto ai 2,75 dollari di due mesi prima, secondo l'Ornn Compute Price Index. CoreWeave, una delle principali aziende di cloud per AI, ha aumentato i prezzi di oltre il 20% e sta chiedendo ai clienti più piccoli impegni minimi di tre anni invece di uno. Questo è il segnale più concreto di una stretta sull'offerta che si trasferisce a valle, sui costi sostenuti da chi sviluppa e distribuisce servizi di AI.
In questo contesto di scarsità, OpenAI ha annunciato la chiusura dell'esperienza Sora su web e app dal 26 aprile 2026 e la dismissione dell'API video dal 24 settembre 2026. Il Wall Street Journal collega questa scelta anche alla necessità di liberare capacità di calcolo per sostenere servizi più prioritari come il coding e le applicazioni enterprise. Sarah Friar, chief financial officer di OpenAI, ha dichiarato di dedicare molto tempo alla ricerca di "any last-minute compute available" e di dover fare "very tough trades" su ciò che l'azienda non può perseguire per mancanza di capacità. Quando anche il leader del mercato si esprime in questi termini, il problema della scarsità non è più teorico.
Affidabilità e costi indiretti
Anthropic fornisce un altro indicatore della stessa tensione. La pagina di stato ufficiale mostrava il 14 aprile un uptime del 99,1% per Claude API negli ultimi 90 giorni, del 98,84% per Claude.ai e del 99,27% per Claude Code. Tuttavia, tra il 6 e il 13 aprile si sono susseguiti incidenti relativi a login, errori di richiesta ai modelli, connettori e creazione di workspace. Per un'azienda che impiega questi sistemi in processi di produzione critici, il costo non è quindi solo quello della singola chiamata al modello, ma anche quello dell'architettura di continuità operativa: fallback, ridondanza e routing tra diversi fornitori. Questa è una spesa significativa che il semplice prezzo per token non rivela.
Costi industriali a monte e disallineamento dei ritorni
La pressione sui prezzi deriva anche dai costi industriali che i fornitori di AI devono affrontare a monte. Un'altra inchiesta del Wall Street Journal, pubblicata l'8 aprile, riporta che OpenAI e Anthropic prevedono costi combinati per training e inference pari a 65 miliardi di dollari nel 2026, 127 miliardi nel 2027 e quasi 250 miliardi nel 2029. Questi numeri colossali mostrano l'enorme investimento infrastrutturale richiesto per sviluppare e mantenere i modelli AI più avanzati, costi che inevitabilmente si riflettono, seppur indirettamente, sulla spesa finale delle imprese.
Nonostante la spesa crescente, c'è ancora un disallineamento tra l'adozione dell'AI e il suo ritorno economico immediato. Deloitte, nel report 2026 sullo stato dell'AI in impresa, segnala che il 66% delle organizzazioni vede guadagni di produttività ed efficienza, ma solo il 40% riferisce già una riduzione dei costi e appena il 20% un aumento dei ricavi. Questa distanza tra adozione e ritorno economico resta un'importante sfida per le aziende.
Strategie per gestire l'aumento dei costi dell'AI
Di fronte a questo scenario, le aziende devono adottare strategie mirate per ottimizzare la spesa e massimizzare il valore dell'AI.
2. Costruire benchmark interni continui
- Non è sufficiente scegliere un fornitore una volta per tutte. È imperativo confrontare modelli diversi sugli stessi task aziendali.
- Le metriche da misurare devono includere:
- Qualità delle risposte o dei risultati.
- Latenza delle chiamate e delle esecuzioni.
- Costo completo del workflow, non solo per token.
- Affidabilità e uptime dei servizi.
- Requisiti di compliance e sicurezza.
- OpenAI stessa, nei materiali per le imprese, insiste sul fatto che i casi di maggior valore emergono quando i team mappano interi workflow e non si limitano a singoli prompt.
- Anthropic, sul lato di Claude Code, mette già a disposizione telemetria via OpenTelemetry per tracciare costi, attività dei tool e uso organizzativo. Senza un'adeguata osservabilità, il modello pay-per-use può rimanere opaco e difficile da controllare.
3. Segmentare i carichi di lavoro
- La segmentazione dei carichi di lavoro è cruciale per l'ottimizzazione dei costi.
- I casi ripetitivi, ad alto volume e con maggiore tolleranza all'errore, possono essere gestiti utilizzando modelli "mini" o "nano", o anche modelli open source gestiti internamente all'azienda. Questi modelli offrono un costo per token significativamente inferiore e possono essere sufficienti per molti compiti routinari.
- I casi che richiedono ragionamento più profondo, coding complesso o l'utilizzo di agenti multistep, che sono intrinsecamente più costosi e intensivi in termini di risorse, dovrebbero essere riservati a modelli frontier proprietari.
- Questo approccio consente di allocare le risorse più costose ed avanzate solo dove sono strettamente necessarie, evitando sprechi. McKinsey rileva che il 60% delle organizzazioni sta già considerando o adottando modelli open source per specifiche esigenze.
L'adozione dell'AI generativa è una trasformazione inarrestabile che porta notevoli benefici in termini di produttività. Tuttavia, richiede un approccio strategico e una gestione oculata dei costi per garantire che gli investimenti si traducano in un effettivo ritorno economico e in un vantaggio competitivo duraturo.