Red Hat Summit 2025: le 9 informazioni chiave per i CIO
Red Hat si sta tuffando a capofitto nell'era "AI-first", iniettando l'intelligenza artificiale ovunque: nello shell, nei cluster, nella virtualizzazione e persino negli agenti autonomi. Cluster più intelligenti, modelli ottimizzati fin dal "pull", e junior autonomi con Lightspeed: in occasione del suo Summit 2025, Red Hat ha iniziato a ridisegnare le regole del gioco IT e, a lungo termine, quelle del Dipartimento IT (DSI).
L'IA può liberare il potenziale umano ed economico, proprio come ha fatto l'open source. Aprendo il Red Hat Summit 2025, Matt Hicks, CEO di Red Hat, non ha esitato a porre la sua conferenza sotto il segno dell'IA, presentando la visione di Red Hat sul grande tema IT del momento. In una frase, ha riassunto la nuova traiettoria "AI-First" non solo della sua azienda ma anche di tutte le sue imprese clienti. L'idea è quella di estendere la promessa di apertura che ha fatto il successo di Linux e Kubernetes, ma per l'era dei modelli di fondazione. Una visione che si basa su tre pilastri:
- federare la comunità IA open source;
- industrializzare progetti IA collaborativi;
- offrire un trampolino di lancio verso l'IA senza sacrificare le applicazioni esistenti.
Il portfolio Red Hat funge da ponte, automatizzando il deployment e la manutenzione grazie a strumenti IA open source e liberando i team per compiti a più alto valore. Questa trasformazione IT arriva al momento giusto, poiché Red Hat sta capitalizzando sul malcontento generato dai cambiamenti di licenza di VMware dopo la sua acquisizione da parte di Broadcom. Secondo Ashesh Badani, direttore prodotto di Red Hat, la domanda di virtualizzazione e cloud ibrido "è fenomenale" e la soluzione OpenShift Virtualization ha quasi triplicato la sua base installata e raddoppiato il numero di cluster in produzione.
RHEL 10: La decima evoluzione maggiore e l'AI-first
Questa è stata LA grande notizia del Red Hat Summit 2025. L'editore ha ufficializzato RHEL 10, la decima evoluzione maggiore (e la prima incentrata sull'IA) del suo onnipresente Red Hat Enterprise Linux. RHEL 10 arriva con un:
- cifratura post-quantistica;
- un "image mode" che trasforma il sistema in un contenitore avviabile (il che semplifica e rende più sicuri i deployment);
- profili cloud ottimizzati sviluppati con AWS, Google Cloud, Microsoft Azure e Oracle Cloud.
Implicazioni di RHEL 10 per i CIO
Ed è qui il fattore chiave per i CIO: integrando un copilota operativo, il nuovo sistema riduce la dipendenza da profili senior e consente di applicare buone pratiche omogenee su tutti gli ambienti, anche sul cloud grazie alla "image mode". Con RHEL 10, il DSI nel suo complesso guadagna in velocità di patching, industrializza l'IaC senza appesantire il carico di supporto e si offre un sistema operativo solido per costruire le proprie IA "interne".
Red Hat AI Inference Server: Standardizzazione e prestazioni
Basato su vLLM, il motore di inferenza open source universale compatibile con OpenAI e Hugging Face, Red Hat AI Inference Server trasforma questo motore in un componente industriale e portatile. Può essere eseguito autonomamente ma è anche integrato nelle offerte RHEL AI e OpenShift AI. La sua forza? Offrire una vera soluzione standardizzata, costruita su un motore di inferenza rinomato per le sue prestazioni e universalità, al fine di implementare ed eseguire i modelli IA nel modo più semplice e rapido possibile in ambienti ibridi, sia su una workstation, un server locale, un'infrastruttura Edge o nel Cloud!
Supporto hardware e ottimizzazioni di Inference Server
Una delle forze della soluzione (e di vLLM) è quella di offrire un piano di esecuzione e controllo unico per sfruttare anche GPU Nvidia e AMD, acceleratori Intel Gaudi, TPU di Google, NPU (come Inferentia di AWS), acceleratori IBM, ecc. L'offerta di Red Hat è ancora più interessante perché deriva direttamente dall'acquisizione di Neural Magic (nello scorso novembre), il principale contributore commerciale di vLLM. In altre parole, Red Hat AI Inference Server integra di serie tutte le ottimizzazioni (compressione, quantizzazione, DeepSparse sparsity) operate da Neural Magic in vLLM, che consentono di ridurre l'ingombro dei modelli e aumentare il throughput dei token senza sacrificare la qualità. I modelli Gemma, Llama 2/3, Mistral AI, Phi o DeepSeek arrivano pre-ottimizzati nella soluzione: un semplice "pull" di immagine consente di servirli immediatamente, e la validazione Red Hat garantisce riproducibilità e prestazioni costanti sulle diverse architetture.
Vantaggi di Inference Server per i CIO
L'adozione di Inference Server per i CIO promette una forte standardizzazione dei carichi di lavoro LLM (indipendentemente dai modelli, acceleratori e cloud utilizzati) e quindi di evitare la frammentazione degli stack software e, di conseguenza, l'adozione di politiche di sicurezza, audit e osservabilità unificate e allineate con Kubernetes. Facilita approcci ibridi e dovrebbe meccanicamente ridurre i costi (in particolare gestendo in modo più intelligente l'utilizzo delle capacità di GPU, CPU e NPU disponibili).
Lightspeed per OpenShift: IA per l'orchestrazione
Un'IA conversazionale integrata in RHEL 10 è fantastica. Ma un'IA conversazionale integrata nel cuore dell'orchestratore dei contenitori e del gestore dei cluster è ancora più potente! Come annunciato l'anno scorso, Red Hat estende la sua IA "Lightspeed" a OpenShift. Questa IA vuole essere una risposta pragmatica e immediata al deficit di competenze che, secondo IDC, colpirà oltre il 90% delle organizzazioni globali entro il 2026.
Funzionalità e benefici di Lightspeed per OpenShift
Integrato nella console OpenShift, Lightspeed guida i deployment, le migrazioni di VM e le diagnosi in linguaggio naturale. Gli utenti possono porre domande in linguaggio naturale e ricevere assistenza proattiva passo dopo passo. Una nuova funzionalità "cluster-interaction", in preview, consente a Lightspeed di recuperare direttamente il contesto dei cluster dell'organizzazione per risposte più rapide e precise. La funzione "bring your own knowledge" permette alle organizzazioni di introdurre la propria documentazione e i propri processi nel cuore del sistema. In breve, anche qui questa IA contribuisce a fluidificare l'esperienza sulla piattaforma e a risolvere il deficit di competenze Kubernetes, riducendo al contempo il MTTR (Mean Time To Resolution). Il principale vantaggio per i CIO è la possibilità di implementare e documentare i propri standard nel motore, sfruttare log più contestualizzati e mettere in sicurezza questo utilizzo potenzialmente critico mantenendo il modello "on prem" se necessario.
L'Open Source come fondamento della strategia AI di Red Hat
Tutta la strategia di Red Hat si basa sull'open source, garanzia di trasparenza, collaborazione e flessibilità. Con il desiderio e la volontà di fare dell'IA una risorsa tanto aperta, portatile e collaborativa quanto Linux può esserlo per i sistemi operativi. Ciò richiederà l'imposizione di modelli aperti, runtime e motori di inferenza aperti, e protocolli aperti, il tutto assemblato con coerenza ed eleganza. La strada è ancora lunga.
La roadmap AI di Red Hat
Una roadmap che in Red Hat si basa su vLLM (come appena visto), su API aperte, su modelli Hugging Face e su un nuovo progetto comunitario copilotato da Google Cloud, IBM Research, CoreWeave e Nvidia: llm-d. Questo progetto "llm-d" è fondamentale: estende le capacità di vLLM per distribuire meglio l'inferenza dei grandi modelli su un intero cluster Kubernetes (e non su un solo server). Aggiunge così, al di sopra di vLLM, uno strato di orchestrazione e di frammentazione dei trattamenti.