Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

Red Hat apre Ansible agli agenti IA con alcune limitazioni

Le Monde Informatique - AI 14 maggio 2026

Red Hat ha aperto il server MCP per la piattaforma di automazione Ansible, aprendo la strada per interconnettere Ansible con modelli IA esterni, con l'obiettivo di aumentare la capacità di automazione delle aziende, mantendendo però un controllo rigoroso sugli agenti. L'annuncio è stato presentato durante la conferenza annuale del fornitore a Atlanta, dove sono state illustrate diverse strategie per integrare l'IA nell'automatizzazione IT.

Ansible e l'integrazione con l'IA

Red Hat ha rivelato l’apertura del server MCP per Ansible, un sistema che facilita l’adattamento e la gestione degli ambienti in cloud e in locale. L’utilizzo di Ansible permette di effettuare attività come l'approvvigionamento di software, la gestione della configurazione e il deployment applicativo. Accanto a questa novità, l’azienda ha presentato un orchestratore d'automazione, che guida gli agenti IA attraverso playbooks testati e approvati da parte umana, offrendo un controllo deterministico sulle azioni eseguite.

Il rischio di operazioni non autorizzate da parte degli agenti, come ad esempio l’eliminazione non intenzionale di dati o di mailbox, ha spinto Red Hat ad implementare una serie di limiti che mantengono il sistema sicuro e controllabile. Inoltre, ora gli amministratori possono delegare agli utenti finali la possibilità di avviare automatizzazioni, ad esempio durante momenti non produttivi per minimizzare l’impatto. Inoltre, più eventi possono attivare lo stesso playbook d’automazione.

Supporto ai modelli IA

Sathish Balakrishnan, vicepresidente e direttore generale di Red Hat per la divisione Ansible, ha dichiarato che la piattaforma ora supporta una gamma ancora più ampia di modelli IA. Sono inclusi i modelli di IBM WatsonX Code Assistant, Google, Anthropic e OpenAI, nonché qualsiasi altro modello compatibile con l'API OpenAI.

Inoltre, le aziende possono fornire al sistema informazioni di contesto personalizzate grazie all'integrazione con RAG, un sistema che consente di iniettare informazioni specifiche. «I clienti conoscono molto bene il contesto: sanno quando aggiornare i server, conoscono le loro politiche di IT, hanno definite le regole dell'infrastruttura, e quindi possiamo utilizzare queste informazioni per guidare meglio il sistema», ha osservato. La sua dichiarazione sottolinea una chiara consapevolezza dei rischi associati all’IA e il ruolo chiave dei playbook testati per mantenere l’automazione sotto controllo.

Riconoscimento del rischio

Red Hat riconosce che l’IA può comportare rischi per via della sua natura imprevedibile. Per mitigarli, il sistema punta su playbook operativi, già verificati, in grado di eseguire determinate correzioni in maniera economica. «Se sappiamo già come effettuare un aggiornamento, perché chiedere a un modello di grandi lingue di farlo, se possiamo seguire uno schema provato?» ha affermato Balakrishnan.

Il ricorso a questi playbook riduce non solo gli errori ma anche i costi legati all’uso dei token IA, che sono particolarmente elevati.

Analisi degli esperti

I fornitori di analisi tecnologica osservano l’evoluzione di Red Hat con attenzione mista. Paul Nashawaty, analista presso Efficiently Connected, sottolinea che l’accesso MCP ad Agenti IA esterni introduce nuovi rischi. «L’idea di collegare agenti IA a sistemi d’automazione con accesso elevato apre la porta a danni considerevoli, comprese disconnessioni non intenzionali o azioni distruttive», ha commentato.

Per lui, l’utilizzo principale dell’IA oggi dovrebbe riguardare attività come l’assistenza tecnica, la conformità, l’autoservizio per sviluppatori o l’esecuzione di operazioni in base a richieste umane. Con le nuove caratteristiche integrate in Ansible, gli sviluppatori potranno chiedere in linguaggio naturale di creare ambienti IT, oppure ricevere suggerimenti automatizzati da sistemi IA in risposta ad allerte.

Interfacce in linguaggio naturale

Jevin Jensen, analista presso IDC, sottolinea che l’introduzione di interfacce basate su linguaggio naturale per le piattaforme IT rappresenta un passo in avanti significativo che sta aspettando da diversi mesi. «Questa funzionalità permette di estendere il valore di una piattaforma sia per utenti nuovi che esperti, aumentando la produttività», ha dichiarato.

Secondo lui, è indispensabile un buon livello di governanza per gestire correttamente i privilegi, nonché un'attenta attuazione del controllo basato sui ruoli. Jensen ha applaudito l'iniziativa dei playbook che rendono più veloce la creazione di automazioni, ma ha raccomandato di utilizzarli inizialmente in contesti cloud meno critici o in ambienti di sviluppo.

Necessità di sicurezza e governanza

I commenti degli analisti sottolineano due aspetti fondamentali: la sicurezza e il controllo. L’accesso ad Ansible da parte di modelli IA esterni introduce nuovi rischi che le aziende devono considerare prima di adottare la tecnologia.

Per questo, un’approccio graduale, sperimentando prima in ambienti isolati o in settori di basso impatto, è una buona strategia per limitare i danni potenziali. Questo è anche il parere espresso da IDC, che consiglia di iniziare con contesti non operativi, al fine di valutare il comportamento dell’IA in modo controllato.

Conclusione

Red Hat sta aprendo il campo dell’automazione verso nuove frontiere grazie all’apertura del server MCP e all’orchestratore deterministico per Ansible. Tuttavia, come ben riconosciuto da esperti e tecnici del settore, tale apertura non deve essere vista in maniera acritica. È fondamentale introdurre una governance solida e risorse sufficienti per gestire l’uso dell’IA in contesti operativi complessi. Questi elementi sono essenziali per sfruttare appieno le potenzialità dell’intelligenza artificiale senza andare incontro a rischi di compromissione dei dati o di interruzioni di servizio.

Lista delle principali caratteristiche introdotte

    • Apertura del server MCP per collegare modelli IA esterni
    • Introduzione di un orchestratore di automazioni basate su playbook
    • Accesso al sistema di RAG per fornire contesto personalizzato
    • Supporto ai modelli IA più rilevanti (Google, Anthropic, OpenAI, IBM)
    • Creazione di playbook verificati e testati
    • Accesso agli orchestri da parte di utenti finali con scadenze adatte
    • Trigger multipli per lo stesso playbook
Leggi l'articolo originale →
← Torna alle news