Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

MachinaCheck: Sistema di fabricazione CNC multi-agente su AMD MI300X

Hugging Face Blog 10 maggio 2026

Entrare in un'officina di lavorazione dei metalli e chiedere al gestore come decide se accettare un lavoro del cliente è sempre la stessa risposta: stampano il disegno, leggono ogni dimensione a mano, controllano quali strumenti sono disponibili, stimano se le loro macchine possono soddisfare le tolleranze richieste e scrivono note su un bloc notes. L'intero processo dura da 30 a 60 minuti per disegno. Per un'officina impegnata che riceve 10-20 richieste di preventivo a settimana, ciò significa 5-20 ore di tempo del gestore qualificato spese solo per l'analisi di fattibilità.

A volte si sbagliano. Accettano un lavoro, iniziano la produzione e scoprono a metà del processo che non hanno il tap giusto o che la loro macchina non può soddisfare la tolleranza su una caratteristica critica. La parte viene scartata. Il cliente è insoddisfatto. Il tempo della macchina è perso.

Abbiamo costruito MachinaCheck per eliminare completamente questo problema.

MachinaCheck è un sistema AI multi-agente. È possibile caricare un file STEP - il formato CAD standard che i clienti inviano alle officine di lavorazione dei metalli - insieme a tre semplici input: tipo di materiale, tolleranza richiesta e specifiche di filettatura. Trenta secondi dopo si ottiene un rapporto di fabbricazione completo che indica esattamente se è possibile produrre la parte, quali strumenti sono necessari, cosa manca e quali azioni intraprendere prima di iniziare la produzione.

Prima di spiegare l'architettura, questo punto merita una sezione dedicata perché non è solo una scelta tecnica, ma una richiesta aziendale.

I clienti della produzione firmano accordi di non divulgazione. I loro file STEP contengono geometrie proprietarie che rappresentano anni di lavoro di ingegneria e milioni di dollari in R&S. La disposizione dei fori su un dispositivo medico o la geometria della tasca su un componente aerospaziale è una proprietà intellettuale confidenziale.

Inviare quei dati a OpenAI, Anthropic o qualsiasi endpoint API commerciale è una violazione della riservatezza. Punto.

La scheda AMD Instinct MI300X cambia completamente questo scenario. Con 192GB di HBM3 VRAM e 5,3 TB/s di larghezza di banda della memoria, possiamo eseguire Qwen 2.5 7B Instruct interamente sul posto. Nessun dato lascia l'infrastruttura dell'officina. Nessuna geometria STEP viene trasmessa a un server di terze parti. La proprietà intellettuale del cliente rimane dove appartiene.

Questo è ciò che significa "progettazione della privacy" in un contesto di produzione - non una casella di controllo, ma una decisione architettonica fondamentale che rende il prodotto fattibile per clienti aziendali reali.

Architettura

MachinaCheck utilizza un'architettura a cinque componenti costruita con LangChain e orchestrata tramite FastAPI.

Utilizziamo cadquery, una libreria Python costruita su OpenCASCADE, per analizzare i file STEP direttamente. Ciò ci consente di estrarre caratteristiche matematicamente esatte:

L'estrazione di geometria più gli input dell'utente - materiale, tolleranza, filettatura - vengono passati a Qwen 2.5 7B in esecuzione su AMD MI300X tramite vLLM.

L'agente risponde: "Quali operazioni CNC e strumenti sono necessari per produrre questa parte?"

L'agente applica conoscenze di dominio della produzione: l'acciaio 304 richiede utensili in carburo. Un foro cilindrico richiede un trapano, non un fresatore. Una tolleranza di ±0,005mm richiede una macchina di precisione, non un fresatore standard.

Questo agente non utilizza un modello linguistico. Interroga il database degli strumenti dell'officina e controlla ogni strumento richiesto rispetto a ciò che è disponibile. Logica deterministica pura - query del database, confronto, risultato. I modelli linguistici non sono necessari per le query del database e utilizzarli qui aggiungerebbe latenza e rischio di allucinazione non necessari.

Risultati

I risultati della corrispondenza tornano a Qwen. L'agente ragiona sulla situazione generale e produce una decisione strutturata:

L'agente finale sintetizza tutto in un rapporto di fabbricazione professionale con uno stato generale, riassunto esecutivo, analisi della parte, stato degli strumenti, stato della macchina e raccomandazione finale.

Eseguire Qwen 2.5 7B su AMD MI300X tramite ROCm e vLLM è stato semplice. L'immagine di avvio rapido vLLM su AMD Developer Cloud ha tutto preconfigurato.

Con una utilizzazione della memoria della GPU di 0,5 utilizziamo circa 96GB dei 192GB disponibili, lasciando molto spazio di manovra. La latenza di inferenza per le chiamate dell'agente è inferiore a 3 secondi in media.

LangChain si connette a vLLM tramite l'endpoint compatibile con OpenAI:

Utilizzare i modelli linguistici solo dove sono necessari. L'agente 2 (corrispondenza degli strumenti) è puro Python. Utilizzare un modello linguistico lì sarebbe più lento, più costoso e meno affidabile. Lo strumento giusto per la query del database è una query del database.

L'ingegneria delle promesse è importante per l'output strutturato. Ottenere Qwen per produrre JSON valido in modo affidabile ha richiesto regole precise nelle promesse - affermando esplicitamente che i fori cilindrici richiedono trapani e non fresatori, che i diametri devono corrispondere esattamente, che le spine appaiono solo quando sono specificate le filettature.

AMD MI300X è veramente impressionante per questo caso d'uso. I 192GB di VRAM significano che potremmo eseguire un modello molto più grande se necessario. Per un deploy di produzione, Qwen 2.5 72B si adatterebbe comodamente e fornirebbe una qualità di ragionamento significativamente migliore.

Caricare qualsiasi file STEP e vedere la pipeline completa in azione.

Costruito da Syed Muhammad Sarmad e Sabari Doss R all'AMD Developer Hackathon, maggio 2026.

Stack: Qwen 2.5 7B · AMD Instinct MI300X · ROCm · vLLM · LangChain · cadquery · FastAPI · Next.js · Hugging Face Spaces

Leggi l'articolo originale →
← Torna alle news