IA generativa e LLM in C# (2026): fondamenti per sviluppatori .NET con strumenti Microsoft
Il 13 gennaio 2026 alle 19:40, Jeremy Likness ha pubblicato un articolo che ha generato 336 condivisioni, approfondendo il tema dell'IA generativa con grandi modelli di linguaggio (LLM) in C# nel 2026. Questo testo si propone come una base fondamentale per gli sviluppatori .NET/C# che operano con Microsoft Foundry, GitHub Models e AI Extensions.
L'IA generativa è diventata la tecnologia consumer con la crescita più rapida della storia, superando fenomeni come Instagram e TikTok, e raggiungendo i 100 milioni di utenti in meno di due mesi. Alla fine del 2022, OpenAI ha rilasciato un'anteprima gratuita di GPT-3.5, presentata come un client di chat conversazionale: ChatGPT. Il modello è stato perfezionato utilizzando il rinforzo per apprendimento dal feedback umano (RLHF), segnando il momento in cui l'IA generativa ha raggiunto la notorietà di massa. All'inizio del 2023, Microsoft ha risposto lanciando il servizio Azure OpenAI, che consente agli sviluppatori di fornire e utilizzare in sicurezza modelli compatibili con OpenAI dietro endpoint gestiti da Azure.
Poco dopo, Microsoft ha introdotto:
- Semantic Kernel (SK) → strumenti che consentono di orchestrare prompt, memorie e plugin utilizzando C# o Python
- Microsoft Extensions for AI (MEAI) → astrazioni unificate per interagire con i modelli (ad esempio, IChatClient)
- Microsoft Extensions for Vector Data → interfacce standard per i database vettoriali utilizzati nei sistemi RAG
Questo articolo prende le distanze dalla rapida innovazione nel campo dell'IA e si concentra sui concetti fondamentali, fornendo una base solida per gli sviluppatori .NET/C# che lavorano con Microsoft Foundry, GitHub Models, AI Extensions e runtime locali come Ollama.
comprensione dei termini legati all'ia
L'IA possiede il proprio insieme di termini distinti con significati molto specifici.
intelligenza artificiale (ia)
L'IA implica tecniche che permettono ai computer di eseguire compiti che di solito richiedono l'intelligenza umana, come il ragionamento, il linguaggio, la pianificazione o la percezione. L'IA non è nuova, ma oggi la maggior parte delle persone usa il termine "IA" per riferirsi all'IA generativa.
ia generativa (genai)
L'IA generativa si riferisce ai sistemi di IA in grado di produrre testo, immagini, suono o altri contenuti.
Ad esempio: GPT significa "Generative Pre-trained Transformer" (trasformatore generativo pre-addestrato). Per riassumere, otteniamo:
- Generativo → produce contenuti;
- Pre-addestrato → addestrato su enormi set di dati;
- Trasformatore → architettura di rete neurale che consente una modellazione linguistica di alta qualità.
grande modello di linguaggio (llm)
Gli LLM sono addestrati su miliardi di token e possono generare testo, immagini, codice o fasi di ragionamento. La loro capacità di funzionare in più lingue deriva dall'apprendimento delle relazioni tra le parole, e non da una semplice traduzione dizionario uno-a-uno.
perché la traduzione è difficile?
Le parole hanno più significati:
- pass the car = passare la macchina
- mountain pass = passo di montagna
- pass on the opportunity = lasciare passare l'occasione
- your park pass on the dashboard = il tuo pass per il parco sul cruscotto
Il software tradizionale aveva difficoltà a gestire questa ambiguità; gli LLM eccellono perché operano nello spazio semantico.
token ed embedding
I modelli non leggono direttamente il testo. Lo dividono in token:
- Parole intere
- Frammenti di parole
- Caratteri
Questi token vengono convertiti in vettori numerici chiamati embedding (integrazioni), che sono rappresentazioni matematiche del significato.
Esempi di frasi:
- «l'attore era una star»
- «a loro piacevano le stelle»
La parola "star" appare in entrambe le frasi, ma con significati diversi.
Gli embedding catturano questa differenza.
Ecco un modo semplificato per visualizzare questo concetto. Nel grafico, il significato semantico della parola "star" può essere rappresentato in funzione della sua vicinanza al concetto di "corpo celeste" (una stella nella notte) e al concetto di "attore" (star dello spettacolo).
Immaginate ora miliardi di punti di questo tipo. I modelli generano testo navigando in questo spazio e prevedendo il vettore successivo più probabile.
Esempi di distanza semantica:
- scuola ↔ scola (distanza vicina → correzione ortografica)
- gatto ↔ cane (distanza vicina → animali simili)
- gatto ↔ computer portatile (distanza lontana)
La ricerca semantica utilizza la distanza nello spazio degli embedding, non la corrispondenza di stringhe.
parametri: dimensione del modello
Gli LLM sono spesso descritti dal loro numero di parametri:
7 miliardi, 14 miliardi, 70 miliardi, 123 miliardi, ecc.
I parametri sono pesi addestrati.
Più parametri ci sono, più profondo è il ragionamento, più ricca la conoscenza e più fini le sfumature.
- GPT‑1 (2018) → 117 milioni di parametri
- Modelli all'avanguardia moderni → da 100 miliardi a oltre 400 miliardi di parametri
prompt (istruzione generativa), istruzioni e strumenti
Le sezioni precedenti hanno trattato le informazioni relative al modello.
I termini di questa sezione sono direttamente legati agli input e output del modello.
prompt (istruzione generativa)
Input utente nel modello. «Qual è il modo migliore per sbucciare un mango?»
istruzioni di sistema
«Piano» nascosto che guida il comportamento del modello. «Sei uno sbucciatore di mango e considerato un esperto nel tuo campo.»
strumenti / funzioni
Gli LLM sono addestrati su dati storici. Gli strumenti permettono loro di accedere a informazioni attuali o autorevoli, ad esempio:
- API meteo
- Ricerca in un database
- Motore di ricerca
- Indice delle conoscenze aziendali
Questo modello è chiamato «generazione aumentata da recupero» (RAG). Esaminiamo due scenari. Innanzitutto, immaginate un agente concierge che dispone di un'API per i ristoranti locali e di un'API per il meteo. L'utente digita la seguente istruzione generativa:
Puoi prenotarmi un tavolo per cena questa settimana in un ristorante con terrazza?
L'LLM chiama prima l'API meteo per determinare quali serate sono probabilmente asciutte e più calde, poi chiama l'API ristorante per trovare i ristoranti aperti e con posti disponibili. Infine, restituisce un elenco di suggerimenti che corrispondono esattamente alla richiesta.
Successivamente, immaginate un agente del servizio clienti di un negozio al dettaglio che dispone di tutte le informazioni sui prodotti. L'utente digita:
«Che tipo di batterie servono per il Traveling Wonder Cube?»
L'LLM è in grado di estrarre il nome del prodotto, «traveling wonder cube». Vettorizza il testo della query, quindi chiama l'API del prodotto con il nome del prodotto e i vettori. La ricerca semantica viene invocata utilizzando una funzione per trovare i punti del manuale del prodotto che sono semanticamente più vicini alla query. Questo restituirà il risultato pertinente riguardo alle batterie richieste se tale sezione esiste.
protocollo di contesto del modello (model context protocol - mcp)
Il protocollo di contesto del modello, o MCP in breve, è un insieme di standard per l'interoperabilità tra agenti e strumenti. Consente ai modelli di comprendere facilmente quali strumenti sono disponibili e come chiamarli. Ciò permette di creare toolbox virtuali che qualsiasi modello o agente può chiamare.
e gli agenti?
Aspetta, ho detto «agente»? Un agente è semplicemente un mezzo per fornire una soluzione specializzata che include un modello, strumenti e un contesto. Un «agente concierge» può includere un modello di ragionamento con strumenti che forniscono informazioni su meteo, eventi e ingressi.