Conoscere LLM e applicazioni AI per usarli meglio
L'intelligenza artificiale sta trasformando società, economia e processi decisionali, imponendo una riflessione su fiducia, trasparenza e controllo umano. Comprendere il funzionamento tecnico degli LLM e dell'AI agentica è essenziale per evitare affidamenti acritici, governare i rischi e affrontare gli impatti sociali, politici ed economici dell'AI.
La pervasiva diffusione delle soluzioni basate su generative AI, entrate nell'attività quotidiana di milioni di persone e, ancora di più, il livello di delega accordato a sistemi agentici, in grado di prendere decisioni autonomamente ed eseguire task complessi minimizzando il controllo umano, hanno aperto una nuova fase nel rapporto uomo-macchina.
La necessità di comprendere l'AI
Le istituzioni e i governi provano a inserire norme e regolamenti, come l'AI Act, per gestire e indirizzare la trasformazione in atto, provando a massimizzare i benefici per la società e minimizzare i rischi. In applicazioni ad alto rischio è prevista la supervisione umana, che continui a mantenere il controllo nelle nostre mani, senza delegare troppo alle macchine.
Accordare una delega significa ovviamente dare fiducia, significa affidarsi. Farlo senza comprensione rappresenta un grande rischio. Perlomeno, è quanto pensa Martin Lueck, una delle figure di riferimento nel campo della finanza e degli investimenti quantitativi, che, in una recente dichiarazione pubblica, ha richiamato gli hedge fund a un utilizzo più consapevole di strumenti basati sull'AI.
L'importanza della comprensione
Un principio che dovremmo probabilmente adottare tutti, a prescindere dal nostro ruolo. Per poter scegliere dobbiamo però conoscere e capire in che modo gli LLM e le applicazioni AI prendono decisioni ed eseguono azioni. Il compito non è banale e la nostra capacità di comprensione non è la stessa per tutti gli algoritmi e le soluzioni.
Se per alcune tecnologie (i modelli di machine learning definiti shallow, superficiali) è relativamente facile intuire la relazione tra input e output, per altri, le reti neurali ad apprendimento profondo e modelli LLM in particolare, non è certo immediato risalire alle origini delle decisioni.
La tecnologia dietro gli LLM
La questione di fondo è che i modelli LLM, che forniscono ad applicazioni come Claude di Anthropic la capacità di interpretare e creare contenuti in linguaggio naturale, sono delle reti neurali artificiali. Le reti neurali sono strutture matematiche che non possono avere alcun tipo di coscienza: non hanno cognizione di nulla, non sanno ad esempio cosa sia il mare, non hanno un'idea originale della vita, della morte, della religione, neppure di sé stesse.
Tuttalpiù, possono riprodurre i contenuti che nel contesto sembrano più plausibili, coerenti con i pattern appresi durante l'addestramento. In questo senso, quando interroghiamo un chatbot, lo influenziamo, nel tipo e nel tono delle risposte che ci darà, con le nostre domande, il nostro lessico. È, in parte almeno, una camera dell'eco.
La camera dell'eco
Scendendo nel tecnico, una qualche premessa è necessaria a capire davvero il fenomeno della camera dell'eco, una rete neurale è costituita da una composizione di funzioni matematiche che ricevono in input dei dati, strutturati o non strutturati e rappresentati in forma numerica di scalari, vettori, matrici, tensori e li trasformano in un output (una predizione, un contenuto, una riorganizzazione dei dati stessi o una loro diversa rappresentazione, ecc.), tramite una sequenza di complesse operazioni matematiche.
Un modello di machine learning vuoto, ovvero prima del training, è, semplificando, una funzione i cui parametri sono ancora generici e possono rappresentare un'ampia famiglia di funzioni possibili. È attraverso l'esposizione a tanti casi ed esempi che questi parametri assumono il valore utile alla minimizzazione dell'errore di predizione.
La general purpose technology
È convinzione ormai generale che l'AI è una general purpose technology (GPT), ovvero "una tecnologia caratterizzata da pervasività, potenziale intrinseco di miglioramento tecnico e complementarità innovative, che danno origine a rendimenti di scala crescenti". Una tecnologia paragonata, per impatti e capacità trasformativa, alla stampa, all'elettricità, a internet, al web.
La prima cosa che dobbiamo fare è dunque capire le implicazioni che ha questo sulla società e sull'economia. Per una GPT (General Purpose Technology) non possiamo, ad esempio, valutare i ritorni degli investimenti guardando solo alla singola circoscritta applicazione e usando ROI di breve periodo per prendere decisioni strategiche rispetto alla scelta non rinviabile di integrare l'AI nei propri processi decisionali e operativi e tenerne conto anche nella costruzione dell'organizzazione del presente e del futuro.
I benefici e i rischi dell'AI
Comprendere cosa è un chatbot come ChatGPT o come Claude è necessario quando questi entrano nella vita di tutti noi e a loro ci affidiamo per prendere decisioni o anche solo per informarci. Ad esempio, comprendere come sono fatti gli strumenti basati su AI generativa, è utile a capire i rischi di "camera dell'eco", ovvero di non vedere la tendenza di questi strumenti ad andare dove li vogliamo portare.
Una tendenza alla compiacenza e alla rassicurazione che dipende dal modo in cui sono stati creati. La questione di fondo è che i modelli LLM, che forniscono ad applicazioni come Claude di Anthropic la capacità di interpretare e creare contenuti in linguaggio naturale, sono delle reti neurali artificiali.
La prima domanda è come possiamo usare, governare e affidarci a sistemi di cui non comprendiamo davvero la natura. Come possiamo prendere decisioni libere e consapevoli senza capire gli impatti nelle nostre economie e sul nostro quotidiano, dal lavoro alla cultura, dai rapporti sociali alla conoscenza.
Conclusioni
Non si tratta di questioni filosofiche, astratte e teoriche. Come si vede, in ambiti ad alta responsabilità, come quello finanziario, alcuni operatori sostengono che si debba conoscere il funzionamento interno degli strumenti per poter utilizzare le indicazioni e i suggerimenti forniti dai modelli, rifiutando a priori quelli che provengono da scatole nere non spiegabili.
Non possiamo accontentarci della performance finale, dobbiamo capire il processo. La crescente diffusione di sistemi di AI nei processi decisionali, nei prodotti e nei servizi rende la questione sempre più urgente.
Per affrontarla, proverò a distinguere due livelli strettamente connessi: quello tecnico, che determina il funzionamento e i limiti dei sistemi, e quello economico e politico, da cui discendono le scelte di utilizzo, regolazione e governance e in definitiva l'impatto sulle nostre vite.