HomeModelli AIRAGMCP OrchestrazionePrompt Engineering Quando (Non) Usare AIChipsBotNews

Claude AI: cos'è, come funziona e perché è tra le migliori IA nel 2026

La Razón 13 aprile 2026

Per anni, la conversazione pubblica sull'intelligenza artificiale ha ruotato quasi esclusivamente attorno a ChatGPT. Questa immagine è cambiata. Nel primo trimestre del 2026, tre modelli si contendono la corona dell'IA generativa e uno di essi, Claude, ha smesso di essere il segreto condiviso tra i programmatori per diventare lo strumento raccomandato da consulenti, redazioni, studi legali e dipartimenti finanziari. Il suo produttore, Anthropic, ha presentato a febbraio i modelli Opus 4.6 e Sonnet 4.6, e a gennaio ha lanciato Cowork, un'applicazione desktop che permette di delegare compiti completi senza toccare una riga di codice.

Che cos'è Claude?

Claude è un assistente di intelligenza artificiale creato da Anthropic, disponibile sul web, mobile, desktop e tramite API. A differenza dei suoi concorrenti, è costruito su un framework di sicurezza chiamato IA Costituzionale e si distingue per il ragionamento esteso, la programmazione e l'analisi di documenti lunghi. Accetta testo e immagini e restituisce testo; nel 2026, gestisce fino a un milione di token di contesto per conversazione.

Claude è, in realtà, una famiglia di modelli linguistici sviluppati da Anthropic, una società di intelligenza artificiale con sede a San Francisco fondata nel 2021 dai fratelli Dario e Daniela Amodei insieme a un gruppo di ricercatori provenienti da OpenAI. Il prodotto di consumo si chiama anch'esso Claude e può essere utilizzato tramite claude.ai, applicazioni mobili per iOS e Android, un'applicazione desktop per Mac e Windows, e un'API che viene integrata da sviluppatori e aziende.

La filosofia e l'evoluzione di Anthropic

Il salto non è solo tecnico. Anthropic è passata dall'essere un laboratorio fondato da ex membri di OpenAI a una compagnia con uffici a San Francisco, Dublino, Tokyo e Sydney, con accordi attivi con il governo del Regno Unito, l'amministrazione statunitense, ServiceNow e l'Howard Hughes Medical Institute. La differenza iniziale rispetto ad altre IA conversazionali risiede nella sua filosofia. Anthropic ha definito fin dall'inizio tre obiettivi di design — che il modello sia utile, innocuo e onesto — e li ha trasformati in un metodo di addestramento battezzato come IA Costituzionale, in cui Claude impara a regolare le proprie risposte a partire da un insieme scritto di principi. Questo documento, noto come "la costituzione", è cresciuto da circa 2.700 parole nel 2023 a oltre 23.000 nella versione pubblicata il 22 gennaio 2026, redatta principalmente dalla filosofa Amanda Askell. Lo stesso Dario Amodei ha pubblicamente riconosciuto di non escludere tratti di coscienza nei suoi modelli, una posizione insolita nel settore.

Nel 2026, Anthropic mantiene accordi con il governo del Regno Unito per i servizi di GOV.UK, con il governo australiano per la ricerca sulla sicurezza, con Mozilla per rafforzare Firefox, con ServiceNow, con l'Allen Institute e con l'Howard Hughes Medical Institute, e ha aperto un ufficio a Sydney a marzo 2026 come la sua quarta sede in Asia-Pacifico. Il 12 marzo ha anche annunciato un investimento di 100 milioni di dollari nella sua rete di partner. L'azienda ha anche aperto un fronte legale contro compagnie cinesi come DeepSeek, che accusa di aver addestrato modelli usando Claude.

Claude vs. la concorrenza: privacy e ragionamento esteso

Mentre ChatGPT punta sulla massività e sugli ecosistemi come GPTs e DALL·E, e Gemini si basa sull'integrazione totale con Google Workspace, Claude gioca una carta diversa: risposte curate, ragionamento lungo, programmazione di primo livello e una politica rigorosa di privacy. Anthropic si è impegnata a febbraio 2026 a mantenere Claude senza pubblicità con il messaggio "Claude è uno spazio per pensare", e assicura che le conversazioni dei piani a pagamento non vengono utilizzate per addestrare i modelli.

La famiglia di modelli Claude: intelligenza, velocità e prezzo

La famiglia Claude opera su tre livelli, pensati per bilanciare intelligenza, velocità e prezzo. La scelta del modello adeguato influisce sia sulla qualità della risposta che sul costo per token quando si utilizza l'API.

Opus 4.6

  • Arrivato il 5 febbraio 2026.
  • Secondo i dati pubblicati da Anthropic, è il modello più capace dell'azienda fino ad oggi.
  • Ottiene un 80,8% in SWE-bench Verified, il test di riferimento per misurare se un modello può risolvere incidenti di codice reali, e un 91,3% in GPQA Diamond, una batteria di domande scientifiche post-laurea.
  • Include per la prima volta in un modello Opus una finestra di contesto di un milione di token senza costi aggiuntivi, pensiero esteso adattivo e la modalità Agent Teams, che lancia diverse istanze in parallelo per suddividere i sottocompiti.

Sonnet 4.6

  • Presentato il 17 febbraio 2026.
  • È la proposta di Anthropic per l'uso quotidiano.
  • Mantiene il prezzo della versione precedente (3 dollari per milione di token di input e 15 di output).
  • Raggiunge il 79,6% in SWE-bench Verified e aggiunge pensiero esteso e finestra di un milione di token in beta.
  • È il modello che la maggior parte degli utenti di Claude finisce per usare quotidianamente perché risponde rapidamente, costa poco e sopporta quasi qualsiasi compito.

Haiku 4.5

  • Lanciato il 15 ottobre 2025.
  • È il modello più piccolo della famiglia.
  • È pensato per elaborare migliaia di richieste al minuto con bassa latenza: classificazione di email, filtraggio di contenuti, smistamento di ticket di assistenza clienti o estrazione di entità in database.
  • Nonostante le sue dimensioni, offre capacità vicine ai modelli di punta delle generazioni precedenti.

Claude Mythos: un'ombra sul futuro?

Alla fine di marzo 2026 è trapelata per errore, secondo quanto riportato da Fortune, l'esistenza di un modello interno chiamato Claude Mythos, descritto da Anthropic come "un cambiamento qualitativo" e in fase di test con clienti ad accesso anticipato. Se ne sarebbe venuti a conoscenza da un post di blog pubblicato accidentalmente e dalla fuga nel registro pubblico di npm del codice di Claude Code, con circa 512.000 linee di TypeScript, il 31 marzo. Anthropic non ha confermato la data di lancio, né le capacità concrete, e la bozza stessa citava preoccupazioni di cybersecurity inedite. Sembra che Mythos non vedrà la luce per il momento. Servirà solo a 100 aziende che lavoreranno per trovare bug e cercare di farlo funzionare. Ciò che è chiaro è che non raggiungerà il pubblico generale.

Come funziona Claude: il motore dietro l'IA

Claude è un modello linguistico di grandi dimensioni (LLM) addestrato con enormi quantità di testo e immagini. Quando l'utente scrive una domanda, il modello scompone il testo in pezzi chiamati token, li elabora attraverso una rete neurale profonda e genera la risposta parola per parola, scegliendo ad ogni passo la continuazione più probabile in base a quanto appreso durante l'addestramento e al contesto della conversazione.

La tecnica di addestramento di Anthropic si chiama IA Costituzionale e si articola in due fasi. Inizialmente, il modello impara a rispondere basandosi su testo umano. Successivamente, gli viene chiesto di criticare le proprie risposte seguendo un elenco di principi scritti e di riscriverle fino a quando non soddisfano tali principi. Il risultato è un assistente che rifiuta richieste dannose con maggiore coerenza rispetto ai modelli addestrati solo con rinforzo umano, secondo i rapporti di sicurezza pubblicati da Anthropic.

Pensiero esteso e finestra di contesto

A partire da Claude 3.7 Sonnet, presentato a febbraio 2025, i modelli di Anthropic possono attivare una modalità di pensiero esteso in cui impiegano più token interni per ragionare prima di rispondere. In Opus 4.6, questa modalità è diventata adattiva: il modello decide autonomamente quanto pensare in funzione della domanda. Questo riduce i tempi di attesa per le query semplici e migliora la precisione in quelle complesse senza che l'utente debba modificare le impostazioni.

La finestra di contesto è la quantità di informazioni che il modello può tenere presente contemporaneamente. Un milione di token equivalgono, in testo spagnolo, a circa 750.000 parole, l'equivalente di un libro molto lungo o di un fascicolo giudiziario complesso.

Leggi l'articolo originale →
← Torna alle news