Le due fonti di conoscenza degli LLM: Training e Retrieval
I Large Language Models (LLM) generano risposte combinando due tipi principali di conoscenza:
- training, cioè ciò che il modello ha appreso durante l’addestramento
- retrieval, cioè informazioni recuperate da fonti esterne al momento della domanda
Questo significa che le risposte prodotte dalle AI non provengono da un unico sistema di conoscenza.
Al contrario, derivano dall’interazione tra:
- la conoscenza interna del modello, appresa durante il training
- le informazioni recuperate dinamicamente da documenti o fonti esterne (come il Web)
Capire questa distinzione è fondamentale per comprendere:
- come ragionano gli LLM
- come imparano i modelli di intelligenza artificiale
- da dove prendono le informazioni sistemi come ChatGPT, Gemini o Copilot
In sintesi: gli LLM generano risposte combinando conoscenza appresa durante il training e informazioni recuperate tramite retrieval.
Nei prossimi paragrafi vediamo come funzionano questi due meccanismi e perché sono alla base delle AI generative moderne.
Come imparano gli LLM: il training dei modelli AI: Cos’è il training di un LLM
Il training è il processo con cui un modello di intelligenza artificiale viene addestrato su enormi quantità di dati testuali.
Durante questa fase il modello impara:
- grammatica
- semantica
- relazioni tra concetti
- conoscenze generali sul mondo
Un punto importante da capire è che il modello non memorizza informazioni come un database.
Invece apprende pattern statistici del linguaggio.
In termini tecnici:
Un LLM impara a prevedere il token successivo più probabile in base al contesto della frase; questo meccanismo è alla base del funzionamento dei modelli linguistici di grandi dimensioni (Large Language Models).
Come ragionano gli LLM: le tre fasi dell’addestramento di un LLM
Il processo di training di un modello AI generalmente avviene in tre fasi principali.
1️⃣ Pre-training
Il modello viene addestrato su enormi dataset provenienti da diverse fonti, tra cui:
- pagine web
- libri
- articoli
- documentazione tecnica
- codice
- forum
- contenuti educativi
In questa fase il modello apprende come funziona il linguaggio e molte conoscenze generali.
2️⃣ Fine-tuning
Dopo il pre-training il modello viene migliorato tramite dataset più controllati per aumentare:
- accuratezza
- coerenza
- sicurezza
3️⃣ RLHF – Reinforcement Learning from Human Feedback
In questa fase intervengono valutatori umani che analizzano le risposte del modello.
L’obiettivo è insegnare al sistema a preferire risposte:
- più utili
- più corrette
- più sicure
Cos’è il knowledge cutoff
Un concetto fondamentale per capire come ragionano gli LLM è il knowledge cutoff.
Il knowledge cutoff indica la data fino alla quale arrivano i dati utilizzati per il training del modello.
Dopo quella data:
- il modello non apprende automaticamente nuovi eventi
- la sua conoscenza rimane statica
Per aggiornare la conoscenza di un LLM è necessario:
- effettuare un nuovo ciclo di addestramento
- rilasciare una nuova versione del modello
Retrieval: come le AI recuperano informazioni dal web
Oltre alla conoscenza appresa durante il training, gli LLM possono anche utilizzare informazioni recuperate da fonti esterne.
Questo processo è chiamato retrieval.
In pratica il sistema:
1️⃣ cerca informazioni rilevanti
2️⃣ analizza i contenuti trovati
3️⃣ utilizza quei dati per generare la risposta
Questo meccanismo permette alle AI di fornire informazioni aggiornate anche dopo il knowledge cutoff.
Cos’è il RAG (Retrieval Augmented Generation)
Il sistema più diffuso per integrare informazioni esterne negli LLM si chiama:
RAG — Retrieval Augmented Generation
Il processo funziona generalmente in quattro passaggi.
Step 1
L’utente fa una domanda.
Step 2
Il sistema cerca documenti rilevanti.
Step 3
I documenti vengono inseriti nel contesto del modello.
Step 4
Il modello genera la risposta utilizzando quei contenuti.
Schema semplificato del RAG
Domanda utente
↓
Ricerca documenti
↓
Recupero contenuti
↓
LLM genera risposta
Come ragionano gli LLM: differenza tra knowledge interna e retrieval nelle AI
La differenza tra training e retrieval è fondamentale per capire da dove arrivano le risposte delle AI.
| Training | Retrieval |
|---|---|
| conoscenza interna | informazioni esterne |
| statica | aggiornata |
| appresa durante l’addestramento | recuperata in tempo reale |
| non cambia durante la conversazione | cambia in base alla ricerca |
Come ragionano gli LLM: esempi pratici
Caso 1 — conoscenza interna
Domanda:
- Cos’è il machine learning?
- La risposta proviene dal training del modello.
Caso 2 — evento recente
Domanda:
- Qual è l’ultimo aggiornamento di Google AI Overviews?
- Per rispondere è necessario recuperare informazioni dal web.
Caso 3 — concetto tecnico
Domanda:
- Come funziona una rete neurale?
- Il modello può rispondere usando la conoscenza appresa durante il training.
Caso 4 — dati aggiornati
- Domanda:
- Quanto vale oggi il Bitcoin?
Serve retrieval dal web per avere informazioni aggiornate.
Come ragionano gli LLM: limiti del training e del retrieval
Entrambi i sistemi hanno vantaggi e limiti.
Limiti del training
- conoscenza non aggiornata
- impossibilità di conoscere eventi recenti
- possibili bias nei dati
Limiti del retrieval
- dipendenza dalla qualità delle fonti
- rischio di informazioni errate
- necessità che i contenuti siano accessibili e indicizzabili
Perché questa differenza è importante per SEO e GEO?
Capire la differenza tra training e retrieval è fondamentale anche per chi si occupa di visibilità online.
Proprio per questo molti professionisti utilizzano oggi strumenti di SEO con Intelligenza Artificiale per analizzare keyword, studiare la SERP e creare contenuti ottimizzati per i motori di ricerca.
Le AI possono utilizzare contenuti provenienti da due contesti:
- Training data: contenuti presenti nei dataset di addestramento.
- Retrieval: contenuti recuperati online durante la generazione della risposta.
Per questo motivo un contenuto può apparire nelle risposte delle AI se è:
- ben strutturato
- autorevole
- facilmente recuperabile
Questo principio è alla base della Generative Engine Optimization (GEO): l’ottimizzazione dei contenuti per essere compresi e utilizzati dalle AI generative.
Come ragionano gli LLM: analogia semplice per capire training e retrieval
Immagina ChatGPT come una persona.
- Training: è tutto ciò che ha studiato durante l’università.
- Retrieval: è quando cerca informazioni su internet per aggiornarsi.
Come ragionano gli LLM: conclusione
Le risposte generate dagli LLM non provengono da una singola fonte.
Derivano dall’interazione tra due sistemi principali:
Training
- conoscenza interna
- costruita durante l’addestramento
- stabile ma non aggiornata
Retrieval
- conoscenza recuperata esternamente
- aggiornata
- dinamica
È proprio l’integrazione tra questi due meccanismi che rende possibili le AI generative moderne.
Come ragionano gli LLM: FAQ
Un LLM (Large Language Model) è un modello di intelligenza artificiale addestrato su grandi quantità di dati testuali per comprendere e generare linguaggio naturale.
Gli LLM funzionano prevedendo la parola successiva più probabile in una frase, utilizzando pattern statistici appresi durante il training.
Training: conoscenza appresa durante l’addestramento su grandi dataset di testi.
Retrieval: informazioni recuperate da fonti esterne, come pagine web o documenti, al momento della richiesta.
La combinazione di queste due fonti permette alle AI di produrre risposte coerenti e aggiornate.
Il RAG (Retrieval Augmented Generation) è una tecnica utilizzata nei sistemi di intelligenza artificiale per migliorare le risposte degli LLM.
Con il RAG, il modello:
– cerca documenti rilevanti
– recupera le informazioni più utili
– utilizza quei contenuti per generare la risposta
Questo permette alle AI di integrare informazioni aggiornate e contestuali durante la generazione del testo.
Il knowledge cutoff è la data fino alla quale arrivano i dati utilizzati per addestrare un modello di intelligenza artificiale.
Dopo questa data il modello non apprende automaticamente nuovi eventi, a meno che non utilizzi sistemi di retrieval o venga addestrato nuovamente.
TESTO – AI-ASSISTED
(per l’articolo: “Come ragionano gli LLM: come imparano e da dove prendono le informazioni”)
AI Disclosure (AI Act 2025): contenuto AI-assisted, creato da Elio Castellana con supporto di ChatGPT (GPT-5), OpenAI.
Fonte: OpenAI. “ChatGPT.” ChatGPT, OpenAI, 7 marzo 2026, https://chat.openai.com.
IMMAGINE – AI-GENERATED
(per un’immagine generata con IA che accompagna l’articolo)
AI Disclosure (AI Act 2025): immagine generata tramite AI (ChatGPT – GPT-5 Image Generation), in conformità ai requisiti di trasparenza.
Fonte: OpenAI. “ChatGPT (Image Generation).” ChatGPT, OpenAI, 7 marzo 2026, https://chat.openai.com.