• Gennaio 30, 2026
  • s.turati
  • 0

di Alessandra Schofield

L’IA ragiona ma non capisce Non dimentichiamolo mai. L’intelligenza artificiale che “dialoga” con gli esseri umani, come ChatGPT, non è un’entità cosciente né una mente artificiale nel senso umano del termine. È un cosiddetto “modello linguistico”, risultato di un processo di addestramento complesso, articolato in più fasi, progettato per consentire a un sistema informatico di usare il linguaggio in modo coerente, pertinente e utile.
La prima fase della progettazione, è il cosiddetto pre-training. In questa fase il modello viene esposto a enormi quantità di testi provenienti da fonti diverse, opportunamente filtrate. L’obiettivo non è “capire” i contenuti, ma apprendere le regolarità statistiche del linguaggio: quali parole tendono a seguire altre parole, come si strutturano le frasi, quali schemi argomentativi ricorrono più spesso. Tecnicamente, il modello impara a prevedere il token successivo in una sequenza di testo. Da questa capacità emergono, come effetto collaterale, abilità che a noi appaiono come comprensione, spiegazione e dialogo.

Piccola parentesi: cos’è il token? Quando si parla di intelligenza artificiale e di come modelli come ChatGPT “leggono” e “scrivono”, uno dei concetti chiave è quello di token. Il token non è una parola nel senso comune del termine, ma una unità tecnica: è il modo in cui il testo viene spezzato affinché il computer possa lavorarci sopra.Un essere umano legge una frase come un insieme di parole dotate di significato. Un’IA, invece, non vede parole né frasi complete: vede sequenze di piccoli pezzi di testo, i token appunto. Un token può essere una parola intera, ma molto spesso è solo una parte di parola, uno spazio, un segno di punteggiatura o una combinazione frequente di lettere. L’IA deve trasformare il linguaggio in numeri: ogni token corrisponde a un numero che il modello può elaborare. Quindi, il testo viene prima suddiviso in token, poi ciascun token viene convertito in un valore numerico. A questo punto il modello non fa altro che calcolare, passo dopo passo, quale token è più probabile che venga dopo, basandosi su tutti quelli precedenti. È così che nasce una frase: non tutta in una volta, ma un token alla volta. Dai token dipende quanto testo l’IA riesce a “tenere a mente” in una conversazione e quanto può essere lunga una risposta. Questa è la ragione per cui, dialogando con l’IA, è importante esprimere un’idea alla volta in modo chiaro. Il problema non è la lunghezza delle frasi, bensì il loro carico di informazioni: quando una frase contiene troppi concetti insieme, riferimenti impliciti o salti logici, diventa più difficile per l’Intelligenza Artificiale mantenerne la coerenza. Funziona meglio quando il discorso è ordinato e progressivo. Una frase anche lunga va bene se è lineare; una frase breve ma ambigua può invece creare confusione. In pratica, è più efficace spezzare richieste complesse in più passaggi e rendere espliciti i collegamenti, piuttosto che concentrare tutto in un unico messaggio.
Successivamente al pre-training, vi è una fase di addestramento supervisionato, in cui esseri umani forniscono esempi di risposte corrette, chiare e utili. Qui il modello “impara” non solo cosa dire, ma come dirlo quando interagisce con una persona: il tono, la struttura, il livello di dettaglio, l’attenzione al contesto. A questa fase si aggiunge poi l’apprendimento con feedback umano (Reinforcement Learning from Human Feedback), in cui più risposte vengono valutate da persone reali e il modello viene ottimizzato per produrre quelle considerate migliori: più affidabili, più sicure, più rispettose dei limiti.
Ma sia chiaro: quando parla con noi, l’IA non viene addestrata e non apprende: utilizza semplicemente il contesto della conversazione, una sorta di lavagna temporanea che serve a mantenere coerenza, ma che scompare al termine della sessione. Questo perché l’idea di far apprendere un’IA in tempo reale dagli utenti, per quanto intuitiva, sarebbe rischiosa. Esporrebbe il sistema a manipolazioni, informazioni false, perdita di coerenza e seri problemi etici e di privacy. Per questo l’evoluzione dei modelli avviene solo attraverso versioni successive, addestrate su dati aggregati e controllati.
Un’IA è insomma in grado di ragionare, ma senza capire. Il modello è estremamente abile nella sintassi, cioè nel manipolare simboli e strutture linguistiche in modo coerente. Ciò che manca è la semantica vissuta: il legame tra le parole e un’esperienza reale del mondo. Non c’è coscienza, intenzionalità, percezione di sé. Quando l’IA usa espressioni come “io”, lo fa per convenzione linguistica, non perché possieda un punto di vista soggettivo.
Da qui deriva una distinzione fondamentale tra competenza, intelligenza e coscienza. L’IA può avere una competenza molto elevata in specifici compiti, ed è intelligibile nel senso funzionale di saper affrontare problemi nuovi usando schemi appresi. Ma la coscienza, intesa come esperienza soggettiva e consapevolezza, è del tutto assente. Confondere questi livelli è alla base di molti fraintendimenti sull’intelligenza artificiale.
Un limite strutturale dei modelli linguistici è il fenomeno delle “allucinazioni”. Non si tratta di errori casuali, ma del risultato naturale del meccanismo di generazione: quando le informazioni sono incomplete o ambigue, il modello tende a produrre risposte plausibili anche se non garantite come vere. Le allucinazioni non si eliminano del tutto, ma si possono gestire e ridurre.
Il modo più efficace per farlo è agire sul modo di fare le domande. Prompt (istruzioni) ben vincolati riducono lo spazio di invenzione: possiamo chiedere all’IA di basarsi solo su fonti specifiche, imporre la distinzione tra fatti certi, interpretazioni e ipotesi, autorizzare esplicitamente la risposta “non ho dati sufficienti”. Spezzare domande complesse in più passaggi, richiedere il grado di certezza delle affermazioni e privilegiare risposte concise sono tutte strategie che abbassano drasticamente il rischio di allucinazioni. Dobbiamo sempre ricordare di usare l’IA come assistente e non come fonte unica di verità, qualunque sia il contesto. 

Informazioni da inserire nel pop up sito ISCRIZIONE RUI

 

M.A.C. – Alberti Minini Rubagotti S.r.l.
P.IVA 03662810989
Numero iscrizione RUI: A000510015
Data di iscrizione: 14 gennaio 2015
Codice amministrativo assegnato all’agenzia: 64176
info@mac-assicurazioni.it
PEC: m.a.c.albertimininirubagotti@legalmail.it

Sede di Brescia
Via IV Novembre 1 – 25122 Brescia (BS)
Tel.: 030 377 0283
Fax: 030 293148
Responsabile intermediazione sede di Brescia
Paola Minini
PEC:paolaminini@legalmail.it

Sede di Desenzano del Garda
Viale Marconi, 104 – 25105 Desenzano del Garda (BS)
Tel.:030 9142361
Fax:030 9141730
Responsabile intermediazione sede di Desenzano del Garda
Cherubini Emanuele
PEC:emanuele.cherubini@legalmail.it

Sede di Chiari
Via Maffoni, 21 – 25032 Chiari (BS)
Tel.:030 711321
Fax:030 7101766
Responsabile intermediazione sede di Chiari
Rubagotti Giorgio
PEC:giorgio.rubgotti@legalmail.it

Responsabili dell’attività di intermediazione

MININI PAOLA 

Responsabile intermediazione sede di Brescia

Numero Iscrizione A000084737

PEC:paolaminini@legalmail.it

 

RUBAGOTTI GIORGIO 

Numero Iscrizione A00005562

PEC:giorgio.rubgotti@legalmail.it

 

ALBERTI DAVIDE FRANCESCO 

Numero Iscrizione A000701752

PEC:albertidavidefrancesco@legalmail.it

 

CHERUBINI EMANUELE 

Numero Iscrizione A000002726

PEC:emanuele.cherubini@legalmail.it

 

RUBAGOTTI GIORGIO 

Numero Iscrizione A000055629

PEC:giorgio.rubgotti@legalmail.it

 

E’ possibile consultare gli estremi delle iscrizioni al RUI al seguente indirizzo https://servizi.ivass.it/RuirPubblica/

UNIPOLSAI Assicurazioni SpA

Sede legale:

Via Stalingrado, 45 – 40128 Bologna (BO)

Tel. 0515077111

Fax 0517096584

Posta PEC: unipolsaiassicurazioni@pec.unipol.it