di Alessandra Schofield
L’IA ragiona ma non capisce Non dimentichiamolo mai. L’intelligenza artificiale che “dialoga” con gli esseri umani, come ChatGPT, non è un’entità cosciente né una mente artificiale nel senso umano del termine. È un cosiddetto “modello linguistico”, risultato di un processo di addestramento complesso, articolato in più fasi, progettato per consentire a un sistema informatico di usare il linguaggio in modo coerente, pertinente e utile.
La prima fase della progettazione, è il cosiddetto pre-training. In questa fase il modello viene esposto a enormi quantità di testi provenienti da fonti diverse, opportunamente filtrate. L’obiettivo non è “capire” i contenuti, ma apprendere le regolarità statistiche del linguaggio: quali parole tendono a seguire altre parole, come si strutturano le frasi, quali schemi argomentativi ricorrono più spesso. Tecnicamente, il modello impara a prevedere il token successivo in una sequenza di testo. Da questa capacità emergono, come effetto collaterale, abilità che a noi appaiono come comprensione, spiegazione e dialogo.
Piccola parentesi: cos’è il token? Quando si parla di intelligenza artificiale e di come modelli come ChatGPT “leggono” e “scrivono”, uno dei concetti chiave è quello di token. Il token non è una parola nel senso comune del termine, ma una unità tecnica: è il modo in cui il testo viene spezzato affinché il computer possa lavorarci sopra.Un essere umano legge una frase come un insieme di parole dotate di significato. Un’IA, invece, non vede parole né frasi complete: vede sequenze di piccoli pezzi di testo, i token appunto. Un token può essere una parola intera, ma molto spesso è solo una parte di parola, uno spazio, un segno di punteggiatura o una combinazione frequente di lettere. L’IA deve trasformare il linguaggio in numeri: ogni token corrisponde a un numero che il modello può elaborare. Quindi, il testo viene prima suddiviso in token, poi ciascun token viene convertito in un valore numerico. A questo punto il modello non fa altro che calcolare, passo dopo passo, quale token è più probabile che venga dopo, basandosi su tutti quelli precedenti. È così che nasce una frase: non tutta in una volta, ma un token alla volta. Dai token dipende quanto testo l’IA riesce a “tenere a mente” in una conversazione e quanto può essere lunga una risposta. Questa è la ragione per cui, dialogando con l’IA, è importante esprimere un’idea alla volta in modo chiaro. Il problema non è la lunghezza delle frasi, bensì il loro carico di informazioni: quando una frase contiene troppi concetti insieme, riferimenti impliciti o salti logici, diventa più difficile per l’Intelligenza Artificiale mantenerne la coerenza. Funziona meglio quando il discorso è ordinato e progressivo. Una frase anche lunga va bene se è lineare; una frase breve ma ambigua può invece creare confusione. In pratica, è più efficace spezzare richieste complesse in più passaggi e rendere espliciti i collegamenti, piuttosto che concentrare tutto in un unico messaggio.
Successivamente al pre-training, vi è una fase di addestramento supervisionato, in cui esseri umani forniscono esempi di risposte corrette, chiare e utili. Qui il modello “impara” non solo cosa dire, ma come dirlo quando interagisce con una persona: il tono, la struttura, il livello di dettaglio, l’attenzione al contesto. A questa fase si aggiunge poi l’apprendimento con feedback umano (Reinforcement Learning from Human Feedback), in cui più risposte vengono valutate da persone reali e il modello viene ottimizzato per produrre quelle considerate migliori: più affidabili, più sicure, più rispettose dei limiti.
Ma sia chiaro: quando parla con noi, l’IA non viene addestrata e non apprende: utilizza semplicemente il contesto della conversazione, una sorta di lavagna temporanea che serve a mantenere coerenza, ma che scompare al termine della sessione. Questo perché l’idea di far apprendere un’IA in tempo reale dagli utenti, per quanto intuitiva, sarebbe rischiosa. Esporrebbe il sistema a manipolazioni, informazioni false, perdita di coerenza e seri problemi etici e di privacy. Per questo l’evoluzione dei modelli avviene solo attraverso versioni successive, addestrate su dati aggregati e controllati.
Un’IA è insomma in grado di ragionare, ma senza capire. Il modello è estremamente abile nella sintassi, cioè nel manipolare simboli e strutture linguistiche in modo coerente. Ciò che manca è la semantica vissuta: il legame tra le parole e un’esperienza reale del mondo. Non c’è coscienza, intenzionalità, percezione di sé. Quando l’IA usa espressioni come “io”, lo fa per convenzione linguistica, non perché possieda un punto di vista soggettivo.
Da qui deriva una distinzione fondamentale tra competenza, intelligenza e coscienza. L’IA può avere una competenza molto elevata in specifici compiti, ed è intelligibile nel senso funzionale di saper affrontare problemi nuovi usando schemi appresi. Ma la coscienza, intesa come esperienza soggettiva e consapevolezza, è del tutto assente. Confondere questi livelli è alla base di molti fraintendimenti sull’intelligenza artificiale.
Un limite strutturale dei modelli linguistici è il fenomeno delle “allucinazioni”. Non si tratta di errori casuali, ma del risultato naturale del meccanismo di generazione: quando le informazioni sono incomplete o ambigue, il modello tende a produrre risposte plausibili anche se non garantite come vere. Le allucinazioni non si eliminano del tutto, ma si possono gestire e ridurre.
Il modo più efficace per farlo è agire sul modo di fare le domande. Prompt (istruzioni) ben vincolati riducono lo spazio di invenzione: possiamo chiedere all’IA di basarsi solo su fonti specifiche, imporre la distinzione tra fatti certi, interpretazioni e ipotesi, autorizzare esplicitamente la risposta “non ho dati sufficienti”. Spezzare domande complesse in più passaggi, richiedere il grado di certezza delle affermazioni e privilegiare risposte concise sono tutte strategie che abbassano drasticamente il rischio di allucinazioni. Dobbiamo sempre ricordare di usare l’IA come assistente e non come fonte unica di verità, qualunque sia il contesto.
