Come fosse antani...
Noi italiani, per lo meno quelli della
mia generazione, possiamo intuire fin d’ora qualcosa, pensando alla ormai
mitologica supercazzola di Ugo Tognazzi nella serie cinematografica “Amici miei”. Allora, il superlativo Ugo
Tognazzi, nei panni del Conte Mascetti, mostra un fantastico eloquio, volutamente
assurdo, privo di senso logico, pieno di parole inventate e tecniche (come tarapia
tapioco, scappellamento a destra o antani), teso ad intortare,
ingannare o prendere in giro l'interlocutore, facendogli accettare l'insensato
come se fosse corretto. È un termine entrato nel vocabolario italiano che
descrive una tecnica di beffa, comunicazione fallace o anche un'entità
inconsistente. Epistemia non è sinonimo di
supercazzola ma ne assume i connotati quando è l’espressione linguistica che si
fa beffe dell’ignoranza altrui, laddove chiunque interroghi e ne usi i
risultati, prendesse per oro colato quanto prodotto da un LLM, soltanto perché
ben scritto, ben strutturato, ben argomentato. Epistemia indica una situazione
in cui la plausibilità linguistica prende il posto della valutazione
epistemica: i sistemi offrono risposte ben costruite ma prive dei processi
reali con cui si formano e si verificano le credenze. L’utente così riceve
risposte senza svolgere il lavoro cognitivo del giudizio.
Tutti noi abbiamo usato e usiamo
continuamente i risultati delle interrogazioni di LLM: i motori di ricerca
ormai offrono le cosiddette AI overview, che riassumono e anticipano i
risultati di una ricerca, costruendo da fonti esterne i contenuti. Soltanto
recentemente offrono i collegamenti a queste ultime nell’ottica di migliorarne
l’affidabilità.
Ma fino a quando e quanto sono
affidabili? Da dove nascono le loro risposte?
Il mito e la volontà di costruire
macchine che imitassero il pensiero umano è antico, fin dai tempi della
mitologia greca o ebraica (gli automi greci o il golem ebraico), e poi
Leibnitz, Cartesio ed altri ancora hanno introdotto interpretazioni
meccanicistiche della mente, un insieme di parti interagenti riproducibili artificialmente.
Ma è solo nel XX secolo, grazie ai progressi della logica matematica, del
calcolo e dell’elettronica (potenziandosi a vicenda in un circolo virtuoso),
che la cosa inizia ad assumere concretezza.
Lungo questo percorso gli LLM sono diventati strumenti di uso
quotidiano. Sistemi come ChatGPT,
Deepseek, Gemini, Llama e Mistral, in qualsiasi ambito siano impiegati, e in alcuni
casi in modo più affidabile rispetto agli umani, superano il test che uno dei
pionieri di questa scienza, Alan Turing, definì in un suo famoso test: un esperimento per valutare
se una macchina può mostrare un comportamento intelligente indistinguibile da
quello umano, dove un interrogatore umano cerca di distinguere un computer da
un umano tramite conversazione testuale. Se l'umano non riesce a capire qual è
la macchina, quest'ultima supera il test, dimostrando capacità di pensiero e
linguaggio simili a quelle umane. Vincere a scacchi, ottenere il primo premio nelle Olimpiadi della Matematica,
dimostrare maggior competenza nell’uso e nella diagnostica medica da
immagini, ed altro ancora, è ormai parte del quotidiano e dell’immaginario di
questi strumenti. Ed è anche l’utilizzo popolare che si fa di questi risultati
ad aver creato una montagna di equivoci ed incomprensioni su cosa
effettivamente sia e su come funzionino, questi nuovi strumenti. Quanti
ricordano la storia dell’ingegnere di Google che si era
convinto che l’AI era diventata senziente?
Il processo che porta a fornire risposte, da parte degli LLM, non è pensare, né
ragionare, nemmeno dedurre.
I nuovi modelli linguistici non
pensano né comprendono: prevedono la parola successiva basandosi su pattern
statistici estratti da molti testi. Il loro linguaggio può sembrare corretto, e
sembra corretto anche quando fornisce risposte completamente errate.
Se in passato un’informazione era in
odore d’essere falsa o, peggio ancora, mistificata come le fake news,
era comunque possibile smascherarla indagando le fonti, verificando i fatti,
smontandone lo scopo. Ma adesso il contenuto falso non appare chiaro, non
presenta i segni tipici della disinformazione: è un discorso che non fa una
piega, non è schierato, e addirittura se introduciamo dubbi nel dialogo con
la macchina, tende a darci ragione! È molto peggio che ascoltare
Tognazzi/Mascetti nei suoi grammelot grotteschi dove qualcosa di anomalo
filtra nel rumore del nonsenso: qui non c’è substrato, sembra ben
piantato su basi forti, ma così non è, lo sembra.
Provate ad interrogare un LLM in tema
di omeopatia e inserite nel suo incedere con
tono e stile accademico, elementi che lo portino a supporre (si fa per dire)
che siate convinti che esista davvero una memoria dell’acqua: lo vedrete
costruire frasi sintatticamente perfette che suonano vere. Ma solo una lo è.
L’associazione di intelligenza ad
artificiale è fuorviante, folkloristica e popolare; non è altro che
l’ennesimo tentativo di antropomorfizzazione dei comportamenti umani che
tendono ad assegnare anime a qualsiasi cosa, spinti da atavici
adattamenti evolutivi. Si può restarne stupiti, è umano vedere qualcuno dietro
quell’ineccepibile dimostrazione di un teorema matematico, purché si sia ben
consci che così non è. Non si guardava forse con stupore il prodursi di
informazione sugli schermi dei primi computer? Nonostante si sapesse che erano
il risultato di algoritmi.
Quando l’Epistemia si innesca ecco il
corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può
sembrarci vero solo perché usa il linguaggio tipico di chi dice il vero: è
questione di abitudine, non di pensiero critico. E c’è un pericolo profondo
nell’accettazione cieca dei risultati di un LLM: automatizzano la tendenza a
cercare conferme delle nostre convinzioni, l’esasperazione del cherry picking perché meccanizzato da
algoritmi, un bias di conferma continuo e che porta a selezionare
tutto ciò che si vede in modo che l’opinione sia continuamente confermata e
rafforzata: da qui al complottismo è un attimo! E a nulla servono i tentativi
di smentita, come ho avuto modo di scriverne qui. Ed è paradossale sapere che uno dei
modi più raffinati per scovare le differenze tra il prodotto umano e quello
degli LLM è che quest’ultimi, alla lunga, tendono a strafare, esagerano
rinforzando i concetti laddove non è necessario, come se volessero aggiungere
una spiegazione alla spiegazione, ridondante e inutile: come se si facessero da soli una supercazzola!
Esperti di carta
Uno degli effetti più deleterio
dell’utilizzo compulsivo di LLM è la moltiplicazione di figure che recitano la
parte di esperti senza aver acquisito la minima conoscenza di ciò di cui vanno
cianciando, in una parola, senza studio e senza passare dal sapere acquisito e
consolidato. Divulgatori, opinionisti, blogger, influencer, che grazie all’AI
fanno copia e incolla dei contenuti generati, per lo più senza nemmeno capirli
visto che analfabetismo funzionale e cialtroneria vanno a braccetto o, nel caso
li capiscano, perché suona figo! E si scatena una retroazione di rinforzo
del danno: strumenti che simulano la conoscenza usati da simulatori di
competenze. È l’illusione rinforzata che distrugge nel lettore gli strumenti
per distinguere.
Anche se, su compiti ben definiti,
quali domande a risposta multipla, classificazioni, esercizi logici classici,
riconoscimento immagini ed altro ancora, gli LLM hanno tassi di veridicità e
accuratezza prossimi al 90%, un LLM che vinca persino, come accaduto, le
Olimpiadi della Matematica con punteggi uguali se non superiori a quelli delle
migliori menti a confronto, questo comunque non ragiona, non comprende, e
l’utente tipico non ha le competenze per porre domande quali potrebbero essere
quelle che si ricevono durante un esame universitario! Costoro vedono gli LLM
come gli antichi vedevano gli oracoli, li consultano per consigli, per
risolvere dubbi: basta che la risposta sembri sensata e non occorre verificarne
l’origine. Il tutto è verosimile, non epistemico.

E siccome alla fine, la spinta ad utilizzare
e acquisire sempre di più queste nuove tecnologie ha origini economiche, le
statistiche e i benchmark su quanto spesso sbaglino (le cosiddette AI hallucination), in quali condizioni, quanto
siano poco trasparenti nei confronti di chi legge, non esistono o sono limitate
a casi specifici. Non si tratta di infodemia, citata
all’inizio: di ritirata di fronte ad un devastante aumento della quantità di
informazione che ha generato alla fine disinformazione. Uso spesso
quest’esempio: la qualità dei servizi di previsione meteorologica è andata peggiorando
man mano che aumentavano i siti che si occupano di previsioni del tempo.
Dopo la nascita dei servizi di data
streaming, dell’intelligenza artificiale, del cloud storage, delle piattaforme
di social media e dell’ubiquità degli smartphone e degli smartwatch, ormai
ci vogliono solo un paio di giorni per produrre cinque miliardi di gigabyte di
contenuto digitale, equivalenti a tutte le informazioni digitali esistenti
prima del 2003. Entro il 2026 il totale creato annualmente sarà
di oltre 160 zettabyte (ZB = 1021 byte) Le riserve globali di
silicio forniscono solo una piccola frazione di ciò che ci servirebbe per
conservare in modo permanente tutti i dati che produciamo.
E tutti questi dati potrebbero essere
utilizzati come basi di addestramento di LLM.
Con una serie di azioni che non sono
frutto né di malafede né di intenzionalità l’epistemia è peggio dell’ignoranza,
perché rendersi conto che manca un costrutto conoscitivo è difficile. Sono i
danni collaterali di una tecnologia che genera testo con una precisione
sintattica tale da simulare il pensiero umano. Ricordate la storia
dell’esercito di scimmie, ognuna dotata di una macchina da scrivere che, con
tempo indefinito a disposizione, avrebbe prodotto un giorno la prima frase de
“La divina commedia”? È statisticamente possibile. Ma oltre alla frase di senso
compiuto avremmo avuto triliardi di pagine di nonsenso, come nella Biblioteca di Babele di Borges. Ora immaginate
quanto non senso, ma linguisticamente plausibile, potrebbe produrre un LLM
addestrato con la citata gigantesca quantità di informazione prodotta ogni
giorno. Altro che Gish gallop!

Nell’illusione di conoscenza creata
dalla delega
cieca alle
risposte degli LLM si è ormai creata una nuova generazione di studenti, ormai a
qualunque livello, che prendono un compito, lo trasformano in una richiesta
strutturata, e ricevono una risposta plausibile: problema risolto…pensano! Ma ogni
processo di apprendimento, esami compresi, serve a sviluppare un modo di
ragionare, di orientarsi tra conoscenza e dubbio, di collegare teoria e
pratica. Se si sostituisce questo percorso con l’apparenza, col capire come produrre
un output, è qui che si genera Epistemia. La funzione della formazione è creare
teste pensanti, non semplici generatori di testi plausibili! Con gli LLM questo
rischio di cortocircuito è enorme: l’apparenza di competenza sostituisce la
sostanza.
Cosa accadrà quando una generazione di
laureati che si affida ai modelli invece di comprendere entrerà nel lavoro?
Potremmo affrontare carenze di competenze essenziali in settori come
l'ingegneria, l'analisi dei dati o la finanza?
Molte aziende sostituiscono i
programmatori junior con LLM, lasciando solo i senior. Quando questi andranno
in pensione, chi li sostituirà? Chi usa i modelli o chi conosce davvero la
programmazione?
Ogni volta che nella storia dei
progressi tecnologici si è creata una bolla che poi è esplosa, la
deflagrazione ha comunque lasciato dietro di sé la tecnologia e il suo
utilizzo. Non tutto il male viene per nuocere recita il proverbio, ma è chiaro
che aumenterà il divario tra chi sa davvero e chi sa soltanto simulare il
sapere. I primi diventeranno sempre più rari e, inevitabilmente, sempre più
costosi. E questo avrà effetti enormi: sul mercato del lavoro, sulla
distribuzione della ricchezza, sul rapporto tra competenza reale e potere
decisionale.
La storia mostra che ogni rivoluzione
tecnologica cambia la conoscenza. Tuttavia, oggi delegare anche la comprensione
può portare non solo rischi economici, ma anche culturali, epistemici e
sociali.
Gli LLM non vanno comunque
demonizzati, rappresentano uno strumento di ausilio importante, automatizzano
compiti ripetitivi, collaborano nella stesura di testi che, supervisionati e
mai accettati as is, sono validissimi. Occorrono invece nuove forme di formazione, nuovi metodo per misurare la
competenza, conoscenza per non confondere il linguaggio con il pensiero.
Senza tutto questo il futuro sarà
popolato da schiere enormi e preponderanti equivalenti a quei paper engineer
di cui scrivevo all’inizio: sapienti di carta, incapaci di
distinguere l’imitazione che gli LLM fanno della conoscenza grazie a strumenti
statistici e il vero sapere.
Qualche dettaglio tecnico
 |
| In https://arxiv.org/html/2512.19466v1 |
Rimandando allo studio citato all’inizio, il giudizio umano è stato scomposto in sette stadi sequenziali (definiti come pipeline nello
studio): 1. informazioni sensoriali e sociali; 2. analisi
percettiva e situazionale; 3. memoria, intuizioni e concetti appresi; 4.
emozione, motivazione e obiettivi; 5. ragionamento e integrazione delle
informazioni; 6. calibrazione metacognitiva e monitoraggio degli errori;
7. giudizio sensibile ai valori. Queste operazioni sono lente,
imperfette e di parte, eppure si svolgono all'interno di un ciclo di conoscenze
acquisite che fa parte del mondo umano, limitando l'errore. Se ora correliamo a tutto ciò il
processo che porta da un giudizio da parte di un LLM abbiamo che: 1. i
prompt testuali con cui interroghiamo sostituiscono le informazioni sensoriali
e sociali (un prompt di AI è un'istruzione, una domanda o un argomento di
discussione specifico fornito a uno strumento di intelligenza artificiale per
generare un output desiderato; creare questi input - prompt engineering - è
diventata una competenza fondamentale per guidare i modelli di AI a produrre
risultati di alta qualità e rilevanti); 2. la tokenizzazione e la
preelaborazione sostituiscono il parsing percettivo e situazionale (l'analisi
sintattica o parsing, oppure parsificazione, è un processo che analizza un
flusso continuo di dati in ingresso, in modo da determinare la correttezza
della sua struttura grazie ad una data grammatica formale. Il termine parsing
proviene dal latino pars, parte, che indica una parte di un discorso più
ampio); 3. il riconoscimento di pattern negli embeddings
sostituisce la memoria, le intuizioni e i concetti appresi (gli embedding
sono rappresentazioni vettoriali numeriche di dati reali - testo, immagini,
audio - che ne catturano il significato e le relazioni, trasformando
informazioni complesse in uno spazio di dimensioni inferiori dove elementi
simili sono matematicamente vicini. Consentono all'AI di comprendere le
connessioni semantiche, abilitando compiti come la ricerca semantica, le
raccomandazioni e il clustering misurando la distanza - ad esempio, la
somiglianza tra queste liste numeriche: in sostanza, comprimono i dati preservando
il significato, rendendo l'AI più efficiente e potente); 4. l'inferenza
statistica tramite strati neurali sostituisce emozione, motivazione e
obiettivi; 5. l'integrazione del contesto testuale sostituisce il
ragionamento e l'integrazione delle informazioni; 6. la fiducia forzata
e le allucinazioni sostituiscono la metacognizione; 7. Il giudizio
finale è un risultato statistico.
A ogni fase, i processi sono paralleli
ma variano nettamente per struttura, funzione ed epistemologia. Questi
contrasti mostrano le principali differenze epistemologiche tra i due percorsi
che, pur ottenendo a volte risultati simili, seguono tappe del tutto diverse.
A solo titolo di esempio di quanto
possano essere diversi i percorsi approfondiamo il processo tokenizzazione.
La tokenizzazione nell'AI è il
processo di scomposizione di testo (o altri dati) in unità più piccole e
gestibili chiamate token, come parole, parti di parole o caratteri, per
permettere ai modelli di AI di elaborare e comprendere il linguaggio naturale,
trasformando dati grezzi in un formato numerico interpretabile per
l'apprendimento automatico e la generazione di risposte. Questo passaggio è
fondamentale perché i computer lavorano con i numeri, non direttamente con il
testo, rendendo la tokenizzazione il ponte essenziale per l'analisi semantica,
l'analisi dei sentimenti e molte altre applicazioni che abbiano a che fare con
il linguaggio naturale.
Lowercasing (la conversione in minuscolo) è
il processo di trasformazione di tutte le lettere maiuscole in minuscole, una
tecnica fondamentale nell'elaborazione del linguaggio naturale che serve a standardizzare
il testo, ridurre la complessità del vocabolario e rendere le parole
"casa" e "Casa" trattabili come la stessa entità,
migliorando l'efficienza e l'accuratezza dei modelli di apprendimento. Sebbene
utile per l'uniformità, potrebbe non essere adatta per compiti in cui l’uso di
lettere maiuscole sia significativa.
Confrontiamo adesso ad esempio la
parola inglese “therapist”, tradotto in terapeuta. La tokenizzazione in “the” e
“rapist” (lo stupratore) porterebbe un LLM a commettere un errore che nessun
essere umano farebbe. Poiché il modello elabora stringhe piuttosto che
situazioni, anche semplici input linguistici possono frammentarsi in unità di
sottoparole fuorvianti. Questi non sono errori superficiali ma risultati
strutturali di un sistema che taglia il testo in token invece di analizzare
scene, intenzioni o eventi. Poiché gli LLM si basano sulla tokenizzazione delle
sottoparole, anche piccoli cambiamenti tipografici o di formattazione possono
distorcere il significato. Chiunque abbia mai usato un vocabolario di cinese
per cinesi potrà facilmente capire come la tokenizzazione può dividere i
caratteri in modi che rompono i loro radicali semantici. Allo stesso modo, i
tokenizzatori di sottoparole possono gestire male prefissi o suffissi che
segnalano negazione, portando i modelli a fraintendere il significato voluto. E
come potrebbe un LLM rispondere alle sensazioni, alle emozioni e ai sentimenti
che la lettura di un testo evoca negli umani?
Già alla seconda fase la rottura
epistemologica si allarga. Nella tabella seguente sono riassunte le sette linee
di faglia epistemologica che separano il giudizio umano dal giudizio LLM, una
per ogni fase del percorso epistemico. Nonostante
ciò, gli esseri umani tendono sistematicamente a credere eccessivamente ai
risultati dell'LLM, perché un linguaggio fluente e sicuro produce un
pregiudizio di credibilità.
Conclusione
Gli LLM possono dunque produrre output spesso
indistinguibili dai giudizi umani, pur facendo affidamento su un meccanismo
generativo che non è una forma di giudizio. L'apparenza
della comprensione può quindi coesistere con l'assenza della comprensione
responsabile.
L'Epistèmia si verifica quando la
verosimiglianza linguistica sostituisce la vera valutazione epistemica, dando
l'impressione di conoscere senza un reale giudizio. L'epistemia non dipende da
ingenuità, errori isolati o uso scorretto di uno strumento. Questo fenomeno si
verifica quando i sistemi generativi danno risposte certe e fluide, anche dove
sarebbe necessaria incertezza o possibilità di revisione. Con l'aumento delle
dimensioni e della persuasività dei modelli generativi, cresce il rischio che
gli errori permangano e che la responsabilità della verifica passi
dall'algoritmo all'utente, rendendo più semplice trascurare questo compito.
Sottoporre i risultati prodotti dagli LLM a peer review?
E da parte di chi, di un altro LLM?
Nella tabella seguente (rielaborata da https://arxiv.org/html/2512.19466v1) sono riportate le sette faglie
epistemiche individuate.
Vorrei concludere con le parole di uno degli autori
dello studio più volte citato, il Prof. Walter Quattrociocchi.
«Il paper sulle linee di faglia sta circolando molto, dentro e fuori
l’accademia. Non perché dica che i modelli linguistici sbagliano o che vanno
usati con cautela. Quello è ovvio e ormai irrilevante.
Sta circolando perché mette in crisi l’architettura
concettuale con cui continuiamo a raccontare l’AI generativa. Molti lo hanno
definito un pugno in faccia alla narrativa dominante. In realtà è qualcosa di
più preciso. È una diagnosi strutturale di un equivoco che stiamo coltivando da
anni.
L’equivoco è l’idea che, se l’output di un sistema
diventa indistinguibile da quello umano, allora anche il processo che lo genera
stia convergendo. Il paper mostra che non è così. Mostra che l’allineamento
osservabile può mascherare una divergenza epistemica profonda. Aumentare dati,
parametri e scala raffina un approssimatore statistico, ma non introduce
criteri di verità, di riferimento o di responsabilità. Migliora la probabilità,
non il giudizio. Per questo il lavoro ha colpito così forte. Non discute quanto
sono bravi i modelli, ma che tipo di operazione cognitiva simulano e quale no»
(segue)
(27 dicembre 2025)
___________________________________________________
[/Sarcasmo on]
Ovviamente questo post è stato generato grazie ad
interazioni continue e non verificate con LLM. Quindi se ci sono errori
prendetevela con le sue allucinazioni!
[/Sarcasmo off]
___________________________________________________
Riferimenti
bibliografici
Epistemological Fault Lines Between
Human and Artificial Intelligence
Pagina
Facebook del Prof. Walter Quattrociocchi – Università Sapienza, Roma
Articolo
su Wired del 12/12/2025
Intervista
“Epistemia: abbiamo smesso di chiederci come sappiamo ciò che sappiamo”, Beatrice Cristalli per Treccani, 16/12/2025
Intervista
“Epistemia: quando l'AI mette in crisi la verità”, Corriere del Ticino,
24/12/2025
___________________________________________________
Letture suggerite
“In che mondo vivi. Pillole di data science per comprendere la contemporaneità” di Walter Quattrociocchi e Matteo Cinelli
“Perché le macchine imparano. L’eleganza della matematica dietro all’AI” di Anil Ananthaswamy
(*) preferisco usare gli articoli che fanno riferimento alla L dell'acronimo anziché a Large...