04 gennaio 2026

Epistémia. Parola dell'anno 2025

Amarcord...paper certification

Ho lavorato più di trent’anni nel settore informatico. E fin dai primi anni Novanta ebbi a che fare con i primi esempi di test a risposta multipla che, in alcuni casi, alcune leggende metropolitane dicevano essere addirittura adattativi, in grado cioè di capire se lo studente stesse rispondendo bene o male e cambiando le domande nel corso del test. Credo di averne collezionati una cinquantina. I test servivano per conseguire certificazioni professionali attestanti la conoscenza di tecnologie particolari, strumentazioni, sistemi; e il tutto serviva per garantirsi linee di supporto migliori, per partecipare a sessioni internazionali con i produttori maggiori, per realizzare partnership di vantaggio o, semplicemente, per acquisire credito nei confronti dei clienti a fare la differenza tra uno smanettone improvvisato e un tecnico preparato…e certificato! Ovviamente i test erano erogati da un computer e lo stesso era usato per rispondere, sotto la vigilanza di un umano, o telecamere in tempi recenti. C’erano pochissime aziende specializzate nell’erogazione di questi test a cui i vari produttori di tecnologia si affidavano. E, neanche a dirlo, corsi di formazione per affrontare questi esami, erano pressoché inesistenti.

All’inizio occorreva studiare sodo, i manuali per prepararsi, quando presenti, erano impegnativi e un certo grado di importanza e conoscenza veniva dalla pratica quotidiana con quei sistemi. Credo di essere entrato nella leggenda di un particolare produttore per cui sostenni, nell’arco di una sola mattinata, i sette test necessari ad ottenere la qualifica, grazie alla sola conoscenza pratica del sistema, e fallendone uno solo (ripetuto con successo 15 giorni dopo), .

Ma, man mano che la tecnologia progrediva, e con questa il numero di esami, andarono diffondendosi dapprima copie cartacee, poi documenti elettronici più o meno di contrabbando, per finire con vere e proprie aziende specializzate nel produrre, e vendere, non solo simulazioni dei test a rispecchiare le domande che si sarebbero ricevute durante l’esame ma persino insiemi di domande in qualche modo sottratte a chi le ha generate (li chiamano…braindumps): ovviamente c’era volontà da parte del produttore e del venditore di questi pacchetti di addestramento a guadagnare. Oggi, online, con rarissimi esempi di esami gratuiti, c’è di tutto. Da database di domande per i test di ammissione all’Arma dei Carabinieri, a quelle dei concorsi nella pubblica amministrazione.

Ma, restando nel mio campo, col crescere delle informazioni estratte da una base di dati certamente non infinita, cresceva anche il numero di coloro che chiamavamo, con giustificata sufficienza, i paper engineer (gli anglosassoni, soprattutto americani, usano la qualifica di “engineer” per qualsiasi specializzazione tecnica, soprattutto se informatica): ovvero gente che avendo avuto a disposizione le domande e le relative risposte aveva semplicemente imparato a memoria il tutto, spesso nemmeno capendo e integrando nella propria conoscenza la risposta giusta, ma semplicemente memorizzando a pappagallo, la risposta stessa, la sequenza delle parole.

Gente “certificata” sì, ma sulla carta. Ovviamente di fronte al compito pratico, come si dice, cascava l’asino, ma spesso questa gente creava difficoltà e sminuiva il valore della certificazione per intere categorie. A volte, ad esempio, per partecipare a gare d’appalto tra i requisiti tecnici veniva richiesta la presenza nell’azienda di un certo numero di tecnici certificati…e allora dai di paper certified!

Per non parlare dei testing center conniventi che, consentivano agli esaminandi l’uso di manuali, laptop e connessione Internet durante l’esame!

…dove sta il nesso?

Oggi è peggio, viviamo l’epoca del pericolo Epistemia, neologismo del 2025, del la qualunque engineer (“la qualunque”, altro neologismo 2025). Epoca in cui chiunque non deve più nemmeno imparare ciò che legge: chiede e ne fa copia & incolla.

Da qualche anno viviamo l’epoca dei cosiddetti Large Language Model (LLM), un insieme di diversi elementi chiave che possiamo riassumere in questo modo.

Architettura (Architecture): La struttura fondamentale di un LLM è tipicamente una rete neurale trasformatore (transformer neural network). Questa architettura, introdotta nel 2017, utilizza meccanismi di "attenzione" per pesare l'importanza delle diverse parole nel testo di input, permettendo al modello di comprendere il contesto e le relazioni a lungo raggio tra le parole, a differenza dei modelli precedenti che elaboravano il testo in modo più sequenziale.

Dati di addestramento (Training Data): Gli LLM sono "addestrati" su enormi quantità di testo e codice provenienti da Internet (come libri digitalizzati, articoli di Wikipedia, siti web, ecc.). Questi dati insegnano al modello la grammatica, i fatti, il ragionamento e vari stili di linguaggio.

Parametri (Parameters): Sono i valori numerici che il modello impara durante il processo di addestramento. Essenzialmente, i parametri rappresentano la "conoscenza" del modello. I modelli più grandi hanno miliardi, o addirittura trilioni, di parametri, che determinano la forza delle connessioni all'interno della rete neurale.

Algoritmo di addestramento (Training Algorithm): Il modello impara regolando i suoi parametri attraverso un processo chiamato retropropagazione (backpropagation) e discesa del gradiente (gradient descent). Durante l'addestramento, il modello cerca di prevedere la parola successiva in una frase e l'algoritmo corregge i parametri per minimizzare gli errori di previsione.

Tokenizzazione (Tokenization): Il testo umano viene suddiviso in unità più piccole chiamate "token" (che possono essere parole intere, parti di parole, o anche singoli caratteri). L'LLM elabora questi token come numeri (vettori) che rappresentano il loro significato semantico e la loro posizione.

Funzione obiettivo (Objective Function) / Funzione di perdita (Loss Function): Questa funzione misura l'accuratezza delle previsioni del modello. L'obiettivo dell'addestramento è minimizzare questa perdita, rendendo il modello sempre più abile nel prevedere le sequenze di testo corrette. 

In sintesi, un LLM è un complesso sistema matematico e statistico che ha imparato a riconoscere e generare modelli linguistici estraendo informazioni da un vastissimo corpo di dati. Se alle parole “il cane rincorreva il … “ un LLM aggiunge “gatto” non lo fa perché ha ragionato o pensato o men che mai dedotto, ma solo perché statisticamente è la parola più frequente e con maggiori probabilità di apparire in quella posizione.

Ci sono un paio di libri di approfondimento di molti concetti trattati qui e altro ancora: “Perché le macchine imparano” di Anil Ananthaswamy, e “In che mondo vivi” di Walter Quattrociocchi e Matteo Cinelli. Entrambi li ho recensiti lo scorso anno nella rubrica Sigea – La Scienza e la Tecnica Raccontate.

Ed è su LLM che software come ChatGPT, Gemini, Perplexity ed altri ancora, generano le interazioni e i risultati della chat che utilizziamo per ricavarne informazioni o che consentono alle nuove interfacce dei motori di ricerca come Google, Bing o altro, di presentare una sorta di riassunto di quanto cerchiamo, anziché limitarsi, come accadeva fino a non molto tempo fa, di presentare una serie di risultati ordinati in base a diversi parametri statistici.

Questi modelli fanno parte e sono ascritti alla categoria della cosiddetta AI, intelligenza artificiale, ma con l’intelligenza, soprattutto quella umana, non hanno nulla a che fare, considerando che il processo che porta all’apprendimento ed alla cognizione che ci contraddistingue fin dalla nascita è totalmente diverso.

Esiste un apparente allineamento nel processo che porta in un essere umano a generare delle risposte (output) a partire da dati e/o condizioni iniziali (input) con quanto riproducibile in una macchina. Ma le discordanze della vera essenza dei due processi messi a confronto sono enormi, incolmabili, delle vere e proprie rotture epistemiche: gli autori dello studio che ha ispirato questo post utilizzano il termine faglie, derivandolo direttamente dalla geologia, ancorché nell’originale inglese usato, fault, esso abbia anche significati diversi.

Nella tradizione filosofica l’epistème è il nucleo stesso della conoscenza come ricerca di fondamento, verifica, confronto con il reale o, in altre parole, la conoscenza fondata su basi certe e verificabili. Per questo motivo con epistemologia si intende lo studio critico della natura e dei limiti della conoscenza scientifica, con particolare riferimento alle strutture logiche e alla metodologia delle scienze.

Da qui nasce quindi il neologismo Epistemia, parola dell’anno, come sancito anche da Treccani in una recente intervista ad uno degli autori.

Analogamente al termine infodemia, che indica la diffusione di un'eccessiva quantità di informazioni, talvolta non sufficientemente verificate e tali da rendere complessa la comprensione di un argomento specifico generando disinformazione, il concetto di Epistemia si riferisce alla situazione in cui la fluidità linguistica viene erroneamente interpretata come affidabilità. Il termine è stato coniato per descrivere quella particolare forma di illusione prodotta dai modelli linguistici: testi persuadenti che simulano conoscenza senza effettivamente possederla.

Come fosse antani...
Noi italiani, per lo meno quelli della mia generazione, possiamo intuire fin d’ora qualcosa, pensando alla ormai mitologica supercazzola di Ugo Tognazzi nella serie cinematografica “Amici miei”. Allora, il superlativo Ugo Tognazzi, nei panni del Conte Mascetti, mostra un fantastico eloquio, volutamente assurdo, privo di senso logico, pieno di parole inventate e tecniche (come tarapia tapioco, scappellamento a destra o antani), teso ad intortare, ingannare o prendere in giro l'interlocutore, facendogli accettare l'insensato come se fosse corretto. È un termine entrato nel vocabolario italiano che descrive una tecnica di beffa, comunicazione fallace o anche un'entità inconsistente.

Epistemia non è sinonimo di supercazzola ma ne assume i connotati quando è l’espressione linguistica che si fa beffe dell’ignoranza altrui, laddove chiunque interroghi e ne usi i risultati, prendesse per oro colato quanto prodotto da un LLM, soltanto perché ben scritto, ben strutturato, ben argomentato. Epistemia indica una situazione in cui la plausibilità linguistica prende il posto della valutazione epistemica: i sistemi offrono risposte ben costruite ma prive dei processi reali con cui si formano e si verificano le credenze. L’utente così riceve risposte senza svolgere il lavoro cognitivo del giudizio.

Tutti noi abbiamo usato e usiamo continuamente i risultati delle interrogazioni di LLM: i motori di ricerca ormai offrono le cosiddette AI overview, che riassumono e anticipano i risultati di una ricerca, costruendo da fonti esterne i contenuti. Soltanto recentemente offrono i collegamenti a queste ultime nell’ottica di migliorarne l’affidabilità.

Ma fino a quando e quanto sono affidabili? Da dove nascono le loro risposte?

Il mito e la volontà di costruire macchine che imitassero il pensiero umano è antico, fin dai tempi della mitologia greca o ebraica (gli automi greci o il golem ebraico), e poi Leibnitz, Cartesio ed altri ancora hanno introdotto interpretazioni meccanicistiche della mente, un insieme di parti interagenti riproducibili artificialmente. Ma è solo nel XX secolo, grazie ai progressi della logica matematica, del calcolo e dell’elettronica (potenziandosi a vicenda in un circolo virtuoso), che la cosa inizia ad assumere concretezza.

Lungo questo percorso gli LLM sono diventati strumenti di uso quotidiano. Sistemi come ChatGPT, Deepseek, Gemini, Llama e Mistral, in qualsiasi ambito siano impiegati, e in alcuni casi in modo più affidabile rispetto agli umani, superano il test che uno dei pionieri di questa scienza, Alan Turing, definì in un suo famoso test: un esperimento per valutare se una macchina può mostrare un comportamento intelligente indistinguibile da quello umano, dove un interrogatore umano cerca di distinguere un computer da un umano tramite conversazione testuale. Se l'umano non riesce a capire qual è la macchina, quest'ultima supera il test, dimostrando capacità di pensiero e linguaggio simili a quelle umane. Vincere a scacchi, ottenere il primo premio nelle Olimpiadi della Matematica, dimostrare maggior competenza nell’uso e nella diagnostica medica da immagini, ed altro ancora, è ormai parte del quotidiano e dell’immaginario di questi strumenti. Ed è anche l’utilizzo popolare che si fa di questi risultati ad aver creato una montagna di equivoci ed incomprensioni su cosa effettivamente sia e su come funzionino, questi nuovi strumenti. Quanti ricordano la storia dell’ingegnere di Google che si era convinto che l’AI era diventata senziente?

Il processo che porta a fornire risposte non è pensare, né ragionare, nemmeno dedurre.

I nuovi modelli linguistici non pensano né comprendono: prevedono la parola successiva basandosi su pattern statistici estratti da molti testi. Il loro linguaggio può sembrare corretto, e sembra corretto anche quando fornisce risposte completamente errate.

Se in passato un’informazione era in odore d’essere falsa o, peggio ancora, mistificata come le fake news, era comunque possibile smascherarla indagando le fonti, verificando i fatti, smontandone lo scopo. Ma adesso il contenuto falso non appare chiaro, non presenta i segni tipici della disinformazione: è un discorso che non fa una piega, non è schierato, e addirittura se introduciamo dubbi nel dialogo con la macchina, tende a darci ragione! È molto peggio che ascoltare Tognazzi/Mascetti nei suoi grammelot grotteschi dove qualcosa di anomalo filtra nel rumore del nonsenso: qui non c’è substrato, sembra ben piantato su basi forti, ma così non è, lo sembra.

Provate ad interrogare un LLM in tema di omeopatia e inserite nel suo incedere con tono e stile accademico, elementi che lo portino a supporre (si fa per dire) che siate convinti che esista davvero una memoria dell’acqua: lo vedrete costruire frasi sintatticamente perfette che suonano vere. Ma solo una lo è.

L’associazione di intelligenza ad artificiale è fuorviante, folkloristica e popolare; non è altro che l’ennesimo tentativo di antropomorfizzazione dei comportamenti umani che tendono ad assegnare anime a qualsiasi cosa, spinti da atavici adattamenti evolutivi. Si può restarne stupiti, è umano vedere qualcuno dietro quell’ineccepibile dimostrazione di un teorema matematico, purché si sia ben consci che così non è. Non si guardava forse con stupore il prodursi di informazione sugli schermi dei primi computer? Nonostante si sapesse che erano il risultato di algoritmi.

Quando l’Epistemia si innesca ecco il corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può sembrarci vero solo perché usa il linguaggio tipico di chi dice il vero: è questione di abitudine, non di pensiero critico. E c’è un pericolo profondo nell’accettazione cieca dei risultati di un LLM: automatizzano la tendenza a cercare conferme delle nostre convinzioni, l’esasperazione del cherry picking perché meccanizzato da algoritmi, un bias di conferma continuo e che porta a selezionare tutto ciò che si vede in modo che l’opinione sia continuamente confermata e rafforzata: da qui al complottismo è un attimo! E a nulla servono i tentativi di smentita, come ho avuto modo di scriverne qui. Ed è paradossale sapere che uno dei modi più raffinati per scovare le differenze tra il prodotto umano e quello degli LLM è che quest’ultimi, alla lunga, tendono a strafare, esagerano rinforzando i concetti laddove non è necessario, come se volessero aggiungere una spiegazione alla spiegazione, ridondante e inutile: come se si facessero da soli una supercazzola!

Esperti di carta
Uno degli effetti più deleterio dell’utilizzo compulsivo di LLM è la moltiplicazione di figure che recitano la parte di esperti senza aver acquisito la minima conoscenza di ciò di cui vanno cianciando, in una parola, senza studio e senza passare dal sapere acquisito e consolidato. Divulgatori, opinionisti, blogger, influencer, che grazie all’AI fanno copia e incolla dei contenuti generati, per lo più senza nemmeno capirli visto che analfabetismo funzionale e cialtroneria vanno a braccetto o, nel caso li capiscano, perché suona figo! E si scatena una retroazione di rinforzo del danno: strumenti che simulano la conoscenza usati da simulatori di competenze. È l’illusione rinforzata che distrugge nel lettore gli strumenti per distinguere.

Anche se, su compiti ben definiti, quali domande a risposta multipla, classificazioni, esercizi logici classici, riconoscimento immagini ed altro ancora, gli LLM hanno tassi di veridicità e accuratezza prossimi al 90%, un LLM che vinca persino, come accaduto, le Olimpiadi della Matematica con punteggi uguali se non superiori a quelli delle migliori menti a confronto, questo comunque non ragiona, non comprende, e l’utente tipico non ha le competenze per porre domande quali potrebbero essere quelle che si ricevono durante un esame universitario! Costoro vedono gli LLM come gli antichi vedevano gli oracoli, li consultano per consigli, per risolvere dubbi: basta che la risposta sembri sensata e non occorre verificarne l’origine. Il tutto è verosimile, non epistemico.

E siccome alla fine, la spinta ad utilizzare e acquisire sempre di più queste nuove tecnologie ha origini economiche, le statistiche e i benchmark su quanto spesso sbaglino (le cosiddette AI hallucination), in quali condizioni, quanto siano poco trasparenti nei confronti di chi legge, non esistono o sono limitate a casi specifici. 

Non si tratta di infodemia, citata all’inizio: di ritirata di fronte ad un devastante aumento della quantità di informazione che ha generato alla fine disinformazione. Uso spesso quest’esempio: la qualità dei servizi di previsione meteorologica è andata peggiorando man mano che aumentavano i siti che si occupano di previsioni del tempo.

Dopo la nascita dei servizi di data streaming, dell’intelligenza artificiale, del cloud storage, delle piattaforme di social media e dell’ubiquità degli smartphone e degli smartwatch, ormai ci vogliono solo un paio di giorni per produrre cinque miliardi di gigabyte di contenuto digitale, equivalenti a tutte le informazioni digitali esistenti prima del 2003. Entro il 2026 il totale creato annualmente sarà di oltre 160 zettabyte (ZB = 1021 byte) Le riserve globali di silicio forniscono solo una piccola frazione di ciò che ci servirebbe per conservare in modo permanente tutti i dati che produciamo.

E tutti questi dati potrebbero essere utilizzati come basi di addestramento di LLM.

Con una serie di azioni che non sono frutto né di malafede né di intenzionalità l’epistemia è peggio dell’ignoranza, perché rendersi conto che manca un costrutto conoscitivo è difficile. Sono i danni collaterali di una tecnologia che genera testo con una precisione sintattica tale da simulare il pensiero umano. Ricordate la storia dell’esercito di scimmie, ognuna dotata di una macchina da scrivere che, con tempo indefinito a disposizione, avrebbe prodotto un giorno la prima frase de “La divina commedia”? È statisticamente possibile. Ma oltre alla frase di senso compiuto avremmo avuto triliardi di pagine di nonsenso, come nella Biblioteca di Babele di Borges. Ora immaginate quanto non senso, ma linguisticamente plausibile, potrebbe produrre un LLM addestrato con la citata gigantesca quantità di informazione prodotta ogni giorno. Altro che Gish gallop!

Nell’illusione di conoscenza creata dalla delega cieca alle risposte degli LLM si è ormai creata una nuova generazione di studenti, ormai a qualunque livello, che prendono un compito, lo trasformano in una richiesta strutturata, e ricevono una risposta plausibile: problema risolto…pensano! Ma ogni processo di apprendimento, esami compresi, serve a sviluppare un modo di ragionare, di orientarsi tra conoscenza e dubbio, di collegare teoria e pratica. Se si sostituisce questo percorso con l’apparenza, col capire come produrre un output, è qui che si genera Epistemia. La funzione della formazione è creare teste pensanti, non semplici generatori di testi plausibili! Con gli LLM questo rischio di cortocircuito è enorme: l’apparenza di competenza sostituisce la sostanza.

Cosa accadrà quando una generazione di laureati che si affida ai modelli invece di comprendere entrerà nel lavoro? Potremmo affrontare carenze di competenze essenziali in settori come l'ingegneria, l'analisi dei dati o la finanza.

Molte aziende sostituiscono i programmatori junior con LLM, lasciando solo i senior. Quando questi andranno in pensione, chi li sostituirà? Chi usa i modelli o chi conosce davvero la programmazione?

Ogni volta che nella storia dei progressi tecnologici si è creata una bolla che poi è esplosa, la deflagrazione ha comunque lasciato dietro di sé la tecnologia e il suo utilizzo. Non tutto il male viene per nuocere recita il proverbio, ma è chiaro che aumenterà il divario tra chi sa davvero e chi sa soltanto simulare il sapere. I primi diventeranno sempre più rari e, inevitabilmente, sempre più costosi. E questo avrà effetti enormi: sul mercato del lavoro, sulla distribuzione della ricchezza, sul rapporto tra competenza reale e potere decisionale.

La storia mostra che ogni rivoluzione tecnologica cambia la conoscenza. Tuttavia, oggi delegare anche la comprensione può portare non solo rischi economici, ma anche culturali, epistemici e sociali.

Gli LLM non vanno comunque demonizzati, rappresentano uno strumento di ausilio importante, automatizzano compiti ripetitivi, collaborano nella stesura di testi che, supervisionati e mai accettati as is, sono validissimi. Occorrono invece nuove forme di formazione, nuovi metodo per misurare la competenza, conoscenza per non confondere il linguaggio con il pensiero.

Senza tutto questo il futuro sarà popolato da schiere enormi e preponderanti equivalenti a quei paper engineer di cui scrivevo all’inizio: sapienti di carta, incapaci di distinguere l’imitazione che gli LLM fanno della conoscenza grazie a strumenti statistici e il vero sapere.

Qualche dettaglio tecnico

In https://arxiv.org/html/2512.19466v1
Rimandando allo studio citato all’inizio scomponiamo il giudizio umano in sette stadi sequenziali (definiti come pipeline nello studio): 1. informazioni sensoriali e sociali; 2. analisi percettiva e situazionale; 3. memoria, intuizioni e concetti appresi; 4. emozione, motivazione e obiettivi; 5. ragionamento e integrazione delle informazioni; 6. calibrazione metacognitiva e monitoraggio degli errori; 7. giudizio sensibile ai valori. Queste operazioni sono lente, imperfette e di parte, eppure si svolgono all'interno di un ciclo di conoscenze acquisite che fa parte del mondo umano, limitando l'errore.

Se ora correliamo a tutto ciò il processo che porta da un giudizio da parte di un LLM abbiamo che: 1. i prompt testuali con cui interroghiamo sostituiscono le informazioni sensoriali e sociali (un prompt di AI è un'istruzione, una domanda o un argomento di discussione specifico fornito a uno strumento di intelligenza artificiale per generare un output desiderato; creare questi input - prompt engineering - è diventata una competenza fondamentale per guidare i modelli di AI a produrre risultati di alta qualità e rilevanti); 2. la tokenizzazione e la preelaborazione sostituiscono il parsing percettivo e situazionale (l'analisi sintattica o parsing, oppure parsificazione, è un processo che analizza un flusso continuo di dati in ingresso, in modo da determinare la correttezza della sua struttura grazie ad una data grammatica formale. Il termine parsing proviene dal latino pars, parte, che indica una parte di un discorso più ampio); 3. il riconoscimento di pattern negli embeddings sostituisce la memoria, le intuizioni e i concetti appresi (gli embedding sono rappresentazioni vettoriali numeriche di dati reali - testo, immagini, audio - che ne catturano il significato e le relazioni, trasformando informazioni complesse in uno spazio di dimensioni inferiori dove elementi simili sono matematicamente vicini. Consentono all'AI di comprendere le connessioni semantiche, abilitando compiti come la ricerca semantica, le raccomandazioni e il clustering misurando la distanza - ad esempio, la somiglianza tra queste liste numeriche: in sostanza, comprimono i dati preservando il significato, rendendo l'AI più efficiente e potente); 4. l'inferenza statistica tramite strati neurali sostituisce emozione, motivazione e obiettivi; 5. l'integrazione del contesto testuale sostituisce il ragionamento e l'integrazione delle informazioni; 6. la fiducia forzata e le allucinazioni sostituiscono la metacognizione; 7. Il giudizio finale è un risultato statistico.

A ogni fase, i processi sono paralleli ma variano nettamente per struttura, funzione ed epistemologia. Questi contrasti mostrano le principali differenze epistemologiche tra i due percorsi che, pur ottenendo a volte risultati simili, seguono tappe del tutto diverse. 

A solo titolo di esempio di quanto possano essere diversi i percorsi approfondiamo il processo tokenizzazione.

La tokenizzazione nell'AI è il processo di scomposizione di testo (o altri dati) in unità più piccole e gestibili chiamate token, come parole, parti di parole o caratteri, per permettere ai modelli di AI di elaborare e comprendere il linguaggio naturale, trasformando dati grezzi in un formato numerico interpretabile per l'apprendimento automatico e la generazione di risposte. Questo passaggio è fondamentale perché i computer lavorano con i numeri, non direttamente con il testo, rendendo la tokenizzazione il ponte essenziale per l'analisi semantica, l'analisi dei sentimenti e molte altre applicazioni che abbiano a che fare con il linguaggio naturale.

Lowercasing (la conversione in minuscolo) è il processo di trasformazione di tutte le lettere maiuscole in minuscole, una tecnica fondamentale nell'elaborazione del linguaggio naturale che serve a standardizzare il testo, ridurre la complessità del vocabolario e rendere le parole "casa" e "Casa" trattabili come la stessa entità, migliorando l'efficienza e l'accuratezza dei modelli di apprendimento. Sebbene utile per l'uniformità, potrebbe non essere adatta per compiti in cui l’uso di lettere maiuscole sia significativa.

Confrontiamo adesso ad esempio la parola inglese “therapist”, tradotto in terapeuta. La tokenizzazione in “the” e “rapist” (lo stupratore) porterebbe un LLM a commettere un errore che nessun essere umano farebbe. Poiché il modello elabora stringhe piuttosto che situazioni, anche semplici input linguistici possono frammentarsi in unità di sottoparole fuorvianti. Questi non sono errori superficiali ma risultati strutturali di un sistema che taglia il testo in token invece di analizzare scene, intenzioni o eventi. Poiché gli LLM si basano sulla tokenizzazione delle sottoparole, anche piccoli cambiamenti tipografici o di formattazione possono distorcere il significato. Chiunque abbia mai usato un vocabolario di cinese per cinesi potrà facilmente capire come la tokenizzazione può dividere i caratteri in modi che rompono i loro radicali semantici. Allo stesso modo, i tokenizzatori di sottoparole possono gestire male prefissi o suffissi che segnalano negazione, portando i modelli a fraintendere il significato voluto. E come potrebbe un LLM rispondere alle sensazioni, alle emozioni e ai sentimenti che la lettura di un testo evoca negli umani?

Già alla seconda fase la rottura epistemologica si allarga. Nella tabella seguente sono riassunte le sette linee di faglia epistemologica che separano il giudizio umano dal giudizio LLM, una per ogni fase del percorso epistemico. Nonostante ciò, gli esseri umani tendono sistematicamente a credere eccessivamente ai risultati dell'LLM, perché un linguaggio fluente e sicuro produce un pregiudizio di credibilità.

Conclusione
Gli LLM possono dunque produrre output spesso indistinguibili dai giudizi umani, pur facendo affidamento su un meccanismo generativo che non è una forma di giudizio. L'apparenza della comprensione può quindi coesistere con l'assenza della comprensione responsabile.

L'Epistèmia si verifica quando la verosimiglianza linguistica sostituisce la vera valutazione epistemica, dando l'impressione di conoscere senza un reale giudizio. L'epistemia non dipende da ingenuità, errori isolati o uso scorretto di uno strumento. Questo fenomeno si verifica quando i sistemi generativi danno risposte certe e fluide, anche dove sarebbe necessaria incertezza o possibilità di revisione. Con l'aumento delle dimensioni e della persuasività dei modelli generativi, cresce il rischio che gli errori permangano e che la responsabilità della verifica passi dall'algoritmo all'utente, rendendo più semplice trascurare questo compito. 

Sottoporre i risultati prodotti dagli LLM a peer review? E da parte di chi, di un altro LLM?

Nella tabella seguente (rielaborata da https://arxiv.org/html/2512.19466v1) sono riportate le sette faglie epistemiche individuate.


Vorrei concludere con le parole di uno degli autori dello studio più volte citato, il Prof. Walter Quattrociocchi.

«Il paper sulle linee di faglia sta circolando molto, dentro e fuori l’accademia. Non perché dica che i modelli linguistici sbagliano o che vanno usati con cautela. Quello è ovvio e ormai irrilevante.
Sta circolando perché mette in crisi l’architettura concettuale con cui continuiamo a raccontare l’AI generativa. Molti lo hanno definito un pugno in faccia alla narrativa dominante. In realtà è qualcosa di più preciso. È una diagnosi strutturale di un equivoco che stiamo coltivando da anni.
L’equivoco è l’idea che, se l’output di un sistema diventa indistinguibile da quello umano, allora anche il processo che lo genera stia convergendo. Il paper mostra che non è così. Mostra che l’allineamento osservabile può mascherare una divergenza epistemica profonda. Aumentare dati, parametri e scala raffina un approssimatore statistico, ma non introduce criteri di verità, di riferimento o di responsabilità. Migliora la probabilità, non il giudizio. Per questo il lavoro ha colpito così forte. Non discute quanto sono bravi i modelli, ma che tipo di operazione cognitiva simulano e quale no» (segue)
(27 dicembre 2025)

___________________________________________________
[/Sarcasmo on]

Ovviamente questo post è stato generato grazie ad interazioni continue e non verificate con LLM. Quindi se ci sono errori prendetevela con le sue allucinazioni!
[/Sarcasmo off]

___________________________________________________
Riferimenti bibliografici
Epistemological Fault Lines Between Human and Artificial Intelligence
Pagina Facebook del Prof. Walter Quattrociocchi – Università Sapienza, Roma
Articolo su Wired del 12/12/2025
Intervista “Epistemia: abbiamo smesso di chiederci come sappiamo ciò che sappiamo”, Beatrice Cristalli per Treccani, 16/12/2025
Intervista “Epistemia: quando l'AI mette in crisi la verità”, Corriere del Ticino, 24/12/2025

 


Nessun commento:

Posta un commento

L'Amministratore del blog rimuoverà a suo insindacabile giudizio ogni commento ritenuto inadeguato od inappropriato.
Per motivi tuttora ignoti anziché un account Google come da impostazione, ne viene richiesto uno Blogger. In altre parole, per ora non potete sottoporre commenti, a meno che non abbiate, appunto, un account Blogger. Spiacente.