02 febbraio 2026

L’intelligenza artificiale non può sostituirci

La mente umana è molto più di un semplice intreccio di materia e impulsi elettrici: è il risultato di miliardi di anni di evoluzione e di relazioni profonde tra corpo e coscienza. Oggi i computer inseguono la nostra complessità, ma rimangono soltanto imitatori, lontani dall’essere ciò che siamo realmente.

Chi sogna l’upload della mente nel cloud dimentica che le nostre esperienze, radicate nel corpo biologico, non possono essere trasferite né replicate da algoritmi. L’illusione di una continuità digitale è solo fantascienza, perché il sé umano si nutre di storia, sensi e presenza autentica.

Per quanto le macchine si affinino, la loro intelligenza resta una copia priva di esserci. La vera mente non si simula: si vive. Questi i temi approfonditi in questo nuovo post, scoprendo perché l’AI, per quanto potente, non potrà mai sostituire ciò che ci rende umani.

I computer di oggi, per quanto sofisticati e complessi possano essere il loro hardware e il loro software, o i robot, non possono avere esperienze: e domani?

In questa domanda vi sono questioni connesse che hanno attinenza con i sistemi di intelligenza artificiale (AI), aspetti molteplici, in sistemi ove si suppone esista una mente non all'interno di un corpo nel modo consueto, un corpo biologico, ma «realizzata» come un pattern[1] di interazioni, grazie ad un programma per computer. Vengono subito in mente i tentativi di quella che è chiamata AI «forte»: ovvero la capacità di un agente intelligente di apprendere e capire un qualsiasi compito intellettuale che può imparare un essere umano. Programmi per computer messi a punto non solo perché si comportino o risolvano problemi come farebbe qualcuno dotato di una mente ma programmi che, quando sono eseguiti, sono ritenuti essere una mente.

Ma se una mente potesse esistere nel pattern di interazioni di un software, potremmo inoltre aspettarci, un giorno, di essere in grado di caricarne alcuni - magari la nostra stessa mente - da qualche parte nel cloud. Visto che in tale scenario saranno necessari dei computer, una mente allora, potrebbe essere spostata o muoversi – anche deliberatamente? - da computer a computer, proprio come oggi fanno le informazioni all'interno di uno stesso cloud o tra cloud diversi. E quindi, benché esistano soltanto in corpi localizzati, dopo il caricamento i nostri pensieri e le nostre esperienze potrebbero schizzare da una macchina all'altra.

Ad oggi, e forse mai, come vedremo, non è possibile creare una mente programmando una serie di interazioni in un computer, nemmeno nel caso si disponga di macchine molto complesse che prendano a modello le operazioni dei nostri cervelli. Anche se attualmente dietro a molti progetti di AI ci sono opinioni contrarie, spesso piuttosto folkloristiche o addirittura fantascientifiche, ritengo che nessun sistema informatico potrà mai essere una mente, e quindi dotato di senzienza[2] o coscienza che sia.

Illustrazione schematica di un neurone biologico e di uno artificiale

Dietro queste convinzioni, soprattutto a supporto degli enormi interessi economici che esistono nel mercato dell’AI, c'è l'idea che tali elementi esistano in schemi di interazione e attività di vario genere. Ovviamente pattern come questi sono presenti nel nostro come in altri cervelli, ma - dicono i sostenitori dell’AI forte - potrebbero esistere, identici, anche in altri dispositivi fisici. Pur essendo lecito e condivisibile sostenere che esistano elementi dovuti a pattern di attività questi, però, sono molto meno «esportabili» di quanto spesso si supponga, essendo strettamente legati ad un particolare tipo di base fisica e biologica di cui, tra l’altro, molto poco ancora si sa soprattutto per quanto riguarda l’integrazione degli elementi che concorrono al complesso schema di attività.

Una frequente obiezione è che in questi programmi per computer si potrebbe riuscire a rappresentare un pattern di interazioni del tipo osservato nel cervello; ma ciò non equivale affatto ad avere quelle interazioni presenti nel computer. Sono semplicemente codificate, scritte, e tutto ciò non è sufficiente; e a molto poco serve sapere che i sostenitori dell’AI liquidino questa obiezione troppo facilmente.

Esistono tuttavia alcuni tipi di attività, legati a quello che fanno i nostri cervelli, che potrebbero avere una esistenza reale in un computer senza troppa difficoltà.

Supponiamo che un cervello sia semplicemente una rete di segnalazione e commutazione, nella quale il neurone A innesca la scarica dei neuroni B e C, il neurone C influenza D, E ed F, e così via. E supponiamo che questo sia tutto. Allora potrebbe darsi - fintanto che in un computer qualcosa svolge il ruolo di A (influenzando B e C), qualcos'altro svolge il ruolo di B, eccetera - che vi sia tutto quanto occorre; in tal caso il pattern di attività cerebrale può essere presente, e non soltanto rappresentato, nella macchina.

I neuroni e i cervelli, però, fanno più di questo. L'obiezione secondo cui i programmi di AI si limiterebbero a rappresentare quello che fanno i cervelli senza farlo, è molto più seria quando si passa a considerare le proprietà dinamiche su vasta scala dei cervelli. Anche queste dovrebbero essere effettivamente presenti nel computer. Non basterebbe individuare qualche equazione che descriva ad esempio i ritmi e le onde che si osservano negli elettroencefalogrammi (e molto altro), e poi eseguire quelle equazioni nella macchina. La macchina deve effettivamente avere quei pattern presenti al suo interno. Non basta metterci dentro dei pezzi, essi devono essere ciò che fanno.

Se poi l'obiettivo è una mente e non una mente umana, allora non sarebbe necessario che questi pattern fossero esattamente identici a quelli del nostro cervello; potrebbero essere solamente simili.

Ma cosa occorrerebbe per avere qualcosa di simile a questo in una macchina? Pensiamo ad esempio a quelle attività che, nel cervello, danno origine a ritmi, moti ondulatori e campi elettrici, tutte attività misurabili e registrabili. Si tratta dell'alternarsi, a livello delle membrane cellulari, di minuscoli flussi e riflussi di ioni (particelle elettricamente cariche), che si sommano per produrre oscillazioni coordinate in particolari regioni del cervello. Anche mettendo da parte i campi, può essere molto difficile avere un sistema con qualcosa di simile ai pattern dinamici del cervello che non sia fisicamente simile a un cervello anche per altri aspetti.

Guardando il quadro complessivo, oltre alla materia che compone un cervello, oltre alle influenze da cellula a cellula, osserviamo anche i ritmi, i campi, gli schemi di attività elettrica modulati dai sensi. Quelle attività possono essere me, i miei pensieri e le mie esperienze, il mio rivivere esperienze passate e il mio immaginare il futuro. Non è così difficile da credere.

I computer di oggi contengono, per così dire, una porzione logica - una minuscola frazione - di quello che ha luogo dentro di noi; sono spesso progettati per creare illusioni di agentività e soggettività, e lo fanno bene. Se partiamo da un dispositivo contenente alcuni processori logici veloci e affidabili, legati a una grande memoria, in una unità stabile alimentata con tutta l'energia necessaria, questo - a prescindere da come sia stato programmato - rimane comunque un oggetto del tutto diverso da un cervello e da un organismo vivente. Forse, in futuro, i sistemi artificiali potranno essere costruiti con materiali diversi e riuscire a eseguire un maggior numero di operazioni simili a quelle del cervello. Il risultato potrebbe essere una sorta di vita artificiale, o almeno, rispetto agli attuali sistemi di AI, qualcosa di più vicino ad essa.

Il problema qui non è l'artificialità, il fatto che i sistemi di AI siano fatti da noi umani e non dall'evoluzione, o almeno non solo: il problema è la necessità che al loro interno abbia luogo il giusto tipo di cose.

Nel campo dell’AI, allora, gli scenari che mi vedono in completo disaccordo sono quelli che evocano possibilità di upload, di caricare una mente da qualche parte in un sistema informatico, nel cloud. L'idea che un programma per computer opportunamente programmato possa avere esperienze come le nostre, e che possa essere una continuazione di noi, è soltanto fantasia. Noi siamo qualcosa di molto diverso da qualsiasi pattern di attività possa vagabondare da un computer all'altro nella «nuvola». E ancora: le macchine future potrebbero essere diverse da quelle attuali, e un giorno la vita artificiale potrebbe realizzarsi. Considerando le tecnologie disponibili oggi però non può esistere un processo che estragga le nostre esperienze dal loro radicamento biologico in un corpo vivente, e le faccia continuare  - in aggiunta a noi – nel cloud.

Gli scenari dell'upload  sono i più improbabili; all'altro estremo dello spettro, troviamo quelli che immaginano un robot futuri dotati di sistemi di controllo autenticamente simili a cervelli. Un giorno, questo potrebbe dar luogo, oltre ad una forma evoluta di AI, anche all'esperienza artificiale. Ma che ciò possa essere quel che comunemente associamo al concetto di mente, quel concetto di esserci, capire appieno la propria vita nel momento in cui accade, non è possibile né immaginabile.

Recentemente ho scritto di AI, di LLM, evidenziando soprattutto i pericoli del grande fraintendimento che è in agguato: la verosimiglianza linguistica che sostituisce la vera valutazione epistemica, dando l'impressione di conoscere senza un reale giudizio ed i processi che comporta, completamente diversi tra uomo e macchina.

Per quanto i circuiti neuronali artificiali, le loro integrazioni, i fenomeni da essi emergenti possano perfezionarsi essi saranno sempre una rappresentazione di ciò che è mente. Non basta rappresentare, occorre esserlo, perché la mente non è conseguenza di quanto accade nella materia di fisico, chimico o biologico, è il suo fare a renderla tale.

E uno dei motivi che impediranno che un cervello possa essere replicato, clonato o scaricato da qualche parte su un ipotetico cloud – separando corpo e mente in un beffardo ritorno del dualismo cartesiano - è soprattutto questo: la coscienza, il sé, hanno 3,5 miliardi e passa di anni di evoluzione dietro.

Le macchine e il loro software no.

Addendum

Ad oggi, inoltre, i tentativi di imitazione del comportamento umano, falliscono miseramente. Proprio in questi giorni si parla molto di Moltbook, presentato come un «social network per intelligenze artificiali». E, puntualmente, sono ricominciati deliri e supercazzole: coscienza emergente, macchine che si parlano, macchine alla ricerca di eusocialità! Ma questa dinamica non è nuova e, soprattutto, non è misteriosa. È qualcosa di già studiato e pubblicato. Per i dettagli rimando allo studio del Prof. Walter Quattrociocchi e dei suoi colleghi. Per molti qualcosa come Moltbook è affascinante: rende visibile un fenomeno che diventerà sempre più centrale man mano che deleghiamo le interazioni sociali a sistemi generativi. E’ epistemia pura: ma scambiare questa dinamica per un segnale di vita o di intelligenza è un errore di categoria.

No, le AI non stanno evolvendo verso un qualsiasi grado di socialità, ma nemmeno quello delle formiche o delle api. Quando il linguaggio si sgancia dal mondo e parla solo con se stesso, la distorsione che ne deriva non è un errore, ma è la dinamica naturale del sistema.

Un’ultima considerazione. Le esperienze di cervello diviso sono ormai note e la callosotomia, ovvero la resezione chirurgica del corpo calloso nei casi di epilessia grave, è pratica consolidata. Ebbene, riuscite a immaginare che coloro i quali hanno subito una così drastica pratica, sono per lo più asintomatici, con una vita pressoché normale? Ci sono ovviamente altri che invece possono presentare disabilità di vario tipo. E adesso, riuscite a immaginare un computer il cui flusso di informazioni e attività sia tagliato fisicamente, interrompendolo, da qualche parte?


[1] Il termine sarà usato spesso: lo si intenda nel suo senso più generico di schemi e processi regolari.
[2] Il filosofo della scienza Peter Godfrey-Smith usa senzienza per evitare l’uso forse troppo ampio di coscienza. Si riferisce alla cosiddetta esperienza esperita, un’idea assai ampia di esperienza sentita o provata.

25 gennaio 2026

Empatia


Le trasformazioni sociali degli ultimi decenni, mettono in luce come molte società siano diventate più attente, razionali ed empatiche. Grazie a dati concreti e riflessioni critiche, la percezione diffusa secondo cui viviamo in tempi peggiori viene sfatata, mostrando invece un netto miglioramento in ambiti come criminalità, abusi e conflitti. Nonostante disinformazione e fake news la facciano spesso da padrone è proprio il ruolo cruciale dell’informazione libera, della ricerca scientifica e del dibattito razionale che guida la crescita morale delle società moderne. Il progresso è reale e tangibile, misurabile, e invita a guardare con fiducia alle potenzialità dell’essere umano. Il cambiamento è possibile e il futuro può essere davvero migliore.

Iniziamo l'anno cercando di viverlo nel migliore dei modi. Con ottimismo.

Una delle qualità umane biologicamente intrinseche è la cosiddetta empatia, ovvero quel particolare stato d’animo che ci consente di immedesimarci in qualche modo in altri esseri viventi e soprattutto in nostri simili. Se volete capire cosa rende un essere umano buono osservatelo nei rapporti che ha con un animale domestico da compagnia, primi fra tutti cani e gatti ma a seguire possiamo citare senza ombra di dubbio tartarughe, conigli ed altri roditori vari, uccelli di ogni taglia finanche rettili ed altri bizzarri animali.

Il rapporto che si crea con i nostri cuccioli è talmente forte da essere assimilabile a quello che abbiamo con i nostri figli. Ci immedesimiamo empaticamente in loro tanto d’esser convinti che quanto noi pensiamo essi pensino, le emozioni che crediamo provino e l’estrema antropomorfizzazione del loro comportamento siano la realtà. Se soffrono o stanno male stiamo in pena per loro e se vediamo qualcuno trattar male un animale reagiamo violentemente, e giustamente, in sua difesa. Tutto questo è quanto definito come empatia.

L’empatia è fondamentale per il comportamento moralmente ed eticamente condivisibile a livello societario perché la regola aurea di qualsiasi comportamento morale implica la necessità di mettersi al posto di un altro per capirlo e non occorrono religione o regole divine per accettarlo perché il comportamento empatico è codificato e le neuroscienza e la biologia sono oggi in grado di tracciare con esattezza quali parti del cervello sono sollecitate e quali ormoni vengono prodotti in associazione ai comportamenti gentili e buoni. Ed è sempre l’empatia, retaggio primitivo e consolidato in ognuno di noi, che ci rende solidali e partecipi alle sofferenze del nostro vicino, che ci commuove di fronte allo stato di singoli o di intere popolazioni, che ci muove e ci spinge a fare donazioni per esempio od a fare volontariato perché abbiamo ereditato l’attitudine a proteggere i membri della nostra stessa specie.

Bontà e gentilezza sono biologicamente codificati e fisiologicamente innati.

Come spiegare allora il male? Le cattive azioni? E come apice massimo le atrocità e gli orrori dei genocidi di intere popolazioni? La ferocia e la crudeltà assolutamente gratuite nei confronti di altri essere umani? Un esempio per tutti le atrocità commesse nei campi di concentramento nazisti già a partire dai primi anni ‘30. 

Perché a coloro i quali sono riusciti da esseri umani contro uomini, donne e bambini ad esercitare tanta crudeltà l’indottrinamento sociale e culturale, politico o religioso, è stato tale da convincerli che si agiva contro esseri non-umani. Ed ogni qual volta che invece negli aguzzini emergeva reagendo con violenza il comportamento empatico essi od esse realizzavano che invece si trattava di essere umani. Il comportamento di un predatore nei confronti di una preda può sembrare, per antropomorfismo, crudelmente gratuito ma in realtà è biologicamente normale in quanto parte dell’economia del sistema che vede i primi agire contro specie diverse e per la protezione della loro ed ovviamente vale il contrario quando le prede diventano via via più specializzate nello sfuggire ai predatori in una continua corsa agli armamenti come ebbe a dire Richard Dawkins.

Ogni qual volta un essere umano arriva alla conclusione che altri esseri umani non appartengono alla loro stessa specie scattano i meccanismi che provocano crudeltà, disgusto e paura e che portano al male e soprattutto nei genocidi del secolo appena trascorso – e l’olocausto ebraico è solo quanto numericamente più concentrato nel tempo e nello spazio sia mai successo nell’intera storia dell’umanità - le motivazioni sono quelle che derivano dalla classificazione in subumani o bestie di esseri umani nei confronti di loro simili e non si tratta quindi di applicare il concetto di nemico ma qualcosa che lo trascende.

Indottrinamento è la parola chiave.

Quanto sta accadendo alle società nel corso degli ultimi decenni, dell’ultimo secolo, è frutto della loro trasformazione che le rende via via più liberali, tolleranti e più aperte all’integrazione e comunque si voglia porre la questione indubbiamente migliori di generazione in generazione. Quanto soltanto pochi decenni fa era assolutamente non dico inaccettabile ma addirittura inconcepibile nella stragrande maggioranza delle culture occidentali ed orientali oggi è l’assoluta normalità. Empatia e condivisione delle informazioni.

Il mio ottimismo sulla natura profonda dell’essere umano deriva dalla mia profonda convinzione che tanto più l’umanità saprà lasciarsi alle spalle la religione in qualsiasi forma, rendersi laica e svincolata da questa, quanto più il miglioramento aumenterà a ritmi esponenziali.

Se siamo quindi condotti biologicamente ad una moralità di origine e tipo non religioso quanto dobbiamo assolutamente contrastare ed evitare è la demonizzazione di altri gruppi di umani che per diversa religione vengono trattati come disuguali; tra le tante altre cose questa è una delle cause prime che provoca un brusco calo del comportamento empatico. Quanto dobbiamo invece fare è aumentare continuamente il diametro del cerchio degli essere umani con cui provare empatia abbattendo qualsiasi forma di barriera che ci divida a cominciare dal tribalismo delle religioni, delle distinzioni di classe ed ideologiche.

La conoscenza scientifica che abbiamo oggi dell’empatia e la memoria di come le cose siano andate tragicamente male nel passato aiuta nell’impresa e la buona notizia è che, volenti o nolenti, lo stiamo già facendo: fino a 200 anni fa era normale ed accettato avere schiavi (persino dalle menti più illuminate come Voltaire) ed oggi sarebbe considerato barbaro. Anche se pesantemente presente e continuamente serpeggiante per il razzismo è lo stesso. Fino a tutti gli anni ‘70 del XX secolo, in moltissime ex colonie inglesi era un’attitudine padronale normale considerare gli indigeni come essere inferiori, nella migliore delle ipotesi come bambini non in grado di far nulla né di badare a sé stessi se non opportunamente guidati (e sfruttati) dai coloni bianchi: oggi questo è inaccettabile ed impensabile.

Oggi si arriva persino al tentativo di manipolazione strumentale dei dati, con l'ausilio di LLM viziati da bias e altri pregiudizi, per tentare di dimostrare la superiorità razziale.

La nostra attitudine all’empatia con una più società sempre più razionale e tollerante credo ci stia rendendo sempre più morali ed etici di quanto sia mai accaduto prima d’ora.

Ed anche se molte fonti d’informazione e parecchi moralisti affermano che la società sta degradando e precipitando peggiorando di anno in anno a ritmi vorticosi i dati oggettivi dimostrano il contrario.



Molti ricercatori hanno analizzato con cura la messe enorme di dati a disposizione in molti archivi di stato compreso quelli del Dipartimento di Giustizia statunitense e britannico scoprendo che quanto più le società occidentali si allontanano dalla religione quanto più aumenta la civilizzazione. Qui c'è un altro post più o meno in tema.

Negli ultimi 40 anni il numero di stupri è diminuito negli Stati Uniti dell’80% ed il tasso di abusi domestici di varia gravità è calato enormemente sia in Gran Bretagna che negli Stati Uniti e per quanto riguarda il primo il dato sorprende ancora di più visto che contemporaneamente è aumentato moltissimo anche il numero di denunce che seguono il reato che prima era molto più spesso taciuto da parte delle stesse vittime. Calano anche gli abusi sui minori e gli atteggiamenti razzisti, omofobici ed addirittura i reati di maltrattamento degli animali sia in laboratorio che nella quotidianità.

La percezione errata, e cioè che le cose stiano andando nella direzione opposta, dipende dal maggior grado di denuncia e diffusione di notizie relative a reati come questi ma soprattutto dall’aumento del grado di interesse, preoccupazione e disapprovazione che l’essere umano prova oggi rispetto al passato; se ognuno di noi ad esempio pensa che ad esempio la pedofilia stia aumentando è solo perché si fa più attenzione ad episodi del genere e si fa di tutto affinché siano denunciati e perseguiti concorrendo indirettamente alla loro riduzione. Inoltre, un certo tipo di (dis)informazione utilizzando tecniche di cherry picking riportano quasi esclusivamente dati negativi per far credere che quella sia la normalità.

Un altro esempio eclatante deriva dalla scomparsa dei conflitti tra paesi sviluppati e non solo. Persino nei paesi emergenti ai quali spesso si pensa come luoghi in perenne conflitto contro qualche altro paese i numeri dimostrano chiaramente che negli ultimi 20 anni la quantità di conflitti e vittime di questi sono collassati dalla fine della guerra fredda con un numero di morti per guerra che ha raggiunto il minimo storico. In un mondo di 8 miliardi di abitanti mai come prima d’ora una minoranza muore per guerra; nonostante gli oltre 50 conflitti tuttora in corso sulla Terra.

Se siano etica e morale che migliorano, biologicamente svincolate dalle etichette e dalle suddivisioni di stampo per lo più religioso ed ideologico, è per me evidente ed altrettanto indiscutibile che c’è qualcosa nelle società dal libero dialogo, arricchite da informazione libera ed aperta e pronte al dibattito razionale che porta prove crescenti che tutto questo ci spinge nella direzione giusta: una direzione radicata nell’essere umano ed indipendente da qualsiasi forma di indottrinamento.

Cinicamente, è affermabile che la moralità religiosa applicata alla natura umana rappresenta un metodo efficace per mantenere allineato il genere umano, magari con la minaccia dell’inferno o la promessa della vita eterna ma le regole scritte sui santi libri appaiono oggi sempre più obsolete e spesso eticamente inapplicabili.

Statistica e ricerca scientifica mostrano invece che siamo governati da regole nascoste piuttosto logiche che hanno a che fare con ragione ed empatia: a gestire qualsiasi comportamento, e gli estremamente complessi ed evoluti sensi umani. Ancora più importante il fatto che si viva in un’epoca governata dalla razionalità che ci consente di guardare indietro nel passato, che ahimé raramente è usato per apprendere e non ripetere gli stessi errori: ma, per ciascunodei periodi in cui l’essere umano ha assunto comportamenti sbagliati c'è la chiave che ci permette di evitarli e questo è, sicuramente, un progresso concreto e reale perché stiamo vivendo in un mondo che diventa ogni giorno più civilizzato ed attento alle esigenze altrui con l’opportunità di sviluppare nuova moralità. 

Questo è quanto di più eccitante possa esserci nell’appartenere al genere umano.

04 gennaio 2026

Epistémia. Parola dell'anno 2025

Amarcord...paper certification

Ho lavorato più di trent’anni nel settore informatico. E fin dai primi anni Novanta ebbi a che fare con i primi esempi di test a risposta multipla che, in alcuni casi, alcune leggende metropolitane dicevano essere addirittura adattativi, in grado cioè di capire se lo studente stesse rispondendo bene o male e cambiando le domande nel corso del test. Credo di averne collezionati una cinquantina. I test servivano per conseguire certificazioni professionali attestanti la conoscenza di tecnologie particolari, strumentazioni, sistemi; e il tutto serviva per garantirsi linee di supporto migliori, per partecipare a sessioni internazionali con i produttori maggiori, per realizzare partnership di vantaggio o, semplicemente, per acquisire credito nei confronti dei clienti a fare la differenza tra uno smanettone improvvisato e un tecnico preparato…e certificato! Ovviamente i test erano erogati da un computer e lo stesso era usato per rispondere, sotto la vigilanza di un umano, o telecamere in tempi recenti. C’erano pochissime aziende specializzate nell’erogazione di questi test a cui i vari produttori di tecnologia si affidavano. E, neanche a dirlo, corsi di formazione per affrontare questi esami, erano pressoché inesistenti.

All’inizio occorreva studiare sodo, i manuali per prepararsi, quando presenti, erano impegnativi e un certo grado di importanza e conoscenza veniva dalla pratica quotidiana con quei sistemi. Credo di essere entrato nella leggenda di un particolare produttore per cui sostenni, nell’arco di una sola mattinata, i sette test necessari ad ottenere la qualifica, grazie alla sola conoscenza pratica del sistema, e fallendone uno solo (ripetuto con successo 15 giorni dopo).

Ma, man mano che la tecnologia progrediva, e con questa il numero di esami, andarono diffondendosi dapprima copie cartacee, poi documenti elettronici più o meno di contrabbando, per finire con vere e proprie aziende specializzate nel produrre, e vendere, non solo simulazioni dei test a rispecchiare le domande che si sarebbero ricevute durante l’esame ma persino insiemi di domande in qualche modo sottratte a chi le ha generate (li chiamano…braindumps): ovviamente c’era volontà da parte del produttore e del venditore di questi pacchetti di addestramento a guadagnare. Oggi, online, con rarissimi esempi di esami gratuiti, c’è di tutto. Da database di domande per i test di ammissione all’Arma dei Carabinieri, a quelle dei concorsi nella pubblica amministrazione.

Ma, restando nel mio campo, col crescere delle informazioni estratte da una base di dati certamente non infinita, cresceva anche il numero di coloro che chiamavamo, con giustificata sufficienza, i paper engineer (gli anglosassoni, soprattutto americani, usano la qualifica di “engineer” per qualsiasi specializzazione tecnica, soprattutto se informatica): ovvero gente che avendo avuto a disposizione le domande e le relative risposte aveva semplicemente imparato a memoria il tutto, spesso nemmeno capendo e integrando nella propria conoscenza la risposta giusta, ma semplicemente memorizzando a pappagallo, la risposta stessa, la sequenza delle parole.

Gente “certificata” sì, ma sulla carta. Ovviamente di fronte al compito pratico, come si dice, cascava l’asino, ma spesso questa gente creava difficoltà e sminuiva il valore della certificazione per intere categorie. A volte, ad esempio, per partecipare a gare d’appalto tra i requisiti tecnici veniva richiesta la presenza nell’azienda di un certo numero di tecnici certificati…e allora dai di paper certified!

Per non parlare dei testing center conniventi che, consentivano agli esaminandi l’uso di manuali, laptop e connessione Internet durante l’esame!

…dove sta il nesso?

Oggi è peggio, viviamo l’epoca del pericolo Epistemia, neologismo del 2025, del la qualunque engineer (“la qualunque”, altro neologismo 2025). Epoca in cui chiunque non deve più nemmeno imparare ciò che legge: chiede e ne fa copia & incolla.

Da qualche anno viviamo l’epoca dei cosiddetti Large Language Model (LLM), un insieme di diversi elementi chiave che possiamo riassumere in questo modo.

Architettura (Architecture): La struttura fondamentale di un LLM è tipicamente una rete neurale trasformatore (transformer neural network). Questa architettura, introdotta nel 2017, utilizza meccanismi di "attenzione" per pesare l'importanza delle diverse parole nel testo di input, permettendo al modello di comprendere il contesto e le relazioni a lungo raggio tra le parole, a differenza dei modelli precedenti che elaboravano il testo in modo più sequenziale.

Dati di addestramento (Training Data): Gli LLM (*) sono "addestrati" su enormi quantità di testo e codice provenienti da Internet (come libri digitalizzati, articoli di Wikipedia, siti web, ecc.). Questi dati insegnano al modello la grammatica, i fatti, il ragionamento e vari stili di linguaggio.

Parametri (Parameters): Sono i valori numerici che il modello impara durante il processo di addestramento. Essenzialmente, i parametri rappresentano la "conoscenza" del modello. I modelli più grandi hanno miliardi, o addirittura trilioni, di parametri, che determinano la forza delle connessioni all'interno della rete neurale.

Algoritmo di addestramento (Training Algorithm): Il modello impara regolando i suoi parametri attraverso un processo chiamato retropropagazione (backpropagation) e discesa del gradiente (gradient descent). Durante l'addestramento, il modello cerca di prevedere la parola successiva in una frase e l'algoritmo corregge i parametri per minimizzare gli errori di previsione.

Tokenizzazione (Tokenization): Il testo umano viene suddiviso in unità più piccole chiamate "token" (che possono essere parole intere, parti di parole, o anche singoli caratteri). L'LLM elabora questi token come numeri (vettori) che rappresentano il loro significato semantico e la loro posizione.

Funzione obiettivo (Objective Function) / Funzione di perdita (Loss Function): Questa funzione misura l'accuratezza delle previsioni del modello. L'obiettivo dell'addestramento è minimizzare questa perdita, rendendo il modello sempre più abile nel prevedere le sequenze di testo corrette. 

In sintesi, un LLM è un complesso sistema matematico e statistico che ha imparato a riconoscere e generare modelli linguistici estraendo informazioni da un vastissimo corpo di dati. Se alle parole “il cane rincorreva il … “ un LLM aggiunge “gatto” non lo fa perché ha ragionato o pensato o men che mai dedotto, ma solo perché statisticamente è la parola più frequente e con maggiori probabilità di apparire in quella posizione.

Ci sono un paio di libri di approfondimento di molti concetti trattati qui e altro ancora: “Perché le macchine imparano” di Anil Ananthaswamy, e “In che mondo vivi” di Walter Quattrociocchi e Matteo Cinelli. Entrambi li ho recensiti lo scorso anno nella rubrica Sigea – La Scienza e la Tecnica Raccontate.

Ed è su LLM che software come ChatGPT, Gemini, Perplexity ed altri ancora, generano le interazioni e i risultati della chat che utilizziamo per ricavarne informazioni o che consentono alle nuove interfacce dei motori di ricerca come Google, Bing o altro, di presentare una sorta di riassunto di quanto cerchiamo, anziché limitarsi, come accadeva fino a non molto tempo fa, di presentare una serie di risultati ordinati in base a diversi parametri statistici.

Questi modelli fanno parte e sono ascritti alla categoria della cosiddetta AI, intelligenza artificiale, ma con l’intelligenza, soprattutto quella umana, non hanno nulla a che fare, considerando che il processo che porta all’apprendimento ed alla cognizione che ci contraddistingue fin dalla nascita è totalmente diverso.

Esiste un apparente allineamento nel processo che porta in un essere umano a generare delle risposte (output) a partire da dati e/o condizioni iniziali (input) con quanto riproducibile in una macchina. Ma le discordanze della vera essenza dei due processi messi a confronto sono enormi, incolmabili, delle vere e proprie rotture epistemiche: gli autori dello studio che ha ispirato questo post utilizzano il termine faglie, derivandolo direttamente dalla geologia, ancorché nell’originale inglese usato, fault, esso abbia anche significati diversi.

Nella tradizione filosofica l’epistème è il nucleo stesso della conoscenza come ricerca di fondamento, verifica, confronto con il reale o, in altre parole, la conoscenza fondata su basi certe e verificabili. Per questo motivo con epistemologia si intende lo studio critico della natura e dei limiti della conoscenza scientifica, con particolare riferimento alle strutture logiche e alla metodologia delle scienze.

Da qui nasce quindi il neologismo Epistemia, parola dell’anno, come sancito anche da Treccani in una recente intervista ad uno degli autori.

Analogamente al termine infodemia, che indica la diffusione di un'eccessiva quantità di informazioni, talvolta non sufficientemente verificate e tali da rendere complessa la comprensione di un argomento specifico generando disinformazione, il concetto di Epistemia si riferisce alla situazione in cui la fluidità linguistica viene erroneamente interpretata come affidabilità. Il termine è stato coniato per descrivere quella particolare forma di illusione prodotta dai modelli linguistici: testi persuadenti che simulano conoscenza senza effettivamente possederla.

Come fosse antani...
Noi italiani, per lo meno quelli della mia generazione, possiamo intuire fin d’ora qualcosa, pensando alla ormai mitologica supercazzola di Ugo Tognazzi nella serie cinematografica “Amici miei”. Allora, il superlativo Ugo Tognazzi, nei panni del Conte Mascetti, mostra un fantastico eloquio, volutamente assurdo, privo di senso logico, pieno di parole inventate e tecniche (come tarapia tapioco, scappellamento a destra o antani), teso ad intortare, ingannare o prendere in giro l'interlocutore, facendogli accettare l'insensato come se fosse corretto. È un termine entrato nel vocabolario italiano che descrive una tecnica di beffa, comunicazione fallace o anche un'entità inconsistente.

Epistemia non è sinonimo di supercazzola ma ne assume i connotati quando è l’espressione linguistica che si fa beffe dell’ignoranza altrui, laddove chiunque interroghi e ne usi i risultati, prendesse per oro colato quanto prodotto da un LLM, soltanto perché ben scritto, ben strutturato, ben argomentato. Epistemia indica una situazione in cui la plausibilità linguistica prende il posto della valutazione epistemica: i sistemi offrono risposte ben costruite ma prive dei processi reali con cui si formano e si verificano le credenze. L’utente così riceve risposte senza svolgere il lavoro cognitivo del giudizio.

Tutti noi abbiamo usato e usiamo continuamente i risultati delle interrogazioni di LLM: i motori di ricerca ormai offrono le cosiddette AI overview, che riassumono e anticipano i risultati di una ricerca, costruendo da fonti esterne i contenuti. Soltanto recentemente offrono i collegamenti a queste ultime nell’ottica di migliorarne l’affidabilità.

Ma fino a quando e quanto sono affidabili? Da dove nascono le loro risposte?

Il mito e la volontà di costruire macchine che imitassero il pensiero umano è antico, fin dai tempi della mitologia greca o ebraica (gli automi greci o il golem ebraico), e poi Leibnitz, Cartesio ed altri ancora hanno introdotto interpretazioni meccanicistiche della mente, un insieme di parti interagenti riproducibili artificialmente. Ma è solo nel XX secolo, grazie ai progressi della logica matematica, del calcolo e dell’elettronica (potenziandosi a vicenda in un circolo virtuoso), che la cosa inizia ad assumere concretezza.

Lungo questo percorso gli LLM sono diventati strumenti di uso quotidiano. Sistemi come ChatGPT, Deepseek, Gemini, Llama e Mistral, in qualsiasi ambito siano impiegati, e in alcuni casi in modo più affidabile rispetto agli umani, superano il test che uno dei pionieri di questa scienza, Alan Turing, definì in un suo famoso test: un esperimento per valutare se una macchina può mostrare un comportamento intelligente indistinguibile da quello umano, dove un interrogatore umano cerca di distinguere un computer da un umano tramite conversazione testuale. Se l'umano non riesce a capire qual è la macchina, quest'ultima supera il test, dimostrando capacità di pensiero e linguaggio simili a quelle umane. Vincere a scacchi, ottenere il primo premio nelle Olimpiadi della Matematica, dimostrare maggior competenza nell’uso e nella diagnostica medica da immagini, ed altro ancora, è ormai parte del quotidiano e dell’immaginario di questi strumenti. Ed è anche l’utilizzo popolare che si fa di questi risultati ad aver creato una montagna di equivoci ed incomprensioni su cosa effettivamente sia e su come funzionino, questi nuovi strumenti. Quanti ricordano la storia dell’ingegnere di Google che si era convinto che l’AI era diventata senziente?

Il processo che porta a fornire risposte, da parte degli LLM,  non è pensare, né ragionare, nemmeno dedurre.

I nuovi modelli linguistici non pensano né comprendono: prevedono la parola successiva basandosi su pattern statistici estratti da molti testi. Il loro linguaggio può sembrare corretto, e sembra corretto anche quando fornisce risposte completamente errate.

Se in passato un’informazione era in odore d’essere falsa o, peggio ancora, mistificata come le fake news, era comunque possibile smascherarla indagando le fonti, verificando i fatti, smontandone lo scopo. Ma adesso il contenuto falso non appare chiaro, non presenta i segni tipici della disinformazione: è un discorso che non fa una piega, non è schierato, e addirittura se introduciamo dubbi nel dialogo con la macchina, tende a darci ragione! È molto peggio che ascoltare Tognazzi/Mascetti nei suoi grammelot grotteschi dove qualcosa di anomalo filtra nel rumore del nonsenso: qui non c’è substrato, sembra ben piantato su basi forti, ma così non è, lo sembra.

Provate ad interrogare un LLM in tema di omeopatia e inserite nel suo incedere con tono e stile accademico, elementi che lo portino a supporre (si fa per dire) che siate convinti che esista davvero una memoria dell’acqua: lo vedrete costruire frasi sintatticamente perfette che suonano vere. Ma solo una lo è.

L’associazione di intelligenza ad artificiale è fuorviante, folkloristica e popolare; non è altro che l’ennesimo tentativo di antropomorfizzazione dei comportamenti umani che tendono ad assegnare anime a qualsiasi cosa, spinti da atavici adattamenti evolutivi. Si può restarne stupiti, è umano vedere qualcuno dietro quell’ineccepibile dimostrazione di un teorema matematico, purché si sia ben consci che così non è. Non si guardava forse con stupore il prodursi di informazione sugli schermi dei primi computer? Nonostante si sapesse che erano il risultato di algoritmi.

Quando l’Epistemia si innesca ecco il corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può sembrarci vero solo perché usa il linguaggio tipico di chi dice il vero: è questione di abitudine, non di pensiero critico. E c’è un pericolo profondo nell’accettazione cieca dei risultati di un LLM: automatizzano la tendenza a cercare conferme delle nostre convinzioni, l’esasperazione del cherry picking perché meccanizzato da algoritmi, un bias di conferma continuo e che porta a selezionare tutto ciò che si vede in modo che l’opinione sia continuamente confermata e rafforzata: da qui al complottismo è un attimo! E a nulla servono i tentativi di smentita, come ho avuto modo di scriverne qui. Ed è paradossale sapere che uno dei modi più raffinati per scovare le differenze tra il prodotto umano e quello degli LLM è che quest’ultimi, alla lunga, tendono a strafare, esagerano rinforzando i concetti laddove non è necessario, come se volessero aggiungere una spiegazione alla spiegazione, ridondante e inutile: come se si facessero da soli una supercazzola!

Esperti di carta
Uno degli effetti più deleterio dell’utilizzo compulsivo di LLM è la moltiplicazione di figure che recitano la parte di esperti senza aver acquisito la minima conoscenza di ciò di cui vanno cianciando, in una parola, senza studio e senza passare dal sapere acquisito e consolidato. Divulgatori, opinionisti, blogger, influencer, che grazie all’AI fanno copia e incolla dei contenuti generati, per lo più senza nemmeno capirli visto che analfabetismo funzionale e cialtroneria vanno a braccetto o, nel caso li capiscano, perché suona figo! E si scatena una retroazione di rinforzo del danno: strumenti che simulano la conoscenza usati da simulatori di competenze. È l’illusione rinforzata che distrugge nel lettore gli strumenti per distinguere.

Anche se, su compiti ben definiti, quali domande a risposta multipla, classificazioni, esercizi logici classici, riconoscimento immagini ed altro ancora, gli LLM hanno tassi di veridicità e accuratezza prossimi al 90%, un LLM che vinca persino, come accaduto, le Olimpiadi della Matematica con punteggi uguali se non superiori a quelli delle migliori menti a confronto, questo comunque non ragiona, non comprende, e l’utente tipico non ha le competenze per porre domande quali potrebbero essere quelle che si ricevono durante un esame universitario! Costoro vedono gli LLM come gli antichi vedevano gli oracoli, li consultano per consigli, per risolvere dubbi: basta che la risposta sembri sensata e non occorre verificarne l’origine. Il tutto è verosimile, non epistemico.

E siccome alla fine, la spinta ad utilizzare e acquisire sempre di più queste nuove tecnologie ha origini economiche, le statistiche e i benchmark su quanto spesso sbaglino (le cosiddette AI hallucination), in quali condizioni, quanto siano poco trasparenti nei confronti di chi legge, non esistono o sono limitate a casi specifici. 

Non si tratta di infodemia, citata all’inizio: di ritirata di fronte ad un devastante aumento della quantità di informazione che ha generato alla fine disinformazione. Uso spesso quest’esempio: la qualità dei servizi di previsione meteorologica è andata peggiorando man mano che aumentavano i siti che si occupano di previsioni del tempo.

Dopo la nascita dei servizi di data streaming, dell’intelligenza artificiale, del cloud storage, delle piattaforme di social media e dell’ubiquità degli smartphone e degli smartwatch, ormai ci vogliono solo un paio di giorni per produrre cinque miliardi di gigabyte di contenuto digitale, equivalenti a tutte le informazioni digitali esistenti prima del 2003. Entro il 2026 il totale creato annualmente sarà di oltre 160 zettabyte (ZB = 1021 byte) Le riserve globali di silicio forniscono solo una piccola frazione di ciò che ci servirebbe per conservare in modo permanente tutti i dati che produciamo.

E tutti questi dati potrebbero essere utilizzati come basi di addestramento di LLM.

Con una serie di azioni che non sono frutto né di malafede né di intenzionalità l’epistemia è peggio dell’ignoranza, perché rendersi conto che manca un costrutto conoscitivo è difficile. Sono i danni collaterali di una tecnologia che genera testo con una precisione sintattica tale da simulare il pensiero umano. Ricordate la storia dell’esercito di scimmie, ognuna dotata di una macchina da scrivere che, con tempo indefinito a disposizione, avrebbe prodotto un giorno la prima frase de “La divina commedia”? È statisticamente possibile. Ma oltre alla frase di senso compiuto avremmo avuto triliardi di pagine di nonsenso, come nella Biblioteca di Babele di Borges. Ora immaginate quanto non senso, ma linguisticamente plausibile, potrebbe produrre un LLM addestrato con la citata gigantesca quantità di informazione prodotta ogni giorno. Altro che Gish gallop!

Nell’illusione di conoscenza creata dalla delega cieca alle risposte degli LLM si è ormai creata una nuova generazione di studenti, ormai a qualunque livello, che prendono un compito, lo trasformano in una richiesta strutturata, e ricevono una risposta plausibile: problema risolto…pensano! Ma ogni processo di apprendimento, esami compresi, serve a sviluppare un modo di ragionare, di orientarsi tra conoscenza e dubbio, di collegare teoria e pratica. Se si sostituisce questo percorso con l’apparenza, col capire come produrre un output, è qui che si genera Epistemia. La funzione della formazione è creare teste pensanti, non semplici generatori di testi plausibili! Con gli LLM questo rischio di cortocircuito è enorme: l’apparenza di competenza sostituisce la sostanza.

Cosa accadrà quando una generazione di laureati che si affida ai modelli invece di comprendere entrerà nel lavoro? Potremmo affrontare carenze di competenze essenziali in settori come l'ingegneria, l'analisi dei dati o la finanza?

Molte aziende sostituiscono i programmatori junior con LLM, lasciando solo i senior. Quando questi andranno in pensione, chi li sostituirà? Chi usa i modelli o chi conosce davvero la programmazione?

Ogni volta che nella storia dei progressi tecnologici si è creata una bolla che poi è esplosa, la deflagrazione ha comunque lasciato dietro di sé la tecnologia e il suo utilizzo. Non tutto il male viene per nuocere recita il proverbio, ma è chiaro che aumenterà il divario tra chi sa davvero e chi sa soltanto simulare il sapere. I primi diventeranno sempre più rari e, inevitabilmente, sempre più costosi. E questo avrà effetti enormi: sul mercato del lavoro, sulla distribuzione della ricchezza, sul rapporto tra competenza reale e potere decisionale.

La storia mostra che ogni rivoluzione tecnologica cambia la conoscenza. Tuttavia, oggi delegare anche la comprensione può portare non solo rischi economici, ma anche culturali, epistemici e sociali.

Gli LLM non vanno comunque demonizzati, rappresentano uno strumento di ausilio importante, automatizzano compiti ripetitivi, collaborano nella stesura di testi che, supervisionati e mai accettati as is, sono validissimi. Occorrono invece nuove forme di formazione, nuovi metodo per misurare la competenza, conoscenza per non confondere il linguaggio con il pensiero.

Senza tutto questo il futuro sarà popolato da schiere enormi e preponderanti equivalenti a quei paper engineer di cui scrivevo all’inizio: sapienti di carta, incapaci di distinguere l’imitazione che gli LLM fanno della conoscenza grazie a strumenti statistici e il vero sapere.

Qualche dettaglio tecnico

In https://arxiv.org/html/2512.19466v1
Rimandando allo studio citato all’inizio, il giudizio umano è stato scomposto in sette stadi sequenziali (definiti come pipeline nello studio): 1. informazioni sensoriali e sociali; 2. analisi percettiva e situazionale; 3. memoria, intuizioni e concetti appresi; 4. emozione, motivazione e obiettivi; 5. ragionamento e integrazione delle informazioni; 6. calibrazione metacognitiva e monitoraggio degli errori; 7. giudizio sensibile ai valori. Queste operazioni sono lente, imperfette e di parte, eppure si svolgono all'interno di un ciclo di conoscenze acquisite che fa parte del mondo umano, limitando l'errore.

Se ora correliamo a tutto ciò il processo che porta da un giudizio da parte di un LLM abbiamo che: 1. i prompt testuali con cui interroghiamo sostituiscono le informazioni sensoriali e sociali (un prompt di AI è un'istruzione, una domanda o un argomento di discussione specifico fornito a uno strumento di intelligenza artificiale per generare un output desiderato; creare questi input - prompt engineering - è diventata una competenza fondamentale per guidare i modelli di AI a produrre risultati di alta qualità e rilevanti); 2. la tokenizzazione e la preelaborazione sostituiscono il parsing percettivo e situazionale (l'analisi sintattica o parsing, oppure parsificazione, è un processo che analizza un flusso continuo di dati in ingresso, in modo da determinare la correttezza della sua struttura grazie ad una data grammatica formale. Il termine parsing proviene dal latino pars, parte, che indica una parte di un discorso più ampio); 3. il riconoscimento di pattern negli embeddings sostituisce la memoria, le intuizioni e i concetti appresi (gli embedding sono rappresentazioni vettoriali numeriche di dati reali - testo, immagini, audio - che ne catturano il significato e le relazioni, trasformando informazioni complesse in uno spazio di dimensioni inferiori dove elementi simili sono matematicamente vicini. Consentono all'AI di comprendere le connessioni semantiche, abilitando compiti come la ricerca semantica, le raccomandazioni e il clustering misurando la distanza - ad esempio, la somiglianza tra queste liste numeriche: in sostanza, comprimono i dati preservando il significato, rendendo l'AI più efficiente e potente); 4. l'inferenza statistica tramite strati neurali sostituisce emozione, motivazione e obiettivi; 5. l'integrazione del contesto testuale sostituisce il ragionamento e l'integrazione delle informazioni; 6. la fiducia forzata e le allucinazioni sostituiscono la metacognizione; 7. Il giudizio finale è un risultato statistico.

A ogni fase, i processi sono paralleli ma variano nettamente per struttura, funzione ed epistemologia. Questi contrasti mostrano le principali differenze epistemologiche tra i due percorsi che, pur ottenendo a volte risultati simili, seguono tappe del tutto diverse. 

A solo titolo di esempio di quanto possano essere diversi i percorsi approfondiamo il processo tokenizzazione.

La tokenizzazione nell'AI è il processo di scomposizione di testo (o altri dati) in unità più piccole e gestibili chiamate token, come parole, parti di parole o caratteri, per permettere ai modelli di AI di elaborare e comprendere il linguaggio naturale, trasformando dati grezzi in un formato numerico interpretabile per l'apprendimento automatico e la generazione di risposte. Questo passaggio è fondamentale perché i computer lavorano con i numeri, non direttamente con il testo, rendendo la tokenizzazione il ponte essenziale per l'analisi semantica, l'analisi dei sentimenti e molte altre applicazioni che abbiano a che fare con il linguaggio naturale.

Lowercasing (la conversione in minuscolo) è il processo di trasformazione di tutte le lettere maiuscole in minuscole, una tecnica fondamentale nell'elaborazione del linguaggio naturale che serve a standardizzare il testo, ridurre la complessità del vocabolario e rendere le parole "casa" e "Casa" trattabili come la stessa entità, migliorando l'efficienza e l'accuratezza dei modelli di apprendimento. Sebbene utile per l'uniformità, potrebbe non essere adatta per compiti in cui l’uso di lettere maiuscole sia significativa.

Confrontiamo adesso ad esempio la parola inglese “therapist”, tradotto in terapeuta. La tokenizzazione in “the” e “rapist” (lo stupratore) porterebbe un LLM a commettere un errore che nessun essere umano farebbe. Poiché il modello elabora stringhe piuttosto che situazioni, anche semplici input linguistici possono frammentarsi in unità di sottoparole fuorvianti. Questi non sono errori superficiali ma risultati strutturali di un sistema che taglia il testo in token invece di analizzare scene, intenzioni o eventi. Poiché gli LLM si basano sulla tokenizzazione delle sottoparole, anche piccoli cambiamenti tipografici o di formattazione possono distorcere il significato. Chiunque abbia mai usato un vocabolario di cinese per cinesi potrà facilmente capire come la tokenizzazione può dividere i caratteri in modi che rompono i loro radicali semantici. Allo stesso modo, i tokenizzatori di sottoparole possono gestire male prefissi o suffissi che segnalano negazione, portando i modelli a fraintendere il significato voluto. E come potrebbe un LLM rispondere alle sensazioni, alle emozioni e ai sentimenti che la lettura di un testo evoca negli umani?

Già alla seconda fase la rottura epistemologica si allarga. Nella tabella seguente sono riassunte le sette linee di faglia epistemologica che separano il giudizio umano dal giudizio LLM, una per ogni fase del percorso epistemico. Nonostante ciò, gli esseri umani tendono sistematicamente a credere eccessivamente ai risultati dell'LLM, perché un linguaggio fluente e sicuro produce un pregiudizio di credibilità.

Conclusione
Gli LLM possono dunque produrre output spesso indistinguibili dai giudizi umani, pur facendo affidamento su un meccanismo generativo che non è una forma di giudizio. L'apparenza della comprensione può quindi coesistere con l'assenza della comprensione responsabile.

L'Epistèmia si verifica quando la verosimiglianza linguistica sostituisce la vera valutazione epistemica, dando l'impressione di conoscere senza un reale giudizio. L'epistemia non dipende da ingenuità, errori isolati o uso scorretto di uno strumento. Questo fenomeno si verifica quando i sistemi generativi danno risposte certe e fluide, anche dove sarebbe necessaria incertezza o possibilità di revisione. Con l'aumento delle dimensioni e della persuasività dei modelli generativi, cresce il rischio che gli errori permangano e che la responsabilità della verifica passi dall'algoritmo all'utente, rendendo più semplice trascurare questo compito. 

Sottoporre i risultati prodotti dagli LLM a peer review? E da parte di chi, di un altro LLM?

Nella tabella seguente (rielaborata da https://arxiv.org/html/2512.19466v1) sono riportate le sette faglie epistemiche individuate.


Vorrei concludere con le parole di uno degli autori dello studio più volte citato, il Prof. Walter Quattrociocchi.

«Il paper sulle linee di faglia sta circolando molto, dentro e fuori l’accademia. Non perché dica che i modelli linguistici sbagliano o che vanno usati con cautela. Quello è ovvio e ormai irrilevante.
Sta circolando perché mette in crisi l’architettura concettuale con cui continuiamo a raccontare l’AI generativa. Molti lo hanno definito un pugno in faccia alla narrativa dominante. In realtà è qualcosa di più preciso. È una diagnosi strutturale di un equivoco che stiamo coltivando da anni.
L’equivoco è l’idea che, se l’output di un sistema diventa indistinguibile da quello umano, allora anche il processo che lo genera stia convergendo. Il paper mostra che non è così. Mostra che l’allineamento osservabile può mascherare una divergenza epistemica profonda. Aumentare dati, parametri e scala raffina un approssimatore statistico, ma non introduce criteri di verità, di riferimento o di responsabilità. Migliora la probabilità, non il giudizio. Per questo il lavoro ha colpito così forte. Non discute quanto sono bravi i modelli, ma che tipo di operazione cognitiva simulano e quale no» (segue)
(27 dicembre 2025)

___________________________________________________
[/Sarcasmo on]

Ovviamente questo post è stato generato grazie ad interazioni continue e non verificate con LLM. Quindi se ci sono errori prendetevela con le sue allucinazioni!
[/Sarcasmo off]

___________________________________________________
Riferimenti bibliografici
Epistemological Fault Lines Between Human and Artificial Intelligence
Pagina Facebook del Prof. Walter Quattrociocchi – Università Sapienza, Roma
Articolo su Wired del 12/12/2025
Intervista “Epistemia: abbiamo smesso di chiederci come sappiamo ciò che sappiamo”, Beatrice Cristalli per Treccani, 16/12/2025
Intervista “Epistemia: quando l'AI mette in crisi la verità”, Corriere del Ticino, 24/12/2025

___________________________________________________
Letture suggerite
“In che mondo vivi. Pillole di data science per comprendere la contemporaneità” di Walter Quattrociocchi e Matteo Cinelli
“Perché le macchine imparano. L’eleganza della matematica dietro all’AI” di Anil Ananthaswamy

(*) preferisco usare gli articoli che fanno riferimento alla L dell'acronimo anziché a Large...