Ma, man mano
che la tecnologia progrediva, e con questa il numero di esami, andarono
diffondendosi dapprima copie cartacee, poi documenti elettronici più o meno di contrabbando,
per finire con vere e proprie aziende specializzate nel produrre, e vendere, non
solo simulazioni dei test a rispecchiare le domande che si sarebbero ricevute
durante l’esame ma persino insiemi di domande in qualche modo sottratte
a chi le ha generate (li chiamano…braindumps): ovviamente c’era volontà
da parte del produttore e del venditore di questi pacchetti di addestramento
a guadagnare. Oggi, online, con rarissimi esempi di esami gratuiti, c’è di
tutto. Da database di domande per i test di ammissione all’Arma dei
Carabinieri, a quelle dei concorsi nella pubblica amministrazione.
Ma, restando
nel mio campo, col crescere delle informazioni estratte da una base di dati
certamente non infinita, cresceva anche il numero di coloro che chiamavamo, con
giustificata sufficienza, i paper engineer (gli anglosassoni,
soprattutto americani, usano la qualifica di “engineer” per qualsiasi
specializzazione tecnica, soprattutto se informatica): ovvero gente che avendo
avuto a disposizione le domande e le relative risposte aveva semplicemente
imparato a memoria il tutto, spesso nemmeno capendo e integrando nella propria
conoscenza la risposta giusta, ma semplicemente memorizzando a pappagallo, la
risposta stessa, la sequenza delle parole.
Gente
“certificata” sì, ma sulla carta. Ovviamente di fronte al compito pratico, come
si dice, cascava l’asino, ma spesso questa gente creava difficoltà e sminuiva
il valore della certificazione per intere categorie. A volte, ad esempio, per
partecipare a gare d’appalto tra i requisiti tecnici veniva richiesta la
presenza nell’azienda di un certo numero di tecnici certificati…e allora dai di
paper certified!
Per non
parlare dei testing center conniventi che, consentivano agli esaminandi
l’uso di manuali, laptop e connessione Internet durante l’esame!
…dove sta il
nesso?
Oggi è peggio, viviamo l’epoca del pericolo Epistemia, neologismo del 2025, del la
qualunque engineer (“la qualunque”, altro neologismo 2025).
Epoca in cui chiunque non deve più nemmeno imparare ciò che legge: chiede e ne
fa copia & incolla.
Da qualche
anno viviamo l’epoca dei cosiddetti Large Language Model (LLM), un
insieme di diversi elementi chiave che possiamo riassumere in questo modo.
Architettura
(Architecture): La struttura fondamentale di un LLM è tipicamente una
rete neurale trasformatore (transformer neural network). Questa architettura,
introdotta nel 2017, utilizza meccanismi di "attenzione" per pesare
l'importanza delle diverse parole nel testo di input, permettendo al modello di
comprendere il contesto e le relazioni a lungo raggio tra le parole, a
differenza dei modelli precedenti che elaboravano il testo in modo più
sequenziale.
Dati di
addestramento (Training Data): Gli LLM sono
"addestrati" su enormi quantità di testo e codice provenienti da
Internet (come libri digitalizzati, articoli di Wikipedia, siti web, ecc.).
Questi dati insegnano al modello la grammatica, i fatti, il ragionamento e vari
stili di linguaggio.
Parametri
(Parameters): Sono i valori numerici che il modello impara durante il
processo di addestramento. Essenzialmente, i parametri rappresentano la
"conoscenza" del modello. I modelli più grandi hanno miliardi, o
addirittura trilioni, di parametri, che determinano la forza delle connessioni
all'interno della rete neurale.
Algoritmo di
addestramento (Training Algorithm): Il modello impara regolando i
suoi parametri attraverso un processo chiamato retropropagazione
(backpropagation) e discesa del gradiente (gradient descent). Durante
l'addestramento, il modello cerca di prevedere la parola successiva in una
frase e l'algoritmo corregge i parametri per minimizzare gli errori di
previsione.
Tokenizzazione
(Tokenization): Il testo umano viene suddiviso in unità più piccole
chiamate "token" (che possono essere parole intere, parti di parole,
o anche singoli caratteri). L'LLM elabora questi token come numeri (vettori)
che rappresentano il loro significato semantico e la loro posizione.
Funzione
obiettivo (Objective Function) / Funzione di perdita (Loss Function): Questa
funzione misura l'accuratezza delle previsioni del modello. L'obiettivo
dell'addestramento è minimizzare questa perdita, rendendo il modello sempre più
abile nel prevedere le sequenze di testo corrette.
In sintesi,
un LLM è un complesso sistema matematico e statistico che ha imparato a
riconoscere e generare modelli linguistici estraendo informazioni da un vastissimo
corpo di dati. Se alle parole “il cane rincorreva il … “ un LLM aggiunge
“gatto” non lo fa perché ha ragionato o pensato o men che mai dedotto,
ma solo perché statisticamente è la parola più frequente e con maggiori
probabilità di apparire in quella posizione.
Ci sono un
paio di libri di approfondimento di molti concetti trattati qui e altro ancora:
“Perché le
macchine imparano” di Anil Ananthaswamy, e “In che mondo
vivi” di Walter Quattrociocchi e Matteo Cinelli. Entrambi li ho
recensiti lo scorso anno nella rubrica Sigea – La Scienza e la Tecnica
Raccontate.
Ed è su LLM
che software come ChatGPT, Gemini, Perplexity ed altri ancora, generano le
interazioni e i risultati della chat che utilizziamo per ricavarne
informazioni o che consentono alle nuove interfacce dei motori di ricerca come
Google, Bing o altro, di presentare una sorta di riassunto di quanto cerchiamo,
anziché limitarsi, come accadeva fino a non molto tempo fa, di presentare una
serie di risultati ordinati in base a diversi parametri statistici.
Questi
modelli fanno parte e sono ascritti alla categoria della cosiddetta AI, intelligenza
artificiale, ma con l’intelligenza, soprattutto
quella umana, non hanno nulla a che fare, considerando che il processo
che porta all’apprendimento ed alla cognizione che ci contraddistingue fin
dalla nascita è totalmente diverso.
Esiste un
apparente allineamento nel processo che porta in un essere umano a generare
delle risposte (output) a partire da dati e/o condizioni iniziali (input)
con quanto riproducibile in una macchina. Ma
le discordanze della vera essenza dei due processi messi a confronto sono
enormi, incolmabili, delle vere e proprie rotture epistemiche: gli
autori dello studio che ha
ispirato questo post utilizzano il termine faglie, derivandolo
direttamente dalla geologia, ancorché nell’originale inglese usato, fault,
esso abbia anche significati diversi.
Nella
tradizione filosofica l’epistème è il nucleo stesso della conoscenza
come ricerca di fondamento, verifica, confronto con il reale o, in altre
parole, la conoscenza fondata su basi certe e verificabili. Per questo motivo
con epistemologia si intende lo studio critico della natura e dei limiti
della conoscenza scientifica, con particolare riferimento alle strutture
logiche e alla metodologia delle
scienze.
Da qui nasce
quindi il neologismo Epistemia, parola dell’anno, come sancito anche da
Treccani in una recente intervista ad uno
degli autori.
Analogamente al termine infodemia, che indica la diffusione di
un'eccessiva quantità di informazioni, talvolta non sufficientemente verificate
e tali da rendere complessa la comprensione di un argomento specifico generando
disinformazione, il concetto di Epistemia si
riferisce alla situazione in cui la fluidità linguistica viene erroneamente
interpretata come affidabilità. Il termine è stato coniato per descrivere
quella particolare forma di illusione prodotta dai modelli linguistici: testi
persuadenti che simulano conoscenza senza effettivamente possederla.
Epistemia non è sinonimo di
supercazzola ma ne assume i connotati quando è l’espressione linguistica che si
fa beffe dell’ignoranza altrui, laddove chiunque interroghi e ne usi i
risultati, prendesse per oro colato quanto prodotto da un LLM, soltanto perché
ben scritto, ben strutturato, ben argomentato. Epistemia indica una situazione
in cui la plausibilità linguistica prende il posto della valutazione
epistemica: i sistemi offrono risposte ben costruite ma prive dei processi
reali con cui si formano e si verificano le credenze. L’utente così riceve
risposte senza svolgere il lavoro cognitivo del giudizio.
Ma fino a quando e quanto sono
affidabili? Da dove nascono le loro risposte?
Il mito e la volontà di costruire macchine che imitassero il pensiero umano è antico, fin dai tempi della mitologia greca o ebraica (gli automi greci o il golem ebraico), e poi Leibnitz, Cartesio ed altri ancora hanno introdotto interpretazioni meccanicistiche della mente, un insieme di parti interagenti riproducibili artificialmente. Ma è solo nel XX secolo, grazie ai progressi della logica matematica, del calcolo e dell’elettronica (potenziandosi a vicenda in un circolo virtuoso), che la cosa inizia ad assumere concretezza.
Lungo questo percorso gli LLM sono diventati strumenti di uso
quotidiano. Sistemi come ChatGPT,
Deepseek, Gemini, Llama e Mistral, in qualsiasi ambito siano impiegati, e in alcuni
casi in modo più affidabile rispetto agli umani, superano il test che uno dei
pionieri di questa scienza, Alan Turing, definì in un suo famoso test: un esperimento per valutare
se una macchina può mostrare un comportamento intelligente indistinguibile da
quello umano, dove un interrogatore umano cerca di distinguere un computer da
un umano tramite conversazione testuale. Se l'umano non riesce a capire qual è
la macchina, quest'ultima supera il test, dimostrando capacità di pensiero e
linguaggio simili a quelle umane. Vincere a scacchi, ottenere il primo premio nelle Olimpiadi della Matematica,
dimostrare maggior competenza nell’uso e nella diagnostica medica da
immagini, ed altro ancora, è ormai parte del quotidiano e dell’immaginario di
questi strumenti. Ed è anche l’utilizzo popolare che si fa di questi risultati
ad aver creato una montagna di equivoci ed incomprensioni su cosa
effettivamente sia e su come funzionino, questi nuovi strumenti. Quanti
ricordano la storia dell’ingegnere di Google che si era
convinto che l’AI era diventata senziente?
Il processo che porta a fornire risposte non è pensare, né ragionare, nemmeno dedurre.
I nuovi modelli linguistici non pensano né comprendono: prevedono la parola successiva basandosi su pattern statistici estratti da molti testi. Il loro linguaggio può sembrare corretto, e sembra corretto anche quando fornisce risposte completamente errate.
Se in passato un’informazione era in
odore d’essere falsa o, peggio ancora, mistificata come le fake news,
era comunque possibile smascherarla indagando le fonti, verificando i fatti,
smontandone lo scopo. Ma adesso il contenuto falso non appare chiaro, non
presenta i segni tipici della disinformazione: è un discorso che non fa una
piega, non è schierato, e addirittura se introduciamo dubbi nel dialogo con
la macchina, tende a darci ragione! È molto peggio che ascoltare
Tognazzi/Mascetti nei suoi grammelot grotteschi dove qualcosa di anomalo
filtra nel rumore del nonsenso: qui non c’è substrato, sembra ben
piantato su basi forti, ma così non è, lo sembra.
Provate ad interrogare un LLM in tema
di omeopatia e inserite nel suo incedere con
tono e stile accademico, elementi che lo portino a supporre (si fa per dire)
che siate convinti che esista davvero una memoria dell’acqua: lo vedrete
costruire frasi sintatticamente perfette che suonano vere. Ma solo una lo è.
L’associazione di intelligenza ad
artificiale è fuorviante, folkloristica e popolare; non è altro che
l’ennesimo tentativo di antropomorfizzazione dei comportamenti umani che
tendono ad assegnare anime a qualsiasi cosa, spinti da atavici
adattamenti evolutivi. Si può restarne stupiti, è umano vedere qualcuno dietro
quell’ineccepibile dimostrazione di un teorema matematico, purché si sia ben
consci che così non è. Non si guardava forse con stupore il prodursi di
informazione sugli schermi dei primi computer? Nonostante si sapesse che erano
il risultato di algoritmi.
Quando l’Epistemia si innesca ecco il corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può sembrarci vero solo perché usa il linguaggio tipico di chi dice il vero: è questione di abitudine, non di pensiero critico. E c’è un pericolo profondo nell’accettazione cieca dei risultati di un LLM: automatizzano la tendenza a cercare conferme delle nostre convinzioni, l’esasperazione del cherry picking perché meccanizzato da algoritmi, un bias di conferma continuo e che porta a selezionare tutto ciò che si vede in modo che l’opinione sia continuamente confermata e rafforzata: da qui al complottismo è un attimo! E a nulla servono i tentativi di smentita, come ho avuto modo di scriverne qui. Ed è paradossale sapere che uno dei modi più raffinati per scovare le differenze tra il prodotto umano e quello degli LLM è che quest’ultimi, alla lunga, tendono a strafare, esagerano rinforzando i concetti laddove non è necessario, come se volessero aggiungere una spiegazione alla spiegazione, ridondante e inutile: come se si facessero da soli una supercazzola!
Esperti di carta
Uno degli effetti più deleterio
dell’utilizzo compulsivo di LLM è la moltiplicazione di figure che recitano la
parte di esperti senza aver acquisito la minima conoscenza di ciò di cui vanno
cianciando, in una parola, senza studio e senza passare dal sapere acquisito e
consolidato. Divulgatori, opinionisti, blogger, influencer, che grazie all’AI
fanno copia e incolla dei contenuti generati, per lo più senza nemmeno capirli
visto che analfabetismo funzionale e cialtroneria vanno a braccetto o, nel caso
li capiscano, perché suona figo! E si scatena una retroazione di rinforzo
del danno: strumenti che simulano la conoscenza usati da simulatori di
competenze. È l’illusione rinforzata che distrugge nel lettore gli strumenti
per distinguere.
Anche se, su compiti ben definiti,
quali domande a risposta multipla, classificazioni, esercizi logici classici,
riconoscimento immagini ed altro ancora, gli LLM hanno tassi di veridicità e
accuratezza prossimi al 90%, un LLM che vinca persino, come accaduto, le
Olimpiadi della Matematica con punteggi uguali se non superiori a quelli delle
migliori menti a confronto, questo comunque non ragiona, non comprende, e
l’utente tipico non ha le competenze per porre domande quali potrebbero essere
quelle che si ricevono durante un esame universitario! Costoro vedono gli LLM
come gli antichi vedevano gli oracoli, li consultano per consigli, per
risolvere dubbi: basta che la risposta sembri sensata e non occorre verificarne
l’origine. Il tutto è verosimile, non epistemico.
Non si tratta di infodemia, citata
all’inizio: di ritirata di fronte ad un devastante aumento della quantità di
informazione che ha generato alla fine disinformazione. Uso spesso
quest’esempio: la qualità dei servizi di previsione meteorologica è andata peggiorando
man mano che aumentavano i siti che si occupano di previsioni del tempo.
Dopo la nascita dei servizi di data
streaming, dell’intelligenza artificiale, del cloud storage, delle piattaforme
di social media e dell’ubiquità degli smartphone e degli smartwatch, ormai
ci vogliono solo un paio di giorni per produrre cinque miliardi di gigabyte di
contenuto digitale, equivalenti a tutte le informazioni digitali esistenti
prima del 2003. Entro il 2026 il totale creato annualmente sarà
di oltre 160 zettabyte (ZB = 1021 byte) Le riserve globali di
silicio forniscono solo una piccola frazione di ciò che ci servirebbe per
conservare in modo permanente tutti i dati che produciamo.
E tutti questi dati potrebbero essere
utilizzati come basi di addestramento di LLM.
Con una serie di azioni che non sono frutto né di malafede né di intenzionalità l’epistemia è peggio dell’ignoranza, perché rendersi conto che manca un costrutto conoscitivo è difficile. Sono i danni collaterali di una tecnologia che genera testo con una precisione sintattica tale da simulare il pensiero umano. Ricordate la storia dell’esercito di scimmie, ognuna dotata di una macchina da scrivere che, con tempo indefinito a disposizione, avrebbe prodotto un giorno la prima frase de “La divina commedia”? È statisticamente possibile. Ma oltre alla frase di senso compiuto avremmo avuto triliardi di pagine di nonsenso, come nella Biblioteca di Babele di Borges. Ora immaginate quanto non senso, ma linguisticamente plausibile, potrebbe produrre un LLM addestrato con la citata gigantesca quantità di informazione prodotta ogni giorno. Altro che Gish gallop!
Cosa accadrà quando una generazione di laureati che si affida ai modelli invece di comprendere entrerà nel lavoro? Potremmo affrontare carenze di competenze essenziali in settori come l'ingegneria, l'analisi dei dati o la finanza.
Molte aziende sostituiscono i
programmatori junior con LLM, lasciando solo i senior. Quando questi andranno
in pensione, chi li sostituirà? Chi usa i modelli o chi conosce davvero la
programmazione?
Ogni volta che nella storia dei progressi tecnologici si è creata una bolla che poi è esplosa, la deflagrazione ha comunque lasciato dietro di sé la tecnologia e il suo utilizzo. Non tutto il male viene per nuocere recita il proverbio, ma è chiaro che aumenterà il divario tra chi sa davvero e chi sa soltanto simulare il sapere. I primi diventeranno sempre più rari e, inevitabilmente, sempre più costosi. E questo avrà effetti enormi: sul mercato del lavoro, sulla distribuzione della ricchezza, sul rapporto tra competenza reale e potere decisionale.
La storia mostra che ogni rivoluzione
tecnologica cambia la conoscenza. Tuttavia, oggi delegare anche la comprensione
può portare non solo rischi economici, ma anche culturali, epistemici e
sociali.
Gli LLM non vanno comunque demonizzati, rappresentano uno strumento di ausilio importante, automatizzano compiti ripetitivi, collaborano nella stesura di testi che, supervisionati e mai accettati as is, sono validissimi. Occorrono invece nuove forme di formazione, nuovi metodo per misurare la competenza, conoscenza per non confondere il linguaggio con il pensiero.
Senza tutto questo il futuro sarà popolato da schiere enormi e preponderanti equivalenti a quei paper engineer di cui scrivevo all’inizio: sapienti di carta, incapaci di distinguere l’imitazione che gli LLM fanno della conoscenza grazie a strumenti statistici e il vero sapere.
Qualche dettaglio tecnico
| In https://arxiv.org/html/2512.19466v1 |
Se ora correliamo a tutto ciò il processo che porta da un giudizio da parte di un LLM abbiamo che: 1. i prompt testuali con cui interroghiamo sostituiscono le informazioni sensoriali e sociali (un prompt di AI è un'istruzione, una domanda o un argomento di discussione specifico fornito a uno strumento di intelligenza artificiale per generare un output desiderato; creare questi input - prompt engineering - è diventata una competenza fondamentale per guidare i modelli di AI a produrre risultati di alta qualità e rilevanti); 2. la tokenizzazione e la preelaborazione sostituiscono il parsing percettivo e situazionale (l'analisi sintattica o parsing, oppure parsificazione, è un processo che analizza un flusso continuo di dati in ingresso, in modo da determinare la correttezza della sua struttura grazie ad una data grammatica formale. Il termine parsing proviene dal latino pars, parte, che indica una parte di un discorso più ampio); 3. il riconoscimento di pattern negli embeddings sostituisce la memoria, le intuizioni e i concetti appresi (gli embedding sono rappresentazioni vettoriali numeriche di dati reali - testo, immagini, audio - che ne catturano il significato e le relazioni, trasformando informazioni complesse in uno spazio di dimensioni inferiori dove elementi simili sono matematicamente vicini. Consentono all'AI di comprendere le connessioni semantiche, abilitando compiti come la ricerca semantica, le raccomandazioni e il clustering misurando la distanza - ad esempio, la somiglianza tra queste liste numeriche: in sostanza, comprimono i dati preservando il significato, rendendo l'AI più efficiente e potente); 4. l'inferenza statistica tramite strati neurali sostituisce emozione, motivazione e obiettivi; 5. l'integrazione del contesto testuale sostituisce il ragionamento e l'integrazione delle informazioni; 6. la fiducia forzata e le allucinazioni sostituiscono la metacognizione; 7. Il giudizio finale è un risultato statistico.
A ogni fase, i processi sono paralleli ma variano nettamente per struttura, funzione ed epistemologia. Questi contrasti mostrano le principali differenze epistemologiche tra i due percorsi che, pur ottenendo a volte risultati simili, seguono tappe del tutto diverse.
A solo titolo di esempio di quanto
possano essere diversi i percorsi approfondiamo il processo tokenizzazione.
Lowercasing (la conversione in minuscolo) è
il processo di trasformazione di tutte le lettere maiuscole in minuscole, una
tecnica fondamentale nell'elaborazione del linguaggio naturale che serve a standardizzare
il testo, ridurre la complessità del vocabolario e rendere le parole
"casa" e "Casa" trattabili come la stessa entità,
migliorando l'efficienza e l'accuratezza dei modelli di apprendimento. Sebbene
utile per l'uniformità, potrebbe non essere adatta per compiti in cui l’uso di
lettere maiuscole sia significativa.
Confrontiamo adesso ad esempio la
parola inglese “therapist”, tradotto in terapeuta. La tokenizzazione in “the” e
“rapist” (lo stupratore) porterebbe un LLM a commettere un errore che nessun
essere umano farebbe. Poiché il modello elabora stringhe piuttosto che
situazioni, anche semplici input linguistici possono frammentarsi in unità di
sottoparole fuorvianti. Questi non sono errori superficiali ma risultati
strutturali di un sistema che taglia il testo in token invece di analizzare
scene, intenzioni o eventi. Poiché gli LLM si basano sulla tokenizzazione delle
sottoparole, anche piccoli cambiamenti tipografici o di formattazione possono
distorcere il significato. Chiunque abbia mai usato un vocabolario di cinese
per cinesi potrà facilmente capire come la tokenizzazione può dividere i
caratteri in modi che rompono i loro radicali semantici. Allo stesso modo, i
tokenizzatori di sottoparole possono gestire male prefissi o suffissi che
segnalano negazione, portando i modelli a fraintendere il significato voluto. E
come potrebbe un LLM rispondere alle sensazioni, alle emozioni e ai sentimenti
che la lettura di un testo evoca negli umani?
Già alla seconda fase la rottura
epistemologica si allarga. Nella tabella seguente sono riassunte le sette linee
di faglia epistemologica che separano il giudizio umano dal giudizio LLM, una
per ogni fase del percorso epistemico. Nonostante
ciò, gli esseri umani tendono sistematicamente a credere eccessivamente ai
risultati dell'LLM, perché un linguaggio fluente e sicuro produce un
pregiudizio di credibilità.
Conclusione
Gli LLM possono dunque produrre output spesso
indistinguibili dai giudizi umani, pur facendo affidamento su un meccanismo
generativo che non è una forma di giudizio. L'apparenza
della comprensione può quindi coesistere con l'assenza della comprensione
responsabile.
L'Epistèmia si verifica quando la verosimiglianza linguistica sostituisce la vera valutazione epistemica, dando l'impressione di conoscere senza un reale giudizio. L'epistemia non dipende da ingenuità, errori isolati o uso scorretto di uno strumento. Questo fenomeno si verifica quando i sistemi generativi danno risposte certe e fluide, anche dove sarebbe necessaria incertezza o possibilità di revisione. Con l'aumento delle dimensioni e della persuasività dei modelli generativi, cresce il rischio che gli errori permangano e che la responsabilità della verifica passi dall'algoritmo all'utente, rendendo più semplice trascurare questo compito.
Sottoporre i risultati prodotti dagli LLM a peer review?
E da parte di chi, di un altro LLM?
Nella tabella seguente (rielaborata da https://arxiv.org/html/2512.19466v1) sono riportate le sette faglie epistemiche individuate.
Vorrei concludere con le parole di uno degli autori dello studio più volte citato, il Prof. Walter Quattrociocchi.
«Il paper sulle linee di faglia sta circolando molto, dentro e fuori
l’accademia. Non perché dica che i modelli linguistici sbagliano o che vanno
usati con cautela. Quello è ovvio e ormai irrilevante.
Sta circolando perché mette in crisi l’architettura
concettuale con cui continuiamo a raccontare l’AI generativa. Molti lo hanno
definito un pugno in faccia alla narrativa dominante. In realtà è qualcosa di
più preciso. È una diagnosi strutturale di un equivoco che stiamo coltivando da
anni.
L’equivoco è l’idea che, se l’output di un sistema
diventa indistinguibile da quello umano, allora anche il processo che lo genera
stia convergendo. Il paper mostra che non è così. Mostra che l’allineamento
osservabile può mascherare una divergenza epistemica profonda. Aumentare dati,
parametri e scala raffina un approssimatore statistico, ma non introduce
criteri di verità, di riferimento o di responsabilità. Migliora la probabilità,
non il giudizio. Per questo il lavoro ha colpito così forte. Non discute quanto
sono bravi i modelli, ma che tipo di operazione cognitiva simulano e quale no»
(segue)
(27 dicembre 2025)
___________________________________________________
[/Sarcasmo on]
Ovviamente questo post è stato generato grazie ad
interazioni continue e non verificate con LLM. Quindi se ci sono errori
prendetevela con le sue allucinazioni!
[/Sarcasmo off]
___________________________________________________
Riferimenti
bibliografici
Epistemological Fault Lines Between
Human and Artificial Intelligence
Pagina
Facebook del Prof. Walter Quattrociocchi – Università Sapienza, Roma
Articolo
su Wired del 12/12/2025
Intervista
“Epistemia: abbiamo smesso di chiederci come sappiamo ciò che sappiamo”, Beatrice Cristalli per Treccani, 16/12/2025
Intervista
“Epistemia: quando l'AI mette in crisi la verità”, Corriere del Ticino,
24/12/2025