04 gennaio 2026

Epistémia. Parola dell'anno 2025

Amarcord...paper certification

Ho lavorato più di trent’anni nel settore informatico. E fin dai primi anni Novanta ebbi a che fare con i primi esempi di test a risposta multipla che, in alcuni casi, alcune leggende metropolitane dicevano essere addirittura adattativi, in grado cioè di capire se lo studente stesse rispondendo bene o male e cambiando le domande nel corso del test. Credo di averne collezionati una cinquantina. I test servivano per conseguire certificazioni professionali attestanti la conoscenza di tecnologie particolari, strumentazioni, sistemi; e il tutto serviva per garantirsi linee di supporto migliori, per partecipare a sessioni internazionali con i produttori maggiori, per realizzare partnership di vantaggio o, semplicemente, per acquisire credito nei confronti dei clienti a fare la differenza tra uno smanettone improvvisato e un tecnico preparato…e certificato! Ovviamente i test erano erogati da un computer e lo stesso era usato per rispondere, sotto la vigilanza di un umano, o telecamere in tempi recenti. C’erano pochissime aziende specializzate nell’erogazione di questi test a cui i vari produttori di tecnologia si affidavano. E, neanche a dirlo, corsi di formazione per affrontare questi esami, erano pressoché inesistenti.

All’inizio occorreva studiare sodo, i manuali per prepararsi, quando presenti, erano impegnativi e un certo grado di importanza e conoscenza veniva dalla pratica quotidiana con quei sistemi. Credo di essere entrato nella leggenda di un particolare produttore per cui sostenni, nell’arco di una sola mattinata, i sette test necessari ad ottenere la qualifica, grazie alla sola conoscenza pratica del sistema, e fallendone uno solo (ripetuto con successo 15 giorni dopo), .

Ma, man mano che la tecnologia progrediva, e con questa il numero di esami, andarono diffondendosi dapprima copie cartacee, poi documenti elettronici più o meno di contrabbando, per finire con vere e proprie aziende specializzate nel produrre, e vendere, non solo simulazioni dei test a rispecchiare le domande che si sarebbero ricevute durante l’esame ma persino insiemi di domande in qualche modo sottratte a chi le ha generate (li chiamano…braindumps): ovviamente c’era volontà da parte del produttore e del venditore di questi pacchetti di addestramento a guadagnare. Oggi, online, con rarissimi esempi di esami gratuiti, c’è di tutto. Da database di domande per i test di ammissione all’Arma dei Carabinieri, a quelle dei concorsi nella pubblica amministrazione.

Ma, restando nel mio campo, col crescere delle informazioni estratte da una base di dati certamente non infinita, cresceva anche il numero di coloro che chiamavamo, con giustificata sufficienza, i paper engineer (gli anglosassoni, soprattutto americani, usano la qualifica di “engineer” per qualsiasi specializzazione tecnica, soprattutto se informatica): ovvero gente che avendo avuto a disposizione le domande e le relative risposte aveva semplicemente imparato a memoria il tutto, spesso nemmeno capendo e integrando nella propria conoscenza la risposta giusta, ma semplicemente memorizzando a pappagallo, la risposta stessa, la sequenza delle parole.

Gente “certificata” sì, ma sulla carta. Ovviamente di fronte al compito pratico, come si dice, cascava l’asino, ma spesso questa gente creava difficoltà e sminuiva il valore della certificazione per intere categorie. A volte, ad esempio, per partecipare a gare d’appalto tra i requisiti tecnici veniva richiesta la presenza nell’azienda di un certo numero di tecnici certificati…e allora dai di paper certified!

Per non parlare dei testing center conniventi che, consentivano agli esaminandi l’uso di manuali, laptop e connessione Internet durante l’esame!

…dove sta il nesso?

Oggi è peggio, viviamo l’epoca del pericolo Epistemia, neologismo del 2025, del la qualunque engineer (“la qualunque”, altro neologismo 2025). Epoca in cui chiunque non deve più nemmeno imparare ciò che legge: chiede e ne fa copia & incolla.

Da qualche anno viviamo l’epoca dei cosiddetti Large Language Model (LLM), un insieme di diversi elementi chiave che possiamo riassumere in questo modo.

Architettura (Architecture): La struttura fondamentale di un LLM è tipicamente una rete neurale trasformatore (transformer neural network). Questa architettura, introdotta nel 2017, utilizza meccanismi di "attenzione" per pesare l'importanza delle diverse parole nel testo di input, permettendo al modello di comprendere il contesto e le relazioni a lungo raggio tra le parole, a differenza dei modelli precedenti che elaboravano il testo in modo più sequenziale.

Dati di addestramento (Training Data): Gli LLM sono "addestrati" su enormi quantità di testo e codice provenienti da Internet (come libri digitalizzati, articoli di Wikipedia, siti web, ecc.). Questi dati insegnano al modello la grammatica, i fatti, il ragionamento e vari stili di linguaggio.

Parametri (Parameters): Sono i valori numerici che il modello impara durante il processo di addestramento. Essenzialmente, i parametri rappresentano la "conoscenza" del modello. I modelli più grandi hanno miliardi, o addirittura trilioni, di parametri, che determinano la forza delle connessioni all'interno della rete neurale.

Algoritmo di addestramento (Training Algorithm): Il modello impara regolando i suoi parametri attraverso un processo chiamato retropropagazione (backpropagation) e discesa del gradiente (gradient descent). Durante l'addestramento, il modello cerca di prevedere la parola successiva in una frase e l'algoritmo corregge i parametri per minimizzare gli errori di previsione.

Tokenizzazione (Tokenization): Il testo umano viene suddiviso in unità più piccole chiamate "token" (che possono essere parole intere, parti di parole, o anche singoli caratteri). L'LLM elabora questi token come numeri (vettori) che rappresentano il loro significato semantico e la loro posizione.

Funzione obiettivo (Objective Function) / Funzione di perdita (Loss Function): Questa funzione misura l'accuratezza delle previsioni del modello. L'obiettivo dell'addestramento è minimizzare questa perdita, rendendo il modello sempre più abile nel prevedere le sequenze di testo corrette. 

In sintesi, un LLM è un complesso sistema matematico e statistico che ha imparato a riconoscere e generare modelli linguistici estraendo informazioni da un vastissimo corpo di dati. Se alle parole “il cane rincorreva il … “ un LLM aggiunge “gatto” non lo fa perché ha ragionato o pensato o men che mai dedotto, ma solo perché statisticamente è la parola più frequente e con maggiori probabilità di apparire in quella posizione.

Ci sono un paio di libri di approfondimento di molti concetti trattati qui e altro ancora: “Perché le macchine imparano” di Anil Ananthaswamy, e “In che mondo vivi” di Walter Quattrociocchi e Matteo Cinelli. Entrambi li ho recensiti lo scorso anno nella rubrica Sigea – La Scienza e la Tecnica Raccontate.

Ed è su LLM che software come ChatGPT, Gemini, Perplexity ed altri ancora, generano le interazioni e i risultati della chat che utilizziamo per ricavarne informazioni o che consentono alle nuove interfacce dei motori di ricerca come Google, Bing o altro, di presentare una sorta di riassunto di quanto cerchiamo, anziché limitarsi, come accadeva fino a non molto tempo fa, di presentare una serie di risultati ordinati in base a diversi parametri statistici.

Questi modelli fanno parte e sono ascritti alla categoria della cosiddetta AI, intelligenza artificiale, ma con l’intelligenza, soprattutto quella umana, non hanno nulla a che fare, considerando che il processo che porta all’apprendimento ed alla cognizione che ci contraddistingue fin dalla nascita è totalmente diverso.

Esiste un apparente allineamento nel processo che porta in un essere umano a generare delle risposte (output) a partire da dati e/o condizioni iniziali (input) con quanto riproducibile in una macchina. Ma le discordanze della vera essenza dei due processi messi a confronto sono enormi, incolmabili, delle vere e proprie rotture epistemiche: gli autori dello studio che ha ispirato questo post utilizzano il termine faglie, derivandolo direttamente dalla geologia, ancorché nell’originale inglese usato, fault, esso abbia anche significati diversi.

Nella tradizione filosofica l’epistème è il nucleo stesso della conoscenza come ricerca di fondamento, verifica, confronto con il reale o, in altre parole, la conoscenza fondata su basi certe e verificabili. Per questo motivo con epistemologia si intende lo studio critico della natura e dei limiti della conoscenza scientifica, con particolare riferimento alle strutture logiche e alla metodologia delle scienze.

Da qui nasce quindi il neologismo Epistemia, parola dell’anno, come sancito anche da Treccani in una recente intervista ad uno degli autori.

Analogamente al termine infodemia, che indica la diffusione di un'eccessiva quantità di informazioni, talvolta non sufficientemente verificate e tali da rendere complessa la comprensione di un argomento specifico generando disinformazione, il concetto di Epistemia si riferisce alla situazione in cui la fluidità linguistica viene erroneamente interpretata come affidabilità. Il termine è stato coniato per descrivere quella particolare forma di illusione prodotta dai modelli linguistici: testi persuadenti che simulano conoscenza senza effettivamente possederla.

Come fosse antani...
Noi italiani, per lo meno quelli della mia generazione, possiamo intuire fin d’ora qualcosa, pensando alla ormai mitologica supercazzola di Ugo Tognazzi nella serie cinematografica “Amici miei”. Allora, il superlativo Ugo Tognazzi, nei panni del Conte Mascetti, mostra un fantastico eloquio, volutamente assurdo, privo di senso logico, pieno di parole inventate e tecniche (come tarapia tapioco, scappellamento a destra o antani), teso ad intortare, ingannare o prendere in giro l'interlocutore, facendogli accettare l'insensato come se fosse corretto. È un termine entrato nel vocabolario italiano che descrive una tecnica di beffa, comunicazione fallace o anche un'entità inconsistente.

Epistemia non è sinonimo di supercazzola ma ne assume i connotati quando è l’espressione linguistica che si fa beffe dell’ignoranza altrui, laddove chiunque interroghi e ne usi i risultati, prendesse per oro colato quanto prodotto da un LLM, soltanto perché ben scritto, ben strutturato, ben argomentato. Epistemia indica una situazione in cui la plausibilità linguistica prende il posto della valutazione epistemica: i sistemi offrono risposte ben costruite ma prive dei processi reali con cui si formano e si verificano le credenze. L’utente così riceve risposte senza svolgere il lavoro cognitivo del giudizio.

Tutti noi abbiamo usato e usiamo continuamente i risultati delle interrogazioni di LLM: i motori di ricerca ormai offrono le cosiddette AI overview, che riassumono e anticipano i risultati di una ricerca, costruendo da fonti esterne i contenuti. Soltanto recentemente offrono i collegamenti a queste ultime nell’ottica di migliorarne l’affidabilità.

Ma fino a quando e quanto sono affidabili? Da dove nascono le loro risposte?

Il mito e la volontà di costruire macchine che imitassero il pensiero umano è antico, fin dai tempi della mitologia greca o ebraica (gli automi greci o il golem ebraico), e poi Leibnitz, Cartesio ed altri ancora hanno introdotto interpretazioni meccanicistiche della mente, un insieme di parti interagenti riproducibili artificialmente. Ma è solo nel XX secolo, grazie ai progressi della logica matematica, del calcolo e dell’elettronica (potenziandosi a vicenda in un circolo virtuoso), che la cosa inizia ad assumere concretezza.

Lungo questo percorso gli LLM sono diventati strumenti di uso quotidiano. Sistemi come ChatGPT, Deepseek, Gemini, Llama e Mistral, in qualsiasi ambito siano impiegati, e in alcuni casi in modo più affidabile rispetto agli umani, superano il test che uno dei pionieri di questa scienza, Alan Turing, definì in un suo famoso test: un esperimento per valutare se una macchina può mostrare un comportamento intelligente indistinguibile da quello umano, dove un interrogatore umano cerca di distinguere un computer da un umano tramite conversazione testuale. Se l'umano non riesce a capire qual è la macchina, quest'ultima supera il test, dimostrando capacità di pensiero e linguaggio simili a quelle umane. Vincere a scacchi, ottenere il primo premio nelle Olimpiadi della Matematica, dimostrare maggior competenza nell’uso e nella diagnostica medica da immagini, ed altro ancora, è ormai parte del quotidiano e dell’immaginario di questi strumenti. Ed è anche l’utilizzo popolare che si fa di questi risultati ad aver creato una montagna di equivoci ed incomprensioni su cosa effettivamente sia e su come funzionino, questi nuovi strumenti. Quanti ricordano la storia dell’ingegnere di Google che si era convinto che l’AI era diventata senziente?

Il processo che porta a fornire risposte non è pensare, né ragionare, nemmeno dedurre.

I nuovi modelli linguistici non pensano né comprendono: prevedono la parola successiva basandosi su pattern statistici estratti da molti testi. Il loro linguaggio può sembrare corretto, e sembra corretto anche quando fornisce risposte completamente errate.

Se in passato un’informazione era in odore d’essere falsa o, peggio ancora, mistificata come le fake news, era comunque possibile smascherarla indagando le fonti, verificando i fatti, smontandone lo scopo. Ma adesso il contenuto falso non appare chiaro, non presenta i segni tipici della disinformazione: è un discorso che non fa una piega, non è schierato, e addirittura se introduciamo dubbi nel dialogo con la macchina, tende a darci ragione! È molto peggio che ascoltare Tognazzi/Mascetti nei suoi grammelot grotteschi dove qualcosa di anomalo filtra nel rumore del nonsenso: qui non c’è substrato, sembra ben piantato su basi forti, ma così non è, lo sembra.

Provate ad interrogare un LLM in tema di omeopatia e inserite nel suo incedere con tono e stile accademico, elementi che lo portino a supporre (si fa per dire) che siate convinti che esista davvero una memoria dell’acqua: lo vedrete costruire frasi sintatticamente perfette che suonano vere. Ma solo una lo è.

L’associazione di intelligenza ad artificiale è fuorviante, folkloristica e popolare; non è altro che l’ennesimo tentativo di antropomorfizzazione dei comportamenti umani che tendono ad assegnare anime a qualsiasi cosa, spinti da atavici adattamenti evolutivi. Si può restarne stupiti, è umano vedere qualcuno dietro quell’ineccepibile dimostrazione di un teorema matematico, purché si sia ben consci che così non è. Non si guardava forse con stupore il prodursi di informazione sugli schermi dei primi computer? Nonostante si sapesse che erano il risultato di algoritmi.

Quando l’Epistemia si innesca ecco il corto circuito tra credibilità percepita e affidabilità reale. Un contenuto può sembrarci vero solo perché usa il linguaggio tipico di chi dice il vero: è questione di abitudine, non di pensiero critico. E c’è un pericolo profondo nell’accettazione cieca dei risultati di un LLM: automatizzano la tendenza a cercare conferme delle nostre convinzioni, l’esasperazione del cherry picking perché meccanizzato da algoritmi, un bias di conferma continuo e che porta a selezionare tutto ciò che si vede in modo che l’opinione sia continuamente confermata e rafforzata: da qui al complottismo è un attimo! E a nulla servono i tentativi di smentita, come ho avuto modo di scriverne qui. Ed è paradossale sapere che uno dei modi più raffinati per scovare le differenze tra il prodotto umano e quello degli LLM è che quest’ultimi, alla lunga, tendono a strafare, esagerano rinforzando i concetti laddove non è necessario, come se volessero aggiungere una spiegazione alla spiegazione, ridondante e inutile: come se si facessero da soli una supercazzola!

Esperti di carta
Uno degli effetti più deleterio dell’utilizzo compulsivo di LLM è la moltiplicazione di figure che recitano la parte di esperti senza aver acquisito la minima conoscenza di ciò di cui vanno cianciando, in una parola, senza studio e senza passare dal sapere acquisito e consolidato. Divulgatori, opinionisti, blogger, influencer, che grazie all’AI fanno copia e incolla dei contenuti generati, per lo più senza nemmeno capirli visto che analfabetismo funzionale e cialtroneria vanno a braccetto o, nel caso li capiscano, perché suona figo! E si scatena una retroazione di rinforzo del danno: strumenti che simulano la conoscenza usati da simulatori di competenze. È l’illusione rinforzata che distrugge nel lettore gli strumenti per distinguere.

Anche se, su compiti ben definiti, quali domande a risposta multipla, classificazioni, esercizi logici classici, riconoscimento immagini ed altro ancora, gli LLM hanno tassi di veridicità e accuratezza prossimi al 90%, un LLM che vinca persino, come accaduto, le Olimpiadi della Matematica con punteggi uguali se non superiori a quelli delle migliori menti a confronto, questo comunque non ragiona, non comprende, e l’utente tipico non ha le competenze per porre domande quali potrebbero essere quelle che si ricevono durante un esame universitario! Costoro vedono gli LLM come gli antichi vedevano gli oracoli, li consultano per consigli, per risolvere dubbi: basta che la risposta sembri sensata e non occorre verificarne l’origine. Il tutto è verosimile, non epistemico.

E siccome alla fine, la spinta ad utilizzare e acquisire sempre di più queste nuove tecnologie ha origini economiche, le statistiche e i benchmark su quanto spesso sbaglino (le cosiddette AI hallucination), in quali condizioni, quanto siano poco trasparenti nei confronti di chi legge, non esistono o sono limitate a casi specifici. 

Non si tratta di infodemia, citata all’inizio: di ritirata di fronte ad un devastante aumento della quantità di informazione che ha generato alla fine disinformazione. Uso spesso quest’esempio: la qualità dei servizi di previsione meteorologica è andata peggiorando man mano che aumentavano i siti che si occupano di previsioni del tempo.

Dopo la nascita dei servizi di data streaming, dell’intelligenza artificiale, del cloud storage, delle piattaforme di social media e dell’ubiquità degli smartphone e degli smartwatch, ormai ci vogliono solo un paio di giorni per produrre cinque miliardi di gigabyte di contenuto digitale, equivalenti a tutte le informazioni digitali esistenti prima del 2003. Entro il 2026 il totale creato annualmente sarà di oltre 160 zettabyte (ZB = 1021 byte) Le riserve globali di silicio forniscono solo una piccola frazione di ciò che ci servirebbe per conservare in modo permanente tutti i dati che produciamo.

E tutti questi dati potrebbero essere utilizzati come basi di addestramento di LLM.

Con una serie di azioni che non sono frutto né di malafede né di intenzionalità l’epistemia è peggio dell’ignoranza, perché rendersi conto che manca un costrutto conoscitivo è difficile. Sono i danni collaterali di una tecnologia che genera testo con una precisione sintattica tale da simulare il pensiero umano. Ricordate la storia dell’esercito di scimmie, ognuna dotata di una macchina da scrivere che, con tempo indefinito a disposizione, avrebbe prodotto un giorno la prima frase de “La divina commedia”? È statisticamente possibile. Ma oltre alla frase di senso compiuto avremmo avuto triliardi di pagine di nonsenso, come nella Biblioteca di Babele di Borges. Ora immaginate quanto non senso, ma linguisticamente plausibile, potrebbe produrre un LLM addestrato con la citata gigantesca quantità di informazione prodotta ogni giorno. Altro che Gish gallop!

Nell’illusione di conoscenza creata dalla delega cieca alle risposte degli LLM si è ormai creata una nuova generazione di studenti, ormai a qualunque livello, che prendono un compito, lo trasformano in una richiesta strutturata, e ricevono una risposta plausibile: problema risolto…pensano! Ma ogni processo di apprendimento, esami compresi, serve a sviluppare un modo di ragionare, di orientarsi tra conoscenza e dubbio, di collegare teoria e pratica. Se si sostituisce questo percorso con l’apparenza, col capire come produrre un output, è qui che si genera Epistemia. La funzione della formazione è creare teste pensanti, non semplici generatori di testi plausibili! Con gli LLM questo rischio di cortocircuito è enorme: l’apparenza di competenza sostituisce la sostanza.

Cosa accadrà quando una generazione di laureati che si affida ai modelli invece di comprendere entrerà nel lavoro? Potremmo affrontare carenze di competenze essenziali in settori come l'ingegneria, l'analisi dei dati o la finanza.

Molte aziende sostituiscono i programmatori junior con LLM, lasciando solo i senior. Quando questi andranno in pensione, chi li sostituirà? Chi usa i modelli o chi conosce davvero la programmazione?

Ogni volta che nella storia dei progressi tecnologici si è creata una bolla che poi è esplosa, la deflagrazione ha comunque lasciato dietro di sé la tecnologia e il suo utilizzo. Non tutto il male viene per nuocere recita il proverbio, ma è chiaro che aumenterà il divario tra chi sa davvero e chi sa soltanto simulare il sapere. I primi diventeranno sempre più rari e, inevitabilmente, sempre più costosi. E questo avrà effetti enormi: sul mercato del lavoro, sulla distribuzione della ricchezza, sul rapporto tra competenza reale e potere decisionale.

La storia mostra che ogni rivoluzione tecnologica cambia la conoscenza. Tuttavia, oggi delegare anche la comprensione può portare non solo rischi economici, ma anche culturali, epistemici e sociali.

Gli LLM non vanno comunque demonizzati, rappresentano uno strumento di ausilio importante, automatizzano compiti ripetitivi, collaborano nella stesura di testi che, supervisionati e mai accettati as is, sono validissimi. Occorrono invece nuove forme di formazione, nuovi metodo per misurare la competenza, conoscenza per non confondere il linguaggio con il pensiero.

Senza tutto questo il futuro sarà popolato da schiere enormi e preponderanti equivalenti a quei paper engineer di cui scrivevo all’inizio: sapienti di carta, incapaci di distinguere l’imitazione che gli LLM fanno della conoscenza grazie a strumenti statistici e il vero sapere.

Qualche dettaglio tecnico

In https://arxiv.org/html/2512.19466v1
Rimandando allo studio citato all’inizio scomponiamo il giudizio umano in sette stadi sequenziali (definiti come pipeline nello studio): 1. informazioni sensoriali e sociali; 2. analisi percettiva e situazionale; 3. memoria, intuizioni e concetti appresi; 4. emozione, motivazione e obiettivi; 5. ragionamento e integrazione delle informazioni; 6. calibrazione metacognitiva e monitoraggio degli errori; 7. giudizio sensibile ai valori. Queste operazioni sono lente, imperfette e di parte, eppure si svolgono all'interno di un ciclo di conoscenze acquisite che fa parte del mondo umano, limitando l'errore.

Se ora correliamo a tutto ciò il processo che porta da un giudizio da parte di un LLM abbiamo che: 1. i prompt testuali con cui interroghiamo sostituiscono le informazioni sensoriali e sociali (un prompt di AI è un'istruzione, una domanda o un argomento di discussione specifico fornito a uno strumento di intelligenza artificiale per generare un output desiderato; creare questi input - prompt engineering - è diventata una competenza fondamentale per guidare i modelli di AI a produrre risultati di alta qualità e rilevanti); 2. la tokenizzazione e la preelaborazione sostituiscono il parsing percettivo e situazionale (l'analisi sintattica o parsing, oppure parsificazione, è un processo che analizza un flusso continuo di dati in ingresso, in modo da determinare la correttezza della sua struttura grazie ad una data grammatica formale. Il termine parsing proviene dal latino pars, parte, che indica una parte di un discorso più ampio); 3. il riconoscimento di pattern negli embeddings sostituisce la memoria, le intuizioni e i concetti appresi (gli embedding sono rappresentazioni vettoriali numeriche di dati reali - testo, immagini, audio - che ne catturano il significato e le relazioni, trasformando informazioni complesse in uno spazio di dimensioni inferiori dove elementi simili sono matematicamente vicini. Consentono all'AI di comprendere le connessioni semantiche, abilitando compiti come la ricerca semantica, le raccomandazioni e il clustering misurando la distanza - ad esempio, la somiglianza tra queste liste numeriche: in sostanza, comprimono i dati preservando il significato, rendendo l'AI più efficiente e potente); 4. l'inferenza statistica tramite strati neurali sostituisce emozione, motivazione e obiettivi; 5. l'integrazione del contesto testuale sostituisce il ragionamento e l'integrazione delle informazioni; 6. la fiducia forzata e le allucinazioni sostituiscono la metacognizione; 7. Il giudizio finale è un risultato statistico.

A ogni fase, i processi sono paralleli ma variano nettamente per struttura, funzione ed epistemologia. Questi contrasti mostrano le principali differenze epistemologiche tra i due percorsi che, pur ottenendo a volte risultati simili, seguono tappe del tutto diverse. 

A solo titolo di esempio di quanto possano essere diversi i percorsi approfondiamo il processo tokenizzazione.

La tokenizzazione nell'AI è il processo di scomposizione di testo (o altri dati) in unità più piccole e gestibili chiamate token, come parole, parti di parole o caratteri, per permettere ai modelli di AI di elaborare e comprendere il linguaggio naturale, trasformando dati grezzi in un formato numerico interpretabile per l'apprendimento automatico e la generazione di risposte. Questo passaggio è fondamentale perché i computer lavorano con i numeri, non direttamente con il testo, rendendo la tokenizzazione il ponte essenziale per l'analisi semantica, l'analisi dei sentimenti e molte altre applicazioni che abbiano a che fare con il linguaggio naturale.

Lowercasing (la conversione in minuscolo) è il processo di trasformazione di tutte le lettere maiuscole in minuscole, una tecnica fondamentale nell'elaborazione del linguaggio naturale che serve a standardizzare il testo, ridurre la complessità del vocabolario e rendere le parole "casa" e "Casa" trattabili come la stessa entità, migliorando l'efficienza e l'accuratezza dei modelli di apprendimento. Sebbene utile per l'uniformità, potrebbe non essere adatta per compiti in cui l’uso di lettere maiuscole sia significativa.

Confrontiamo adesso ad esempio la parola inglese “therapist”, tradotto in terapeuta. La tokenizzazione in “the” e “rapist” (lo stupratore) porterebbe un LLM a commettere un errore che nessun essere umano farebbe. Poiché il modello elabora stringhe piuttosto che situazioni, anche semplici input linguistici possono frammentarsi in unità di sottoparole fuorvianti. Questi non sono errori superficiali ma risultati strutturali di un sistema che taglia il testo in token invece di analizzare scene, intenzioni o eventi. Poiché gli LLM si basano sulla tokenizzazione delle sottoparole, anche piccoli cambiamenti tipografici o di formattazione possono distorcere il significato. Chiunque abbia mai usato un vocabolario di cinese per cinesi potrà facilmente capire come la tokenizzazione può dividere i caratteri in modi che rompono i loro radicali semantici. Allo stesso modo, i tokenizzatori di sottoparole possono gestire male prefissi o suffissi che segnalano negazione, portando i modelli a fraintendere il significato voluto. E come potrebbe un LLM rispondere alle sensazioni, alle emozioni e ai sentimenti che la lettura di un testo evoca negli umani?

Già alla seconda fase la rottura epistemologica si allarga. Nella tabella seguente sono riassunte le sette linee di faglia epistemologica che separano il giudizio umano dal giudizio LLM, una per ogni fase del percorso epistemico. Nonostante ciò, gli esseri umani tendono sistematicamente a credere eccessivamente ai risultati dell'LLM, perché un linguaggio fluente e sicuro produce un pregiudizio di credibilità.

Conclusione
Gli LLM possono dunque produrre output spesso indistinguibili dai giudizi umani, pur facendo affidamento su un meccanismo generativo che non è una forma di giudizio. L'apparenza della comprensione può quindi coesistere con l'assenza della comprensione responsabile.

L'Epistèmia si verifica quando la verosimiglianza linguistica sostituisce la vera valutazione epistemica, dando l'impressione di conoscere senza un reale giudizio. L'epistemia non dipende da ingenuità, errori isolati o uso scorretto di uno strumento. Questo fenomeno si verifica quando i sistemi generativi danno risposte certe e fluide, anche dove sarebbe necessaria incertezza o possibilità di revisione. Con l'aumento delle dimensioni e della persuasività dei modelli generativi, cresce il rischio che gli errori permangano e che la responsabilità della verifica passi dall'algoritmo all'utente, rendendo più semplice trascurare questo compito. 

Sottoporre i risultati prodotti dagli LLM a peer review? E da parte di chi, di un altro LLM?

Nella tabella seguente (rielaborata da https://arxiv.org/html/2512.19466v1) sono riportate le sette faglie epistemiche individuate.


Vorrei concludere con le parole di uno degli autori dello studio più volte citato, il Prof. Walter Quattrociocchi.

«Il paper sulle linee di faglia sta circolando molto, dentro e fuori l’accademia. Non perché dica che i modelli linguistici sbagliano o che vanno usati con cautela. Quello è ovvio e ormai irrilevante.
Sta circolando perché mette in crisi l’architettura concettuale con cui continuiamo a raccontare l’AI generativa. Molti lo hanno definito un pugno in faccia alla narrativa dominante. In realtà è qualcosa di più preciso. È una diagnosi strutturale di un equivoco che stiamo coltivando da anni.
L’equivoco è l’idea che, se l’output di un sistema diventa indistinguibile da quello umano, allora anche il processo che lo genera stia convergendo. Il paper mostra che non è così. Mostra che l’allineamento osservabile può mascherare una divergenza epistemica profonda. Aumentare dati, parametri e scala raffina un approssimatore statistico, ma non introduce criteri di verità, di riferimento o di responsabilità. Migliora la probabilità, non il giudizio. Per questo il lavoro ha colpito così forte. Non discute quanto sono bravi i modelli, ma che tipo di operazione cognitiva simulano e quale no» (segue)
(27 dicembre 2025)

___________________________________________________
[/Sarcasmo on]

Ovviamente questo post è stato generato grazie ad interazioni continue e non verificate con LLM. Quindi se ci sono errori prendetevela con le sue allucinazioni!
[/Sarcasmo off]

___________________________________________________
Riferimenti bibliografici
Epistemological Fault Lines Between Human and Artificial Intelligence
Pagina Facebook del Prof. Walter Quattrociocchi – Università Sapienza, Roma
Articolo su Wired del 12/12/2025
Intervista “Epistemia: abbiamo smesso di chiederci come sappiamo ciò che sappiamo”, Beatrice Cristalli per Treccani, 16/12/2025
Intervista “Epistemia: quando l'AI mette in crisi la verità”, Corriere del Ticino, 24/12/2025

 


Microbi. Anche ciò che non vediamo ci riguarda

L’attività umana ha prodotto nei sistemi terrestri cambiamenti che, per proporzioni e importanza, non hanno pari dall’avvento della fotosintesi, e ciò ci ha dato alla testa. Qualcuno l’ha chiamata impronta ecologica. Ma che cosa ha a che fare con batteri e affini? E questi, che c'entrano con bit & byte?

È stato detto «Siamo proprio come dei, quindi tanto vale abituarci all’idea».

Nella seconda metà del Novecento, molti pensavano che i rapidi progressi tecnologici avessero ormai superato ogni limite che ostacolava il controllo umano sul pianeta. Questa visione ottimista, definita «Antropocene buono», si basava sull’idea che il nostro ingegno tecnologico ci avrebbe permesso di mantenere uno stile di vita ad alto consumo energetico gestendo responsabilmente il grande potere acquisito.

«State soffrendo per un bene più grande» si diceva...e allora ditelo alle popolazioni che sono già nella morsa della siccità o dell'innalzamento del livello medio dei mari!

Gli abitanti di Bikini si sentirono dire qualcosa di simile – che evacuare la loro casa sarebbe stato per il bene di tutta l’umanità – dall’esercito americano, e questo particolare esempio di giocare a fare dio ha lasciato un angolo del pianeta inabitabile per oltre 20.000 anni. Assurdo, perfino crudele, quanto appare.

Il fatto che abbiamo alterato i cicli geochimici del pianeta non significa che ne abbiamo il controllo; ma del resto l’Antropocene non riguarda affatto il controllo, piuttosto evidenzia la relazione intima con il futuro del pianeta, strana tanto quanto quella che ci lega alle nostre comunità microbiche.

I rapporti nel tempo recente tra biomasse animali addomesticate, umana e naturali

Questo è il grafico più spaventoso del mondo: la quantità di biomassa rappresentata dal totale di quella umana e degli animali da questa addomesticati supera di diversi ordini di grandezza quella della fauna selvatica. Ma ciò che poche persone capiscono è che descrive anche una catastrofe microbica.

Ogni specie possiede un ecosistema influenzato dall'ambiente e dagli altri animali con cui interagisce. Il leone nella savana entra in contatto con nuovi microbi quando si nutre di carcasse o beve dove altri animali hanno lasciato escrementi. In cattività, mangia solo carne sterilizzata ed è a contatto esclusivamente con persone. Non ci sono separazioni nette, non c’è antitesi tra uomo e natura. Un declino in un livello porta al declino in un altro; quando la biodiversità cala nel macromondo, cala anche in quello microbico. Come le matriosche, ogni estinzione di mammiferi o insetti contiene altre innumerevoli estinzioni o quasi estinzioni, che si verificano a mano a mano che il microbiota animale perde il proprio habitat.

Ciò che rimane è la microbiomassa associata agli esseri umani e a ciò che mangiano.

La biomassa della Terra e un dettaglio della distribuzione di quella animale

Mutare e trasferire
Quanto i microbi siano indispensabili è presto detto. Un grammo di fango negli estuari urbani di città come Shangai o New York, contiene circa un milione di geni resistenti agli antibiotici provenienti dai batteri. Si sono scoperti batteri mangiasale vivi, sopravvissuti dopo essere rimasti intrappolati nei cristalli per 250 milioni di anni. Il principio del cambiamento è il tratto più essenziale del mondo microbico. Le forme di vita unicellulari esistono forse da 4 miliardi di anni, e ogni innumerevole generazione ha prodotto una leggera differenza rispetto alla precedente, un piccolo errore nella copia. È stato ipotizzato che ci siano tante specie diverse quanti sono stati i batteri individuali: idea che è già di per sé notevole prima ancora di considerare che in ogni dato momento sulla Terra sono esistiti qualcosa come 5.000.000.000.000.000.000.000.000.000.000 (5x1030) batteri – espressi in tonnellate di carbonio si stima equivalgano a circa 70x109 tonnellate (Gt). Si pensa che un’altra quantità pari a 1.000.000.000.000.000.000 (1012) viva sulle particelle di polvere nell’atmosfera, e si crede che tra il 50 e il 90 per cento della biomassa oceanica consista di cellule microbiche. Sono numeri pari ad almeno 100 volte il quantitativo di stelle di tutte le galassie dell’universo.

Nel 2016, scienziati giapponesi hanno scoperto un batterio capace di degradare la plastica PET in uno stabilimento di riciclaggio, segnalando come i microbi oceanici si stiano evolvendo per consumare rifiuti plastici. L’origine di questa incredibile diversità risiede nella loro capacità di condividere il proprio DNA: il processo del Trasferimento Genico Orizzontale. Una cellula batterica può scambiare le proprie informazioni genetiche con qualsiasi altra cellula. I microbi che si sfiorano l’un l’altro possono scambiarsi i geni: in alcune specie lo scambio è mutuo e coordinato, altre specie assorbono ciò che trovano, pezzi di DNA, frammenti di virus, altre ancora rubano il patrimonio genetico altrui fagocitando altri microbi (così sono nati organelli specializzati presenti nelle cellule eucariotiche). Oppure scelgono di coabitare e, come coppie sposate da tempo, alla fine si fondono per diventare quasi indistinguibili l’uno dall’altro. Non tutti gli scambi danno luogo a adattamenti significativi: le modifiche inutili spesso vengono spazzate via dalle generazioni successive. Questo processo permette ai microbi di sviluppare processi vitali importanti quali fotosintesi, catabolismo e simbiosi.

Tuttavia, le nostre azioni stanno censurando sempre di più questa libera espressione, frenando l’orgia e costringendo l’evoluzione microbica a seguire la nostra guida. Da quando abbiamo cominciato a usare il fuoco – oltre 500.000 anni fa - per cucinare il nostro cibo, gli uomini influiscono sulla selezione dei geni nelle proprie popolazioni microbiche tramite scelte dietetiche. Questa selezione «morbida», però, è diventata un processo di selezione «dura» tramite l’uso di composti antimicrobici; dapprima con esitazione, da quando abbiamo cominciato a sfruttare gli effetti profilattici del mercurio e dell’arsenico alla fine dell’Ottocento, ma poi con aggressività, da quando si è diffuso l’impiego di antibiotici dopo la seconda guerra mondiale. A titolo di esempio nelle popolazioni mondiali sviluppate, l’abuso di antibiotici è accusato di essere la causa del rapido declino di Helicobacter pylori, un microbo che vive nello stomaco e che si coevolve con gli esseri umani da almeno 100.000 anni per assistere nel regolare la produzione di acido nello stomaco (qui la storia della scoperta della vera natura dell’ulcera). E gli effetti di questa liberalità con gli antibiotici non si notano solo nelle viscere umane.

Antibiotici

Gli antibiotici hanno sicuramente contribuito alla formazione di fossili futuri semplicemente con il loro effetto sui tassi di mortalità, ma hanno anche influenzato in maniera sostanziale la prosperità di batteri che si sviluppano molto lontano dai corpi di esseri umani o animali trattati. Sono comunemente usati per promuovere la crescita del bestiame e, dato che fra il 30 e il 90 per cento degli antibiotici ingeriti sia dagli animali sia dagli esseri umani vengono espulsi immutati nel suolo e nei corsi d’acqua, il mondo microbico in generale viene inondato da composti antimicrobici. Potrebbe risentirne perfino il fondamentale ritmo dell’evoluzione batterica e rischiamo di rendere inefficace una delle maggiori e più benefiche scoperte mai fatte. 

La resistenza agli antibiotici prodotti in laboratorio ebbe inizio negli anni Venti del Novecento, da una singola componente di DNA. Da allora si è diffusa attraverso il trasferimento genico orizzontale a velocità sorprendentemente elevate. Oggi, in ogni grammo di escrementi umani o animali si trovano milioni di copie di quell’elemento originario; ogni giorno circa 100.000.000.000.000.000.000.000 (10²³) copie vengono rilasciate nell’ambiente, riversandosi nei fiumi e negli oceani tramite gli impianti per il trattamento delle acque reflue - veri e propri hotspot di propagazione - oppure tornano al terreno. Questi elementi genici sono stati trovati sia nella foresta pluviale amazzonica che nelle regioni polari. L'emissione di composti nell'atmosfera sta accelerando l'evoluzione microbica e aumentando la diffusione dei geni di resistenza nel pangenoma globale. Molti eventi selettivi che causano resistenza sono temporanei, ma alcuni cambiamenti nelle comunità microbiche saranno permanenti.

Ci sono molti divulgatori sui social che diffondo splendide immagini e video del mondo microscopico, segnalo questa.

Batteri ovunque
Ogni grammo di terreno contiene miliardi di cellule microbiche. Il DNA extracellulare può sopravvivere nel suolo o nell’argilla per migliaia di anni, e date le giuste condizioni, potrà restare nell’humus fino a quando incontrerà un batterio ricettivo, mettendo in moto una nuova linea di evoluzione batterica.

Il dogma centrale della biologia

La regola essenziale della vita biologica è fissata da quasi 4 miliardi di anni: l’informazione biologica scorre dal DNA all’RNA, alla proteina, al fenotipo in una cascata chiusa che gli scienziati chiamano «dogma centrale» (ne ho scritto qui). È immutabile ed esiste fin dal Last Universal Common Ancestor, l’ultimo antenato universale comune di tutta la vita (LUCA). Ma per la prima volta in 3,7 miliardi di anni, le nuove tecniche di conservazione con silicio che memorizzano dati digitali nel DNA hanno superato il tradizionale dogma centrale.

Abbiamo un organismo capace di dirigere la propria evoluzione e l’evoluzione di ogni essere vivente sul pianeta: Homo sapiens. E per quanto se ne dica, spesso con giudizi puramente ideologici, la modifica genetica degli organismi operata dagli umani è antica quanto essi stessi.

Nel 2007 fu sintetizzato chimicamente il primo genoma: il DNA di un batterio fu impiantato nelle cellule di un altro batterio. Il risultato fu che il secondo somigliava e si comportava esattamente come il primo. Alcuni anni dopo, furono sintetizzate alcune cellule viventi di questo batterio basandosi sulle informazioni archiviate elettronicamente. Ciò che fu fatto rappresenta una transizione evolutiva vera e propria.

Fino ad allora, ogni essere vivente aveva bisogno di un antenato (Omne vivum ex vivo, come ebbe a dire Pasteur): adesso non più. In teoria, estendere il dogma centrale potrebbe permettere la ricostruzione di patogeni o specie estinte, perfino la sintesi di organismi nuovi, uno qualunque dei quali, se prosperasse, rappresenterebbe un segno nella sabbia del tempo evolutivo.

Ma per ora, siamo ancora meno che all’inizio. Per fortuna. Personalmente resuscitare specie estinte non mi interessa, mi accontento delle loro rarissime tracce fossili.

Tornando a quella visione divina che molti esseri umani hanno del loro potere, realizzare la de-estinzione sarebbe il più grande trucco divino di tutti, ma non si raggiungerà confezionando in laboratorio specie scomparse. Gli animali non sono semplicemente la somma delle loro parti: ogni caratteristica fisica è il risultato di una serie di adattamenti evolutivi trasmessi attraverso migliaia di generazioni. Fabbricare un nuovo genoma non sarebbe sufficiente. Esistono già elefanti asiatici con pezzi di DNA di mammut ma come gli elefanti, i mammut avranno avuto una struttura sociale complessa. Un nuovo branco esisterebbe in un vuoto sociale, un mondo che ha completamente dimenticato cosa significa essere un mammut. Gli animali devono imparare a essere animali: non si può sintetizzare il comportamento. E ancora, come ebbe a dire il biologo evoluzionista Stephen J. Gould, se potessimo riavvolgere il nastro dell’evoluzione e ripartire da zero, i percorsi e i finali sarebbero del tutto diversi ogni volta.

Anche noi avremmo bisogno di cambiare. Riportare in vita specie perse per l’espansione del dominio umano sarebbe miracoloso, forse perfino un’espiazione per i peccati passati, ma ci richiederebbe anche di imparare a vivere accanto a ciò che un tempo abbiamo espulso dell’esistenza.

I microbi esistono da miliardi di anni grazie alla loro inventiva. Sono i grandi improvvisatori del mondo, e la loro capacità di evolvere oltre i propri limiti apparenti sembra un buon modello da cui imparare a vivere nel mondo che abbiamo creato per noi stessi. I microbi dimostrano che ciò che potremmo essere non è limitato da ciò che siamo, e che accettare collaborazione e adattamento, scrollandoci di dosso le vecchie forme per accettarne di nuove, può portare a un aumento di vita.

Archiviazione

Ma ancora una volta emerge l’antropocentrismo più egoista, una moderna e antica allo stesso tempo, versione del principio antropico che vede il mondo, l’universo intero fatto per il genere umano.

Studi e ricerche da diverso tempo stanno cercando di realizzare un sistema di archiviazione in grado di replicarsi, utilizzando come supporto il DNA dei batteri. Perché?

Dopo la nascita dei servizi di data streaming, dell’intelligenza artificiale, del cloud storage, delle piattaforme di social media e dell’ubiquità degli smartphone e degli smartwatch, ormai ci vogliono solo un paio di giorni per produrre cinque miliardi di gigabyte di contenuto digitale, equivalenti a tutte le informazioni digitali esistenti prima del 2003. Entro il 2025 il totale creato annualmente sarà di oltre 160 zettabyte (ZB = 1021 byte). Se la maggioranza dei dati non venisse cancellata, sovrapponendone di nuovi o eliminandoli, le riserve globali di silicio non sarebbero sufficienti per conservare in modo permanente tutti i dati che produciamo.

Ma il consenso scientifico e le stime attuali indicano che la densità di archiviazione teorica del DNA si avvicina a circa 455 exabyte per grammo, ovvero 455 milioni di gigabyte (1018 byte).

Agli inizi degli anni Duemila si cominciò a pensare al problema dell’archiviazione dei dati. Il problema non è solo l’enorme quantità di informazioni, ma anche il fatto che i mezzi di archiviazione non sono sicuri. Per migliaia di anni abbiamo sconfitto l’entropia lasciando tracce deliberate di ciò che sappiamo. Scrivere ci ha permesso di battere il tempo e di parlare al futuro, ma finora i materiali disponibili sono stati fragili: la pietra si erode, la carta si disintegra e persino la memoria elettronica si degrada. La vita, d’altro canto, è definita nella sua essenza dalla trasmissione sicura di informazioni nel tempo. E allora perché non convertire le quattro basi azotate del DNA in informazione binaria (con Adenina per “00”, Guanina per “01”, Citosina per “10” e Timina per “11”) e racchiuderla al sicuro nel genoma della materia vivente dove, in teoria, la si potrebbe recuperare in eterno? Peccato che, ad oggi, recuperare le informazioni significa anche contemporaneamente distruggerle: si poteva sequenziare il DNA solo una volta per recuperare le informazioni, dopodiché andava tutto distrutto. Si è in grado di leggere i dati, per quanto con qualche sporadico errore, ma così facendo di fatto si cancellano.

È quasi paradossale: c’è un’acuta ironia nel fatto che gli scienziati stiano prendendo in considerazione l’archiviazione nel DNA mentre la biodiversità globale sta crollando. È stato proprio il considerare le altre forme di vita come semplici risorse che ha portato a gran parte del disastro in cui ci troviamo; la nostra cura, con un deciso cambio di direzione e passo, dovrebbe essere diretta a incoraggiare un futuro praticabile per tutti gli esseri viventi, e invece abbiamo cominciato a rivolgerci alla vita per mettere al sicuro le nostre storie. E l’idea di affidare le cose a cui teniamo di più alle cure di microbi è altrettanto inquietante.

Conan the bacterium

Sicuramente ne avrete sentito parlare e visto i Tardigradi, simpatici animaletti pluricellulari che sembra abbiano proprietà magiche, potendo sopravvivere in condizioni inimmaginabili. Ma qui c’è qualcosa che va oltre.

Deinococcus radiodurans fu scoperto nel 1956, in una lattina di carne in scatola, in uno delle migliaia di casi di serendipità nella ricerca scientifica. Alcuni scienziati in Oregon stavano facendo esperimenti sul potenziale di conservazione dei raggi gamma quando individuarono un batterio che non riuscivano a sterilizzare. Il suo nome significa «terrificante cocco resistente alle radiazioni»; anche se  è vero che δεινός, dal greco, significa tremendo o terrificante, significa anche strano, singolare, straordinario. Terrificante o strano che sia può sopravvivere all’essiccazione estrema e a una dose di raggi gamma mille volte superiore a quella letale per gli esseri umani. Con un’esposizione tremila volte superiore a quella che ucciderebbe noi, il batterio risulta indebolito ma ancora vitale. Nel 2002 la NASA ne espose per sei minuti un campione a radiazioni solari ultraviolette a 300 chilometri di altezza, ma D. radiodurans tornò sulla Terra illeso. È sopravvissuto per più di un anno all’esterno della Stazione Spaziale Internazionale in orbita attorno alla Terra: in un ambiente che sembrava incompatibile con la vita per via dell’esposizione a dosi elevate di raggi UV, del vuoto, di fluttuazioni enormi della temperatura e di infinite altre minacce. C’è chi sostiene che si sia originato su Marte, e che sia arrivato sulla Terra a causa dell’impatto con un meteorite.

Lo hanno soprannominato “Conan the bacterium”, in assonanza col famoso personaggio cinematografico interpretato da Arnold Schwarzenegger.

La sua straordinaria resilienza è dovuta semplicemente alla sua forma. Il batterio consiste di quattro cellule organizzate in un comodo anello e assomiglia un po’ a dei panini. I danni da radiazioni spezzano il DNA, ma la forma ben stretta di D. radiodurans fa sì che il questo sia tenuto assieme anche una volta spezzato, permettendo al microbo di ripararsi in fretta. Per quanto si sa, non lo si può uccidere:  durerà sul pianeta fino a quando il Sole stesso diverrà una stella gigante rossa e qualsiasi forma di vita sulla Terra sarà stata cancellata. C’è tempo…

Tornando in tema. C’è qualcuno che sta cercando di usarlo come supporto biologico eterno per l’archiviazione dei dati di cui s’è scritto.

Post scriptum
Possiamo definire la scienza come l'arte di trovare modelli ricorrenti in natura.
La loro individuazione presuppone attente osservazioni, ovviamente condizionate dai nostri sensi. Da animali visivi basiamo la nostra percezione del mondo su quel che vediamo. E ciò che vediamo è a sua volta legato agli strumenti che abbiamo a disposizione: quindi la storia della scienza è anche la storia delle invenzioni che modificano la nostra percezione delle cose. Tuttavia, paradossalmente, l'invenzione di nuovi strumenti è vincolata a ciò che vediamo. Se non vediamo qualcosa tendiamo a ignorarla.

(Paul G. Falkowski)

Ecco perché per centinaia di anni anche la scienza ha ignorato i microbi.

________________________________________
Riferimento bibliografico
Tracce. Alla ricerca dei fossili di domani. David Farrier, 2023

17 dicembre 2025

Terno secco sulla ruota del mondo! Tre anni sopra 1,5 °C

[sarcasmo /on]
Ma che ve lo dico a fare? La cosa che mi preoccupa di più è la situazione neve in Trentino a metà gennaio, quando andrò in settimana bianca…
[sarcasmo /off]

Premessa.
Anche se i modelli alla base della climatologia e delle scienze economiche condividono numerosi aspetti matematici, soprattutto in termini di gestione della complessità c’è da fare una distinzione. Nessun economista serio affermerebbe di riuscire a fare delle previsioni sull’andamento anche di un singolo titolo azionario, nemmeno dopo mesi di tendenza certa al ribasso, oserebbe dire che scenderà ancora o che, come dicono, rimbalzerà…L’aleatorietà delle componenti del mercato, troppo legata alle influenze umane, sociali e psicologiche, glielo impedirebbe.

Per gli scienziati del clima le cose stanno diversamente. Se i modelli prevedono una certa tendenza ebbene, quella è praticamente certa, al di là di ogni ragionevole dubbio: e le analisi del passato eseguite a posteriori (hindcasting) lo dimostrano. Qui un approfondimento.

_________________________________________________________

Si è conclusa circa un mese fa la COP30, confermando alcune aspettative, e deludendone altre. Sul sito di Italian Climate Network è possibile accedere ad un’analisi dettagliata, realizzata osservando da vicino progressi, lacune e compromessi su tutti i principali filoni: dalla mitigazione all’adattamento, passando per giusta transizione, perdite e danni, questioni di genere.

L’auspicio per questa ennesima riunione al vertice era riuscire a spostare l'attenzione dal processo all'azione, all’impatto che questa dovrà avere: definire quindi non la solita dichiarazione d’intenti, le abituali linee guida che da anni stanno accompagnando senza efficacia le annuali conferenze delle parti. Il vertice di Belem avrebbe dovuto dare una risposta credibile per contrastare gli attacchi ai molteplici aspetti del cambiamento climatico, per silenziare le voci negazioniste e per promuovere azioni volte a ridurre le emissioni, a definire l'adattamento e la mitigazione, a contenere le perdite e i danni, definire le responsabilità, soprattutto in termini finanziari.

Non il solito vertice, ma una dichiarazione sulla nostra serietà nell'affrontare la crisi climatica.

L’importanza di tutto ciò è confermato ulteriormente dai dati climatici più recenti.

I dati forniti dall’Unione Europea mostrano che il 2025 sarà praticamente certo il secondo - o il terzo al massimo - anno più caldo mai registrato. Il collasso climatico continua ad allontanare il pianeta dalle condizioni stabili in cui l'umanità si è evoluta.

Il vicedirettore di Copernicus ha affermato che la media triennale dal 2023 al 2025 è sulla buona strada per superare per la prima volta i famigerati 1,5 °C di riscaldamento, il livello di contenimento dichiarato alla COP21 di Parigi del 2015.

Il mese scorso è stato il terzo novembre più caldo ed è stato caratterizzato da una serie di eventi meteorologici disastrosi, tra cui cicloni e inondazioni catastrofiche in Asia meridionale e sud-orientale

Il programma dell’UE di osservazione della Terra, ha registrato temperature globali da gennaio a novembre in media di 1,48 °C superiori ai livelli preindustriali. Le anomalie rilevate sono state finora identiche a quelle registrate nel 2023, il secondo anno più caldo mai registrato dopo il 2024.

La promessa di Parigi, impedire cioè al pianeta di riscaldarsi di 1,5 °C rispetto ai livelli preindustriali entro la fine del secolo sta diventando sempre più vana. E non consola sapere l’obiettivo di temperatura deve essere interpretato e correlato su una media trentennale, lasciando un barlume di speranza di raggiungere l'obiettivo anche dopo un periodo di superamento, nonostante singoli mesi e anni inizino a superare la soglia. Purtroppo la Terra non è soltanto un sasso al sole, come ho ribadito più volte, che si raffredda non appena lo si mette in ombra.

Il mese di novembre 2025 ha registrato le temperature globali erano di 1,54 °C superiori ai livelli preindustriali, e la media triennale 2023-2025 sta decisamente puntando al superamento, per la prima volta per un periodo così lungo, del limite di 1,5 °C. La temperatura media globale è stata di 14,02 °C, pari a +0,65 °C rispetto alla media climatologica dell'ultimo trentennio 1991–2020. Rispetto al periodo preindustriale (1850–1900), l'anomalia globale sale a +1,54 °C.

I dieci anni più caldi sono stati gli ultimi dieci e la media dell'ultimo triennio sopra 1,5 °C è la soglia oltre la quale cominciano, scusate l’eufemismo, i casini grandi, (cit.) perché finora abbiamo visto solo casini medi.

Il bollettino mensile dell'agenzia ha rilevato che il mese scorso è stato il terzo novembre più caldo a livello globale, con temperature notevolmente più elevate registrate nel Canada settentrionale e nell'Oceano Artico. Il mese è stato caratterizzato da una serie di eventi meteorologici pericolosi, tra cui cicloni e inondazioni catastrofiche che hanno spazzato via vite e case in tutto il sud e il sud-est asiatico.

Eventi che da noi, presi dalla famiglia del bosco e da altre forme di distrAzione di massa, sono passati inosservati. Ma, ribadisco, in termini climatici (e non) anche quel che non vediamo ci riguarda. Ripassino.

Le temperature medie sono aumentate drasticamente a causa della coltre di inquinamento da carbonio che ha ricoperto la Terra, intensificando gli eventi meteorologici estremi, dalle ondate di calore alle forti piogge; e queste continuano a variare di anno in anno in base a fattori naturali. Il riscaldamento dovuto a El Niño ha fatto aumentare le temperature globali nel 2023 e nel 2024, ma ha lasciato il posto a un leggero raffreddamento dovuto a La Niña nel 2025.

Copernicus ha rilevato che il 2025 è stato, a pari merito con il 2023, il secondo anno più caldo mai registrato. Non sono traguardi astratti: riflettono il ritmo accelerato del cambiamento climatico e l'unico modo per mitigare il futuro aumento delle temperature è ridurre rapidamente le emissioni di gas serra. Punti di non ritorno, si dice.

Dall'accordo di Parigi sul clima del 2015, le emissioni che riscaldano il pianeta hanno continuato ad aumentare insieme alle temperature medie e all'intensità degli eventi meteorologici estremi. La crescita della produzione di energia da fonti rinnovabili ha contribuito a frenarne parzialmente l'aumento, tenendo purtroppo conto che i nuovi impianti alimentati da rinnovabili spesso servono a rispondere a nuove richieste piuttosto che a sostituire il fossile.

In definitiva risultati di Copernicus hanno fatto da eco all'analisi condotta dal WMO (Organizzazione Meteorologica Mondiale) prima della COP30 del mese scorso. Il WMO mise infatti in evidenza che il periodo 2015-2025 ha racchiuso gli 11 anni più caldi mai registrati a partire dal 1850. Ribadisco: i più caldi sono gli ultimi, a confermare che la tendenza è comunque quella di un inquietante rialzo.

Non siamo affatto sulla buona strada per raggiungere gli obiettivi dell'Accordo di Parigi e diversi altri indicatori climatici continuano a far suonare campanelli d'allarme, e i fenomeni meteorologici più estremi, non solo del 2025, hanno avuto e avranno ripercussioni globali gravi sulle economie e su tutti gli aspetti dello sviluppo sostenibile.

[sarcasmo /on]
E dopo la quaterna, pressoché certa, cosa ci riserverà la tombola?
Altro che giochi da festività natalizie...

[sarcasmo /off]