Ultimo aggiornamento:   02 Dicembre 2025

 Stato del documento:   sviluppo



Albert Einstain
Noam Chomsky, New York Times – 8 marzo 2023

"La mente umana non è, come ChatGPT e i suoi pari, una macchina statistica vorace di centinaia di terabyte di dati,
alla ricerca della risposta più plausibile a una conversazione o della risposta più probabile a una domanda scientifica."

Al contrario...

"la mente umana è un sistema sorprendentemente efficiente ed elegante, che opera con una quantità limitata di informazioni.
Non cerca di fare correlazioni a partire dai dati, ma cerca invece di creare spiegazioni."
[...]

Smettiamola quindi di chiamarla "Intelligenza Artificiale" e chiamiamola per quello che è e fa "software di plagio"
poiché "Non crea nulla, ma piuttosto copia opere esistenti, di artisti esistenti, alterandole quanto basta per sfuggire alle leggi sul copyright
dell'autore.

Si tratta del più grande furto di proprietà intellettuale mai registrato, da quando i coloni europei arrivarono nelle terre dei nativi americani".
Walter Quattrociocchi, Intelligenza Artificiale: alcuni chiarimenti fondamentali – 31 Agosto 2025

È difficile parlare di LLM (large language model come ChatGpt o Gemini) con chiarezza.
[...]

Un LLM ricombina elementi già visti in base al contesto. Questo meccanismo, per quanto ottimizzato, ha un margine d’errore fisiologico importante
che non è eliminabile con le architetture attuali.
[...]

Nasce così l’Epistemia: un ecosistema in cui tutti si sentono informati da macchine che allucinano.
Il prodotto finale? Plausibilità confezionata e venduta come conoscenza. Fallata
.
[...]

Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessuno “spirito” emergente.

Vediamone in dettaglio i pezzi principali.

Correlazione ⮊ Due parole sono “amiche” se nei dati compaiono insieme più spesso di quanto accadrebbe per puro caso. Non serve sapere cosa significhino: il modello rileva che “pizza” e “mozzarella” si presentano insieme molto più di “pizza” e “batteria dell’auto” e registra quella regolarità.
Ogni parola viene codificata come un vettore in uno spazio con centinaia di dimensioni; la vicinanza tra vettori riflette la probabilità di apparire in contesti simili.

Non c’è semantica innata: è pura mappa statistica estratta dai dati, una geometria delle frequenze.

Processo stocastico ⮊ Quando scrive, un LLM non applica logica simbolica o ragionamento causale: genera sequenze di parole campionando dalla distribuzione di probabilità appresa per il contesto dato. Se il testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a “dormendo” e bassa a “pilotando un aereo”.
che non è eliminabile con le architetture attuali.
[...]

È un processo formalmente descritto come catena di Markov di ordine elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento condizionato possa costituire ragionamento.

Ottimizzazione ⮊ L’abilità dell’LLM non emerge per magia, ma da un processo di minimizzazione di una funzione di perdita (tipicamente la cross-entropy) tra le previsioni del modello e i dati reali. Attraverso il gradient descent, miliardi di parametri vengono regolati per ridurre sistematicamente l’errore di previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa statisticamente indistinguibile dal testo umano.

Questo non garantisce verità né comprensione, ma coerenza statistica: l’obiettivo è predittivo, non epistemico.

Transformer ⮊ È l’architettura che ha reso possibili gli LLM moderni. Il suo cuore è il self-attention, un meccanismo che, dato un testo, valuta quanto ogni parola sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine. Invece di leggere il testo parola per parola (come facevano le vecchie reti neurali sequenziali), il Transformer considera l’intera sequenza in parallelo, calcolando in un colpo solo relazioni a breve e a lungo raggio. Questo permette di mantenere il contesto anche a distanza di molte parole, accelerare l’addestramento e gestire testi molto lunghi senza “dimenticare” parti importanti.

È il motore che potenzia la generazione statistica, ma non ne cambia la natura: resta un simulatore di linguaggio, non un processore di significato.

Allucinazioni ⮊ Il modello può produrre frasi false ma plausibili perché non confronta le sue uscite con lo stato reale del mondo. L’accuratezza è un effetto sistematico, non un vincolo progettuale.

Chiamarle “allucinazioni” è abbastanza imbecille: sono la conseguenza inevitabile di un sistema che ottimizza per plausibilità linguistica, non per veridicità fattuale.

Scaling ⮊ La potenza di un LLM non dipende solo dall’architettura, ma dalla scala: più parametri, più dati e più calcolo tendono a produrre modelli più capaci. Questo è il principio delle scaling laws: le prestazioni migliorano in modo prevedibile quando crescono insieme capacità del modello, quantità di dati e tempo di addestramento.

È un fenomeno empirico: allargando la rete e nutrendola di più linguaggio, la mappa statistica diventa più dettagliata. Ma più grande non significa “più intelligente”: significa solo che il completatore di frasi ha un vocabolario statistico più ricco e preciso — e quindi riesce a sembrare ancora più credibile anche quando si inventa tutto.
[...]

Un LLM è il riflesso statistico della nostra produzione linguistica, organizzato così bene da sembrare vivo, ma resta ciò che è: un simulatore di linguaggio umano, non un soggetto cosciente.

Riferimenti
  1. Articoli
    luogocomune.net - Intelligenza Artificiale: alcuni chiarimenti fondamentali

Felix Qui Potuit Rerum COGNOSCERE CAUSAS