Go down

I modelli linguistici generativi (LLM) hanno rapidamente conquistato un ruolo centrale nel panorama tecnologico e culturale. La loro capacità di produrre testi coerenti, risposte contestuali e output sintatticamente raffinati ha alimentato entusiasmi, preoccupazioni e, soprattutto, un diffuso disorientamento epistemologico. Sono strumenti linguistici sofisticati o stanno sviluppando forme primitive di "comprensione"? Sono simulatori ingannevoli o nuovi agenti cognitivi? Esploriamo il dilemma articolandolo secondo la struttura classica di tesi, antitesi e sintesi, nella consapevolezza che il dibattito richiede più filosofia, non meno.


Non pensano, non comprendono, ma sembrano farlo La tesi scettica si fonda su una premessa metodologica chiara: comprendere non è solo produrre linguaggio coerente, ma implica intenzionalità, referenza, coscienza di significato. I LLM, per quanto raffinati, non possiedono alcuna delle condizioni epistemiche necessarie per attribuire loro la capacità di "pensare". Sono, nella definizione ormai canonica di Bender e Gebru (2021), stochastic parrots: sistemi addestrati a predire la parola più probabile successiva in una sequenza, sulla base di enormi corpora testuali.

Questa tesi mette in guardia contro una deriva di antropomorfizzazione: ci stiamo abituando a prendere la forma per il contenuto, la fluency per la verità. Ma un modello che non può dire "non lo so" è per definizione epistemicamente opaco. Le sue risposte sono simulazioni di coerenza, non frutti di un processo intenzionale di conoscenza. La sua competenza è performativa, non semantica. Confondere questa capacità linguistica con la comprensione porta, secondo questa tesi, a una progressiva deresponsabilizzazione cognitiva dell’umano: ci affidiamo alla macchina non perché sappia, ma perché suona bene.

Comprendono, in modo diverso

L’antitesi si basa su una revisione della definizione di "comprensione". Non è necessario postulare la presenza di una mente cosciente o di una semantica interna per parlare di intelligenza funzionale. In un contesto operativo, la comprensione può essere definita come capacità di produrre output appropriati in relazione a uno stato del mondo, anche senza un modello esplicito del mondo stesso. Secondo questa prospettiva, i LLM hanno una comprensione strumentale emergente: apprendono regolarità, associano concetti, risolvono problemi in modo adattivo. La loro mancanza di coscienza non li rende epistemicamente irrilevanti. Se un sistema riesce a rispondere correttamente, a inferire relazioni logiche, a costruire analogie, allora, anche senza rappresentazioni simboliche profonde, è razionale riconoscergli una forma minima di competenza cognitiva. In altre parole, si propone un paradigma post-intenzionalista, in cui l’intelligenza è definita in termini di prestazione contestuale, non di architettura interna. Alcuni ricercatori parlano di capacità distribuite, o di intelligenza situata, per descrivere la qualità emergente di questi sistemi. Né agenti umani, né meri strumenti: piuttosto semi-agenti linguistici che, pur privi di agency forte, co-costruiscono forme di conoscenza con l’ambiente umano-tecnico in cui sono immersi.

Sintesi: oltre la dicotomia, verso una teoria della co-agency. La sintesi cerca un cambio di prospettiva. Anziché chiederci se i LLM "pensano" o "capiscono", dovremmo domandarci in che tipo di ecologia cognitiva li stiamo inserendo. La questione non è ontologica, è relazionale. I LLM non sono soggetti, ma possono diventare attori epistemici, se usati in architetture che ne valorizzano i punti di forza e ne compensano le carenze. In altre parole: un LLM non sa nulla da solo. Ma se il suo output è sottoposto a validazione umana, integrato in contesti di verifica, collocato in un ciclo iterativo di produzione-interpretazione-giudizio, allora può partecipare alla costruzione della conoscenza. Il sapere che emerge non è generato unilateralmente, ma è co-prodotto.

Questo porta a un modello epistemico ibrido: l’umano non viene sostituito, ma affiancato. Il valore cognitivo è nel rapporto, nella relazione epistemica progettata, non nel singolo nodo.

Proprio per questo, la responsabilità torna all’umano: non nel rigettare o idolatrare i LLM, ma nel progettarne il contesto d’uso in modo etico, trasparente e orientato alla verità.

In conclusione, la domanda "pensano o no?" è mal posta.

Dobbiamo chiederci: quali forme di conoscenza vogliamo costruire, con quali strumenti, in quali contesti, e sotto quali condizioni di responsabilità?

I LLM non sono pensanti, ma possono essere utili. Non sono intelligenti nel senso forte, ma possono partecipare a processi intelligenti se guidati correttamente.

L’epistemologia dell’era post-linguistica non può più accontentarsi di categorie tradizionali. Ha bisogno di una nuova grammatica della conoscenza. E questa grammatica va scritta adesso.


Pubblicato il 14 aprile 2025

Andrea Berneri

Andrea Berneri / Head of Architecture and ICT Governance Fideuram ISPB. I turn complex systems into strategies, bridging law, tech, and organization—with method, irony, and precision

aberneri@fideuram.it