Se il mio cane all’invito a fare una passeggiata corre a prendere il suo guinzaglio, è intelligente. Se ad uno spettacolo circense osserviamo un leone che ubbidisce all’ordine del suo ammaestratore di saltare in un cerchio, riteniamo che quell’animale sia intelligente. Addirittura ci sorprendiamo all’invito di alcune auto che, dopo qualche ora di guida, ci invitano a fare una sosta per un caffè, meravigliandoci per il loro “intelligente” suggerimento. Qualsiasi entità che pensiamo comunichi con noi diamo spontaneamente per scontato che possegga caratteristiche di intelligenza in quanto, fino a qualche decennio fa, era solo tra esseri umani.
Da qualche tempo si sono affacciati nell’arena della comunicazione dei nuovi soggetti: gli algoritmi. È da tempo che dialoghiamo con loro. Alexa, l’assistente personale di Amazon in grado di rispondere a nuove domande, gestire i calendari o offrire suggerimenti e raccomandazioni individuali in linguaggio naturale, è disponibile sul mercato dal 2014, dieci anni fa. Ancor prima, nel 2011, venne lanciato Siri, l’analogo prodotto di Apple. Nel 2008 gi utenti di Internet nel mondo si stimano siano stati già 600 milioni (al 2021 erano 5,3 miliardi[1]). Grazie alla disponibilità di tecnologie come il World Wide Web, che consentiva di creare siti, il Browser, che permetteva di navigare tra di loro, e lo sviluppo delle telecomunicazioni, sono spuntati migliaia di servizi on-line. Questi ci consentono, tra le altre, comunicazioni commerciali anche complesse: dall’acquisto di un posto al teatro, a quello di un elettrodomestico, o un’automobile, attraverso articolati processi di configurazione dei prodotti. Tutte attività che prima dell’avvento di tali tecnologie necessitavano di operatori umani per essere eseguite. Gli algoritmi sono così diventati importanti partner comunicativi.
La disponibilità di prodotti quali Chat GPT, Anthropic, Deep Seek e altri, hanno impresso un salto di qualità a questa tipologia di algoritmi. Che si tratti di sistemi di comunicazione, lo denuncia la loro stessa denominazione tecnica: essi sono Large Language Models (LLM), ovvero modelli linguistici di grandi dimensioni. Non ci troviamo più di fronte ad agenti specializzati in uno specifico e ristretto compito ma, almeno nelle intenzioni dei proponenti, a sistemi per utilizzi generali interpellabili attraverso il linguaggio naturale (qualsiasi esso sia). Che poi si ritenga che questa impressionante capacità sia dovuta ad una sorta di intelligenza, per quanto artificiale, penso sia legata ai nostri pregiudizi, fondati sull’esperienza storica, come illustrato prima. Se a questo poi aggiungiamo che i fornitori di IA ben cavalcano i nostri bias cognitivi aggiungendo denominazioni dal valore evocativo di alcune tecnologie quali Deep Learning (apprendimento profondo), Reti Neurali e altre, la fuorviante mistificazione è completa. Tali sistemi, allora, DEVONO essere “Intelligenti”!
Ma è proprio così?
Come si costruisce un LLM?
Senza addentrarsi in una descrizione troppo tecnica, vi sono numerose descrizioni on line di queste tecnologie, di base gli LLM sono degli enormi sistemi statistici che vengono costruiti in questo modo[2]:
- Raccolta di un set di dati eterogeneo di testi di varia origine.
- Pulizia e standardizzazione dei dati di testo raccolti.
- Suddivisione del testo pre-elaborato in unità più piccole denominate token.
- Selezione di un'architettura di deep learning (il motore statistico) appropriata.
- Processo di addestramento che permette al modello di apprendere i dati.
- Ottimizzazione del modello attraverso regolazioni e messe a punto.
- Valutazione dei risultati e della precisione del modello.
I passi 1 e 5 sono quelli che richiedono maggiori risorse per essere realizzati e sono la causa degli enormi investimenti effettuati dai produttori del settore[3]. Allo stesso tempo, non è emerso un modello di business tale da poter chiaramente giustificare questi investimenti. Detto in altri termini, non è ancora chiaro a che prezzo offrire questi strumenti in modo che siano remunerativi per l’azienda che li produce[4]. Inoltre nonostante il tecno-entusiasmo che circonda l’IA per i suoi impatti nella società[5], che assume a volte il carattere di isteria collettiva, si iniziano a sollevare seri dubbi sui suoi benefici economici[6] a lungo termine.
Al di là di questi aspetti applicativi, possiamo davvero dire che tali sistemi siano “intelligenti” alla stregua di un essere senziente? Essi mancano di quella “incarnazione” biologica che ricerche scientifiche hanno dimostrato essere essenziale per il pensiero, come nel caso dei modelli dissipativi quantistici della mente[7]. Ancor prima erano giunte alle stesse conclusioni varie speculazioni teologiche, come ci ricorda la recente nota Antiqua et Nova[8] [16] del Dicastero per la Dottrina della Fede e prima ancora San Tommaso[9] nella sua Summa Theologiae. Inoltre è evidente che non imitino i nostri processi cognitivi. Infatti quando noi, esseri umani, dobbiamo imparare qualcosa di nuovo, non seguiamo certo il processo descritto sopra (raccolta di miliardi di dati, suddivisione in token, eccetera).
Allora forse è il caso affermare che:
I moderni algoritmi di apprendimento automatico sono così efficienti non perché hanno imparato a imitare l'intelligenza umana e a comprendere le informazioni, ma piuttosto perché hanno abbandonato il tentativo e l'ambizione di farlo e si sono orientati verso un modello diverso.
Dunque
…possiamo osservare nelle interazioni con gli algoritmi non necessariamente una forma artificiale di intelligenza, ma piuttosto una forma artificiale di comunicazione. Intelligenza e capacità comunicativa non sono la stessa cosa. Gli algoritmi sono in grado di agire come partner di comunicazione - se siano intelligenti o meno è un'altra questione... gli algoritmi che utilizzano i big data riproducono artificialmente non l'intelligenza, ma le capacità di comunicazione e lo fanno sfruttando parassitariamente la partecipazione degli utenti sul web.[10]
Siamo noi, con le nostre interazioni sia in tempo reale che con i nostri testi, che rendiamo comunicativi tali sistemi, nemmeno i loro programmatori.
Cosa s’intende per comunicazione?
Per comunicazione in genere s’intende che i processi mentali dei partecipanti convergano su un contenuto comune. In accordo con la radice latina del termine “comunicazione” (communicatio), si presume che i partner abbiano in comune lo stesso pensiero, o almeno una parte di esso.
Di conseguenza la comunicazione avviene se, al termine del processo, il ricevente ottiene almeno una parte delle informazioni che l'emittente ha immesso nel canale utilizzato per la comunicazione. Anche considerando il rumore e le differenze di codifica/decodifica, di interpretazione e di competenza, l'idea è che in una comunicazione di successo, qualche elemento dell'identità dell'informazione deve essere preservato.
Il problema di questo approccio è che nell'interazione con le macchine si tratta di una situazione in cui uno degli interlocutori è un partner della comunicazione, l’algoritmo, che non comprende il contenuto, il significato o l'interpretazione. Infatti, come detto prima, gli LLM si limitano a manipolare, in maniera statisticamente sofisticata, simboli (dati[11]) senza averne la comprensione, processo del quale sono incapaci.
Un utente, quindi, non condivide alcuna informazione (nemmeno in parte) con il suo interlocutore perché questo non conosce alcuna informazione. Possiamo ancora dire che stanno comunicando? Siamo di fronte a una condizione “aberrante” o a una forma di comunicazione senza precedenti?
Una nuova teoria di comunicazione sociologica
La teoria della comunicazione del sociologo Niklas Luhmann (1927-1998) è certamente più adeguata ad affrontare l’argomento. Essa prende le distanze dai processi psichici e dal loro ruolo comunicativo, rompendo così con la tradizione sociologica. Il fatto che il concetto di comunicazione di Luhmann non sia basato su contenuti psichici e non richieda la condivisione di pensieri tra i partecipanti diventa un grande vantaggio quando si ha a che fare con algoritmi che non pensano. In tutte le forme di comunicazione, sostiene Luhmann, l'informazione è diversa per tutti e per ognuno è sempre relativa a un osservatore specifico. Ma un'identità comune di informazioni tra i partecipanti non è di per sé necessaria per la comunicazione.
L'innovazione di Luhmann, semplice ma molto efficace, consiste nel definire la comunicazione a partire dal ricevente, piuttosto che dall'emittente. Secondo il suo approccio, la comunicazione avviene non quando qualcuno dice qualcosa, ma quando qualcuno capisce che qualcuno ha detto qualcosa.
Si possono scrivere interi libri e fare discorsi elaborati, ma se nessuno legge o ascolta o se ne accorge, non c'è stata una vera comunicazione. Ma se un ricevente comprende le informazioni che (crede) qualcuno ha pronunciato, la comunicazione ha avuto luogo, qualunque sia l'informazione per il destinatario e qualsiasi cosa l'emittente avesse in mente (o non avesse in mente).
I pensieri dei partecipanti non fanno parte della comunicazione stessa, il che porta a un'infinita varietà di comprensioni individuali. Di conseguenza il compito della sociologia e della teoria della comunicazione è quello di analizzare come questa diversità di intendimenti possa comunque produrre forme di coordinamento.
Un approccio molto potente, ed adeguato, per rispondere ai numerosi interrogativi che l’uso della cosiddetta IA solleva quotidianamente in qualsiasi settore.
Ad esempio…
La prima conseguenza di questo cambio di prospettiva è smettere di interrogarsi su cosa sono e cosa possono fare i sistemi di IA e concentrarsi su come comunicano e cosa possono farci fare. Basta ritenere al di sopra di tutto e di tutti tali sistemi e affidarsi a loro per qualsiasi cosa ritenendoli “super-intelligenti”. Più opportuno indagare sulle modalità di comunicazione di tali sistemi, che scopi precisi si prefiggono, quali decisioni possono indurci a prendere e costringere i loro produttori ad esplicitare le loro intenzioni in questi ambiti. Pena la messa al bando dei loro sistemi. Un po’ come avviene con i giornali o i notiziari radio e TV, più o meno velatamente schierati, ai quali ci si affida per informazioni specifiche che gli stessi media dichiarano in anticipo (sport, cultura, cronaca, moda, eccetera) e sulla quali scommettono la loro credibilità e, di conseguenza, la sostenibilità economica. Una estrema generalizzazione di un canale comunicativo classico che aspirasse ad essere un punto finale e totale di informazione sarebbe poco credibile, portando prima o poi a prendere “cantonate”, e finanziariamente insostenibile. È quello che invece sta succedendo nei sistemi IA con le cosiddette hallucination, i marchiani errori dei vari sistemi generalisti, e gli enormi investimenti.
Conclusione
Ci stiamo muovendo verso uno stato di intelligenza diffusa, dove non ci sarà più separazione tra cose e persone, tra algoritmi e menti coinvolte nella comunicazione. Questi sviluppi richiedono uno spostamento dal riferimento all'intelligenza a quelli alla comunicazione. Ciò che gli algoritmi riproducono non è l'intelligenza delle persone, ma l'informatività della comunicazione. Quando le nuove forme di comunicazione combinano le prestazioni di algoritmi con le prestazioni delle persone, gli algoritmi non si confondono con le persone, né diventano intelligenti.
La differenza tra le operazioni degli algoritmi e il pensiero umano dà origine a nuovi modi di trattare i dati e di produrre informazioni nel circuito della comunicazione.
Prima ci allontaneremo dall’ingenuo e stupido dibattito centrato sull’intelligenza di questa tecnologia, accogliendo la nuova prospettiva comunicativa, prima riusciremo a coglierne gli utilizzi positivi, identificarne i rischi e disciplinarne gli usi discernendo i primi dai secondi.
BIBLIOGRAFIA
- Antiqua et Nova, Nota sul rapporto tra intelligenza artificiale e intelligenza umana. Dicastero per la Dottrina della Fede, Dicatero per la Cultura e l’Educazione. (2025)
- G.Vitiello, Matter, mind and consciousness: from information to meaning. Journal of Integrative Neuroscience
December 2020 19(4):701. - Elena Esposito, Comunicazione Artificiale, Egea (2022).
- G.Bateson, Verso un’ecologia della mente, Adelphi (1977).
- N.Luhmann, Che cos’è la comunicazione, Mimesis (2018).
- N.Luhmann, Introduzione alla Teoria della Società, Pensa Multimedia (2014).
Note
[1] https://web.archive.org/web/20171124192836/http://www.internetworldstats.com/stats.htm
[2] Fonte: https://www.hpe.com/it/it/what-is/large-language-model.html
[3] https://www.wsj.com/tech/ai/artificial-intelligence-investing-charts-7b8e1a97
[4] https://www.wsj.com/articles/no-one-knows-how-to-price-ai-tools-f346ea8a
[5] https://hbr.org/2024/11/research-how-gen-ai-is-already-impacting-the-labor-market
[6] https://economics.mit.edu/sites/default/files/2024-04/The%20Simple%20Macroeconomics%20of%20AI.pdf
[7]Ad esempio, tra i numerosi articoli sull’argomento, illuminante questo del professor Vitiello dell’Università di Salerno https://www.researchgate.net/publication/348067562_Matter_mind_and_consciousness_from_information_to_meaning
[8] https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_it.html
[9] Tommaso d’Aquino, Summa Theologiae, I, q. 75, a. 4,resp.
[10] Elena Esposito, Comunicazione Artificiale. Egea
[11] Per una differenza tra dati e informazione cfr. Verso un’ecologia della mente, G. Bateson. Adelphi