ΧΑΟΣ. Lo spalancamento

La domanda che Χάος pone all’uomo contemporaneo non è una domanda alla quale si possa rispondere con un programma o un metodo. È una domanda anteriore a ogni programma: sei ancora capace di fare spazio? Di spalancarti, come la voragine si spalancò prima di tutto? Di accogliere il vuoto non come difetto ma come condizione? Di sostare nella notte senza accendere lo schermo?

La Guardianía del Sentido

Operacionalizar la guardianía del sentido no significa convertirla en un método cerrado, sino mantenerla como una práctica criterial, situada y reflexiva que introduce preguntas ineludibles en el diseño y despliegue tecnológico. Más que añadir métricas o protocolos, desplaza la atención hacia la lectura de sentido, la cultura organizativa y el contexto, evitando que la eficiencia técnica clausure prematuramente el mundo. No ofrece recetas universales, sino un umbral de responsabilidad desde el que seguir actuando sin abdicar de lo humano.

Catastrofe come diagnosi condivisa

Convergenze inattese tra Yudkowsky/Soares e Sadin Un contributo di riflessione per mettere a confronto due diagnosi dei rischi associati all’evoluzione attuale dell’intelligenza artificiale che sembrano, a una prima lettura, irriducibili l'una all'altra: quella di Eliezer Yudkowsky e Nate Soares, sviluppata nel volume If Anyone Builds It, Everyone Dies (2025), e quella di Éric Sadin, elaborata in Le Désert de nous-mêmes (2025). Al di là delle differenze metodologiche e disciplinari, che sono reali e non vanno minimizzate, i due approcci sembrano converfere su tre nodi fondamentali: 1] la struttura dell'allarme come kairos negativo, 2] la critica della complicità passiva delle istituzioni e della comunità scientifica, 3] il riorientamento del problema dall'ambito tecnico a quello antropologico. Tale convergenza non è casuale, rivela la presenza di una preoccupazione di fondo condivisa riguardo alla capacità dell'umano di comprendere e governare ciò che produce.

Oltre il postumano computazionale di N. Katherine Hayles

Questo testo sta dentro la sfida umanistica, culturale e filosofica posta da una tecnologia che con l’Intelligenza Artificiale ha creato una nuova frontiera, quella di macchine intelligenti capaci di pensare e di toglierci sempre più spazi di autonomia cognitiva e decisionale. L’idea di questo testo è nata dalla lettura dei testi che 𝐌𝐚𝐭𝐬𝐨𝐧 𝐎𝐰𝐞𝐧 sta pubblicando sulla 𝐒𝐓𝐔𝐋𝐓𝐈𝐅𝐄𝐑𝐀𝐍𝐀𝐕𝐈𝐒 di cui è Autore fin dal varo della nave. Leggendo Owen mi è capitato di interrogarmi spesso sul perché sia un fan così poco critico del lavoro di Katherine Hayles, un’autrice, teorica e critica letteraria, da me frequentata in passato leggendo alcuni suoi libri, tra i quali How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Owen la cita in ogni suo testo, noncurante della sua “furia iconoclasta contro la persona come sede del flusso di coscienza”, la cita al punto da avermi convinto a studiare meglio questa autrice dalla quale mi separano idee diverse sul futuro della specie umana sulla terra e sul postumanesimo. Per scrivere questo testo mi sono semplicemente messo a navigare tra gli scaffali della mia libreria per estrarre tutti o quasi i testi da me letti di autori (Lanier, Stiegler, Morozov, Zuboff, ecc.) che con la Hayles hanno sempre avuto una posizione critica. Il risultato è un testo che mi ha permesso di evidenziare ciò che mi separa dal pensiero della Hayles e quindi anche dell’amico Matson Owen.

I verbali delle riunioni purtroppo non sono più quelli di prima

L'organizzazione è fatta delle pratiche discorsive di noi che viviamo in quel mondo. Non possiamo fare a meno di osservare un enorme impoverimento cui va soggetta di questi tempi ogni organizzazione. Il 'parlare comune', che è la prima fonte dell'organizzazione, è subordinato al filtro della cosiddetta intelligenza artificiale. Basta confrontare un verbale scritto da un un umano membro dell'organizzazione e un verbale stilato dalla macchina. Leggete il verbale scritto dalla macchina. Piatto e grigio resoconto. Ogni verbale scritto dalla macchina sottrae qualcosa.

Tra Terra e nuovole: Demetra e Storm nella lotta alla fame digitale

di Luca Sesini e Beppe Carrella - Demetra e Storm non sono solo simboli. Sono bussole narrative per orientarci in un presente complesso. Una ci ricorda che nutrire è un gesto sacro, l’altra che il clima è un diritto collettivo. Insieme, ci invitano a costruire reti digitali che non siano solo efficienti, ma anche giuste, inclusive e rigenerative. Perché la fame non si sconfigge solo con più cibo, ma con più equità, più ascolto, più immaginazione.

Confesiones

Intentan leerme la mirada en los raros momentos en que nos cruzamos en el supermercado. Y preguntan: “¿De verdad te has vuelto a enamorar, como dicen por ahí? Has desaparecido del mapa".

Backflip with AI… who could’ve seen that coming?

A backflip for AI? Of course. A backflip for voters? Always. In the campaign he soared from promise to promise like a gymnast on a sugar high — Innovation for everyone!” Cloud for the people!” The future is now!” But once he launched himself off the shiny new data‑center platform, reality hit harder than gravity. The landing wasn’t soft. It was a printed invoice. Turns out the only thing truly scalable was the electricity bill. And the only thing truly renewable was his ability to spin mid‑air and pretend it was all part of the plan.

Forse siamo solo configurazione

Abbiamo iniziato a salvare il nostro modo di lavorare. Non solo i risultati, ma le istruzioni, il tono, i criteri. All’inizio sembrava semplice efficienza: evitare di ripartire ogni volta da zero. Poi è diventato evidente che stavamo facendo qualcosa di diverso. Non ci limitavamo a usare strumenti intelligenti, chiedevamo loro di assomigliarci. Di rispettare le nostre priorità, di muoversi dentro il nostro perimetro. Quando il metodo diventa configurazione, il pensiero prende forma. Diventa qualcosa che può essere salvato, riattivato, persino condiviso. Non è solo tecnologia. È il momento in cui iniziamo a descriverci attraverso parametri e regole. E quando lo facciamo, finiamo per guardarci come sistemi. Forse siamo sempre stati anche questo. La differenza è che oggi lo scriviamo.

Intervista ImPossibile a Umberto Eco (IIP #24)

Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.

Salpare umani nell’oceano delle macchine

Per un Umanesimo Digitale come co-evoluzione. La plausibilità non implica esposizione, e senza esposizione non c’è responsabilità. La produzione può essere automatizzata; la deliberazione implica perdita, direzione, irreversibilità. Delegare non significa solo trasferire un compito: significa spostare una soglia. L’AI non sta sostituendo il pensiero umano, lo sta alleggerendo e proprio in questo alleggerimento si gioca la partita decisiva. Un saggio sull’illusione del pensiero delegato, sulla soglia non delegabile della decisione e sulla necessità di un Umanesimo Digitale capace di abitare l’oceano delle macchine senza perdere il peso del timone.