Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.

"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.

Etica, delega e automazione: l'intelligenza artificiale tra responsabilità istituzionale e pratiche organizzative

L'intelligenza artificiale rappresenta oggi non soltanto un complesso di tecnologie emergenti, ma un dispositivo attraverso cui si distribuiscono pratiche etiche che incidono profondamente sull'organizzazione sociale. Chi progetta, addestra e implementa sistemi di IA compie scelte valoriali che, sebbene spesso implicite, determinano ciò che viene considerato giusto, accettabile o preferibile in molteplici ambiti della vita collettiva.

Il pensiero di Spinoza: un antidoto ai veleni del nostro tempo

Entusiasmo acritico per lo sviluppo tecnologico - in particolar modo per l’intelligenza artificiale - ego-centrismo, esaltazione della mente disincarnata, libertà dai corpi e dai luoghi (onlife), eterno presente, sfruttamento indiscriminato della natura: ecco alcune tendenze molto diffuse nel nostro tempo, in Occidente. Hanno alla base un’idea del corpo da manipolare e plasmare secondo l’ideale della mente (e per i transumanisti da superare per raggiungere l’immortalità) e una idea di mondo, separato rispetto all’uomo, e oggetto di conoscenza e di dominio. Queste idee hanno il loro fondamento filosofico nel pensiero cartesiano.

Vedere l'invisibile: progettare workflow come radiotelescopi organizzativi

Questo saggio propone un framework teorico originale per la progettazione di workflow che integra la semiotica organizzativa di Karl Weick, i pattern formali di Wil van der Aalst, il design centrato sull'umano di Donald Norman e il pensiero sistemico di Donella Meadows. L'obiettivo è rifondare concettualmente la disciplina della workflow design, liberandola dalla prigione del "management scientifico" taylorista e restituendole la sua vera natura: uno strumento di sensemaking collettivo.

Dentro il bozzolo dell’infocrazia: come l’AI sta trasformando le echo chamber in chat private

Sappiamo che i social non sono neutrali, quello che vediamo è il risultato di scelte algoritmiche pensate per massimizzare attenzione e coinvolgimento. Ma stiamo facendo lo stesso ragionamento sulle conversazioni con l’AI? Temo che le echo chamber non stiano sparendo, ma (solo) diventando "private". In questo articolo mi sono chiesto cosa succede quando una AI non ci espone a opinioni simili alle nostre, ma ci restituisce una versione ordinata, coerente e spesso rassicurante del nostro stesso pensiero. Il pericolo non è la disinformazione esplicita, ma la conferma sistematica. Ritrovo qui l’idea di hashtag#infocrazia, di Byung Chul Han, dove l’informazione non viene negata, viene modellata ma anche una versione postmoderna della metafora di Matrix dove non si parla più di una simulazione unica, ma di milioni di bozzoli cognitivi. Credo in gioco ci sia la libertà di pensiero, perchè questa passa dalla capacità di tollerare il dubbio.

Thymós e rabbia: quando l’energia forma e quando distrugge

Quando mi dicono che la Sophia e lo studio della filosofia è solo mera teoria  e non fa parte della vita di tutti i giorni un sorriso divertito si palesa sul mio volto. Nella mia vita infatti diviene quello strumento necessario, con l’accezione  greca del termine, per  rapportarmi con il mondo in modo pratico e concreto, per mettere in pratica quella cura del sé di stampo Focultiano che mi è diventata così cara.  Per questo proprio in questi giorni,  per accadimenti personali, ho trovato utile soffermarmi sul rapporto rabbia e thymós

Il lavoro che vogliamo

Il mondo di lavoro come lo conoscevamo non esiste più, perché il capitalismo finanziario ha preso il sopravvento. Lo scopo delle aziende non è più produrre beni o servizi, ma il profitto a tutti i costi e destinato a pochi. Il ruolo di manager cambia drasticamente. Si vuol far credere che l'azienda possa essere guidata solo da dati e dall'intelligenza artificiale, riducendo così l'azione autonoma dei manager. Mentre crescono anche i vincoli esterni, perché il potere si è spostato fuori dalle aziende. Ancora più difficile è la presenza delle donne nel management: lo stesso essere donne crea sempre più difficoltà ad essere ascoltate. Perché le donne spesso portano una visione coraggiosamente contrastante. Non pensiamo di cambiare tutto e subito, ma sappiamo che un cambiamento oggi può aprire spazi imprevedibili. Questa visione non viene solo dalla speranza, ma dalla consapevolezza della nostra forza. Gli argomenti esposti in questo documento saranno oggetto di discussione sabato 24 gennaio 2026, ore 10.30-13.30, presso la Libreria delle Donne, via Pietro Calvi, 29, Milano. Sarà anche possibile partecipare in streaming.

La Guerra del Sentiment. Manipolazione psicologica e geopolitica nell'era digitale

Per chi come é cresciuto nella ‘politica’, in un mondo impregnato di politica, dove tutto era politica e l’impegno politico un dovere civico, é dura. Ma il distacco razionale , uno spazio riparato dal gorgo delle emozioni è quello che mi serve in questo momento particolare per tentare di capire l’anno che si sta per chiudere e quello che potenzialmente potrebbe aspettarci. Avvertenza: É un saggio lungo , per lettori profondi, nel senso per lettori che ‘hanno tempo da perdere

Shalmaneser: “computer capace di rivaleggiare con il cervello umano”

Shalmaneser, personaggio non umano, Supercomputer onnisciente e quasi onnipotente, campeggia nel romanzo di John Brunner 'Stand on Zanzibar', 1968 ('Tutti a Zanzibar', Editrice Nord, 1977). La sua presenza ingombrante e incombente è la costante nella complessa struttura del romanzo. Non un testo sequenziale, ma punti di vista differenti sulla vicenda narrata che si accumulano e si intersecano: contesto, flusso di eventi, sguardi sulla miriade di personaggi, aggiornamenti sugli stati del mondo.

Ciò che dovrebbe rimanere segreto e nascosto e che invece viene alla luce

Freud ci parla di ciò che alberga in noi, ma vorremmo non ci fosse. Unheimlich, perturbante, inquiétante étrangeté, Uncanny, Unhomely, lo siniestro, lo ominoso, o infamiliar. Locus suspectus, intempesta nocte. Freud ci mostra un cammino, sia pur difficile, per combattere la paura che tutto questo affiori. Ci dice che solo accettando l'esistenza di questo inquietante possiamo conoscere noi stessi e quindi il mondo. Ma le nostre paure ci spingono a cercare una alternativa: costruire macchine -scatole nere- destinate a contenere l'inquietante.

WWW: Il web è una cosa strana

La verità (la praxia conduce alla verità) è che navigare (necesse est navigare) è diventato un dramma (anticipazione pragmatica dell'ultimo verso), se non attaccate all'USB del PC il cavo dell'elettroencefalografo (ironia pragmatica, non antifrastica), cioè se non fate funzionare il cervello, chi non ha intuito che il www sia divenuto un «symbolic outlet» (Bauman, con inversione sociologica distopica dei concetti utopici di «emotional outlet» e «creative outlets» di Barbara Fredrickson o Lisa Feldman Barrett), cioè una no-where zone in cui l'homo consumericius lipovetskyiano, riesca, con continui «sfoghi simbolici», a soddisfare l'eterna insoddisfazione del desiderio, sia condannato a osservare - come un anatomopatologo- la rete (web/rete da tennis [net]), inter-net, come Boris Beckett (onomastic portmanteau pragmatico), cioè Boris Becker/Samuel Beckett, en attendant Godot (in ethernet).

L'uso dannoso della IA è già in atto

Yoshua Bengio, considerato da molti uno dei padrini dell'intelligenza artificiale, è da tempo in prima linea nella ricerca sull'apprendimento automatico. Negli ultimi anni le sue opinioni sulla tecnologia sono cambiate. Non a caso è impegnato a spiegare quali possano essere i rischi posti dall'intelligenza artificiale e a suggerire cosa si potrebbe fare per sviluppare un'intelligenza artificiale più sicura e attenta ai bisogni dell'essere uano.

Perché l'introduzione acritica dell'intelligenza artificiale nelle scuole è un problema?

Le linee guida ministeriali parlano di "utilizzo etico", di "mitigazione dei rischi", ma questo linguaggio rischia di fare l'effetto della proverbiale foglia di fico, a nascondere le pudenda di un'operazione che non può per definizione essere etica, né mitigata in alcun modo nel momento in cui a portarla avanti è Big Tech. La professoressa Daniela Tafani ci aiuta a comprenderne le ragioni: