Oltre le etichette

Viviamo immersi in una complessità senza precedenti. Come l'abbiamo affrontata? Frammentandoci noi stessi. Invece di abitare la complessità del reale, abbiamo moltiplicato all'infinito le categorie identitarie, nella convinzione che definire ogni sfumatura dell'essere ci avrebbe aiutato a orientarci. Il risultato è l'opposto: ci siamo persi in un labirinto di etichette.

Luca e il futuro

Racconto "Non sapeva ancora dove fosse diretto, ma capì che la sua strada non sarebbe stata una freccia di direzione, ma una costellazione. E pe...

L'insopportabile stupidità dell'anti-intelletualismo

L'anti-intellettualismo vince facendo sembrare l'analisi illegittima. L'unica risposta è rendere l'analisi non negoziabile. Quando attaccano il metodo, reindirizza la sostanza. "Stai criticando COME argomento perché non puoi confutare QUELLO che sto sostenendo. Attiva la sostanza o capiremo entrambi perché non lo fai." L'anti-intellettualismo non è pluralismo o autenticità. È il modo in cui il potere impone la stupidità e la chiama verità.

Desiderio e Tempo: l’attualità interrogante di una lettura, francese

Durante gli anni trenta del secolo scorso A. Kojève con i suoi scritti (1935, sulla Revue d’histoire et de philosophie religieuse) e i suoi corsi (seminario su Hegel del 1938-1939), rileggendo pensiero hegeliano, in particolare i testi hegeliani pubblicati nel periodo jenese negli anni a cavallo tra il 1801 e il 1805, produce una influenza profonda sul pensiero francese. Kojève lesse e interpretò Hegel in maniera senza dubbio étonnante, trasformando il testo hegeliano in un’antropologia filosofica e la dialettica hegeliana in una pratica politica rivoluzionaria, davanti a un pubblico esterrefatto e al tempo stesso grandemente affascinato e che annoverava fra i suoi nomi, come si desume dall’annuario dell’Ecole, Jacques Lacan, Georges Bataille, Maurice Merleau-Ponty, Raymond Queneau, Gaston Fessard, Eric Weil, Raymond Aron, Georges Gurvitch, Jean Hyppolite, Robert Marjolin, a volte André Breton e una volta anche Hannah Arendt

Cinque saggi su nichilismo e crisi della democrazia

I saggi qui raccolti interrogano la condizione politica contemporanea a partire dal nesso strutturale tra nichilismo, rappresentanza e democrazia. Attraverso un percorso che intreccia filosofia politica, teoria critica, storia delle idee ed estetica, i saggi analizzano la disaffezione politica non come semplice apatia, ma come sintomo di una crisi più profonda del legame comunitario e della capacità di immaginare alternative al presente. Ne emerge un quadro unitario: il nichilismo politico non coincide con il vuoto di senso, ma con l’impossibilità di trasformarlo, rendendo urgente una riflessione sulle condizioni teoriche e storiche per una possibile reinvenzione della democrazia.

Scatole nere esimenti. Le intelligenze artificiali alla luce delle scienze umane

La cultura digitale, che ha nel concetto di Intelligenza Artificiale il suo emblema, appare una acritica articolazione della cultura STEM. Ciò che è è in grado di osservare lo sguardo delle scienze umane, e in particolare della sociologia, è in questo quadro ridotto all'irrilevanza. Invece, proprio lo sguardo sociologico permette di svelare ciò che si nasconde dietro l'immaginifico lessico che descrive e celebra la cosiddetta Digital Disruption. Non esiste in realtà nessuna rottura. Chiavi di lettura e vicende storiche di cent'anni fa appaiono la miglior via per descrivere il presente. L'informatica nasce come strumento per la gestione di sistemi politici e sociali totalmente organizzati. L'altra faccia dell'informatica -la computer science- appare l'estrema manifestazione del progetto logico-formale di ricerca dell'esattezza e di 'automazione della verità'. Nel clima libertario degli Anni Sessanta del secolo scorso appare però in scena un rovesciamento paradossale. Proprio tramite il codice digitale offerto dalla computazione, erede del logicismo; proprio tramite i computer, macchine progettate per assoggettare gli esseri umani al rispetto di un Libro delle Regole, abbiamo accesso allo sconfinato, sinistro, perturbante, spaesante -ma enormemente ricco- Web. Nel Web è impossibile separare nettamente le ‘credenze’ dalle ‘verità’. Ma sempre si tratta di conoscenze prodotte da esseri umani: Alles Material, tutto ciò che gli umani hanno scelto di conservare. Siamo così invitati a muoverci nella sterminata Rete privi di certezze, mossi, nella nostra ricerca di conoscenze da dunklen Ahnungen, oscure congetture. Una situazione esistenziale che non ci esime né da pericoli né dalla fatica implicita nel sondare l'ignoto, ma ci offre in cambio un esercizio di libertà e di responsabilità. Ciò che ci era difficile vedere, ciò che rimuovevamo, la macchina ci aiuta a vederlo. Con l'Intelligenza Artificiale Generativa questo spazio psichico e sociale torna ad essere negato. Una porzione arbitraria di ciò che il Web contiene è arbitrariamente estratta ed affidata ad una organizzazione interna regolata da algoritmi. Viene così costruita una scatola nera, le cui logiche interne -così prevede il progetto- sono destinate a restare occulte agli stessi progettisti del sistema. I progettisti, infatti, sono mossi dalla rimozione delle proprie pulsioni, dal tentativo di evitare la fatica del conoscersi e del conoscere. Affidano così il compito alla macchina. I problemi psichici dei progettisti si traducono in imposizione di regole ad ogni essere umano. Alla macchina dovranno essere chieste le risposte ad ogni domanda. Fin al punto che, si afferma, se la macchina non è in grado di rispondere, o fornisce risposte errate, ciò è dovuto ad un errore degli umani, incapaci di porre le domande corrette nel modo corretto. L'Intelligenza Artificiale Generativa, così, è un pallido velo che nasconde il ritorno di un'informatica strumento di dominio e di repressione istintuale. Ciò che avremmo potuto vedere, la macchina di esime dal cercare di vederlo.

Albert Camus e Maria Casarès: l'amore contro il destino

“Il y a six ans a commencé au plus profond de ma vie une vie nouvelle qui a fini par tout recouvrir ; il y a six ans j’ai compris, dans une nuit légère et brillante, que je t’aimais – et cet amour, malgré tous les déchirements, s’est élevé à travers les années pour devenir la fierté et la justification de ma vie.” Albert Camus à Maria Casarès  (Correspondance 1944-1959)

Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.

"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.

Dove finiranno i siti web nell’era della Tecnolog-IA e delle macchine?

Uno dei dibattiti minori, per me più interessanti e curiosi del momento, sulle tante trasformazioni indotte dalla rivoluzione delle intelligenze artificiali generative è su che fine faranno i siti web, ora che i motori di ricerca, per soddisfare i loro bulimici bisogni di contenuti, di risorse e di guadagno, sono obbligati a cambiare modelli di business, algoritmi, logiche operative e funzionali, a causa del collasso di click che stanno sperimentando. Un collasso che sembra lento ma che potrebbe trovare una rapida e forte accelerazione nel breve tempo.

Quando i bug costano milioni: l'impatto economico dei difetti software sulla governance aziendale

Nel 2017, il valore azionario di Provident Financial subì un crollo devastante: da £17.42 a £4.50 in poche ore. La causa scatenante fu un difetto nel sistema informatico che aveva provocato la perdita di oltre il cinquanta percento dei debiti di prestito. Nello stesso anno, American Airlines si ritrovò con quindicimila voli completamente prenotati ma privi di piloti, conseguenza diretta di un malfunzionamento nel sistema di scheduling. Il Consortium for IT Software Quality ha quantificato nel 2020 il costo complessivo della scarsa qualità del codice software in 2.08 trilioni di dollari, includendo perdite di produttività, ricavi, profitti, fiducia dei clienti e reputazione del brand. Questi episodi non costituiscono anomalie statistiche: rappresentano manifestazioni di un fenomeno sistemico che attraversa ogni settore industriale. La gestione dei difetti software incide direttamente sui risultati economici delle organizzazioni e rientra a pieno titolo nelle competenze della governance aziendale, ben oltre i confini tradizionali del reparto IT.

Un mio esempio di empowerment femminile

Le tecniche moderne di empowerment femminile sono state intrecciate e abilmente nascoste nelle reazioni agli avvenimenti della vita delle protagoniste dei romanzi di Hornby. Le esperienze concrete della vita vissuta, parole compassionevoli, riflessione filosofica pacata e facile da comprendere dei suoi libri hanno avuto un effetto potentissimo sul mio empowerment femminile.

THE TYRANNY OF PURPOSE

Ethics is not a ritual, but an experiment—a collective effort to become more than any purpose can promise. The measure of transformation is not perfection, but willingness to keep faith with absent potential—the ongoing adventure of becoming what we are called to be.

Tecnolog-IA e stato di umana minorità: per pigrizia e per viltà!

Provate a pensarci, viviamo tempi di grandi e profonde trasformazioni, ci raccontiamo di essere protagonisti del loro accadere, ma in realtà, come esseri umani, ci siamo arenati, corriamo sempre di più, ma siamo fermi, anzi stiamo regredendo, andando all’indietro, siamo diventati i protagonisti della nostra stessa potenziale e possibile (auto)distruzione.

Una Lettura Critica di "The Art of Misuse" di Jon Ippolito

"The Art of Misuse" di Jon Ippolito rappresenta un contributo teorico fondamentale alla comprensione dell'arte tecnologica. La sua forza risiede nella capacità di articolare un principio operativo, la misuse deliberata e intelligente, che attraversa decenni di pratica artistica e che continua a essere rilevante nell'era dell'intelligenza artificiale e delle piattaforme digitali. Il saggio offre una lente critica per distinguere tra diverse modalità di relazione con la tecnologia (management, mismanagement, mistificazione, misuse) e sottolinea la dimensione intrinsecamente politica dell'intervento artistico sui dispositivi tecnici. La tecnologia, nel pensiero e nelle pratiche artistiche di Ippolito, non è mai neutrale: incorpora sempre specifiche visioni del mondo, relazioni di potere e concezioni dell'agency umana.

Ghost Workers in the AI Machine: U.S. Data Worker Big Tech’s Exploitation

Come ormai sempre accade nel mondo virtuale nel quale amiamo nuotare, pochi si interrogano sugli effetti e sulle conseguenze della diffusione delle nuove tecnologie, per come sono oggi pensate, realizzate, gestite e distribuite. Ciò sta accadendo anche con l’intelligenza artificiale, che richiede l’impiego di migliaia di esseri umani per garantire l’efficienza e l’efficacia che le viene richiesta. Pochi si sentono coinvolti dal lato oscuro delle IA caratterizzato da sfruttamento e bassi salari, delocalizzazioni selvagge e colonizzazione nei paesi più poveri. Mondo civile, intellettuali, mondo accademico, politica, ecc. dovrebbero riflettere e aprire dibattiti pubblici su una realtà di sfruttamento del lavoro e in un futuro prossimo venturo di disoccupazione di massa. Altro che sorti progressive e fantasmagorie varie della IA. La riflessione dovrebbe interessare sia i numerosi licenziamenti in corso, di cui non è responsabile la IA ma i proprietari delle aziende che licenziano dopo avere introdotto la IA in azienda, sia il fatto che per funzionare l’IA ha bisogno di una grande quantità di lavoro. Peccato che sia precarizzato, povero, sfruttato, per lo più in paesi poveri. Ma non solo, come il progetto qui segnalato racconta.

Chi governa l’AI? (POV #15)

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

Ci siamo impantanati…anche con e grazie alle IA

Viviamo l’era delle macchine, della tecnolog-IA, della palude digitale. Ci sentiamo immersi in questa realtà, sempre coinvolti, in realtà vi siamo dentro, esistenzialmente impantanati. Ne deriva un senso di immobilità (si corre rimanendo sullo stesso posto), bloccati dentro un presente continuo che ha catturato la nostra attenzione, ci ha intorpidito la mente, bloccandoci dentro bolle cognitive, mettendoci al servizio di algoritmi che ci impediscono di pensare (doomscrolling), di fare delle scelte, di coltivare pensiero e immaginazione.

HOW TO SURVIVE ARTIFICIAL INTELLIGENCE: dialogo Stultifero con Giorgio Griziotti

Il termine "intelligenza artificiale" (IA) è diventato la parola (con)vincente degli ultimi tre anni, dall'arrivo sul mercato della ChatGPT, seguita a ruota da tutte le altre IA generative. A prevalere nella narrazione conformistica dominante è la celebrazione delle opportunità, delle possibilità di sviluppo e delle potenzialità delle nuove tecnolog-IA. Poi ci sono le narrazioni critiche, riflessive, finalizzate a suggerire un approfondimento per una migliore comprensione, non soltanto delle nuove tecnologie in sé, ma soprattutto dei loro effetti e delle loro conseguenze. Tra queste riflessioni c'è quella di Giorgio Griziotti, autore di un saggio, How to survive artificial intelligence. Intelligenza artificiale, tecnofascismo e guerra, nel quale invita a riflettere sul fatto di vivere dentro "una catastrofe in corso", riflessa in molte narrazioni sulle IA, opposte e semplificate, che stanno animando il dibattito pubblico.

¡Feliz Navidad desde un país vestido de fiesta!

Pronto llegarán los desfiles de Carnaval con innovadoras herramientas de muerte disfrazadas de paz. Presto arriveranno le sfilate di Carnevale con innovativi strumenti di morte travestiti da pace. Soon the Carnival parades will arrive with innovative tools of death disguised as peace. Bientôt, les défilés du Carnaval arriveront, porteurs d'instruments de mort innovants déguisés en symboles de paix.