giovedì 6 marzo 2025

Intelligenze artificiali e intelligenze sociali - Renato Curcio

La tecnica e il sociale non vanno confusi: la tecnica è lo strumentale e lo strumentale funziona in modo diverso dalla vita. Renato Curcio aggiunge un altro tassello al suo percorso di ricerca.

Questo libro è il seguito di un percorso di ricerca che faccio dal 2015, quindi da un po’ di anni, sul rapporto tra il vivente e lo strumentale, cioè tra le tecnologie nel senso generale del termine - le macchine - e l’umano, come momenti di un tipo di società, quella capitalistica, che sempre più li incrocia e li ibrida. Dopo il periodo della digitalizzazione, quindi di un capitalismo che era passato dal macchinismo industriale a una più complessa tecnologia digitale - che già aveva cambiato moltissi­me modalità di lavorare ma anche di entrare in relazione - con l’intelli­genza artificiale si è fatto un passo ulteriore. Un passo che è stato guar­dato, da una parte con la curiosità che spesso caratterizza la grande stampa, una curiosità legata alla pubblicità, per cui si parla molto di una certa tecnologia perché questo la promuove - ed è il caso di dispositivi come ChatGPT, che a un certo punto viene immesso nel mercato e nel consumo un po’ come era stato fatto, a suo tempo, coi social network, mitizzandone le potenzialità, le caratteristiche, le prospettive ecc. -; d’altro canto è tuttavia anche vero che, al di là delle mitizzazioni propa­gandistiche, queste tecnologie progressivamente non solo hanno cam­biato, e stanno cambiando, il nostro modo di vivere, ma lo stanno fa­cendo molto velocemente e profondamente, mentre non cambia la no­stra capacità di entrare in relazione consapevole con questi strumenti. Questo libro, quindi, parla e si interessa dell’intelligenza artificiale in re­lazione all’immaginario, ossia in relazione a uno dei problemi di fondo del cambiamento sociale, perché nessun cambiamento sociale si è mai prodotto senza che si generasse un immaginario istituente.

Gramsci è conosciuto in tutto il mondo soprattutto per il suo grande contributo relativo al concetto di egemonia: sostanzialmente in che mo­do le classi sociali - e soprattutto quelle che hanno il potere, quindi che si collocano in una situazione di forza rispetto alle altre - costruiscono la cattura dell’immaginario dei cittadini, con quali stru­menti li portano a sé; in breve, come esercitano il loro dominio.

Noi viviamo in Occidente, dove il con­cetto di egemonia è fondamentale per aiutarci a comprendere cosa succede. Per rimanere nel dopo­guerra, il dominio è stato ed è costruito su una cattu­ra dell’immaginario strumentata con la scuola, con i quotidiani, con la radio, con la televisione, con tutta una serie di strumenti che costruiscono delle narra­zioni sugli eventi. Negli anni Sessanta, un grandissi­mo sociologo americano, Charles Wright Mills, e un grande giornalista americano che lavorava anche con Mills, Walter Lippmann, hanno scritto interessanti la­vori sulla costruzione degli pseudo-ambienti come narrazioni del potere: tutti i poteri creano delle real­tà sostitutive agli eventi, perché tanto i cittadini non li possono osservare direttamente. Noi vediamo l’U­craina o la Palestina attraverso gli occhi di Repubbli­ca, del Corriere della sera, della Stampa o di qualche blog, di qualche manifesto, di un canale radio o tele­visivo... li vediamo insomma sempre attraverso dei media, che ce li presentano in un certo modo; salvo forse alcuni di noi, non abbiamo alcuna contezza di questi mondi, non li abbiamo mai incontrati, non ab­biamo probabilmente mai nemmeno conosciuto qual­cuno che proviene da questi mondi, o li abbiamo co­nosciuti distrattamente perché abbiamo letto un li­bro o ci siamo un po’ informati. La costruzione di pseudo-ambienti è quindi la tecnica fondamentale con la quale viene creato progressivamente un im­maginario istituito, con la quale la società istituisce un modo di apprendere e di vedere le cose. È il moti­vo per cui oggi, in tutta l’Europa, l’immaginario istituito rispetto a quel che sta accaden­do nell’area palestinese è che biso­gna difendere Israele da un’aggres­sione: è indubbio che questo sia uno pseudo-ambiente informativo. Que­sti processi sono stati studiati da Gramsci, come citavo prima - ma possiamo ricordare anche molti altri, come la Scuola di Francoforte - tut­tavia con l’intelligenza artificiale è in­tervenuta una nuova tecnologia la cui caratteristica è molto diversa: og­gi non è più vero, e men che meno lo sarà in tendenza, che i media tradi­zionali svolgano una funzione signifi­cativa. McLuhan lo possiamo proprio mettere in biblioteca. Il suo “il media è il messaggio” è stato un grandissimo contributo ma oggi non è più vero, se non nella misura in cui il media è diventato un media personalizzato, non più un media per tutti ma un media per ciascuno.

Ma prima di parlare delle tecno­logie vediamo quali sono le aziende che producono l’intelligenza artificia­le, qual è la loro storia. OpenAI, il più grosso laboratorio statunitense di produzione di intelligenza artificiale, ha vissuto una specie di ‘colpo di Sta­to’ che l’ha portata a trovare una quadra su una tecnologia che doveva essere commercializzata: ChatGPT.

A quel punto tutte le aziende statunitensi - Microsoft, Amazon, Google... - che cooperavano in questa fondazione, appena ebbero chiaro che sta­va uscendo un prodotto che sarebbe stato il mercato del domani, co­minciarono a scannarsi. Il ‘colpo di Stato’ durò quattro giorni, durante i quali il CEO Sam Altman venne prima estromesso da un gruppo di inge­gneri e ricercatori che lo accusarono di fare carte false, affermando che OpenAI era una struttura di ricerca per il “bene dell’umanità” e non per un’industria; tutti i giornali del mondo, New York Times, Financial Times ecc. ne parlarono, e dopo quattro giorni Altman ritornò a essere il CEO dell’azienda insieme a 16 miliardi di dollari che Microsoft versò nelle ta­sche di OpenAI. Dopo di ciò ChatGPT iniziò dunque il suo percorso e venne immesso nel mercato gratuitamente, esattamente come era sta­to fatto con Facebook e con Twitter. Per quale ragione? Per attrarre i potenziali clienti, anzitutto. E poi perché il mondo è fatto di tanti conti­nenti, di tanti Paesi e soprattutto di tante lingue e sottoculture, e se si vuole conquistare il mercato si deve riuscire a mediare la propria ricerca per ciascun Paese, e anche solo da un punto di vista linguistico non è così semplice. Quando usiamo un traduttore automatico, anche i mi­gliori, i più comuni che lavorano di più, dobbiamo poi metterci a correg­gere il testo, perché le lingue creano un problema di mediazione che è diverso dalla mera traduzione che fanno gli algoritmi. Tant’è vero che anche in Italia ci sono oggi alcune migliaia di persone, generalmente, studenti universitari brillanti, di discipline soprattutto umanistiche - fi­losofi, storici, sociologi - che lavorano online con le grandi società come Google per raffinare le produzioni delle macchine in lingua italiana, in questo mercato internazionale dell’intelligenza artificiale. Vengono pa­gati all’ora - anche molto poco, in genere 3-4 dollari l’ora - per mettere a posto nella lingua italiana quello che la macchina ChatGPT risponde nella lingua inglese, per esempio, e questo richiede un lavoro sintattico, grammaticale, di adattamento alla cultura del luogo. Naturalmente dopo la prima correzione ce n’è una seconda, un grado superiore di raf­finazione per correggere le correzioni che sono state fatte - general­mente se ne occupano dei dottorandi - e poi ci sarà ancora un livello fi­nale di supervisori che cercheranno di stare ancora più attenti alle ri­sposte che potrebbero essere ‘pericolose’: per esempio alla richiesta di quale sia la soluzione migliore tra due medicinali, ChatGPT deve sceglie­re non solo sul piano sanitario e medico ma anche sul piano dei grandi complessi industriali. Quindi ci sono dei gradi di raffinazione che diven­tano sempre più dei gradi di adattamento del prodotto alle finalità del­l’impresa che gestisce questo tipo di intelligenza artificiale: da qui l’im­portanza di analizzare la storia delle aziende che producono questa tec­nologia.

Come alcuni di voi avranno visto, nei giorni scorsi è uscito un nuovo prodotto che non è più ChatGPT, ma è sempre Microsoft nella forma di OpenAI, che non riguarda più l’intelligenza artificiale ordinaria ma quel­la che, in termini più tecnici, viene chiamata ‘intelligenza artificiale ge­nerale’. Qualcosa che Altman, in un convegno internazionale tenutosi a Torino, ha promosso dicendo che siamo di fronte a macchine più com­plesse, con un livello di intelligenza, nella risposta, superiore all’intelli­genza umana. Viene chiamata ‘generale’, ma in realtà s’intende dire che questa intelligenza artificiale ha superato il limite QI delle intelli­genze umane - da qui il titolo di questo libro, Intelligenze artificiali e In­telligenze sociali. Ma perché utilizzare le stesse parole per raccontare due mondi che tra loro non c’entrano nulla?

Quando parliamo di società e quando parliamo di tecnologie, parlia­mo di due momenti della storia della nostra specie. Uno è il momento aggregativo, che è fondato sulla vita e quindi su organismi viventi nei corpi umani, e ognuno di noi è assolutamente diverso. Abbiamo certa­mente tratti comuni, siamo una specie, ma ogni elemento di questa specie articola e sviluppa se stesso in contesti sociali specifici, quindi dentro una storia, dentro una vicenda personale, una individualità ed elabora dunque una propria intelligenza. E questo, dal mio punto di vi­sta, è un aspetto fondante di straordinaria importanza, perché ci porta a dire che le intelligenze umane sono infinite, tante quante sono stati gli umani sulla Terra - l’intelligenza di Leonardo Da Vinci non è quella di Giuseppe Garibaldi. Ogni umano sviluppa questa facoltà, questo insie­me di capacità, a suo modo, ed è la ragione per cui una società è fatta di tante variabili che si incontrano, si innamorano, si odiano, si picchia­no, vanno a braccetto... fanno un’infinita serie di cose ognuno median­do la propria particolarità. Questo porta me, come altri ricercatori - cito Benasayag, per esempio, con cui condivido la definizione del con­cetto di intelligenza legato, per gli organismi viventi, alla vita, quindi c’è un’intelligenza dei gatti, dei cani, delle spighe di grano... ci sono molte forme di intelligenza legate alla vita - a un tipo di percorso che si schiu­de all’interno degli ecosistemi e dei sistemi sociali che li caratterizzano.

Poi c’è un altro tipo di produzione, che è quella di macchine che cer­cano di costruire, sulla base di algoritmi molto precisi e molto razional­mente definiti, delle soluzioni probabili a dei problemi; cioè delle solu­zioni probabili a delle complessità. È il territorio dell’intelligenza artifi­ciale, che utilizza una serie di strumenti statistici, probabilistici, seman­tici per individuare, all’interno di un bacino di dati, connessioni, corri­spondenze, relazioni. Sicuramente sono strumenti molto interessanti e molto utili, ma sono strumenti tecnici e io sono di formazione marxista, quindi non ho mai confuso la tecnica con il sociale: la tecnica è lo stru­mentale, e lo strumentale funziona in modo diverso dalla vita. Se pren­do un aggregato di strumenti, per quanto complesso - una macchina - ho un insieme di funzioni che posso staccare una dall’altra: mi si rompe un freno, lo sostituisco, c’è una variabile che non funziona, la cambio.

C’è insomma tutta una serie di questioni che riguardano gli ingegneri, i matematici, i linguisti... un gruppo di figure professionali che mette in­sieme dei dispositivi che possono risolvere determinati problemi, ri­spondere a certe domande. Naturalmente, se a quel tipo di strumenti viene data una massa di dati, quegli strumenti lavoreranno su quella massa di dati; se ne viene data un’altra, produrranno risposte diverse. È ciò che fanno le aziende che producono l’intelligenza artificiale, ed è la ragione per cui dietro ci sono più tecniche, più tecnologie, più speri­mentazioni ma anche più orientamenti politici. Queste imprese sono imprese capitalistiche, e non sono interessate alle macchine in sé ma in quanto prodotti di mercato che possono essere utilizzati in molti campi. E allora cominciamo a vedere che quando parliamo di intelligenze artifi­ciali, abbiamo anche qui una varietà, ma non è di miliardi di esemplari come nel caso degli umani: nel mondo occidentale, ci sono appena una decina di esemplari aziendali significativi con altrettanti orientamenti. Sintetizzando, se vado dietro queste aziende trovo dei partiti politici e degli Stati, finanziamenti di un certo tipo: dietro Microsoft trovo Biden, Kamala Harris e Partito Democratico, dietro xAI di Elon Musk trovo Trump e Paypal, ecc. Ogni orientamento ha le sue regole e le sue cen­sure, da qui diverse risposte. È talmente evidente che, per esempio, a una certa serie di domande politiche, questi strumenti di intelligenza artificiale si astengono dal rispondere, perché la regola che è stata inse­rita prevede di non toccare quel tema: “Non sono stato ancora adde­strato a rispondere a questa domanda”, rispondono.

Dal punto di vista sociale, dunque, abbiamo due forme di intelligen­ze che si misurano nel mondo. Dobbiamo poi fare un passo ulteriore, per distinguere le due forme di immaginari. Perché l’immaginario è quello che ci consente di passare dall’istituito all’istituente. Molte intel­ligenze umane provano infatti un moto di insofferenza per l’istituito, che le porta a interrogarsi e a farsi la domanda: come posso cambiare questo di stato di cose? Una domanda che si pongono anche i lavorato­ri delle aziende che producono la IA, tant’è che ho dedicato un capitolo del libro ad approfondire cosa pensano dell’intelligenza artificiale i tec­nici delle imprese che producono l’intelligenza artificiale, perché è un punto estremamente interessante. Negli Stati Uniti ci sono grandi orga­nizzazioni molto coraggiose, come quella che organizza i tecnici dell’in­telligenza artificiale di OpenAI e di Google e di Amazon, che ha deciso di pubblicare un manifesto firmato da un migliaio ingegneri che ci hanno messo nome e cognome, ruolo e azienda in cui lavorano, e dichiarano di non volere adattare un particolare dispositivo di riconoscimento fac­ciale ai droni che vengono utilizzati in guerra. “Voglio fare il mio lavoro di ingegnere, matematico ecc. non per azioni di guerra”, dicono. Conte­stano le aziende e pagano dei prezzi che qui ce li sogniamo. Qui nessu­no è più disposto a rischiare. Io non ho visto coraggio nelle lotte nel mercato italiano o europeo di questi ultimi anni, lo vedo nella società americana, dove ci sono gruppi di ingegneri che vengano licenziati da Google, per esempio: 150 ingegneri licenziati, pochi mesi fa, perché hanno fatto un sit-in contro l’utilizzo di una tecnologia a cui lavoravano e venduta a Israele; sono qui per fare l’ingegnere, hanno detto, non per fare il macellaio.

Dobbiamo cominciare a mettere i puntini sulle i perché il problema non è essere contro la tecnologia. Il problema è quale tecnologia; non è essere contro l’intelligenza artificiale - sono strumenti che possono es­sere utilissimi - ma quale intelligenza artificiale. È la ragione per cui, nel libro, dedico tre capitoli distinti a tre tipi di intelligenza artificiale.

Uno è quello di cui normalmente parliamo, ossia l’intelligenza artifi­ciale generativa, ChatGPT per esempio. Queste strutture sono giocatto­li, la cui linea di definizione è Wikipedia: costruiamo una specie di enci­clopedia a cui si può attingere con risposte semplificate o graduate a vari livelli - un livello per studenti, uno per quadri intermedi, uno per professori... - e man mano che specializzo la risposta, rendendola più complessa, aumento il costo del servizio. ChatGPT è stato fatto entrare gratuitamente ma adesso OpenAI inizia a graduare il costo, dopodiché 20 euro l’anno, per esempio, diventeranno 40 e ChatGPT sarà un pro­dotto commerciale. Ci tengo a precisare che a Roma ho fatto un cantie­re con i tecnici informatici delle dieci più grosse aziende che lavorano in quella città, quindi ho confrontato la mia analisi non solo con la lettera­tura sull’argomento ma anche con chi lavora e con chi addestra le mac­chine dell’intelligenza artificiale.

C’è poi un settore un po’ più di nicchia, molto complesso ma molto pericoloso e interessante, che è quello che segue soprattutto Elon Musk ed è l’intelligenza artificiale intrusiva. Vale a dire quell’intelligen­za artificiale che non si propone di lavorare sull’immaginario ma sulle reti neurali, ossia direttamente sul cervello o sul corpo - perché il cer­vello non esiste senza il resto del corpo. È un territorio molto ambiguo perché presenta due aspetti. Da un punto di vista medico-sanitario è estremamente utile e interessante per la nostra specie, per esempio per le persone che hanno particolari malformazioni per cui le attività cerebrali non sono più in grado di comunicare con le attività muscolari. Tuttavia, ed è il secondo aspetto, questa intelligenza artificiale intrusiva che può collegare tramite un’interfaccia digitale le reti neurali e i siste­mi muscolari, può anche funzionare in senso opposto. Come dire che potrebbe essere utilizzata per indurre un’intenzione nel sistema cere­brale di una persona. Negli Stati Uniti è infatti nata un’organizzazione di ricercatori che lavorano sull’intelligenza artificiale intrusiva che richia­ma l’attenzione sul fatto che questa tecnologia può essere utilizzata an­che sul piano militare, per gestire umani bypassando le loro funzioni ce­rebrali. Questo problema non riguarda però solo gli Stati Uniti. In Italia, un gruppo di ricercatori di Trento che lavora su questi progetti, in una struttura molto elitaria, ha sottoscritto un manifesto e deciso di licen­ziarsi, perché nella loro battaglia culturale non sono riusciti a imporre un punto di vista cautelativo; chi gestiva i fondi della ricerca voleva an­dare in un’altra direzione. In tutta evidenza, qui come negli stati Uniti siamo dentro un quadro di lotte politiche che hanno una caratteristica nuova: non sono legate al reddito - queste persone guadagnano anche abbastanza bene - bensì ai contenuti di quel che sta succedendo nella ricerca su questi terreni.

C’è infine il territorio oggi dominante dell’intelligenza artificiale, che è quello che chiamo ‘intelligenza artificiale letale’, cioè l’intelligenza ar­tificiale utilizzata per uccidere centinaia di migliaia di persone. È quella attualmente usata da Israele, e che viene oltretutto sbandierata in modo propagandistico come la ‘nuova guerra’ che diventerebbe capace di selezionare gli obiettivi. Nel libro cito tre tecnologie utilizzate negli ultimi tempi da Israele. Lavender è sostanzialmente costruita intorno alla raccolta di informazioni sulla popolazione palestinese, dati che ven­gono poi aggregati per etichette e per gradi di pericolosità sociale, as­sociando un punteggio a secondo della ritenuta pericolosità di un sog­getto - un militante di Hamas, per esempio. Questa classificazione, af­fermano gli operatori militari dell’esercito israeliano, è ciò che regola in modo chirurgico i bombardamenti. È stata infatti approvata una legge, nello Stato di Israele, che ammette l’uccisione di civili nel momento in cui vengono applicati criteri proporzionali per l’uccisione di un ‘nemico dello Stato di Israele’; quei civili divengono ‘danni collaterali’. Le fonti di queste informazioni - per essere chiari - sono due strutture di cittadini israeliani, persone che hanno lavorato nell’esercito e ora sono contro la guerra, e corrono grandi rischi per il lavoro di informazione estrema­mente precisa che portano avanti. Questo aspetto della ‘proporzionali­tà’ - strettamente collegato all’intelligenza artificiale - è molto impor­tante, perché il governo di Israele vuole poter affermare di applicare le leggi dello Stato di Israele: non uccidiamo alcun cittadino in più di quelli strettamente necessari, dicono. È importante anche fare un’analisi se­mantica delle parole: ‘collaterale’ vuol dire che non ha alcun valore. Il governo di Israele afferma, sostanzialmente, che ci sono dei cittadini che sono non-persone, per usare una terminologia di Alessandro Dal Lago; i danni collaterali sono non-persone. Di conseguenza si possono anche uccidere 40.000 persone considerandole non-persone. Le parole lavorano sull’immaginario, e quelle che non vengono usate sono: il go­verno di Israele sta bombardando palazzi interi, sta uccidendo migliaia di persone, ma non è importante.

L’intelligenza artificiale letale lavora quindi su più piani: la raccolta delle informazioni, la loro sistematizzazione e l’organizzazione delle macchine per colpire i bersagli, autorizzando a distruggere sia umani, che ambienti, che territori. Un aspetto sul quale vi invito a riflettere, perché oltre alle case e agli umani ci sono anche gli animali e i territori, che restano inquinati per decenni o addirittura per secoli. C’è un pro­blema che riguarderà le generazioni future, non solo gli industriali che andranno lì a ricostruire se vince una parte piuttosto che l’altra - que­sta vergognosa corsa che vediamo da parte di Confindustria e delle as­sociazioni padronali, che andranno a fare soldi sulle guerre come altri li fanno producendo le armi. L’intelligenza artificiale letale mi sembra quindi qualcosa da distinguere nettamente e da porre al centro di un’attenzione pubblica che deve essere focalizzata anche sulle parole che vengono utilizzate.

Voglio fare ancora un esempio: l’attacco ai cerca-persone in Libano. I cerca-persone sono tecnologie che esistono da decenni, peraltro uti­lissime in ambito medico. Sono tecnologie semplicissime, di comunica­zione, che mettono in relazione una persona con un’altra. Chiaramente se intercetto quella rete, come ha fatto Israele probabilmente per mol­to tempo, posso costruire una mappa delle relazioni delle persone: quindi le tecnologie di pace possono essere utilizzate anche in chiave militare - è la ragione per cui, anche in Italia, in molte università ci sono ricercatori, docenti e studenti che si battono contro queste tecnologie definite ‘duali’. Voglio però portare la vostra attenzione sul fatto che questo non è un passaggio tecnico o tecnologico, ma un passaggio che chiama in causa le istituzioni. C’è una istituzionalizzazione di una tecno­logia che consente di fare quella modifica tecnica. È la ragione per cui un’azienda può produrre i cerca-persone nella più assoluta tranquillità, perché produce uno strumento utile, e un’altra istituzione può prende­re quella tecnologia, modificarla introducendo un granello di esplosivo ad alto potenziale e mantenere da remoto il collegamento con quello strumento. Ci sono state centinaia e centinaia di persone in Libano, non sappiamo ancora quante, che hanno perso gli occhi, i genitali, che han­no avuto complicazioni gravissime, e che non c’entrano assolutamente nulla con l’idea di guerra.

Per farla breve, siamo dunque di fronte a un’epoca nella quale l’in­telligenza artificiale si ramifica nelle nostre vite, vi entra profondamen­te, e nei prossimi tempi entrerà a un livello che non sarà più solamente quello pacifico delle intelligenze artificiali generative, ma sarà sempre più quello bellico. Perché l’Italia è un Paese sovraimplicato (1), fa parte della NATO ed è dentro l’Occidente, e ha la stessa responsabilità dello Stato di Israele perché non ha preso, di fatto, alcuna distanza da questa situazione.

In questo sviluppo di dinamiche, il passaggio che vi invito a guardare con estrema attenzione è quello che avverrà con questi nuovi dispositi­vi di intelligenza artificiale generativa che OpenAI sta lanciando, in par­te attraverso anche una connessione con Apple e quindi potranno fun­zionare sia sui dispositivi Microsoft che sugli iPhone. È un’intelligenza artificiale che passerà dalla dimensione generale - quella di ChatGPT - alla dimensione personale, attraverso quella tecnologia che viene chia­mata ‘assistente personale’. Ogni dispositivo disporrà quindi di un pro­prio spazio che aggrega tutte le informazioni esistenti su internet relati­ve a quella persona, dalle informazioni pubbliche più generali alle infor­mazioni più private, poi le chat e tutte le informazioni che passano da quel dispositivo; quell’assistente sarà la tecnologia a cui ti potrai rivol­gere per avere risposte personalizzate ai problemi che poni, e questo si­gnifica che la nostra compagine sociale verrà ulteriormente disgregata: non più in gruppi che si scannano virtualmente su Facebook, ma una manipolazione dell’immaginario che agirà sulle singole persone. Diven­teremo dunque molto più soggetti alle influenze da remoto e credo che ormai, dopo diversi anni di riflessione su questi aspetti, nessuno ritenga più che esse siano veramente democratiche.

Personalmente, per quanto mi sforzi di comprendere il significato della parola ‘democrazia’, credo che di democrazia in questo Paese non ce ne sia, men che meno nell’Occidente che considera Israele un Paese democratico e lo difende; per quanto veramente mi sforzi, non riesco a pensare che il concetto di democrazia sociale corrisponda a questo con­cetto politico di democrazia. È anche questo il senso del mio lavoro, che è un lavoro di ricerca su dinamiche che possono apparire tecniche, o molto legate allo sviluppo della tecnica, ma che invece considero politi­che; perché sono legate alle dinamiche con le quali oggi ci dobbiamo realmente confrontare, e per le quali non disponiamo di un immagina­rio istituente, di una cultura adeguata, che consenta di difenderci e di capire quali siano i percorsi di cambiamento più ragionevoli se vogliamo sopravvivere come specie.

Note:

1 Cfr. Renato Curcio, Sovraimplicazioni: capitalismo cibernetico, intelligenza artificiale, Gaza, resistenza, Paginauno n. 88, luglio 2024


da qui

Nessun commento:

Posta un commento