La tecnica e il sociale non vanno confusi: la tecnica è lo strumentale e lo strumentale funziona in modo diverso dalla vita. Renato Curcio aggiunge un altro tassello al suo percorso di ricerca.
Questo libro
è il seguito di un percorso di ricerca che faccio dal 2015, quindi da un po’ di
anni, sul rapporto tra il vivente e lo strumentale, cioè tra le tecnologie nel
senso generale del termine - le macchine - e l’umano, come momenti di un tipo
di società, quella capitalistica, che sempre più li incrocia e li ibrida. Dopo
il periodo della digitalizzazione, quindi di un capitalismo che era passato dal
macchinismo industriale a una più complessa tecnologia digitale - che già aveva
cambiato moltissime modalità di lavorare ma anche di entrare in relazione -
con l’intelligenza artificiale si è fatto un passo ulteriore. Un passo che è
stato guardato, da una parte con la curiosità che spesso caratterizza la
grande stampa, una curiosità legata alla pubblicità, per cui si parla molto di
una certa tecnologia perché questo la promuove - ed è il caso di dispositivi
come ChatGPT, che a un certo punto viene immesso nel mercato e nel consumo un
po’ come era stato fatto, a suo tempo, coi social network, mitizzandone le
potenzialità, le caratteristiche, le prospettive ecc. -; d’altro canto è
tuttavia anche vero che, al di là delle mitizzazioni propagandistiche, queste
tecnologie progressivamente non solo hanno cambiato, e stanno cambiando, il
nostro modo di vivere, ma lo stanno facendo molto velocemente e profondamente,
mentre non cambia la nostra capacità di entrare in relazione consapevole con
questi strumenti. Questo libro, quindi, parla e si interessa dell’intelligenza
artificiale in relazione all’immaginario, ossia in relazione a uno dei
problemi di fondo del cambiamento sociale, perché nessun cambiamento sociale si
è mai prodotto senza che si generasse un immaginario istituente.
Gramsci è
conosciuto in tutto il mondo soprattutto per il suo grande contributo relativo
al concetto di egemonia: sostanzialmente in che modo le classi sociali - e
soprattutto quelle che hanno il potere, quindi che si collocano in una
situazione di forza rispetto alle altre - costruiscono la cattura
dell’immaginario dei cittadini, con quali strumenti li portano a sé; in breve,
come esercitano il loro dominio.
Noi viviamo
in Occidente, dove il concetto di egemonia è fondamentale per aiutarci a
comprendere cosa succede. Per rimanere nel dopoguerra, il dominio è stato ed è
costruito su una cattura dell’immaginario strumentata con la scuola, con i
quotidiani, con la radio, con la televisione, con tutta una serie di strumenti
che costruiscono delle narrazioni sugli eventi. Negli anni Sessanta, un
grandissimo sociologo americano, Charles Wright Mills, e un grande giornalista
americano che lavorava anche con Mills, Walter Lippmann, hanno scritto
interessanti lavori sulla costruzione degli pseudo-ambienti come narrazioni
del potere: tutti i poteri creano delle realtà sostitutive agli eventi, perché
tanto i cittadini non li possono osservare direttamente. Noi vediamo l’Ucraina
o la Palestina attraverso gli occhi di Repubblica, del Corriere della sera,
della Stampa o di qualche blog, di qualche manifesto, di un canale radio o televisivo...
li vediamo insomma sempre attraverso dei media, che ce li presentano in un
certo modo; salvo forse alcuni di noi, non abbiamo alcuna contezza di questi
mondi, non li abbiamo mai incontrati, non abbiamo probabilmente mai nemmeno
conosciuto qualcuno che proviene da questi mondi, o li abbiamo conosciuti
distrattamente perché abbiamo letto un libro o ci siamo un po’ informati. La
costruzione di pseudo-ambienti è quindi la tecnica fondamentale con la quale
viene creato progressivamente un immaginario istituito, con la quale la società
istituisce un modo di apprendere e di vedere le cose. È il motivo per cui
oggi, in tutta l’Europa, l’immaginario istituito rispetto a quel che sta
accadendo nell’area palestinese è che bisogna difendere Israele da un’aggressione:
è indubbio che questo sia uno pseudo-ambiente informativo. Questi processi
sono stati studiati da Gramsci, come citavo prima - ma possiamo ricordare anche
molti altri, come la Scuola di Francoforte - tuttavia con l’intelligenza
artificiale è intervenuta una nuova tecnologia la cui caratteristica è molto
diversa: oggi non è più vero, e men che meno lo sarà in tendenza, che i media
tradizionali svolgano una funzione significativa. McLuhan lo possiamo proprio
mettere in biblioteca. Il suo “il media è il messaggio” è stato un grandissimo
contributo ma oggi non è più vero, se non nella misura in cui il media è
diventato un media personalizzato, non più un media per tutti ma un media per
ciascuno.
Ma prima di
parlare delle tecnologie vediamo quali sono le aziende che producono
l’intelligenza artificiale, qual è la loro storia. OpenAI, il più grosso
laboratorio statunitense di produzione di intelligenza artificiale, ha vissuto
una specie di ‘colpo di Stato’ che l’ha portata a trovare una quadra su una
tecnologia che doveva essere commercializzata: ChatGPT.
A quel punto
tutte le aziende statunitensi - Microsoft, Amazon, Google... - che cooperavano
in questa fondazione, appena ebbero chiaro che stava uscendo un prodotto che
sarebbe stato il mercato del domani, cominciarono a scannarsi. Il ‘colpo di
Stato’ durò quattro giorni, durante i quali il CEO Sam Altman venne prima
estromesso da un gruppo di ingegneri e ricercatori che lo accusarono di fare
carte false, affermando che OpenAI era una struttura di ricerca per il “bene
dell’umanità” e non per un’industria; tutti i giornali del mondo, New York
Times, Financial Times ecc. ne parlarono, e dopo quattro giorni Altman ritornò
a essere il CEO dell’azienda insieme a 16 miliardi di dollari che Microsoft
versò nelle tasche di OpenAI. Dopo di ciò ChatGPT iniziò dunque il suo
percorso e venne immesso nel mercato gratuitamente, esattamente come era stato
fatto con Facebook e con Twitter. Per quale ragione? Per attrarre i potenziali
clienti, anzitutto. E poi perché il mondo è fatto di tanti continenti, di
tanti Paesi e soprattutto di tante lingue e sottoculture, e se si vuole
conquistare il mercato si deve riuscire a mediare la propria ricerca per
ciascun Paese, e anche solo da un punto di vista linguistico non è così
semplice. Quando usiamo un traduttore automatico, anche i migliori, i più
comuni che lavorano di più, dobbiamo poi metterci a correggere il testo,
perché le lingue creano un problema di mediazione che è diverso dalla mera
traduzione che fanno gli algoritmi. Tant’è vero che anche in Italia ci sono
oggi alcune migliaia di persone, generalmente, studenti universitari brillanti,
di discipline soprattutto umanistiche - filosofi, storici, sociologi - che
lavorano online con le grandi società come Google per raffinare le produzioni
delle macchine in lingua italiana, in questo mercato internazionale
dell’intelligenza artificiale. Vengono pagati all’ora - anche molto poco, in
genere 3-4 dollari l’ora - per mettere a posto nella lingua italiana quello che
la macchina ChatGPT risponde nella lingua inglese, per esempio, e questo
richiede un lavoro sintattico, grammaticale, di adattamento alla cultura del
luogo. Naturalmente dopo la prima correzione ce n’è una seconda, un grado
superiore di raffinazione per correggere le correzioni che sono state fatte -
generalmente se ne occupano dei dottorandi - e poi ci sarà ancora un livello
finale di supervisori che cercheranno di stare ancora più attenti alle risposte
che potrebbero essere ‘pericolose’: per esempio alla richiesta di quale sia la
soluzione migliore tra due medicinali, ChatGPT deve scegliere non solo sul
piano sanitario e medico ma anche sul piano dei grandi complessi industriali.
Quindi ci sono dei gradi di raffinazione che diventano sempre più dei gradi di
adattamento del prodotto alle finalità dell’impresa che gestisce questo tipo
di intelligenza artificiale: da qui l’importanza di analizzare la storia delle
aziende che producono questa tecnologia.
Come alcuni
di voi avranno visto, nei giorni scorsi è uscito un nuovo prodotto che non è
più ChatGPT, ma è sempre Microsoft nella forma di OpenAI, che non riguarda
più l’intelligenza artificiale ordinaria ma quella che, in termini più
tecnici, viene chiamata ‘intelligenza artificiale generale’. Qualcosa che
Altman, in un convegno internazionale tenutosi a Torino, ha promosso dicendo
che siamo di fronte a macchine più complesse, con un livello di intelligenza,
nella risposta, superiore all’intelligenza umana. Viene chiamata ‘generale’,
ma in realtà s’intende dire che questa intelligenza artificiale ha superato il
limite QI delle intelligenze umane - da qui il titolo di questo libro, Intelligenze
artificiali e Intelligenze sociali. Ma perché utilizzare le stesse
parole per raccontare due mondi che tra loro non c’entrano nulla?
Quando
parliamo di società e quando parliamo di tecnologie, parliamo di due momenti
della storia della nostra specie. Uno è il momento aggregativo, che è fondato
sulla vita e quindi su organismi viventi nei corpi umani, e ognuno di noi è
assolutamente diverso. Abbiamo certamente tratti comuni, siamo una specie, ma
ogni elemento di questa specie articola e sviluppa se stesso in contesti
sociali specifici, quindi dentro una storia, dentro una vicenda personale, una
individualità ed elabora dunque una propria intelligenza. E questo, dal mio
punto di vista, è un aspetto fondante di straordinaria importanza, perché ci
porta a dire che le intelligenze umane sono infinite, tante quante sono stati
gli umani sulla Terra - l’intelligenza di Leonardo Da Vinci non è quella di
Giuseppe Garibaldi. Ogni umano sviluppa questa facoltà, questo insieme di
capacità, a suo modo, ed è la ragione per cui una società è fatta di tante
variabili che si incontrano, si innamorano, si odiano, si picchiano, vanno a
braccetto... fanno un’infinita serie di cose ognuno mediando la propria
particolarità. Questo porta me, come altri ricercatori - cito Benasayag, per
esempio, con cui condivido la definizione del concetto di intelligenza legato,
per gli organismi viventi, alla vita, quindi c’è un’intelligenza dei gatti, dei
cani, delle spighe di grano... ci sono molte forme di intelligenza legate alla
vita - a un tipo di percorso che si schiude all’interno degli ecosistemi e dei
sistemi sociali che li caratterizzano.
Poi c’è un
altro tipo di produzione, che è quella di macchine che cercano di costruire,
sulla base di algoritmi molto precisi e molto razionalmente definiti, delle
soluzioni probabili a dei problemi; cioè delle soluzioni probabili a delle
complessità. È il territorio dell’intelligenza artificiale, che utilizza una
serie di strumenti statistici, probabilistici, semantici per individuare,
all’interno di un bacino di dati, connessioni, corrispondenze, relazioni.
Sicuramente sono strumenti molto interessanti e molto utili, ma sono strumenti
tecnici e io sono di formazione marxista, quindi non ho mai confuso la tecnica
con il sociale: la tecnica è lo strumentale, e lo strumentale funziona in modo
diverso dalla vita. Se prendo un aggregato di strumenti, per quanto complesso
- una macchina - ho un insieme di funzioni che posso staccare una dall’altra:
mi si rompe un freno, lo sostituisco, c’è una variabile che non funziona, la
cambio.
C’è insomma
tutta una serie di questioni che riguardano gli ingegneri, i matematici, i
linguisti... un gruppo di figure professionali che mette insieme dei
dispositivi che possono risolvere determinati problemi, rispondere a certe
domande. Naturalmente, se a quel tipo di strumenti viene data una massa di
dati, quegli strumenti lavoreranno su quella massa di dati; se ne viene data
un’altra, produrranno risposte diverse. È ciò che fanno le aziende che
producono l’intelligenza artificiale, ed è la ragione per cui dietro ci sono
più tecniche, più tecnologie, più sperimentazioni ma anche più orientamenti
politici. Queste imprese sono imprese capitalistiche, e non sono interessate
alle macchine in sé ma in quanto prodotti di mercato che possono essere
utilizzati in molti campi. E allora cominciamo a vedere che quando parliamo di
intelligenze artificiali, abbiamo anche qui una varietà, ma non è di miliardi
di esemplari come nel caso degli umani: nel mondo occidentale, ci sono appena
una decina di esemplari aziendali significativi con altrettanti orientamenti.
Sintetizzando, se vado dietro queste aziende trovo dei partiti politici e degli
Stati, finanziamenti di un certo tipo: dietro Microsoft trovo Biden, Kamala
Harris e Partito Democratico, dietro xAI di Elon Musk trovo Trump e Paypal,
ecc. Ogni orientamento ha le sue regole e le sue censure, da qui diverse
risposte. È talmente evidente che, per esempio, a una certa serie di domande
politiche, questi strumenti di intelligenza artificiale si astengono dal
rispondere, perché la regola che è stata inserita prevede di non toccare quel
tema: “Non sono stato ancora addestrato a rispondere a questa domanda”,
rispondono.
Dal punto di
vista sociale, dunque, abbiamo due forme di intelligenze che si misurano nel
mondo. Dobbiamo poi fare un passo ulteriore, per distinguere le due forme di
immaginari. Perché l’immaginario è quello che ci consente di passare
dall’istituito all’istituente. Molte intelligenze umane provano infatti un
moto di insofferenza per l’istituito, che le porta a interrogarsi e a farsi la
domanda: come posso cambiare questo di stato di cose? Una domanda che si
pongono anche i lavoratori delle aziende che producono la IA, tant’è che ho
dedicato un capitolo del libro ad approfondire cosa pensano dell’intelligenza
artificiale i tecnici delle imprese che producono l’intelligenza artificiale,
perché è un punto estremamente interessante. Negli Stati Uniti ci sono grandi
organizzazioni molto coraggiose, come quella che organizza i tecnici dell’intelligenza
artificiale di OpenAI e di Google e di Amazon, che ha deciso di pubblicare un
manifesto firmato da un migliaio ingegneri che ci hanno messo nome e cognome,
ruolo e azienda in cui lavorano, e dichiarano di non volere adattare un
particolare dispositivo di riconoscimento facciale ai droni che vengono
utilizzati in guerra. “Voglio fare il mio lavoro di ingegnere, matematico ecc.
non per azioni di guerra”, dicono. Contestano le aziende e pagano dei prezzi
che qui ce li sogniamo. Qui nessuno è più disposto a rischiare. Io non ho
visto coraggio nelle lotte nel mercato italiano o europeo di questi ultimi
anni, lo vedo nella società americana, dove ci sono gruppi di ingegneri che
vengano licenziati da Google, per esempio: 150 ingegneri licenziati, pochi mesi
fa, perché hanno fatto un sit-in contro l’utilizzo di una tecnologia a cui
lavoravano e venduta a Israele; sono qui per fare l’ingegnere, hanno detto, non
per fare il macellaio.
Dobbiamo
cominciare a mettere i puntini sulle i perché il problema non è essere contro
la tecnologia. Il problema è quale tecnologia; non è essere
contro l’intelligenza artificiale - sono strumenti che possono essere
utilissimi - ma quale intelligenza artificiale. È la ragione
per cui, nel libro, dedico tre capitoli distinti a tre tipi di intelligenza
artificiale.
Uno è quello
di cui normalmente parliamo, ossia l’intelligenza artificiale generativa,
ChatGPT per esempio. Queste strutture sono giocattoli, la cui linea di
definizione è Wikipedia: costruiamo una specie di enciclopedia a cui si può
attingere con risposte semplificate o graduate a vari livelli - un livello per
studenti, uno per quadri intermedi, uno per professori... - e man mano che
specializzo la risposta, rendendola più complessa, aumento il costo del
servizio. ChatGPT è stato fatto entrare gratuitamente ma adesso OpenAI inizia a
graduare il costo, dopodiché 20 euro l’anno, per esempio, diventeranno 40 e
ChatGPT sarà un prodotto commerciale. Ci tengo a precisare che a Roma ho fatto
un cantiere con i tecnici informatici delle dieci più grosse aziende che
lavorano in quella città, quindi ho confrontato la mia analisi non solo con la
letteratura sull’argomento ma anche con chi lavora e con chi addestra le macchine
dell’intelligenza artificiale.
C’è poi un
settore un po’ più di nicchia, molto complesso ma molto pericoloso e
interessante, che è quello che segue soprattutto Elon Musk ed è l’intelligenza
artificiale intrusiva. Vale a dire quell’intelligenza artificiale che non si
propone di lavorare sull’immaginario ma sulle reti neurali, ossia direttamente
sul cervello o sul corpo - perché il cervello non esiste senza il resto del
corpo. È un territorio molto ambiguo perché presenta due aspetti. Da un punto
di vista medico-sanitario è estremamente utile e interessante per la nostra
specie, per esempio per le persone che hanno particolari malformazioni per cui
le attività cerebrali non sono più in grado di comunicare con le attività
muscolari. Tuttavia, ed è il secondo aspetto, questa intelligenza artificiale
intrusiva che può collegare tramite un’interfaccia digitale le reti neurali e i
sistemi muscolari, può anche funzionare in senso opposto. Come dire che
potrebbe essere utilizzata per indurre un’intenzione nel sistema cerebrale di
una persona. Negli Stati Uniti è infatti nata un’organizzazione di ricercatori
che lavorano sull’intelligenza artificiale intrusiva che richiama l’attenzione
sul fatto che questa tecnologia può essere utilizzata anche sul piano
militare, per gestire umani bypassando le loro funzioni cerebrali. Questo
problema non riguarda però solo gli Stati Uniti. In Italia, un gruppo di
ricercatori di Trento che lavora su questi progetti, in una struttura molto
elitaria, ha sottoscritto un manifesto e deciso di licenziarsi, perché nella
loro battaglia culturale non sono riusciti a imporre un punto di vista
cautelativo; chi gestiva i fondi della ricerca voleva andare in un’altra
direzione. In tutta evidenza, qui come negli stati Uniti siamo dentro un quadro
di lotte politiche che hanno una caratteristica nuova: non sono legate al
reddito - queste persone guadagnano anche abbastanza bene - bensì ai contenuti
di quel che sta succedendo nella ricerca su questi terreni.
C’è infine
il territorio oggi dominante dell’intelligenza artificiale, che è quello che
chiamo ‘intelligenza artificiale letale’, cioè l’intelligenza artificiale
utilizzata per uccidere centinaia di migliaia di persone. È quella attualmente
usata da Israele, e che viene oltretutto sbandierata in modo propagandistico
come la ‘nuova guerra’ che diventerebbe capace di selezionare gli obiettivi.
Nel libro cito tre tecnologie utilizzate negli ultimi tempi da Israele.
Lavender è sostanzialmente costruita intorno alla raccolta di informazioni
sulla popolazione palestinese, dati che vengono poi aggregati per etichette e
per gradi di pericolosità sociale, associando un punteggio a secondo della
ritenuta pericolosità di un soggetto - un militante di Hamas, per esempio.
Questa classificazione, affermano gli operatori militari dell’esercito
israeliano, è ciò che regola in modo chirurgico i bombardamenti. È stata
infatti approvata una legge, nello Stato di Israele, che ammette l’uccisione di
civili nel momento in cui vengono applicati criteri proporzionali per
l’uccisione di un ‘nemico dello Stato di Israele’; quei civili divengono ‘danni
collaterali’. Le fonti di queste informazioni - per essere chiari - sono due
strutture di cittadini israeliani, persone che hanno lavorato nell’esercito e
ora sono contro la guerra, e corrono grandi rischi per il lavoro di
informazione estremamente precisa che portano avanti. Questo aspetto della
‘proporzionalità’ - strettamente collegato all’intelligenza artificiale - è
molto importante, perché il governo di Israele vuole poter affermare di
applicare le leggi dello Stato di Israele: non uccidiamo alcun cittadino in più
di quelli strettamente necessari, dicono. È importante anche fare un’analisi semantica
delle parole: ‘collaterale’ vuol dire che non ha alcun valore. Il governo di
Israele afferma, sostanzialmente, che ci sono dei cittadini che sono
non-persone, per usare una terminologia di Alessandro Dal Lago; i danni collaterali
sono non-persone. Di conseguenza si possono anche uccidere 40.000 persone
considerandole non-persone. Le parole lavorano sull’immaginario, e quelle che
non vengono usate sono: il governo di Israele sta bombardando palazzi interi,
sta uccidendo migliaia di persone, ma non è importante.
L’intelligenza
artificiale letale lavora quindi su più piani: la raccolta delle informazioni,
la loro sistematizzazione e l’organizzazione delle macchine per colpire i
bersagli, autorizzando a distruggere sia umani, che ambienti, che territori. Un
aspetto sul quale vi invito a riflettere, perché oltre alle case e agli umani
ci sono anche gli animali e i territori, che restano inquinati per decenni o
addirittura per secoli. C’è un problema che riguarderà le generazioni future,
non solo gli industriali che andranno lì a ricostruire se vince una parte
piuttosto che l’altra - questa vergognosa corsa che vediamo da parte di
Confindustria e delle associazioni padronali, che andranno a fare soldi sulle
guerre come altri li fanno producendo le armi. L’intelligenza artificiale
letale mi sembra quindi qualcosa da distinguere nettamente e da porre al centro
di un’attenzione pubblica che deve essere focalizzata anche sulle parole che
vengono utilizzate.
Voglio fare
ancora un esempio: l’attacco ai cerca-persone in Libano. I cerca-persone sono
tecnologie che esistono da decenni, peraltro utilissime in ambito medico. Sono
tecnologie semplicissime, di comunicazione, che mettono in relazione una
persona con un’altra. Chiaramente se intercetto quella rete, come ha fatto
Israele probabilmente per molto tempo, posso costruire una mappa delle
relazioni delle persone: quindi le tecnologie di pace possono essere utilizzate
anche in chiave militare - è la ragione per cui, anche in Italia, in molte
università ci sono ricercatori, docenti e studenti che si battono contro queste
tecnologie definite ‘duali’. Voglio però portare la vostra attenzione sul fatto
che questo non è un passaggio tecnico o tecnologico, ma un passaggio che chiama
in causa le istituzioni. C’è una istituzionalizzazione di una tecnologia che
consente di fare quella modifica tecnica. È la ragione per cui un’azienda può
produrre i cerca-persone nella più assoluta tranquillità, perché produce uno
strumento utile, e un’altra istituzione può prendere quella tecnologia,
modificarla introducendo un granello di esplosivo ad alto potenziale e
mantenere da remoto il collegamento con quello strumento. Ci sono state
centinaia e centinaia di persone in Libano, non sappiamo ancora quante, che
hanno perso gli occhi, i genitali, che hanno avuto complicazioni gravissime, e
che non c’entrano assolutamente nulla con l’idea di guerra.
Per farla
breve, siamo dunque di fronte a un’epoca nella quale l’intelligenza
artificiale si ramifica nelle nostre vite, vi entra profondamente, e nei
prossimi tempi entrerà a un livello che non sarà più solamente quello pacifico
delle intelligenze artificiali generative, ma sarà sempre più quello bellico.
Perché l’Italia è un Paese sovraimplicato (1), fa parte della NATO ed è dentro
l’Occidente, e ha la stessa responsabilità dello Stato di Israele perché non ha
preso, di fatto, alcuna distanza da questa situazione.
In questo
sviluppo di dinamiche, il passaggio che vi invito a guardare con estrema
attenzione è quello che avverrà con questi nuovi dispositivi di intelligenza
artificiale generativa che OpenAI sta lanciando, in parte attraverso anche una
connessione con Apple e quindi potranno funzionare sia sui dispositivi
Microsoft che sugli iPhone. È un’intelligenza artificiale che passerà dalla
dimensione generale - quella di ChatGPT - alla dimensione personale, attraverso
quella tecnologia che viene chiamata ‘assistente personale’. Ogni dispositivo
disporrà quindi di un proprio spazio che aggrega tutte le informazioni
esistenti su internet relative a quella persona, dalle informazioni pubbliche
più generali alle informazioni più private, poi le chat e tutte le
informazioni che passano da quel dispositivo; quell’assistente sarà la
tecnologia a cui ti potrai rivolgere per avere risposte personalizzate ai
problemi che poni, e questo significa che la nostra compagine sociale verrà
ulteriormente disgregata: non più in gruppi che si scannano virtualmente su
Facebook, ma una manipolazione dell’immaginario che agirà sulle singole
persone. Diventeremo dunque molto più soggetti alle influenze da remoto e
credo che ormai, dopo diversi anni di riflessione su questi aspetti, nessuno
ritenga più che esse siano veramente democratiche.
Personalmente,
per quanto mi sforzi di comprendere il significato della parola ‘democrazia’,
credo che di democrazia in questo Paese non ce ne sia, men che meno
nell’Occidente che considera Israele un Paese democratico e lo difende; per
quanto veramente mi sforzi, non riesco a pensare che il concetto di democrazia
sociale corrisponda a questo concetto politico di democrazia. È anche questo
il senso del mio lavoro, che è un lavoro di ricerca su dinamiche che possono
apparire tecniche, o molto legate allo sviluppo della tecnica, ma che invece
considero politiche; perché sono legate alle dinamiche con le quali oggi ci
dobbiamo realmente confrontare, e per le quali non disponiamo di un immaginario
istituente, di una cultura adeguata, che consenta di difenderci e di capire
quali siano i percorsi di cambiamento più ragionevoli se vogliamo sopravvivere
come specie.
Note:
1 Cfr. Renato Curcio, Sovraimplicazioni: capitalismo cibernetico,
intelligenza artificiale, Gaza,
resistenza, Paginauno n. 88, luglio 2024
Nessun commento:
Posta un commento