Per affrontare la questione dell’agire, occorre tener conto di un elemento centrale. Dobbiamo ammettere la realtà della governamentalità algoritmica: la vita degli individui e delle società è orientata e strutturata da macchine. Per la verità, il mondo algoritmico non è né per né contro il vivente, gli è indifferente. Ad esempio, molti magistrati in Francia si preoccupano per la possibilità che ci si diriga verso l’istituzione di tribunali algoritmici, poiché desiderano continuare a prendere decisioni secondo il foro interno della loro anima o coscienza. Tuttavia, l’intelligenza artificiale li assiste sempre più nella loro raccolta di dati, per comporre dossier o repertoriare casi di giurisprudenza… L’aiuto algoritmico è quindi già una realtà nel lavoro dei magistrati. La cosa più pericolosa, a mio avviso, è la giustizia predittiva, che pretende di identificare la pericolosità potenziale di un individuo a partire dall’analisi di micro-dati o micro-comportamenti. La minima segnalazione alla giustizia potrebbe essere presa in considerazione dagli algoritmi. E parlo appunto di microcomportamenti, non del fatto che qualcuno abbia guardato su internet come fabbricare una bomba! La cosa è molto più sottile: la macchina analizza dei micro-interessi – acquisti online, siti consultati ecc. – e, dalla loro correlazione, ‘decide’ della pericolosità o meno della persona.
Faccio un esempio: Google ha disposto un sistema di osservazione del modo
in cui si utilizza la propria carta di credito in un anno, capace di prevedere
con l’85% di attendibilità se l’utente della carta divorzierà nei tre anni
successivi… Gli algoritmi funzionano a partire da quelle microinformazioni
raccolte in massa nel mondo digitale che, messe insieme e correlate tra loro,
determinano i profili.
Questo è il pericolo, mi pare, insito nella nozione di ‘comportamento’, che
disegna routine ripetitive su una vita che è ben più aleatoria di quanto
l’insieme di quelle routine lasci supporre….
Sì, ma non è affatto la questione del comportamento a essere qui in gioco.
Intendo dire questo: la macchina di fatto assembla dei micro-comportamenti che
si potrebbero designare come pre-individuali, un insieme di tracce numeriche,
abitudini, regolarità, frammenti di attività che non hanno nulla a che vedere
con il risultato dell’interpretazione. Nel caso di certe malattie, ad esempio,
l’intenzione è quella di identificare delle correlazioni per definire una
medicina preventiva, ma ciò avviene sulla base di dati che molto spesso non
hanno alcuna relazione con la salute della persona!
Il modello epistemologico su cui si fonda questa governamentalità è quello
dell’essere umano modulare, simile a quello proposto dalla biologia molecolare.
Si riduce l’individuo non alle sue decisioni ma ai suoi micro-comportamenti. La
biologia non si interessa alla vita stessa, ma alle particelle elementari che
si associano tra loro. Nel caso della governamentalità algoritmica è la stessa
cosa: si inserisce nella macchina una quantità enorme di micro-atti di diverso
tipo – dove la persona passa le sue vacanze, quali percorsi segue, quali siti
consulta su internet, chi chiama ecc. – in base ai quali è possibile stabilire
profili virtuali, che si suppone possano rivelare gli individui pericolosi o
devianti. La governamentalità, quindi, non si rivolge più alla persona (anche
se il concetto di persona, così come era usato nell’antico modello di
governamentalità, che va a votare in piena coscienza era altrettanto
discutibile). Tutti i dati stoccati sono pre-individuali, perché le persone
sono assimilate tra loro e poi assimilate ai loro profili. Non c’è un senso. È
esattamente la stessa idea che si ritrova nella teoria dei meme di
Richard Dawkins.
È quindi una visione della persona come macchina?
Sicuramente, gli adepti dell’intelligenza artificiale sono convinti che
l’individuo sia una macchina, un ricettacolo di diversi micro-comportamenti,
senza un senso complessivo. Non ci sono più né individui, né popolazioni, né
comunità: esistono profili e avatar virtuali. Gli algoritmi sono fondati
sull’individuazione di tendenze: ad esempio, la potenzialità violenta o meno di
un individuo.
[…]
Nel romanzo di Philip K. Dick, The Penultimate Truth, del 1964,
gli umani rifugiati in ‘formicai’ sotterranei ascoltano su schermi giganti il
loro presidente Talbot Yancy, che è in realtà un robot, controllato da
un’intelligenza artificiale, cui vengono date false informazioni perché
costruisca un discorso rassicurante… In un certo senso Dick ha previsto la
nostra realtà attuale.
Sì, in realtà è ispirato al romanzo dell’autore argentino Adolfo Bioy
Casares del 1940, La invención de Morel … Comunque sia, si
pone la questione dell’agire. L’istituzione non ha di fronte persone che la
contestino, ma movimenti di micro-comportamenti che è necessario dominare. Non
c’è alcun riconoscimento della conflittualità, poiché la macchina elimina
l’altro. La minima critica è interpretata come un inceppamento che occorre riparare
o come qualcosa da eliminare attraverso lo scontro e la repressione. In tutti i
casi, se le reazioni alla politica del governo non sono buone, non è a causa di
un disaccordo ideologico, ma semplicemente perché la comunicazione è stata
condotta male, perché i meme utilizzati non sono stati quelli
giusti. Utilizzo perciò il termine di post-democrazia, perché in questo
contesto non si può votare che per persone che hanno lo stesso programma.
D’altronde, anche Matteo Salvini, che in Italia ha attinto e diffuso idee e
stereotipi di tipo fascista, segue in realtà gli orientamenti della Banca
europea… In Francia, Emmanuel Macron dichiara di interessarsi alle
responsabilità coloniali della Francia, ma per quel che riguarda i migranti… si
può dire che fa piangendo quello che la signora Le Pen fa ridendo!
Il conflitto necessario alla democrazia non esiste quindi più?
La questione è di sapere come lottare contro la cancellazione
dell’alterità. De Gaulle aveva degli avversari autentici: gli americani e i
comunisti. In Argentina la giunta militare aveva un’ideologia da difendere
contro i rivoluzionari. Alcuni militari addetti alla tortura adoravano, tra una
seduta e l’altra, spiegare ai prigionieri – soprattutto agli intellettuali – le
motivazioni e l’importanza della loro battaglia. Oggi l’alterità non è più
presa in considerazione: si pretende che un terrorista si sia radicalizzato per
ragioni unicamente psicologiche. Quando i giudici sono venuti a chiedermi un
parere sulla questione della radicalizzazione, per progettare un cammino di
deradicalizzazione, ho risposto che occorreva forse tener anche conto della
variabile ideologica, e non considerare la cosa unicamente come un semplice
sintomo. Un ‘gilet giallo’ contestatore è oggi trattato allo stesso modo: lo si
delegittima riducendolo a un insieme di sintomi da trattare. La conclusione è
che non si tollera nessun conflitto, si vuole unicamente lo scontro. L’altro è
un Barbaro, e contro il Barbaro posso applicare la barbarie.
[…]
Che rapporto intercorre tra l’assenza di conflittualità nelle nostre
società e l’intelligenza artificiale?
L’applicazione della ‘tolleranza zero’ nei confronti del conflitto è
confortata dalla macchina. La macchina è vista come rigorosamente giusta, ma
gli umani non sono mai rigorosamente giusti! Una macchina, per definizione, non
può comprendere le logiche ‘sfumate’, non nette: può calcolare, ad esempio, che
4 è il doppio di 2, ma non può sapere, ad esempio, se un’abitazione è ‘grande’,
perché questa è ‘grande’ in rapporto a cosa? C’è nel vivente una dimensione di
soggettività che sfugge alla macchina. Allo stesso modo, a livello giuridico,
la macchina non può tener conto di ciò che è ‘legittimo’ per una società,
eppure tale legittimità è il cemento della società. Ciò che è legittimo non
coincide con ciò che è legale e, se si riduce il legittimo al legale, la
società diventa invivibile. Il vero problema della governamentalità algoritmica
non è che un giorno la macchina possa funzionare male; il problema è piuttosto
che essa determini degli orientamenti sociali invivibili, privi di faglie. Se
un giudice si trova di fronte un uomo che ha rubato in un supermercato, oltre a
informarsi su cosa è stato rubato, terrà in considerazione molti altri
elementi, tra i quali, ad esempio, la povertà dell’uomo. Terrà conto della
biografia e della soggettività di questa persona. Terrà conto del fatto che in
ogni atto reprensibile rimangono comunque punti oscuri. La macchina non può
tener conto di tutto ciò.
Ma allora, come agire?
Come si è visto, la governamentalità algoritmica fa in modo che, di fronte
alla crisi delle società e delle culture, si sia delegata la razionalità umana
alla macchina. In questo nuovo contesto, l’agire è compromesso. Siamo inoltre
di fronte a una situazione catastrofica sul piano economico, demografico,
ecologico… D’altronde, se pensiamo in termini di sistemi complessi, ci si rende
conto che l’Uomo non è il solo attore nel mondo. Heisenberg diceva che, ovunque
l’Uomo posi lo sguardo, non vede che l’Uomo… In realtà non è vero. L’agire degli
umani deve tener conto di molti altri elementi attivi non-umani. Ogni agire
umano, in politica come in medicina, deve tener conto che l’agire intenzionale
non è che un vettore in un insieme non-calcolabile di altri vettori, la cui
regolazione non è prevedibile. Ci sarà una regolazione autonoma della natura,
se vogliamo, ma gli umani non saranno più presenti per fare da testimoni.
Non è facile conservare la speranza in questo tipo di mondo…
Sì, occorre davvero sapere come vivere in un mondo privo di promesse e
anche dell’idea di provvidenza. L’idea di provvidenza suppone che vediamo il
male, anche nella sua forma peggiore, e non lo comprendiamo, ma nonostante
tutto pensiamo che ciò ci condurrà a un bene superiore che trionferà. La
modernità ha prodotto la propria visione della provvidenza: è la teleologia, di
cui lo storicismo è una delle incarnazioni. La teleologia presuppone una
dialettica ascendente e una finalità che risolverà i problemi incontrati lungo
il percorso. Oggi la novità è che non abbiamo né provvidenza, né teleologia, né
promesse.
Ma in che modo la nostra epoca ci impedisce di pensare il nostro agire nel
mondo?
Siamo piombati in un’epoca nuova, in cui il nostro modo di agire abituale
non funziona più. La complessità è diventata dominante un po’ ovunque.
Prendiamo come esempio il caso degli antibiotici. Questo tipo di medicina è
stato creato all’interno di un modello lineare del vivente come luogo di
battaglia e di conquista. L’idea era che esistono agenti patogeni e altri che
fortificano il sistema immunitario, e quest’ultimo è come una fortezza che
consente agli umani di battersi contro gli invasori. In certa misura, è vero.
Ma, assunti in misura massiccia, a livello individuale e collettivo, gli
antibiotici hanno effetti iatrogeni e deteriorano il sistema immunitario, cosa
che non era stata prevista. Ciò illustra bene come non si possa pensare l’agire
unicamente nei termini di causa ed effetto relativo alla causa. La scienza
odierna non è più una scienza limitata all’esattezza. Deve potersi confrontare
con un certo grado di incertezza.
Ciononostante, nella nostra vita quotidiana, tutto sembra ancora confermare l’attualità della razionalità antica e dell’esistenza di sistemi lineari. Se prendo la metropolitana, ho tutte le chance di arrivare nel luogo in cui ho previsto di recarmi. Ma, se certi livelli di realtà funzionano ancora in base a un modello lineare (è il livello della realtà sensibile, legato allo spazio geometrico e alla nostra corporeità), non è più così in altri casi. In effetti, a un altro livello (quello delle informazioni ‘non immediate’) siamo sommersi dai dati senza poter determinare a colpo sicuro una risultante. L’esperienza mostra che esiste una correlazione tra il fatto di fumare quotidianamente e lo sviluppo di un cancro, ma cosa riserva il futuro a un fumatore che per ora non ha il cancro? Contrarrà davvero tale malattia? In effetti, oggi, siamo di fronte alla tentazione e alla deriva di una gestione dei rischi disciplinari mediante le tecnologie digitali, il cui linguaggio pseudo-razionale è in realtà allo stesso livello di quello di una qualunque chiromante. La grande sfida attuale è comprendere questa complessità: a livello sanitario, ecologico, demografico, economico.
Nessun commento:
Posta un commento