venerdì 22 gennaio 2021

Teoria dell’agire - Miguel Benasayag

Per affrontare la questione dell’agire, occorre tener conto di un elemento centrale. Dobbiamo ammettere la realtà della governamentalità algoritmica: la vita degli individui e delle società è orientata e strutturata da macchine. Per la verità, il mondo algoritmico non è né per né contro il vivente, gli è indifferente. Ad esempio, molti magistrati in Francia si preoccupano per la possibilità che ci si diriga verso l’istituzione di tribunali algoritmici, poiché desiderano continuare a prendere decisioni secondo il foro interno della loro anima o coscienza. Tuttavia, l’intelligenza artificiale li assiste sempre più nella loro raccolta di dati, per comporre dossier o repertoriare casi di giurisprudenza… L’aiuto algoritmico è quindi già una realtà nel lavoro dei magistrati. La cosa più pericolosa, a mio avviso, è la giustizia predittiva, che pretende di identificare la pericolosità potenziale di un individuo a partire dall’analisi di micro-dati o micro-comportamenti. La minima segnalazione alla giustizia potrebbe essere presa in considerazione dagli algoritmi. E parlo appunto di microcomportamenti, non del fatto che qualcuno abbia guardato su internet come fabbricare una bomba! La cosa è molto più sottile: la macchina analizza dei micro-interessi – acquisti online, siti consultati ecc. – e, dalla loro correlazione, ‘decide’ della pericolosità o meno della persona.

Faccio un esempio: Google ha disposto un sistema di osservazione del modo in cui si utilizza la propria carta di credito in un anno, capace di prevedere con l’85% di attendibilità se l’utente della carta divorzierà nei tre anni successivi… Gli algoritmi funzionano a partire da quelle microinformazioni raccolte in massa nel mondo digitale che, messe insieme e correlate tra loro, determinano i profili.

Questo è il pericolo, mi pare, insito nella nozione di ‘comportamento’, che disegna routine ripetitive su una vita che è ben più aleatoria di quanto l’insieme di quelle routine lasci supporre….

Sì, ma non è affatto la questione del comportamento a essere qui in gioco. Intendo dire questo: la macchina di fatto assembla dei micro-comportamenti che si potrebbero designare come pre-individuali, un insieme di tracce numeriche, abitudini, regolarità, frammenti di attività che non hanno nulla a che vedere con il risultato dell’interpretazione. Nel caso di certe malattie, ad esempio, l’intenzione è quella di identificare delle correlazioni per definire una medicina preventiva, ma ciò avviene sulla base di dati che molto spesso non hanno alcuna relazione con la salute della persona!

Il modello epistemologico su cui si fonda questa governamentalità è quello dell’essere umano modulare, simile a quello proposto dalla biologia molecolare. Si riduce l’individuo non alle sue decisioni ma ai suoi micro-comportamenti. La biologia non si interessa alla vita stessa, ma alle particelle elementari che si associano tra loro. Nel caso della governamentalità algoritmica è la stessa cosa: si inserisce nella macchina una quantità enorme di micro-atti di diverso tipo – dove la persona passa le sue vacanze, quali percorsi segue, quali siti consulta su internet, chi chiama ecc. – in base ai quali è possibile stabilire profili virtuali, che si suppone possano rivelare gli individui pericolosi o devianti. La governamentalità, quindi, non si rivolge più alla persona (anche se il concetto di persona, così come era usato nell’antico modello di governamentalità, che va a votare in piena coscienza era altrettanto discutibile). Tutti i dati stoccati sono pre-individuali, perché le persone sono assimilate tra loro e poi assimilate ai loro profili. Non c’è un senso. È esattamente la stessa idea che si ritrova nella teoria dei meme di Richard Dawkins.

È quindi una visione della persona come macchina?

Sicuramente, gli adepti dell’intelligenza artificiale sono convinti che l’individuo sia una macchina, un ricettacolo di diversi micro-comportamenti, senza un senso complessivo. Non ci sono più né individui, né popolazioni, né comunità: esistono profili e avatar virtuali. Gli algoritmi sono fondati sull’individuazione di tendenze: ad esempio, la potenzialità violenta o meno di un individuo.

[…]

Nel romanzo di Philip K. Dick, The Penultimate Truth, del 1964, gli umani rifugiati in ‘formicai’ sotterranei ascoltano su schermi giganti il loro presidente Talbot Yancy, che è in realtà un robot, controllato da un’intelligenza artificiale, cui vengono date false informazioni perché costruisca un discorso rassicurante… In un certo senso Dick ha previsto la nostra realtà attuale.

Sì, in realtà è ispirato al romanzo dell’autore argentino Adolfo Bioy Casares del 1940, La invención de Morel … Comunque sia, si pone la questione dell’agire. L’istituzione non ha di fronte persone che la contestino, ma movimenti di micro-comportamenti che è necessario dominare. Non c’è alcun riconoscimento della conflittualità, poiché la macchina elimina l’altro. La minima critica è interpretata come un inceppamento che occorre riparare o come qualcosa da eliminare attraverso lo scontro e la repressione. In tutti i casi, se le reazioni alla politica del governo non sono buone, non è a causa di un disaccordo ideologico, ma semplicemente perché la comunicazione è stata condotta male, perché i meme utilizzati non sono stati quelli giusti. Utilizzo perciò il termine di post-democrazia, perché in questo contesto non si può votare che per persone che hanno lo stesso programma. D’altronde, anche Matteo Salvini, che in Italia ha attinto e diffuso idee e stereotipi di tipo fascista, segue in realtà gli orientamenti della Banca europea… In Francia, Emmanuel Macron dichiara di interessarsi alle responsabilità coloniali della Francia, ma per quel che riguarda i migranti… si può dire che fa piangendo quello che la signora Le Pen fa ridendo!

Il conflitto necessario alla democrazia non esiste quindi più?

La questione è di sapere come lottare contro la cancellazione dell’alterità. De Gaulle aveva degli avversari autentici: gli americani e i comunisti. In Argentina la giunta militare aveva un’ideologia da difendere contro i rivoluzionari. Alcuni militari addetti alla tortura adoravano, tra una seduta e l’altra, spiegare ai prigionieri – soprattutto agli intellettuali – le motivazioni e l’importanza della loro battaglia. Oggi l’alterità non è più presa in considerazione: si pretende che un terrorista si sia radicalizzato per ragioni unicamente psicologiche. Quando i giudici sono venuti a chiedermi un parere sulla questione della radicalizzazione, per progettare un cammino di deradicalizzazione, ho risposto che occorreva forse tener anche conto della variabile ideologica, e non considerare la cosa unicamente come un semplice sintomo. Un ‘gilet giallo’ contestatore è oggi trattato allo stesso modo: lo si delegittima riducendolo a un insieme di sintomi da trattare. La conclusione è che non si tollera nessun conflitto, si vuole unicamente lo scontro. L’altro è un Barbaro, e contro il Barbaro posso applicare la barbarie.

[…]

Che rapporto intercorre tra l’assenza di conflittualità nelle nostre società e l’intelligenza artificiale?

L’applicazione della ‘tolleranza zero’ nei confronti del conflitto è confortata dalla macchina. La macchina è vista come rigorosamente giusta, ma gli umani non sono mai rigorosamente giusti! Una macchina, per definizione, non può comprendere le logiche ‘sfumate’, non nette: può calcolare, ad esempio, che 4 è il doppio di 2, ma non può sapere, ad esempio, se un’abitazione è ‘grande’, perché questa è ‘grande’ in rapporto a cosa? C’è nel vivente una dimensione di soggettività che sfugge alla macchina. Allo stesso modo, a livello giuridico, la macchina non può tener conto di ciò che è ‘legittimo’ per una società, eppure tale legittimità è il cemento della società. Ciò che è legittimo non coincide con ciò che è legale e, se si riduce il legittimo al legale, la società diventa invivibile. Il vero problema della governamentalità algoritmica non è che un giorno la macchina possa funzionare male; il problema è piuttosto che essa determini degli orientamenti sociali invivibili, privi di faglie. Se un giudice si trova di fronte un uomo che ha rubato in un supermercato, oltre a informarsi su cosa è stato rubato, terrà in considerazione molti altri elementi, tra i quali, ad esempio, la povertà dell’uomo. Terrà conto della biografia e della soggettività di questa persona. Terrà conto del fatto che in ogni atto reprensibile rimangono comunque punti oscuri. La macchina non può tener conto di tutto ciò.

Ma allora, come agire?

Come si è visto, la governamentalità algoritmica fa in modo che, di fronte alla crisi delle società e delle culture, si sia delegata la razionalità umana alla macchina. In questo nuovo contesto, l’agire è compromesso. Siamo inoltre di fronte a una situazione catastrofica sul piano economico, demografico, ecologico… D’altronde, se pensiamo in termini di sistemi complessi, ci si rende conto che l’Uomo non è il solo attore nel mondo. Heisenberg diceva che, ovunque l’Uomo posi lo sguardo, non vede che l’Uomo… In realtà non è vero. L’agire degli umani deve tener conto di molti altri elementi attivi non-umani. Ogni agire umano, in politica come in medicina, deve tener conto che l’agire intenzionale non è che un vettore in un insieme non-calcolabile di altri vettori, la cui regolazione non è prevedibile. Ci sarà una regolazione autonoma della natura, se vogliamo, ma gli umani non saranno più presenti per fare da testimoni.

Non è facile conservare la speranza in questo tipo di mondo…

Sì, occorre davvero sapere come vivere in un mondo privo di promesse e anche dell’idea di provvidenza. L’idea di provvidenza suppone che vediamo il male, anche nella sua forma peggiore, e non lo comprendiamo, ma nonostante tutto pensiamo che ciò ci condurrà a un bene superiore che trionferà. La modernità ha prodotto la propria visione della provvidenza: è la teleologia, di cui lo storicismo è una delle incarnazioni. La teleologia presuppone una dialettica ascendente e una finalità che risolverà i problemi incontrati lungo il percorso. Oggi la novità è che non abbiamo né provvidenza, né teleologia, né promesse.

Ma in che modo la nostra epoca ci impedisce di pensare il nostro agire nel mondo?

Siamo piombati in un’epoca nuova, in cui il nostro modo di agire abituale non funziona più. La complessità è diventata dominante un po’ ovunque. Prendiamo come esempio il caso degli antibiotici. Questo tipo di medicina è stato creato all’interno di un modello lineare del vivente come luogo di battaglia e di conquista. L’idea era che esistono agenti patogeni e altri che fortificano il sistema immunitario, e quest’ultimo è come una fortezza che consente agli umani di battersi contro gli invasori. In certa misura, è vero. Ma, assunti in misura massiccia, a livello individuale e collettivo, gli antibiotici hanno effetti iatrogeni e deteriorano il sistema immunitario, cosa che non era stata prevista. Ciò illustra bene come non si possa pensare l’agire unicamente nei termini di causa ed effetto relativo alla causa. La scienza odierna non è più una scienza limitata all’esattezza. Deve potersi confrontare con un certo grado di incertezza.

Ciononostante, nella nostra vita quotidiana, tutto sembra ancora confermare l’attualità della razionalità antica e dell’esistenza di sistemi lineari. Se prendo la metropolitana, ho tutte le chance di arrivare nel luogo in cui ho previsto di recarmi. Ma, se certi livelli di realtà funzionano ancora in base a un modello lineare (è il livello della realtà sensibile, legato allo spazio geometrico e alla nostra corporeità), non è più così in altri casi. In effetti, a un altro livello (quello delle informazioni ‘non immediate’) siamo sommersi dai dati senza poter determinare a colpo sicuro una risultante. L’esperienza mostra che esiste una correlazione tra il fatto di fumare quotidianamente e lo sviluppo di un cancro, ma cosa riserva il futuro a un fumatore che per ora non ha il cancro? Contrarrà davvero tale malattia? In effetti, oggi, siamo di fronte alla tentazione e alla deriva di una gestione dei rischi disciplinari mediante le tecnologie digitali, il cui linguaggio pseudo-razionale è in realtà allo stesso livello di quello di una qualunque chiromante. La grande sfida attuale è comprendere questa complessità: a livello sanitario, ecologico, demografico, economico.

da qui

Nessun commento:

Posta un commento