Incontro-dibattito
sul libro Il futuro colonizzato. Dalla virtualizzazione del futuro
al presente addomesticato, di Renato Curcio (Sensibili alle foglie, 2019),
presso il Csa Vittoria, Milano, 24 ottobre 2019
Vorrei iniziare leggendo due
frammenti di due interviste uscite recentemente sui giornali internazionali e
italiani; sono poche righe, ma penso che potranno ben introdurci al tema che
cercheremo in qualche modo di raccontare.
La prima è
di Leonard Kleinrock, un uomo importante nella storia di Internet, anzi si può
dire il primo uomo: è stato quel ricercatore che nel 1969 è riuscito a mettere
per la prima volta in contatto due computer. Per tanti anni ha poi lavorato ai
progetti di nascita della rete ed è noto agli studenti di tutte le università
perché è il fondatore dell’informatica come disciplina universitaria. A ottobre
ha dichiarato: “Il nostro Internet era etico, di fiducia, gratis, condiviso.
Oggi è passato da risorsa digitale affidabile a moltiplicatore di dubbi, da
mezzo di condivisione a strumento con un lato oscuro. Internet consente di
arrivare a milioni di utenti a costo zero in maniera anonima, e per questo è
perfetto per fare cose malvagie: spam, addio alla privacy, virus, furto
d’identità, pornografia, pedofilia, fake news. Il problema è nato quando si è
voluto monetizzarlo: si è trasformato un bene pubblico in qualcosa con scopi
privati che non ha la stessa identità del passato”. Kleinrock quindi afferma che
ci sono due fasi: una prima in cui è nato Internet come progetto scientifico e
di ri cerca, che aveva comunque un’intenzione pubblica, e una seconda in cui
qualcuno ha cominciato a monetizzarlo ed è diventato una cosa ‘malvagia’.
Edward
Snowden, che conosciamo tutti, in un’altra intervista ha sintetizzato così il
suo punto di vista: “Alle origini Internet era il luogo in cui tutti erano
uguali, un luogo dedicato alla vita, alla libertà e al perseguimento della
felicità.
Ben presto
però Internet è stata colonizzata dai governi e dalle grandi aziende per trarne
profitto e potere. Oggi Internet è americana sia per l’infrastruttura che per
il software. Le principali aziende, Google, Facebook, Amazon, sono americane e
quindi sono soggette alla legislazione americana. Il problema è che sono
soggette a politiche segrete, politiche segrete americane, che permettono al
governo statunitense di sorvegliare virtualmente ogni uomo, donna o bambino che
abbia mai usato un computer o fatto una telefonata, e di tenere a memoria
permanente, conservare cioè tutti i dati possibili, per più tempo possibile,
anzi per l’eternità. Dopo l’11 settembre 2001 si è passati dalla tradizionale
intercettazione mirata a obiettivi specifici a una vera e propria sorveglianza
di massa. Oggi la sorveglianza di massa è un processo di censimento infinito.
Sarebbe una tragedia se ci abituassimo all’idea di una sorveglianza costante e
indiscriminata: orecchie che sentono tutto, occhi che vedono tutto, memoria
vigile e permanente”.
Kleinrock e
Snowden sono quindi d’accordo sul paradigma principale con cui presentare la
storia di Internet: c’è stato un primo momento in cui tutto era bello, pulito,
limpido, trasparente, pubblico, e un secondo momento in cui la monetizzazione,
oppure le esigenze strategiche, hanno fatto sì che si passasse appunto a una
monetizzazione e a un sistema di sorveglianza di massa. Chi sta seguendo il
lavoro che sto facendo da qualche anno su questi temi sa che le critiche di
Snowden e di Kleinrock sono sostanzialmente il percorso di ricerca che abbiamo
sviluppato dal 2015, e fa piacere vedere che il fondatore di Internet oggi
concorda con la critica più radicale che è stata portata. Tuttavia oggi la rete
non è neanche la seconda fase, non è questo inferno che viene raccontato dopo un
iniziale periodo di Eden. Oggi Internet ha fatto un passo qualitativo
estremamente rilevante ed estremamente coperto; rilevante perché
ha modificato la sua capacità di colonizzazione sia della rete che
dell’immaginario dei cittadini, coperto perché una forte
campagna per la costruzione di un’egemonia culturale si è sviluppata sulle
grandi testate giornalistiche e nel campo dell’editoria, allo scopo di
presentare il volto di Internet come il volto del futuro, del progresso, della
scienza. Si è quindi iniziato a mettere in gioco un paradigma molto importante,
quello del dominio del pensiero scientifico rispetto alle titubanze etiche che
spingono molte persone ad avere delle incertezze nella valutazione e nel
giudizio. Il lavoro che vi porto è una riflessione sui punti cardine di questo
salto di qualità, riflessione che abbiamo fatto lo scorso anno in due cantieri
a Roma e a Milano.
Questo
passaggio qualitativo consiste in una innovazione tecnologica di forte portata
dal punto di vista tecnico-scientifico: è legata all’invenzione di
algoritmi predittivi, capaci di lavorare su grandi masse di dati
per realizzare dei costrutti di realtà virtuale che riguardano apparentemente
il futuro, ma che sono invece la condizione del presente. Mi spiego meglio.
Quando pensiamo
il futuro lo pensiamo con il nostro bagaglio culturale, che è quello del
Novecento, dell’Ottocento e di tutti i secoli precedenti; lo pensiamo come
qualcosa linearmente più in là di oggi, il futuro è da domani in poi. Quando
gli algoritmi predittivi pensano il futuro, invece, non lo pensano in questo
modo: non è domani, è oggi, anzi è ieri. Il futuro che cercano di costruire
parte da tutto ciò che noi abbiamo riversato all’interno delle banche dati dei
server che li hanno costruiti. Questa massa di informazioni contiene schemi di
orientamento, di desiderio, di attesa, schemi di comportamento che possono
essere utilizzati proprio per essere giocati sulle stesse persone che li hanno
prodotti; schemi che possono essere immaginati come dei costrutti ingegneristici
di realtà virtuale da realizzare, perché sono già realizzati nell’attesa delle
persone.
Cercherò di
uscire un po’ dal discorso generale per farvi vedere come questo nuovo
paradigma, che consente di realizzare il futuro nelle attività produttive del presente
– che consente quindi nel dare a chi chiede ciò che sta chiedendo, nel dargli
esattamente ciò che lui desidera, ciò che lui stesso ha costruito con il
sistema di marketing intelligente, creato sulla base delle potenzialità e delle
capacità attuali – stia lavorando per imporre un orientamento culturale e della
nostra vita sociale. Sceglierò due territori che sembrano lontanissimi dalla
nostra quotidianità, ma non lo sono affatto: l’ingegneria genetica e
l’intelligenza artificiale.
Tra il ‘90 e
il ‘91 si è accesa un’importante discussione internazionale intorno alla figura
di Craig Venter, uno scienziato che dopo aver lavorato per il Ministero della
Sanità americana, nel 1991 è passato al campo privato e ha aperto diversi
istituti e aziende con il progetto di fare interventi sul DNA, portandosi
dietro i 30.000 geni da lui scoperti negli anni della sua collaborazione con
gli enti pubblici. Nel 2000 una di queste imprese, la Celera Genomics,
ha dato l’annuncio della prima stesura del sequenziamento del genoma umano; da
qui vennero espresse da più parti forti preoccupazioni in relazione
all’intenzione di far brevettare l’intero genoma umano. Il punto è che dagli
anni ‘90 l’ingegneria genetica sta lavorando sulla raccolta dei dati sul DNA
della popolazione mondiale, con un investimento di miliardi di dollari, ed è un
processo costruito attraverso Internet: a un certo punto Venter ha infatti
avuto bisogno di una potenza di calcolo e di strutture che promuovessero a
grandi numeri la raccolta di DNA, e nel 2005 ha stretto un accordo con Google,
che è oggi il più grande raccoglitore a livello mondiale di DNA. Ci sono siti,
come 23andMe per esempio, che per 99 dollari vi danno un quadro quasi completo
del vostro DNA – non possono darlo completo perché le istituzioni sanitarie dal
2013 lo impediscono, per non creare allarme per le diagnosi.
Oggi il DNA
è raccolto da dietologi, su Internet ci sono un’infinità di agenzie che vi
mandano a casa un tampone con cui voi date il vostro DNA in cambio di una dieta
personalizzata; la stessa cosa se avete un problema di calvizie; ci sono
addirittura ristoranti in Giappone che creano porzioni di sushi calibrate sulle
necessità alimentari del cliente dedotte dall’analisi del suo DNA consegnato,
sempre attraverso un tampone, al momento della prenotazione. Ci sono programmi
televisivi come “Finding Your Roots” che, analizzando il DNA, raccontano le
storie della discendenza genetica delle persone. Nel cantiere che abbiamo
svolto a Roma, una ragazza che studia all’Università di Tor Vergata ha spiegato
proprio questo tipo di lavoro che ha svolto. È chiaro che in una società
complessa come quella attuale, con persone che arrivano da tutti i continenti,
per molti può essere interessante sapere chi era il nonno, o se si proviene dal
Kenya piuttosto che dall’Irlanda o dall’Italia, ma tutto ciò è funzionale a una
raccolta gigantesca di DNA. Qual è lo scopo?
Esperimenti
ne sono già stati fatti, come ha raccontato le stesso Venter in diversi saggi.
Per esempio sugli animali, avendo molti dati a disposizione, si può
intervenire: un progetto mirava a creare maiali geneticamente modificati dotati
di polmoni, cuore, reni e fegato da trapiantare negli esseri umani. Lavorare
sul DNA non è quindi un’operazione che ha a che fare solo con l’idea generale di
mappatura e conoscenza, o con lo studio necessario per poter prevenire malattie
genetiche, come l’Alzheimer, che potrebbero essere curate attraverso un
intervento sul DNA; ha a che fare anche con altre cose. In Cina, per esempio,
He Jiankui, uno scienziato della più importante università cinese con forti
riflessi internazionali, ossia Shenzhen, ha dichiarato nel 2018, prima in un
convegno accademico poi su Internet, di avere effettuato il primo intervento su
embrioni umani modificandoli geneticamente (1).
L’esperimento
scientifico è riuscito ma è anche stato fortemente discusso sul piano etico.
Tuttavia il problema che vi pongo è molto semplice: sappiamo dai tempi che
furono, che laddove un’operazione scientifica è possibile, verrà fatta. Ci può
essere chi è d’accordo e chi non lo è, ma non saranno delle barriere etiche a
impedire qualcosa. Non sono state barriere etiche a impedire alle acciaierie
Krupp di andare a sviluppare la loro attività dentro i campi di concentramento,
o a impedire per un paio d’anni, qualcuno dice anche per più anni, a
scienziati, tecnici, operai e lavoratori di costruire la bomba atomica nel più
assoluto silenzio. Poi la bomba atomica esplode e allora si dice che gli
effetti sono disastrosi; si scoprono i campi di concentramento e si dice che
gli effetti sono disastrosi. Saranno pur disastrosi ma la Bayer vende ancora
l’aspirina, non ha neanche cambiato nome, eppure è l’azienda che ha fatto il
Zyklon B, il gas tossico che ha ucciso centinaia di migliaia di persone. Oggi
siamo esattamente nella stessa condizione: allora si è fatto il Zyklon B, si è
fatta la bomba atomica, oggi si fa il lavoro sul DNA. Un processo che va nella
direzione del post umano, della prospettiva transumanista, del ‘potenziamento’
in varie forme degli umani; sperimentazioni che si fanno strada grazie alla
zona ‘grigia’ di istituzioni militari e sportive.
Questo
lavoro di ingegneria genetica è estremamente rilevante perché passa attraverso
la struttura di Internet, è costruito da aziende pubbliche e private, ma nello
stesso tempo è realizzato da noi, perché siamo noi che lo facciamo. E con
questo vorrei mettere una prima idea forte in questo ragionamento: è bene
analizzare i contesti in cui viviamo, come stanno lavorando, ma soprattutto è
bene non tirarci fuori dalla responsabilità su come funziona. Perché se è
possibile che quei contesti funzionino in quel modo, è perché noi stiamo
facendo passi che consentono a quei contesti di funzionare in quel modo.
Ora chiarirò
questo pensiero spostandomi sul territorio dell’intelligenza artificiale, che
non vive nei laboratori ma negli smartphone. Qualunque smartphone è pieno di
dispositivi di IA, ne elenco alcuni: quando digitate un testo, la scrittura è
gestita da programmi di intelligenza artificiale, che possono correggere ma
fare anche altre operazioni – come scrivere un articolo che esce su un giornale
sportivo ed è firmato da una sigla, oppure un intero libro: ci sono editori che
stanno pubblicando, senza dirlo, libri scritti da algoritmi, relativi a generi
che possono essere altamente standardizzati. Quando usate il localizzatore, le
mappe che utilizzate sono un software ad altissima concentrazione di IA: un
localizzatore non sta nel vostro smartphone ma in un sistema di satelliti, di
triangolazioni e di calcoli, che vengono fatti su di voi e sul vostro
dispositivo, in un lontano e indecifrabile territorio. Le chiavi di sicurezza
con cui aprite il vostro dispositivo, l’impronta digitale oppure la voce, sono
altri dispositivi di intelligenza artificiale.
Anzi diciamo
di più: sono dispositivi di IA che hanno bisogno di qualcuno che li usi perché
si devono perfezionare, sono come degli allievi che hanno bisogno di qualcuno
che gli faccia scuola. E chi gli fa scuola? Chi li utilizza. Se dico “Siri
ordinami un caffè al bar”, sto facendo l’addestratore di un dispositivo di
intelligenza artificiale. A luglio il Guardian ha denunciato l’esistenza di
aziende a cui vengono appaltati i lavori di messa a punto di questi algoritmi,
perché Alexa, Siri, Cortana ecc. sono relativamente giovani e fanno ancora
molti errori, magari non capiscono che una parola pronunciata non è “Ehi Siri”
e si accendono, registrano casomai per ore e un normale consumatore non se ne
rende neanche conto. Bisogna dunque raffinare l’addestramento e lo fanno aziende
terze. Apple, Amazon ecc. consegnano ad altre imprese queste registrazioni
affinché lavorino per capire i processi da migliorare. Noi siamo quindi, in
questo senso, coloro che fanno migliorare i dispositivi: più c’è raccolta di
interventi orali, più c’è materiale per metterli a punto. Quindi diventiamo dei
lavoratori a nostra insaputa, non pagati ma questo è il meno: lavoriamo a
produrre un miglioramento di un dispositivo che stiamo utilizzando, e sarà un
dispositivo dal quale sempre più dipenderemo. Questo è un ciclo estremamente
rilevante.
I consigli
per l’e-commerce di Netflix, Amazon ecc. usano lo stesso software, sono tutti
dispositivi di IA. Chi ha utilizzato Netflix sa che prima ancora di potersi
iscrivere fa una domanda: “Dimmi un film o una serie televisiva che ti sono
piaciuti”. Lo fa perché è la domanda a partire dalla quale un algoritmo di IA
comincia a lavorare. Inizio a sapere che ti è piaciuto un film di fantascienza,
o d’amore, o drammatico; ti ho inquadrato, ho un’idea di te. Poi ti dico “iscriviti”
e mi farai un ordinativo, e avrò già due elementi su di te, poi ne avrò tre,
quattro, cinque. Poi ti proporrò io, a partire da quei cinque, una serie di
cose che ho e potrebbero interessarti, e tu mi dirai sì oppure no, e io avrò
sempre più cognizione di chi sei dal punto di vista dei tuoi gusti musicali,
cinematografici ecc. Questo però non lo fanno umani ma macchine, software che
noi perfezioniamo utilizzandoli.
Questa è la
produzione di futuro. Mentre costruisce la conoscenza della persona, un algoritmo
predittivo costruisce la proposta da fare a quella persona, costruisce l’idea
di offrirle, a partire da una maggiore conoscenza delle sue inclinazioni, il
prodotto che le dovrà essere venduto. Addirittura Netflix, visto che abbiamo
fatto questo esempio, può decidere che cosa produrre, avendo chiaro qual è la
platea delle persone, gli orientamenti e i numeri; può decidere di proporre una
serie che è estratta dal passato ma è il futuro, che uscirà fra tre mesi ma è
già costruita da noi.
La stessa
impostazione è applicabile al sistema di comunicazione politico, oggi in Italia
ne abbiamo tre: la cosiddetta bestia di Salvini, la
piattaforma Russeau dei Cinque stelle e ora anche Renzi con la sua struttura
americana che utilizza il software nato dalla Cambridge Analytica. Non mi
interessa discuterne sul piano politico, voglio dire che ci sono agenzie che di
mestiere utilizzando gli algoritmi predittivi per profilare le persone e
vendere questa massa di informazioni. E allora a un certo punto la predizione
sarà che, nel popolo della rete, in quel momento, su un microproblema c’è un
certo tipo di orientamento, e il profilo social del politico alle 14:25 posterà
quel tweet; alle 16:27 il problema sarà un altro e anche stavolta ci sarà il
post, e via di seguito. Ovviamente il condizionamento dell’opinione pubblica è
gestito anche dall’Unione europea con le proprie strutture, negli Stati Uniti
per costruire un orientamento dell’opinione pubblica di aree interne della
popolazione, la Russia fa la stessa cosa...
IA significa
anche cose molto più sconvolgenti. Negli Stati Uniti, in alcuni Stati, c’è un
software che giudica se una persona arrestata può o meno ottenere i domiciliari
in attesa del processo o se deve andare in carcere. Si tratta di un algoritmo
che analizza l’intera storia di questo essere umano, eventuali fatti che in
precedenza l’hanno messo in contatto con la legge, incrocia dati e alla fine
emette un giudizio: il software decide, il giudice ratifica. La categoria degli
avvocati chiaramente ha reagito, chiedendo cosa ci stanno a fare se tutto
avviene così automaticamente da non poterlo neanche discutere, e hanno
domandato di poter almeno leggere i criteri con cui l’algoritmo emette il
giudizio; ebbene gli è stato negato, perché il software è di una società
privata e dunque è coperto da brevetto, segreto. Siamo di fronte al fatto che
per la prima volta delle persone vengono giudicate da macchine, da software e
non da altri umani (2).
Senza
contare, nel libro anche questo aspetto è affrontato, che al discorso
dell’intelligenza artificiale si lega la “singolarità”, quella soglia di
discontinuità oltre la quale si realizzerebbe una “esplosione” dell’IA e il suo
sviluppo sfuggirebbe alla capacità umana di prevederne gli ulteriori sviluppi.
E anche qui entriamo in una nuova era definita post umana.
Si possono
fare molti altri esempi, ma il punto che mi preme mettere in evidenza è, per
entrambi i casi, sia per la raccolta di DNA che per lo sviluppo dell’IA, il
coinvolgimento attivo dell’utilizzatore nella sua colonizzazione. Uso la
parola colonizzazione perché stiamo parlando esattamente di un
processo coloniale, un processo attraverso il quale un potere si rivolge a un
territorio, e agli umani che sono su quel territorio, per renderli simili a se
stesso. Sappiamo che tutte le colonizzazioni nel mondo hanno funzionato
attraverso la distruzione della cultura, dei popoli, delle etnie, delle
tradizioni locali, del folclore e delle storie. Cioè un potere viene e ti dice:
in questo territorio possiamo fare un bellissimo campo da tè, perché il tè
serve all’Inghilterra. Poi dirà: ma come, non ti piace il tè? Prova ad
assaggiarlo e lo venderò anche a te. Il processo coloniale è un processo di
assimilazione alla cultura del colonizzatore. Questo ciclo lo possiamo studiare
a partire da Cristoforo Colombo nell’America precolombiana, in Africa, in
India, dove volete, e troveremo sempre questa logica attraverso la quale un
potere esterno interviene su un territorio umano e ambientale e lo rende simile
a una propria progettualità. Qui il territorio è la rete, ed è un territorio
che, nel libro precedente (3), abbiamo chiamato continente, un
continente virtuale che non c’entra con le dimensioni nazionali. Il problema
del colonizzatore è certamente imporsi sul territorio, ma è anche e soprattutto
far sì che il colonizzato lo diventi con la sua testa. Negli anni ‘60, quando
c’era la resistenza dei neri americani, veniva portata avanti un’importante
battaglia culturale su questo, quando dicevano: tu sarai un nero, ma sei un nero
con la testa di bianco. Oggi la stessa battaglia la fanno i palestinesi e i
curdi. Il colonizzato è di fronte a due vie: adattarsi, sparire, non fare più
la resistenza perché paga un prezzo troppo alto, oppure fare qualcosa, sarà
poco, sarà nulla, ma forse lascia una traccia che non è la traccia che il
colonizzatore vuole. Faccio questi esempi volutamente per mettervi di fronte al
problema della logica della colonizzazione, che vince solo laddove il
colonizzato si lascia coinvolgere nel disegno del colonizzatore.
La
colonizzazione di Internet è un dato di fatto. Kleinrock e Snowden dicevano che
all’inizio non c’era la monetizzazione, casomai c’erano i servizi di sicurezza,
c’era una ricerca che coinvolgeva i docenti dell’università e i ricercatori,
c’era un’altra idea, poi a un certo punto questa tecnologia è stata colonizzata
da aziende che vi hanno visto la possibilità di fare soldi, e hanno cominciato
a fare i capitalisti. Ossia quello che sono, non è che hanno fatto un’altra
cosa. Non è che Facebook e le altre sono aziende diverse dalla Fiat o da
qualunque altra impresa. Facebook è una società, anche quotata in Borsa, che ha
un algoritmo che precede tutti gli altri: lo scambio disuguale. È molto
semplice, è il fondamento del capitalismo. È un algoritmo che dice: ti do uno
spazio, ti do le mie condizioni per gestirlo, se tu ci vuoi venire mi dai i
tuoi dati. In questo scambio però i dati valgono molto di più di quel che
restituisce questo servizio, perché altrimenti non avrebbe alcun senso: nessuno
comprerebbe le azioni e Facebook non sarebbe, dopo nemmeno quindici anni, una
delle prime aziende mondiali per capitalizzazione e per profitti.
Questo è un
punto importante da capire: quando parliamo di colonizzazione parliamo di
questo dispositivo, che è alla base del capitalismo, e consiste nell’imporre
l’algoritmo del suo modo di produzione. Se lo impongo non solo al presente ma
anche ai costrutti di futuro che ricavo dal tuo passato, capite che non abbiamo
più nessun futuro davanti a noi. Diventiamo coloro che producono il futuro
desiderato da chi produce gli algoritmi predittivi, diventiamo semplicemente i
realizzatori di quel futuro che non c’è ancora solo per modo di dire, perché è
già presente nell’azione che facciamo per costruirlo; ma si può realizzare solo
alla condizione che lo facciamo vivere, perché se c’è una resistenza non può
funzionare.
Vorrei ora
spostare l’attenzione sul mondo del lavoro. Il libro affronta anche il
territorio del controllo sociale, ma qui vorrei focalizzarmi su quello del
lavoro. Vi racconto due storie che fanno da paradigma.
La prima
riguarda un’azienda della logistica austriaca, la Knapp AG. A un certo punto ha
deciso di ristrutturare i suoi magazzini chiedendo ai lavoratori di indossare
degli smart glass , occhiali capaci di costruire una realtà
virtuale degli oggetti che vedono. Questo significa che se un lavoratore è di
fronte a uno scaffale, non ha più bisogno di andare a controllare la merce con
un lettore di codice, gli basta guardarlo e l’occhiale restituisce tutte le informazioni;
ha quindi le mani libere e può fare altro, per esempio alimentare dei carrelli.
Può dunque fare un doppio lavoro, e ciò significa che questa ristrutturazione
riduce della metà i lavoratori e aumenta la produttività complessiva. Nello
stesso tempo l’occhiale mi traccia, controlla e tiene memoria di tutto quello
che sto facendo, quanto impiego per ogni operazione, quante pause mi prendo...
consente di costruire una lettura in tempo reale della mia produttività. Questo
tipo di ristrutturazione ha portato la Knapp a diventare la prima azienda della
logistica austriaca e modello per tutte le imprese del settore.
Un altro
esempio è il porto di Rotterdam, che a un certo punto ha deciso di eliminare i
lavoratori portuali, anche in questo caso grazie agli algoritmi di IA e ai
sensori. Ha costruito un sistema di navi drone che entrano all’interno del
porto guidate da sensori, delle gru di 125 metri che scaricano i container e li
posizionano su veicoli senza pilota, che viaggiando su piste virtuali li portano
in magazzini dentro i quali altri sensori stabiliscono dove vanno allocati.
Oggi il porto di Rotterdam è uno dei più automatizzate al mondo ed è
interamente guidato da remoto, da alcuni lavoratori che fanno un’analisi
d’ufficio di quel che sta avvenendo.
Questi due
esempi mostrano un progressivo inserimento, nelle nostre vite quotidiane
lavorative, di interventi macchinici, un cambiamento che produce sicuramente
lavoratori sempre più specializzati a far funzionare i software IA, ma anche
lavoratori obsoleti. Questi ultimi sono una categoria di lavoratori di
straordinario interesse perché oggi è la più estesa: non sono lavoratori che
non lavorano, sono semplicemente stati buttati fuori dal vecchio modo di
lavorare perché le loro capacità, le loro competenze, possono essere trasferite
a macchine e robot a un costo minore del loro salario. Sono lavoratori che si
reimpiegano, per esempio, in lavori de-territorializzati.
In uno dei
cantieri su questi temi, una ragazza ha raccontato che lavora con il suo
smartphone per un’azienda angloamericana che ha in appalto un servizio
nell’aeroporto di Dallas, e ha sede a Sacramento, a Derry e a Austin; il suo
lavoro per questa impresa consiste nel produrre informazioni, attraverso i
profili social dell’aeroporto di Dallas, per i viaggiatori che vi transitano –
l’albergo, il taxi, una qualunque informazione – ma anche messaggi emozionali
del tipo: “Siamo felici di averti con noi! È la prima volta a Dallas?”. Il
passeggero riceverà la risposta nella sua lingua, se è giapponese gliela darà
una lavoratrice deterritorializzata che sta in Giappone, se è italiano una
lavoratrice che sta in Italia ecc. Quindi abbiamo lavoratori regolarmente
pagati da aziende disseminate nel mondo, che non hanno ufficio e non hanno un
territorio e vivono nella ricerca di un lavoro, e nel frattempo raccolgono il
DNA per un programma televisivo americano o producono messaggi per l’aeroporto
di Dallas. Questi lavoratori stanno diventando la maggioranza, ed è una nuova
forma di lavoro che nasce dalla disintegrazione delle forme precedenti e dei
diritti, perché in questa frantumazione, che nasce dalla creazione di
lavoratori obsoleti che si riciclano in vari modi, spariscono completamente i
diritti.
Come si esce
da questa situazione? Ci sono quattro risposte.
La prima è
quella che dà la parte moderata dei gestori della rete: se ne esce con una
umanizzazione e una democratizzazione della tecnologia, garantendo una maggiore
privacy. Ma Kleinrock stesso, per esempio, ha negato possa esserci. È un buon
pensiero ma molto ipocrita. È un’idea insostenibile, che non può essere
documentabile e neanche realizzata, perché all’interno del modo di produzione
capitalistico non si può democratizzare se non nella misura in cui modo il
produzione capitalistico ritiene che si possa fare. Vale a dire: se non c’è una
guerra in corso posso benissimo parlare del PKK, ma se i curdi diventano un
problema Facebook chiude i profili di chi ne parla.
Seconda
risposta, più seria, quella che dà Kleinrock: una collettività senza
monetizzazione. Però poi lui stesso ci pensa un po’ e dice: sarebbe come
chiedere alle grandi compagnie di rispettare la privacy dei loro clienti, e al
momento è una battaglia persa. Quindi Kleinrock afferma che si dovrebbe
demonetizzare la rete, ma si rende conto che chiedere questa cosa a Facebook,
Google, Amazon ecc. è inutile perché siamo all’interno del modo di produzione
capitalistico, e demonetizzare vuol dire chiudere, vuol dire strutturare un
altro modo di produzione.
Snowden dà
una terza risposta, ed è qualcosa che già sta accadendo in Europa e in altre
parti del mondo: decentralizzare la rete. Insieme a Berners-Lee, un altro dei
fondatori di Internet, Snowden ritiene che occorre fare in modo che il sistema
non abbia più bisogno di trasmettere i nostri dati per fornire i servizi;
sarebbe come dire eliminare la possibilità di tracciare gli utilizzatori dei
servizi ed eliminare quindi la memoria, dunque poter navigare liberamente.
Questo impedirebbe di profilare e di far lavorare gli algoritmi predittivi.
Snowden e Berners-Lee stanno lavorando a dei progetti di decentralizzazione, e
anche in Italia ci sono alcuni siti che lo stanno facendo, piccoli
raggruppamenti che costruiscono reti alternative. Sono sperimentazioni molto
belle e interessanti, ma all’interno del modo di produzione capitalistico fin
dagli anni ‘60 ci sono piccole comunità che autogestiscono la propria attività:
ciò non genera una critica profonda al sistema dentro il quale siamo inseriti,
genera una sottrazione. Una sottrazione importante ma una sottrazione è una
sottrazione. Significa fate pure, colonizzate quel che volete, finché c’è un
po’ di terra in cui posso creare una comunità con i miei amici e una famiglia e
vivere secondo diversi criteri di relazione e di produzione della vita, faccio
questa scelta. Penso sia interessante conoscere queste esperienze, ma noi
viviamo all’interno di un sistema in cui più di 5 miliardi di persone sono
inserite in questo modo di produzione, di consumo e di relazione, ed è
all’interno di questa complessità che dobbiamo sviluppare il nostro pensiero.
Per cui anche la soluzione di Snowden è interessante, vedremo dove andrà la
sperimentazione di nuove reti decentrate, ma per ora resta una piccola
sperimentazione.
La quarta
risposta, infine, tocca il problema che mi sta più a cuore dal punto di vista
delle conclusioni di questo tipo di percorso: la decolonizzazione. Sono
assolutamente convinto che occorra porsi in posizione attiva e non passiva
rispetto all’azione colonizzante. Personalmente mi interessa una tecnologia
libera, vera, che attrezzi non il modo di produzione capitalistico ma un modo
di produzione non fondato sullo scambio disuguale, quindi mi interessa portare
la critica a Facebook, Amazon ecc. non sulla superficie ma sulla radice. La
radice qual è? È il modo di produzione dentro il quale queste aziende scambiano
le merci o producono le tecnologie. E poiché sappiamo che le tecnologie non
sono neutre ma portano dentro di sé l’intenzione di chi le genera, si possono
costruire in un modo o in un altro. Oggi chi colonizza il mondo nelle sue
diverse forme ha in mente di costruire tecnologie che sono armi di
sfruttamento, come quelle della logistica di cui ho parlato prima, un’arma
attraverso la quale dei lavoratori vengono portati all’esaurimento delle loro
energie. Siamo all’interno di una società secondo cui, per alcune ricerche che
cito nel libro, si lavora più tempo fuori dal luogo di lavoro che dentro, e
soprattutto fuori da qualunque tipo di immaginario di relazione: persone che si
portano a casa il lavoro perché devono finirlo, che in metropolitana lavorano
ancora, magari con Whatsapp.
Questo è
quindi il punto vero di aggressione contro le tecnologie di dominio, e non
comincia su Internet ma fuori, nella vita di relazione tra corpi. Perché quando
siamo in rete abbiamo delle identità extra corporee che non sono più i processi
dissociativi che nell’arco di migliaia di anni, come umani, abbiamo
sperimentato, ma uno sdoppiamento attraverso il quale una nostra parte,
dissociata, vive in un continente le cui regole non sono quelle della relazione
dei corpi. Quindi in rete le identità si trovano in territori che non possono
gestire, vivono su piattaforme di altri che ci sottopongono a enormi pericoli.
Per questo credo che sia fuori dalla rete, nel rapporto tra i corpi laddove le
persone si incontrano, si conoscono, si confrontano e discutono, il punto da
cui può partire una riflessione per un pensiero critico nei confronti dei
limiti delle tecnologie esistenti. Occorre riprendere la capacità di vivere in
gruppi umani che si pongono il problema degli strumenti che usano, e non perché
hanno a cuore la demonizzazione degli strumenti che ci sono, quelli ci sono e
continueranno a esserci e saranno più brutali che mai, ma per capire di quali
vogliamo dotarci per poter produrre in altro modo la nostra vita quotidiana e
la nostra vita di relazione. Questa è la posta in palio della battaglia. O
riusciamo come sapiens sapiens, come umani, a restare umani, nel
senso di sviluppare la nostra capacità anche in quest’epoca, oppure inesorabilmente
l’oggettivazione che questa struttura crea di ciascuno di noi ci farà diventare
semplicemente pezzi della macchina, quindi dei colonizzati che, obtorto
collo oppure felicemente oppure senza neanche più capire se ci va bene
o male, non faranno che riprodurre gli interessi, le linee strategiche, le
traiettorie che sono quelle dell’1% della popolazione mondiale che ha in mano i
nostri destini.
Note
1) Cfr. G. Baer, Genome editing. Le modifiche
al DNA umano, pag. 14 (n.d.r.)
2) Cfr. G. Baer, USA: giustizia artificiale.
Big data, IA e algoritmi predittivi nei tribunali, Paginauno n. 65/2019
(n.d.r.)
3) Cfr. R. Curcio, L’algoritmo
sovrano. Identità digitale, sorveglianza totale, sistema politico, Paginauno
n. 60/2018 (n.d.r.)
Nessun commento:
Posta un commento