Migliaia di persone condividono i propri saperi e il proprio tempo per immaginare, disegnare, costruire, commerciare e utilizzare nuove armi. Stanno nelle università, nei centri di ricerca, negli uffici di progettazione delle industrie, oltre che nelle accademie militari. Il peso della loro responsabilità assassina viene nascosto in tanti modi. Ogni tanto si ritrovano, in cenacoli come quelli di Aspen Institute e producono rapporti, con il contributo, ad esempio, della Leonardo Spa, della Marina Militare, di Intesa Sanpaolo e dell’Università degli Studi di Pavia
Costruiscono strumenti di morte sempre più sofisticati e letali. Progettano
armi di sterminio capaci di colpire autonomamente e automaticamente senza un
controllo umano diretto. Così non c’è più bisogno di uomini che si infanghino
gli stivali, che premano il grilletto e che rischino di intaccare la propria
psiche. Nulla in confronto alla affidabilità dei sistemi unmanned:
droni di superficie, siluri sottomarini, missili ipersonici manovrabili a
distanza da personale in camice bianco tramite reti cyber satellitari. Nulla di
diverso – del resto – da ciò che avviene nelle fabbriche, nei magazzini
robotizzati, negli uffici automatizzati; ogni mansione è calcolata,
procedimentalizzata, mirata. Nessun pericolo di errore, nessuna
responsabilità individuale. La lontananza e l’invisibilizzazione del
comando creano una idea di astrazione della violenza inferta. Apparentemente,
almeno. Perché invece il peso della responsabilità assassina è
stato solo verticalizzato e accentrato in capo a coloro che hanno
deliberatamente deciso di mettere la propria (umana) intelligenza e le proprie
personali conoscenze a disposizione della progettazione dei nuovi “sistemi
d’arma”. Macchine e programmi, dati e codici in funzione di
prestabiliti obiettivi di distruzione. Questi signori sono tra noi:
stanno nelle università, nei centri di ricerca, negli uffici di progettazione
delle industrie, oltre che nelle accademie militari.
Ogni tanto si ritrovano, in cenacoli come quelli di Aspen Institute e producono
rapporti, vedi l’ultimo (link) redatto con il contributo di Leonardo e la
collaborazione della Marina Militare, di Intesa Sanpaolo e dell’Università
degli Studi di Pavia. Un piccolo spaccato dell’élite del potere. Il rapporto redatto da un
pull di esperti si presenta come linee guida per operatori economici e decisori
politici al fine di incrementare la filiera produttiva delle armi e, prima
ancora, sdoganarne l’impiego. È qui infatti che i generali vincono le guerre –
prima ancora che vengano combattute – nel legittimare la produzione di armi.
Con piglio militare veniamo informati dal Rapporto che “Il dominio militare
è stato storicamente caratterizzato dall’essere un terreno fertile per
l’innovazione, poiché la capacità di innovare le operazioni militari
costituisce uno dei vantaggi che le forze armate possono mettere a frutto per
ottenere la superiorità e la vittoria”. Per chi non l’avesse già capito e
sperimentato: “La storia militare è in effetti costellata da innovazioni che
hanno spesso, e sempre più frequentemente con la crescita delle capacità
tecnologiche, riguardato gli equipaggiamenti prima ancora che la strategia e la
dottrina, la cui evoluzione è stata anzi spesso costruita proprio sulla
disponibilità di nuovi sistemi di attacco o difesa o informazione”.
Da queste considerazioni d’ordine storico-generale ne derivano un
caldo invito rivolto ai governi a spendere sempre di più in R&S
per mantenere una strategia di deterrenza basata sull’asimmetria dei mezzi
tecnici a disposizione, sul “surclassamento tecnologico” e sulla “superiorità
informativa” nei confronti dei potenziali nemici (individuati nella Russia,
nella Cina e in imprecisati “attori non statuali”). L’importante è che nuove
tecnologie militari rimangano “non alla portata di qualsiasi attore si affacci
all’orizzonte geostrategico”. Da qui l’invito affinché l’Europa (“Anche senza
gli Stati Uniti”) metta in sicurezza i suoi assetti realizzando “nuove capacità
[di] natura sia difensiva sia offensiva, poiché la deterrenza si costituisce
con un’appropriata combinazione delle due”. A minacce potenziali interventi
preventivi.
Impariamo dal Rapporto che oggi, oltre ai tradizionali “domini” sui campi
di battaglia (terrestre, navale e dell’aviazione), la sfida tecnologica si
gioca sulle armi ipersoniche, sulle armi a energia diretta (come il laser),
sullo spazio digitale (cyberspazio). In tutti questi campi
l’intelligenza artificiale agisce da dirompente “moltiplicatore di effetto”,
per velocità e molteplicità di impiego, più “di quanto realizzabile con
strumenti gestiti da un operatore umano”.
Ma ciò comporta una preoccupazione che gli esperti dell’Aspen, di Leonardo
e della Marina definiscono di “natura etica e operativa”. I sistemi d’arma
autonomi (AWS Autonomus Weapon System) infatti operano sulla base di una
profilazione preventiva algoritmica che si aggiorna automaticamente e con
programmi Machine Learning (autoapprendimento) capaci di identificare,
scegliere e attaccare (Observe, Orient, Decide) un bersaglio senza il
coinvolgimento umano. In pratica, algoritmi armati, macchine appositamente addestrate a fare
cose originariamente non prevedibili. Gli obiettivi e le persone vengono
colpite sulla base di pacchetti di informazioni dedotte dai sistemi di
riconoscimento e di identificazione (sensori, foto, comportamenti, ecc.).
Sembra che da tempo in sede Onu si stia discutendo per stabilire delle
“regole di ingaggio” condivise per l’uso di questi sistemi d’armi. Nello
specifico si tratta di decidere quale debba essere il “livello appropriato di
giudizio” che deve rimanere in capo ad un essere umano. Per gli “ottimisti
tecnologici” tali sistemi dovrebbero essere considerati come un semplice valido
supporto decisionale offerto agli agenti umani affinché possano colpire più
rapidamente, profondamente ed efficacemente il nemico. I più dubbiosi ritengono
che i margini di errore (“pregiudizi” incorporati nel software) contenuti nel
design del sistema, nel suo addestramento e nell’operazionalità sono tali da
non consentire il loro uso.
Per noi fa rabbrividire il solo porsi tali quesiti. Esiste una campagna per
chiedere la proibizione di queste armi: stopkillerrobots.org. Se la produzione di
qualsiasi tipo di arma da guerra è un insulto alla vita, quelle
“tecnologicamente avanzate” funzionano incorporando l’intera società nella
logica del conflitto. Nella guerra ibrida (che comprende
attacchi cibernetici e cinetici usando bande di frequenza diverse per
distruggere o disabilitare infrastrutture collettive ed equipaggiamenti
personali) vi è una “commistione tra difesa civile e militare”, senza
alcuna possibilità nemmeno teorica di separare i due ambiti. Ammonisce il
citato Rapporto: “Un attacco cibernetico può ad esempio avere come obiettivo il
sistema sociale per un’operazione di disinformazione, il sistema economico per
un’operazione di frode informatica, il sistema industriale per un’operazione
di ransomware, un intero sistema paese per un’operazione di blocco
o danneggiamento di infrastrutture critiche”. Quindi “competenze e attribuzioni
si sovrappongono e solo una fattiva collaborazione tra civile e militare può
portare alla piena efficacia delle linee di difesa”. In tal modo tutte
le strutture e le istituzioni sociali vengono chiamate a costruire un sistema
intrecciato di monitoraggio, controllo e sorveglianza. In tempo di pace e in
tempo di guerra, a difesa dei confini esterni e dell’ordine interno. Tecnologie
militari e civili si sovrappongono in modo inestricabile. La “dualità”
(applicazioni civili di ricerche militari e viceversa) si va unificando.
Si chiude così il cerchio della militarizzazione della società in nome
della sicurezza e dello sviluppo tecnologico. E si capisce anche quale
sia l’interesse di industrie come Leonardo ad entrare nelle università e i
militari nelle scuole.
Nessun commento:
Posta un commento