È impressionante, ma non inaspettata, la velocità con cui siamo passati a parlare di intelligenza artificiale intesa come il tuo copilota personale o lavorativo che toglierà di mezzo un sacco di compiti noiosi, a intelligenza artificiale intesa come tecnologia che facilita un bombardamento.
Voglio dire, è ovvio che questo
secondo aspetto fosse già lampante da tempo (per molti, sicuramente per questa
newsletter e per il sito Guerre di Rete): del resto, bastava seguire i
resoconti della guerra in Ucraina e degli attacchi israeliani su Gaza.
Ma lo scontro tra il Pentagono e
Anthropic (società econche produce Claude, la nota famiglia di modelli linguistici
di grandi dimensioni) ha avuto il merito di funzionare da pirandelliano strappo
nel cielo di carta.
Si sta infatti cementando un complesso militare-industriale con al
centro l’intelligenza artificiale, su cui i governi (in primis, quello
Usa), ossessionati dal raggiungere la supremazia tecnologica, stanno
scommettendo moltissimo e per cui sono disposti a far saltare qualsiasi regola,
anche nei rapporti con le società produttrici. E, d’altro canto, queste ultime,
affamate di utili che ancora non arrivano, non si fanno alcuno scrupolo a
siglare contratti coi militari, whatever it takes.
Tutto ciò, in uno scenario in cui le conseguenze di questa
rapidissima integrazione tra AI e sistemi d’arma e d’intelligence sono
ancora tutte da capire (in termini di affidabilità, sicurezza, risvolti etici,
legali) e prospettano scenari distopici.
E dunque veniamo all’analisi di chi
questo cielo di carta, nelle ultime settimane, lo ha preso a mazzate: lo
scontro Anthropic-Pentagono, che ha portato alla messa al bando
della società dai contratti governativi americani. Partendo però dalla fine.
Perché secondo il WSJ, il Comando Centrale degli Stati Uniti
(CENTCOM) ha ancora utilizzato l’intelligenza artificiale di Anthropic durante
gli attacchi in Iran, poco dopo il ban. Del resto, Trump aveva specificato che ci sarebbe stata una
fase di transizione di sei mesi per il Dipartimento della Difesa e le altre
agenzie che utilizzano i prodotti dell’azienda. Nel mentre, il segretario alla
Difesa Pete Hegseth ha ordinato al Pentagono di designare Anthropic un “rischio
per la catena di approvvigionamento”, come una qualsiasi azienda hi tech cinese
o russa sospettata di avere backdoor nei suoi prodotti (e infatti sulla dubbia
legalità di questa mossa senza precedenti, rimando a questo articolo).
“Con effetto immediato, nessun
appaltatore, fornitore o partner che intrattiene rapporti commerciali con
l’esercito degli Stati Uniti può svolgere alcuna attività commerciale con
Anthropic”, ha scritto Hegseth in un post sui social.
Su come Claude sia
utilizzato dai militari si sa ovviamente poco. Sappiamo che Anthtropic
è stata la prima società di modelli di AI ad ottenere un contratto da 200
milioni di dollari col Pentagono, la scorsa estate, creando dei modelli ad hoc,
come Claude Gov, con meno restrizioni. E che fino a pochi giorni fa è stata
l’unica a poter lavorare con sistemi classificati. Secondo fonti di Wired Usa, Claude Gov sarebbe utilizzato
principalmente per compiti di routine, come la redazione di rapporti e la
sintesi di documenti, ma anche per l’analisi delle informazioni e la
pianificazione militare. “Da quanto ne sappiamo - scrive la newsletter AI
Update - viene utilizzato per elaborare dati di intelligence,
identificare pattern nelle immagini satellitari e nelle comunicazioni
intercettate, eseguire simulazioni e generare briefing. Pensatelo come
l’assistente di ricerca più costoso al mondo, non come un Terminator. Ma il
confine tra “supportare le decisioni” e “prendere decisioni” diventa
rapidamente sfumato quando si elaborano i dati che determinano dove cadrà il
prossimo missile”.
Inoltre Claude è integrato in una piattaforma di Palantir, società
di analisi dei dati ben nota per i molteplici contratti col governo Usa: si
tratta del Maven Smart System, uno strumento di AI che fornisce alle truppe un quadro
unificato delle informazioni di intelligence provenienti da più sensori.
Ed è proprio questa partnership che
ha portato alle prime avvisaglie dello scontro
Anthropic-Pentagono, quando a gennaio è emerso sui media che nella cattura di
Maduro sarebbe stato usato anche Claude. Un dipendente di Anthropic avrebbe
chiesto chiarimenti sull’operazione a una controparte in Palantir, che a sua
volta avrebbe informato il Pentagono, che si sarebbe alquanto irritato. Anche perché
probabilmente erano già in atto delle tensioni e negoziazioni con la società
cofondata da Dario Amodei sulle restrizioni volute dalla stessa società
nell’utilizzo di Claude da parte dei militari. Fra queste, due apparivano come
non negoziabili per Amodei: no all’uso per fare sorveglianza di
massa sui cittadini Usa; no all’uso in armi completamente autonome (senza
supervisione umana).
Due questioni che erano già state
sottolineate da Amodei in un saggio pubblicato a gennaio. E che
sono francamente diventate una sorta di limite etico minimo, una specie di
palizzata disperata contro i carri armati della distopia. Per questo Amodei, e
Anthropic, che hanno costruito la loro società sull’idea, se volete sul brand,
di essere migliori di OpenAI, di pensare di più alla sicurezza e all’etica, non
avrebbe mai potuto cedere alle minacce del Pentagono. È stata la cronaca
di una spaccatura annunciata.
Ora Anthropic, che combatterà in tribunale la designazione di rischio nella
catena di fornitura, è diventata un paria per il governo ma si è guadagnata il
rispetto di molti nel settore. E ha generato delle scosse telluriche in
altre aziende, dove i dipendenti di sono messi a firmare petizioni per
chiedere di opporsi all’uso dei loro strumenti di intelligenza artificiale per
la sorveglianza di massa e per la produzione di armi in grado di uccidere senza
il controllo umano. E mentre Claude balza in cima ai download sull’App
Store Usa, c’è chi chiede di boicottare ChatGPT dopo la
notizia che OpenAI avrebbe invece trovato un accordo con il Pentagono per usare
i suoi modelli in reti militari classificate. Un accordo che non convince anche molti esperti di tecnologia.
E quindi, siamo di fronte a
una Authoritarian AI Crisis, come ha scritto Casey
Newton? Non lo so, ma certo ci voleva una buona dose di ingenuità (o un fitto
strato di prosciutto sugli occhi) per pensare che si potessero fare contratti
coi dipartimenti della difesa senza che questi sollevassero grossi problemi
etici per aziende private nate come laboratori di ricerca per costruire una
tecnologia che migliorerà il mondo.
Ma almeno ora alcune delle
contraddizioni sono più visibili per tutti. Come è palese che i margini di
azione in questo campo da parte della società civile e di chi si preoccupa di
diritti umani e legalità si stanno restringendo sempre più velocemente, se non
si agisce subito.
Nessun commento:
Posta un commento