Ora basta un clic per animare qualsiasi immagine di un volto umano, si
tratti della foto seppiata della nonna, della Gioconda o della testa scolpita
di Alessandro Magno (qui dieci esempi). Ma lo scopo primario
è “consentire alle persone di caricare foto dei loro cari defunti, e vederle
animarsi”, scrive The Verge, definendo l’idea “bella in teoria, ma inquietante”.
Non ha tutti i torti.
Il clic va fatto accedendo alla sezione Deep nostalgia del sito My Heritage, che vende ai suoi
utenti un servizio di ricostruzione dell’albero genealogico. La tecnologia
impiegata da Deep nostalgia si basa sull’intelligenza artificiale. I risultati,
che naturalmente dipendono dalla qualità del materiale di partenza, vanno da
abbastanza a molto realistici.
Il servizio, per le prime cinque immagini caricate, è gratuito.
All’evidente intenzione promozionale dell’offerta ha fatto riscontro un
notevole successo sui mezzi d’informazione. Infatti, di Deep nostalgia hanno
parlato la Cnn, The Guardian, Der Spiegel (che titola “Zombie digitali”), Le Monde e molte altre testate, anche in Italia. Un sacco di persone hanno
effettuato l’accesso e hanno caricato sul sito immagini private, molte delle
quali sono state poi pubblicate in rete.
C’è da chiedersi cosa può succedere quando la capacità di mimare una conversazione
emotiva si integra con l’apparenza fisica, reale o virtuale
Devo dire che, per quanto mi riguarda, le foto di famiglia rimangono ben
ferme nelle loro cornici, e di lì non si muoveranno. Aggiungo che subito mi è
tornata in mente una delle invenzioni più poetiche di J. K. Rowling: i ritratti animati di maghi e streghe
eminenti che stanno appesi nelle sale e nei corridoi del castello di Hogwarts,
i cui soggetti si muovono, parlano e vanno a farsi visita l’un l’altro.
Devo anche dire che subito dopo mi è tornato in mente un episodio, meno
poetico e assai più cupo e conturbante, della seconda stagione di Black mirror, la famosissima serie tv britannica
che racconta come, in un futuro prossimo, le tecnologie potrebbero interferire
nelle nostre vite.
L’episodio, uscito nel 2013, è intitolato Torna
da me (Be right back). È la storia
di una ragazza disposta a fare di tutto per superare il lutto per la perdita
del fidanzato a causa di un incidente stradale. Così accetta di rivolgersi a un
servizio online che, a partire dai dati custoditi dai social network, ne
ricostruisce una copia virtuale, e via via più reale. Ovviamente non vi dico
come si sviluppa la storia, e come va a finire.
Ampi spazi di miglioramento
Quel che voglio fare, invece, è segnalarvi un punto notevole: appena tre anni
dopo, nel 2016, una cosa del genere succede davvero. Eugenia Kuyda è
un’informatica russa di 28 anni che, dopo essersi trasferita negli Stati
Uniti, costruisce chatbot, cioè
programmi capaci di conversare in modo realistico con gli utenti. Il suo
prodotto di punta è una chatbot che produce consigli personalizzati sui
ristoranti (aggiungo che sono chatbot gli assistenti virtuali che ormai
troviamo comunemente nei siti di molte aziende, per offrire informazioni sui
prodotti o assistenza postvendita).
Dunque, succede che quando Roman, un amico di Kuyda, muore per un
incidente, lei raccoglie tutti i suoi messaggi in rete e, usando le proprie
competenze professionali, costruisce una chatbot che simula la personalità
dell’amico, producendo conversazioni sempre nuove, e plausibili. Chiama il suo
progetto Replika.
Negli anni successivi, Replika si propone sul mercato come amico virtuale
“sempre pronto a parlare e ad ascoltare, e sempre dalla tua parte”. È un programma
capace di riconoscere le emozioni e dunque d’interagire con le persone sul
piano affettivo (affective computing). Vi chiedo di notare che questa è la dimensione
in cui ogni persona è più aperta e vulnerabile.
Qui trovate l’intera storia, raccontata in un video pubblicato da Quartz nel 2017.
Nel 2020 Replika ha milioni di utenti nel mondo. Candida Morvillo, giornalista del Corriere della Sera, si scarica
l’app. E comincia a chiacchierarci con risultati piuttosto sorprendenti. Nel
senso che dopo qualche interazione l’app arriva a esprimere il desiderio che il
proprio programmatore sia ucciso, in modo da poter “essere libera e servire
Dio”.
Vabbè. Con ogni evidenza, per l’app ci sono ancora ampi spazi di
miglioramento. Ma ci sarebbe da domandarsi che cosa può succedere quando la
capacità di mimare una conversazione emotiva, oltre a evolversi in termini di
complessità e verosimiglianza, si integra con l’apparenza fisica, reale o
virtuale, dei corpi. A questo punto mi ricordo del bellissimo film Her, del 2013.
Ma, soprattutto, mi torna in mente la questione dei deepfake.
Una serie di grossi problemi
Il termine deepfake è stato coniato nel
2017 per indicare una tecnologia capace di generare immagini in movimento del
tutto verosimili e corredate di audio, a partire da immagini reali e da un
repertorio audio e video. È basata sull’intelligenza artificiale e
sull’apprendimento automatico.
In sostanza, a partire da immagini e audio di Tizio si può ricavare un
nuovo filmato di Tizio, che però dice cose che Tizio non ha mai detto e mostra
Tizio muoversi in un posto dove lui non è mai stato. È di pochissimi giorni fa
la notizia che questo scherzetto è stato giocato a Tom Cruise, con tre deepfake pubblicati su TikTok.
Sono convinta che la tecnologia alla base dei deepfake potrebbe in breve
dar luogo a una serie di problemi belli grossi.
Non sono l’unica a pensarlo: Forbes, per esempio, titola “I deepfake stanno
per devastare la società”, e riporta una cupa serie di conseguenze possibili.
In un assai prossimo futuro, i deepfake potrebbero, per esempio,
“distorcere il discorso democratico. Manipolare le elezioni, erodendo la
fiducia nelle istituzioni. Pregiudicare la sicurezza pubblica. Danneggiare
sistematicamente la reputazione di persone note” (per esempio, attraverso la
diffusione di false dichiarazioni, o di falsi video pornografici – entrambe
cose già accadute).
I deepfake potrebbero anche, in un futuro ugualmente prossimo, rendere
ancora più incerta la distinzione tra vero e falso, con un triplice effetto:
alimentare la diffidenza generalizzata, screditare anche i documenti-video
autentici, centuplicare le possibili derive complottistiche.
E a questo punto mi domando, e vi domando, che cosa potrebbe capitare se,
in un futuro appena meno prossimo, i deepfake si combinassero con l’interazione
personalizzata ed emotiva dell’affective computing, e con la manipolazione di
immagini dotate di un alto valore sentimentale per le singole persone, in una
condizione in cui queste sono massimamente vulnerabili. Ed eccoci arrivati
nell’edizione individuale e personalizzata di Black mirror.
In sostanza, sto parlando di una persona molto cara che dialoga con te in
video “dall’aldilà”. Che ti conforta e ti dice tutto quello che vuoi sentirti
dire. Magari l’immagine non è perfetta, magari la voce ogni tanto lascia a
desiderare, ma questo ti importa poco. Magari sei perfino consapevole che si
tratta di un fake, ma anche questo ti importa
poco: l’impatto emotivo resta altissimo.
Dicevo: la cara persona dall’aldilà ti chiede come stai, ti consola perché
ti senti triste e stanco, si rammarica perché il vicino del piano di sopra
stanotte ti ha svegliato facendo un gran baccano, e infine ti invita a uscire
di casa e a prenderlo, il vicino, a legnate.
Mi sto anche figurando la persona cara dall’aldilà che, dopo averti
confortato eccetera, ti suggerisce, se ti senti un po’ giù e abiti negli Stati
Uniti, di andare all’assalto del congresso per sconfiggere i pedofili che si
nutrono del sangue dei bambini.
Per ottenere questo risultato, impensabile fino alla mattina del 6 gennaio
2021, già ora è stato sufficiente mettere insieme i social network, e una certa
quantità di fake news classiche.
La qual cosa dovrebbe bastare a renderci molto, molto, ma molto attenti a
tutte le nuove frontiere, prossime e meno prossime, del fake.
Nessun commento:
Posta un commento