mercoledì 30 agosto 2023

Perché il Digital Service Act è un rischio per la libertà di parola su internet - Giorgia Audiello

 

È fissata per oggi, 25 agosto, la prima scadenza per le piattaforme digitali sottoposte al Digital Service Act (DSA), la nuova legge sui servizi digitali dell’Unione Europea entrata in vigore nel novembre 2022. Mentre da parte europea e sul mainstream si sottolineano i lati positivi della norma (che prevede maggior tutela dei dati personali e limiti alla profilazione e alla riservatezza delle chat), ben poco si parla dei rischi connessi alla limitazione del diritto alla libera espressione previsto dai punti che prevedono il controllo della “disinformazione” e in particolare di quanto previsto al punto 91 della legge, che prevede meccanismi per ridurre i confini della libertà di parola attuabili “in presenza di circostanze eccezionali che comportino una minaccia grave per la sicurezza pubblica o per la salute”.

 

Cos’è il DSA

La legge per ora interessa 15 grandi corporation tra motori di ricerca e piattaforme e nel prossimo futuro sarà allargata.

Le piattaforme in questione sono state identificate dalla Commissione come dominanti dello spazio online e tra le altre, compaiono Bing, Google, Facebook, Instagram, Twitter, Amazon Store e Wikipedia. Il DSA è entrato in vigore il 16 novembre 2022 per tutti gli intermediari online che forniscono servizi sul territorio comunitario, con un livello di obblighi crescente e proporzionato al numero di utenti raggiunti. Le grandi piattaforme online saranno soggette a requisiti sulla valutazione indipendente e annuale dei rischi sistemici di disinformazione, contenuti ingannevoli, violazione dei diritti fondamentali dei cittadini e violenza di genere e minorile. Le violazioni del regolamento comporteranno multe fino al sei per cento del fatturato globale e saranno sorvegliate dalle autorità nazionali (le piattaforme più piccole) e dalla Commissione Ue che ha potere esclusivo su quelle più grandi.

Il regolamento pone particolare attenzione al fenomeno della “disinformazione” restando però sul vago, non definendo nel dettaglio ciò che può essere considerato come tale. Di conseguenza, anche eventuali opinioni o studi difformi dalla linea “istituzionale” potrebbero venire etichettati come disinformazione. In particolare, al punto 84 del DSA si legge che «Nel valutare i rischi sistemici individuati nel presente regolamento, tali fornitori dovrebbero concentrarsi anche sulle informazioni che non sono illegali ma contribuiscono ai rischi sistemici individuati nel presente regolamento. Tali fornitori dovrebbero pertanto prestare particolare attenzione al modo in cui i loro servizi sono utilizzati per diffondere o amplificare contenuti fuorvianti o ingannevoli, compresa la disinformazione. Qualora l’amplificazione algoritmica delle informazioni contribuisca ai rischi sistemici, tali fornitori dovrebbero tenerne debitamente conto nelle loro valutazioni del rischio».

Il testo risulta ancora più esplicito per quanto riguarda eventuali situazioni di crisi, quali una minaccia per la sicurezza o la salute pubblica, calamità naturali o atti di terrorismo: in questi casi, al punto 91 si legge che «La Commissione dovrebbe poter chiedere ai prestatori di piattaforme online di dimensioni molto grandi e ai prestatori di motori di ricerca online di dimensioni molto grandi, su raccomandazione del comitato europeo per i servizi digitali («comitato»), di avviare con urgenza una risposta alle crisi. Le misure che tali prestatori possono individuare e considerare di applicare possono includere, ad esempio, l’adeguamento dei processi di moderazione dei contenuti e l’aumento delle risorse destinate alla moderazione dei contenuti […]». Tutte le eventuali future emergenze potrebbero, dunque, fornire il pretesto per limitare la libertà d’informazione censurando opinioni, dati e studi non allineati.

 

La reale portata della legge sulla libertà d’informazione

Per questi motivi, una parte dell’opinione pubblica identifica la legge come un modo per imporre una sorta di censura mascherata finalizzata ad evitare che si possano esprimere tesi e opinioni divergenti da quelle “dominanti”. La facoltà di vigilare sulla correttezza delle informazioni e dei contenuti, stabilendo, dunque, ciò che è vero e ciò che è falso è stata attribuita in primo luogo ad un organo politico: la Commissione Europea e, nello specifico, al Comitato europeo per i servizi digitali che vigilerà strettamente sulle società e sui contenuti. Un’architettura di controllo che ha portato diversi rappresentanti politici e dell’informazione a parlare di una minaccia per la democrazia.

Non si tratta di perplessità e critiche che giungono solo dal mondo dell’attivismo o della contro-informazione. Alcune preoccupazioni sono state espresse anche dal Garante per la privacy italiano che ha spiegato che «il Regolamento sembrerebbe intenzionato a riconoscere – come, peraltro, ormai avviene diffusamente – ai gestori delle piattaforme il diritto-dovere di decidere in autonomia e sulla base semplicemente delle proprie condizioni generali quale contenuto lasciare online e quale rimuovere e quale utente lasciar libero di pubblicare e quale condannare all’ostracismo digitale», concludendo senza giri di parole che «il rischio è che anziché ridimensionare le big tech, si accresca il loro impatto sulle nostre società e democrazie». Il tutto senza tralasciare che, grazie ai cosiddetti Twitter Files, è emerso che dietro alle grandi piattaforme vi sia la pressione dei governi che dettano ai colossi del digitale la linea politica e ideologica da seguire. Il giornalista David Zweig, che ha potuto visionare i documenti del social di San Francisco dopo essersi recato personalmente presso la sede di Twitter, infatti, ha fatto sapere che «Le e-mail interne che ho visto su Twitter hanno mostrato che entrambe le amministrazioni Trump e Biden hanno sollecitato direttamente i dirigenti di Twitter a moderare i contenuti della piattaforma secondo i loro desideri».

Infine, si sottolinea come il potere di decidere sulla correttezza e sulla legittimità dei contenuti sia eccessivamente sbilanciato verso la Commissione europea che avrà anche accesso agli algoritmi, assumendo così un ruolo “plenipotenziario”. Secondo il Garante, infatti, sia che si tratti della questione della pubblicità targettizzata, sia che si tratti della moderazione dei contenuti pubblicati dagli utenti, «è indispensabile che ogni competenza faccia capo o a un Giudice o a un’Autorità indipendente mentre potrebbe essere un grave errore attribuirla a un soggetto politico come la Commissione». In altre parole, vi è il rischio concreto che le opinioni, gli studi scientifici, le analisi politiche e sociali dei cittadini europei siano sottoposte al controllo stringente di un organo politico, con il rischio non trascurabile della messa al bando dal discorso pubblico di ogni opinione classificata come “disinformazione” con criteri oscuri e potenzialmente restrittivi. Una mossa che dietro una presunta tutela degli interessi degli utenti nasconde un rischio democratico evidente.

da qui

Nessun commento:

Posta un commento