Fake news: Erga (Ue) critica sul codice di autoregolazione delle piattaforme

CODICE

Condividi l'articolo

Procedere verso co-regolazione o regolazione. Significative carenze nell’applicazione volontaria del Codice di condotta Ue contro la disinformazione: mancano adesioni di attori significativi, verifiche indipendenti, uniformità nelle procedure di segnalazione dei contenuti; le regole sono generiche, le procedure poco trasparenti. È quanto si legge nel rapporto di monitoraggio dei regolatori Ue del settore audiovisivo (Erga). Nel documento si sottolinea l’importanza di combattere la disinformazione per la tutela delle società democratiche e si invitano le istituzioni Ue a passare dalla autoregolamentazione su base volontaria alla co-regolazione o alla regolazione per assicurare uniformità di monitoraggio, procedure, enforcement. Lo strumento, da prevedere all’interno del Digital Services Act potrebbe essere un regolamento dedicato

Il codice del “minimo sindacale”. Pur condividendo le risultanze emerse, non possiamo non constatare che tali risultati erano ampiamente prevedibili. Si ricorda infatti che il codice, limitato alle fake news in tema di comunicazione commerciale e, alla comunicazione politica (in vista del rinnovo del Parlamento UE), nasce con delle lacune di fondo che CRTV non aveva mancato di sottolineare a suo tempo, anche perché aveva avuto un osservatore privilegiato all’interno degli organismi UE creati per lavorare all’approvazione del codice. La precedente Commissione aveva creato, per contribuire a redigere un codice sulla disinformazione: un Gruppo di Esperti di Alto Livello UE (HLG), fra cui per l’Italia, anche il Consigliere CRTV Gina Nieri; e uno Stakeholder Forum, in rappresentanza, come dice il nome, dei portatori di interessi. Nonostante il lavoro di tali organismi, il codice era stato concordato fra le maggiori piattaforme (Facebook, Google and Twitter, Mozilla, cui più tardi si era unita Microsoft) e rappresentanti dell’industria degli investitori pubblicitari e delle concessionarie riuniti in un Working Group all’interno dello Stakeholder Forum. Il codice, oltre a una serie di impegni declinati su 5 pilastri (I. Controllo dei posizionamenti degli annunci II. Pubblicità politica e comunicazione politica III. Integrità dei servizi IV. Responsabilizzare i consumatori V. Potenziare la comunità di ricerca), comprendeva negli allegati sostanzialmente l’enunciazione di prassi già in atto presso le piattaforme. Ed era stato approvato con il parere di un gruppo ristretto di rappresentanti del mondo accademico, dei media, della società civile e dei fact checkers all’interno dello Stakeholder Forum. Un meccanismo che non avevamo esitato a definire “bizantino”, e che in nome della celerità dell’azione, e l’urgenza (della fine della consiliatura UE e delle elezioni politiche) ha bypassato la piena condivisione e non ha tenuto conto, almeno in questa prima fase che potremmo definire di “applicazione limitata”, dei risultati emersi dal rapporto del Gruppo di Esperti: quest’ultimo per un tema complesso e mutevole come la disinformazione raccomandava un approccio multidimensionale per misure e strumenti proposti.

Come aveva commentato a suo tempo Gina Nieri, molto critica al momento della proposta, il codice ha costituito un “minimo sindacale, un primo passo per creare un habitat almeno autoregolato in tempo utile per le elezioni politiche europee”. Tale “minimo sindacale”, continuava la Nieri “si scontra con il rifiuto delle piattaforme online di qualsiasi regola ex ante in nome della ‘libertà delle Rete’. I problemi legati alle fake news online che rimangono irrisolti includono l’asimmetria della regolazione, una concorrenza falsata, e la negazione di trasparenza per algoritmi e fact checking”.

Cosa è cambiato? Anzitutto la consiliatura UE: la nuova parte con quattro anni di tempo e nuovi progetti (il tema rientra a tutti gli effetti, come da riferimento anche nel Rapporto,  all’interno del Digital Services Act annunciato dalla Presidente della Commissione), e poi il Covid-19: come il caso Cambridge Analytica ha richiesto una riflessione più attenta sull’utilizzo dei dati personali, ora la pandemia sottolinea i “pericoli” a cui siamo sottoposti senza una gestione della informazione sulla Rete: “la crisi da Covid-19 ha evidenziato ancora una volta l’impatto pericoloso che può avere la disinformazione sul dibattito pubblico e sull’efficacia del funzionamento delle società democratiche” avverte Erga nel comunicatoL’emergenza sanitaria espone le debolezze dei sistemi (democratici, economici, politici): in questo caso si tratta delle lacune, persistenti, nella gestione dell’(eco)sistema online e dei media, che dovrebbe essere basato su uguaglianza di principi e misure.

A questo punto l’auspicio è che si proceda verso una effettiva co-regolazione, che preveda principi, norme, misure e strumenti effettivamente condivisi tra gli stakeholder. Non si riparte da zero: il lavoro fatto a suo tempo dal gruppo di esperti, raccolto nel rapporto sopra citato e i risultati emersi dopo un anno e mezzo di applicazione, anche se in ambiti limitati, devono costituire le basi per disegnare interventi tempestivi ed efficaci. Tanto più in questa fase di pandemia dove l’informazione professionale e certificata appare minacciata anche nella sua sostenibilità.

codice

Criticità e raccomandazioni. Il Rapporto riconosce che il Codice è stato un passo importante per affrontare la disinformazione online, in quanto ha contribuito a costruire una nuova relazione tra i suoi firmatari, l’UE e i regolatori nazionali dell’audiovisivo. Se alcune piattaforme hanno compiuto chiari sforzi per conformarsi alle sue misure, tuttavia l’ERGA riscontra carenze significative che devono essere affrontate. Di seguito, in sintesi, le carenze e le principali raccomandazioni individuate:

  • trasparenza, dettaglio, uniformità: è necessaria una maggiore trasparenza, compresi dati molto più dettagliati (in particolare specifici per paese) su come i firmatari stanno attuando il Codice; per alcune delle misure previste il codice è di natura troppo generale e non è attuato uniformemente da tutti i firmatari. Erga raccomanda che le piattaforme forniscano set di dati, strumenti di monitoraggio e informazioni specifiche per Paese per permettere il controllo indipendente delle Autorità nazionali. Nel suo lavoro nel 2020 ERGA propone di assistere la Commissione nella definizione di definizioni pertinenti (anche in materia di pubblicità politica) nonché linee guida per garantire un approccio più coerente;
  • più sottoscrizioni per evitare asimmetrie. Il numero di firmatari del codice è limitato e non include alcune importanti piattaforme, servizi di informazione e comunicazione e attori del settore pubblicitario attivi nella UE. ERGA raccomanda di compiere ogni sforzo possibile per aumentare il numero di sottoscrittori del Codice, al fine di evitare asimmetrie normative;
  • -nuovi strumenti di enforcement a partire da quadri di riferimento condivisi (co-regolazione o regolazione).

 

Ripartire dalle basi. Il rapporto fa riferimento alla definizione di disinformazione contenuta nell’Action Plan della precedente Commissione Ue: “informazione verosimilmente falsa o fuorviante che viene creata, presentata e diffusa per fini economici o per ingannare intenzionalmente il pubblico e può causare danni al pubblico”. E ai 5 pilastri, che hanno costituito la base del monitoraggio, condivisibili soprattutto per gli strumenti:  per gli annunci pubblicitari, demonetizzazione dei ricavi generati da siti di disinformazione, trasparenza della pubblicità e comunicazione politica, garanzia dell’integrità del servizio, volta a identificare e chiudere falsi account e segnalare interazioni generate da bot; potenziamento dei consumatori attraverso meccanismi di riduzione dell’effetto “echo-chamber”, dando ad es. rilevanza a fonti alternative o iniziative di literacy digitale, potenziamento della ricerca, dando accesso a dati prodotti dalle piattaforme ad istituti di ricerca. Attualmente tali misure, adottate su base volontaria e con differenze territoriali non rendono possibile effettuare un monitoraggio puntuale. Ad es. sul tema sensibile della pubblicità, che rileva anche per eventuali abbinamenti non consoni dei brand a siti o contenuti illegali, la mancanza di dati sulle misure approntate dalle piattaforme su base nazionale ha di fatto impedito alle autorità di effettuare controlli se non su base campionaria. Per il tema della comunicazione politica il problema è anche definitorio, non tutti i Paesi e le piattaforme prevedono le stesse definizioni e quindi elaborazioni sono state fatte solo dai regolatori di alcuni Paesi (Ungheria, Polonia, Germania, Regno Unito).

Più in generale, il limite attuale è che resta ai firmatari del Codice decidere a quale degli impegni aderire, “in base alla rilevanza dei prodotti o servizi che forniscono”, e con quali misure, rendendo di fatto inapplicabile qualsiasi forma di monitoraggio. E che non si tratta di mettere in atto una misura o l’altra, ma diversi strumenti e misure devono poter essere utilizzati per ottenere un efficace contenimento dei fenomeni di disinformazione e aggiornarli nel tempo.

Co-regolazione o regolazione. Uniformità di definizioni, trasparenza delle misure, dati declinati a livello nazionale, misure di enforcement, estensione del codice ad altri soggetti – il rapporto fa riferimento ad esempio a piattaforme/ strumenti importanti operanti in Europa, quali Tik Tok e Messenger. Sono questi prerequisiti perché le diverse autorità nazionali possano attuare un monitoraggio indipendente. Il primo passaggio obbligato è pertanto a un quadro condiviso di definizioni e strumenti che si sostanzia in una co-regolazione. L’attuale modello di autoregolamentazione si è rivelato un primo passo importante ma è necessaria maggiore efficacia. ERGA raccomanda di passare dall’attuale approccio flessibile di autoregolamentazione a uno di coregolazione. E di assistere la Commissione, nel corso del 2020, nell’identificazione di specifiche misure e indicatori chiave di prestazione (KPI) per le piattaforme e la definizione degli strumenti necessari per le attività di monitoraggio e enforcement da parte delle autorità nazionali.

Ma il Rapporto va oltre: “Idealmente, tutte le piattaforme che distribuiscono contenuti in Europa dovrebbero essere impegnate in questa procedura di co-regolamentazione e quindi essere soggette agli obblighi che ne derivano. In caso contrario, le istituzioni dell’UE potrebbero esplorare la possibilità di adottare un approccio regolamentare più convenzionale. Con l’attuale revisione del quadro normativo che dovrebbe culminare con il Digital Services Act (DSA) annunciato, ERGA predilige un approccio olistico alla governance della regolamentazione dei contenuti online. In questo schema generale, il pacchetto DSA dovrebbe creare un quadro che includa anche le basi per un’efficace lotta alla disinformazione (regime di responsabilità). Inoltre, è necessario un atto giuridico dedicato per affrontare il problema in modo più diretto e approfondito. Tale strumento separato (ad esempio un regolamento) garantirebbe non solo un livello di dettaglio delle disposizioni e una copertura completa delle parti interessate, ma anche la velocità legislativa richiesta, data la minaccia che l’attuale crisi informatica presenta alle democrazie europee” (pag. 53 del rapporto).

 

 

Articoli correlati

UE.-2jpg
Intelligenza Artificiale

Ultime dall’UE

Parlamento UE e Commissario McGrath sullo European Democracy Shield. Il Comitato speciale del Parlamento europeo sullo European Democracy Shield ha discusso con il Commissario Michael