Nell’audizione presso il Senato, il Presidente Stanzione individua aspetti cruciali in tema di responsabilizzazione delle piattaforme ed enforcement, anche in vista del Digital Single ACT (DSA) europeo.
“L’attribuzione al Garante della funzione di decisione in ultima istanza delle richieste non soddisfatte dai gestori assicura che un bilanciamento così delicato quale quello tra dignità e libertà di espressione non sia rimesso alla decisione autonoma di un mero soggetto privato quale la piattaforma. È questo il punto più delicato della tutela della persona (e in particolare della dignità) on line: promuovere la cooperazione attiva delle piattaforme, pur senza renderle arbitre delle libertà fondamentali”.
Così il Presidente del Garante Privacy, Prof. Pasquale Stanzione nell’audizione che si è svolta il 13 luglio l’ Audizione presso il Senato (Commissione straordinaria per il contrasto dei fenomeni di intolleranza, razzismo, antisemitismo, istigazione all’odio e alla violenza) in merito all’ indagine conoscitiva su natura, cause e sviluppi recenti del fenomeno dei discorsi d’odio. Di particolare interesse sono le soluzioni e proposte normative del Garante, con considerazioni che vanno ben oltre lo specifico del discorso d’odio e attengono al tema, della responsabilizzazione delle piattaforme online, cruciale, per ristabilire le tutele degli individui e principi regolativi e di enforcement equi anche alle maggiori piattaforme online. Le proposte del Garante sono mirate a rendere effettiva la tutela remediale, soprattutto in forma specifica con riferimento alla rimozione in particolare, che consente di limitare gli effetti della permanenza in rete di contenuti lesivi, prevenendone l’aggravamento, un tema cruciale anche, per es. per la tutela del copyright online. Il meccanismo fondato sulla richiesta al gestore di rimozione e la successiva istanza al Garante in caso di inerzia o rigetto, è un utile strumento di tutela dei diritti della personalità on line, perché coniuga l’esigenza della pronta rimozione dei contenuti (soprattutto in caso di adesione spontanea del provider) con la riserva all’autorità pubblica della decisione in ultima istanza nel contraddittorio delle parti. Sarebbe opportuno estendere il modello di tutela remediale affidato al Garante rispetto al cyberbullismo all’hate speech, in tal modo “responsabilizzando, pur a legislazione vigente, le piattaforme rispetto agli illeciti commessi on line dagli utenti e soprattutto intervenendo in senso ablativo sui contenuti lesivi in tempi stringenti, prima che il gioco delle condivisioni virali renda impossibile contenerne gli effetti, come nel tragico caso di Tiziana Cantone”. Il Garante ha inoltre citato la proposta Boldrini (AC 2936), modellata sulla legge tedesca sui social network, che obbliga le piattaforme ad adottare procedure agevoli per la segnalazione e la verifica dei contenuti illeciti, con procedure particolarmente celeri da parte di un organismo di autoregolamentazione ma con competenza decisionale definitiva del Garante, in caso di rigetto dell’istanza di rimozione. Sulla scorta della giurisprudenza sull’ingiunzione dinamica, sancisce poi, in capo al gestore, l’obbligo di assicurare che il contenuto illecito rimosso o bloccato non sia nuovamente pubblicato.
Il Garante ha quindi citato il Digital Services Act (DSA) e le norme in tema di responsabilizzazione delle piattaforme on line in ordine alle procedure di rimozione dei contenuti illeciti, agli obblighi di carattere proattivo e “di tipo preventivo” (diversamente modulati sulla base del numero di utenti attivi): “a tal fine si impone l’istituzione (diversamente modulata in ragione, appunto, della rilevanza della piattaforma) di procedure interne di decisione delle istanze di rimozione di contenuti illeciti o comunque contrari alle policies aziendali, con obblighi di motivazione e reclamabilità delle scelte adottate, nonché con la devoluzione delle controversie ad organi di AdR dotati di requisiti adeguati di indipendenza. Nell’attesa dell’approvazione, non certo immediata, del DSA, soluzioni quali quelle proposte dalla pdl Boldrini potrebbero contribuire non soltanto ad anticipare quel percorso di responsabilizzazione suggerito dalla disciplina europea, ma anche offrire un’essenziale tutela alle vittime elettive dell’intolleranza”, ha concluso. Per la posizione espressa da CRTV sul DSA si veda qui, per altri rilievi su Privacy e DSA, qui.