Le libertà di espressione e di informazione proclamate nella Carta europea dei diritti fondamentali sono giunte al capolinea, il 25 agosto 2023, con l’entrata in vigore del ‘Digital Service Act’. (1) Un approfondimento.
Digital Services Act (DSA) introduce nuove regole per i gestori di motori di ricerca, piattaforme online, marketplace ed e-commerce, altri grandi fornitori di servizi digitali (piccole e medie imprese escluse). L’obiettivo generale dichiarato, aumentare la sicurezza sul web, viene perseguito in primis attraverso una serie di obblighi a carico dei citati operatori:
I ‘prestatori di servizi di memorizzazione di informazioni’ (di fatto, ogni piattaforma online che consenta l’interazione con gli utenti):
– ‘predispongono meccanismi per consentire a qualsiasi persona o ente di notificare loro la presenza nel loro servizio di informazioni specifiche che tale persona o ente ritiene costituiscano contenuti illegali. Tali meccanismi sono di facile accesso e uso e consentono la presentazione di segnalazioni esclusivamente per via elettronica’ (DSA, articoli 16,20).
I gestori delle piattaforme online, inoltre, ‘forniscono a tutti i destinatari del servizio interessati una motivazione chiara e specifica per le seguenti restrizioni imposte a motivo del fatto che le informazioni fornite dal destinatario del servizio costituiscono contenuti illegali o sono incompatibili con le proprie condizioni generali:
a) eventuali restrizioni alla visibilità di informazioni specifiche fornite dal destinatario del servizio, comprese la rimozione di contenuti, la disabilitazione dell’accesso ai contenuti o la retrocessione dei contenuti,
b) la sospensione, la cessazione o altra limitazione dei pagamenti in denaro,
c) la sospensione o la cessazione totale o parziale della prestazione del servizio,
d) la sospensione o la chiusura dell’account del destinatario del servizio’.
Le restrizioni – si noti bene – riguardano le sole manifestazioni della libertà di espressione e opinione. Non anche se ‘le informazioni sono contenuti commerciali ingannevoli ad ampia diffusione’ (DSA, articolo 17).
In caso di sospetto ‘che sia stato commesso, si stia commettendo o probabilmente sarà commesso un reato che comporta una minaccia per la vita o la sicurezza di una o più persone, il prestatore di servizi di memorizzazione di informazioni informa senza indugio le autorità giudiziarie o di contrasto dello Stato membro o degli Stati membri. Ovvero l’Europol, in caso di incertezza sul luogo ove il reato potrebbe essere stato o venire commesso’ (DSA, articolo 18).
Il concetto di ‘reato che comporta una minaccia per la sicurezza di una o più persone’, si noti bene, non è stato in alcun modo precisato. La censura dei social network in era Covid si è estesa a ogni tipo di informazione, ivi compresa la mera citazione di studi pubblicati in peer review su prestigiose riviste scientifiche. Restrizioni analoghe – aggravate anche da notifica alle autorità di polizia e giudiziarie – potrebbero così ora venire perpetuate ex lege, richiamando reati di incerta applicazione (es. procurato allarme).
I destinatari dei servizi – comprese le persone o gli enti che hanno presentato segnalazioni, e coloro che abbiano subito restrizioni alla visibilità dell’informazione – hanno il diritto di:
– ‘scegliere qualunque organismo di risoluzione extragiudiziale delle controversie certificato (…) ai fini della risoluzione delle controversie inerenti a tali decisioni, compresi i reclami che non è stato possibile risolvere mediante il sistema interno di gestione dei reclami’,
– ‘poter accedere gratuitamente, o per un importo simbolico, alla sola risoluzione extragiudiziale delle controversie‘,
– ‘avviare, in qualsiasi fase, procedimenti per contestare tali decisioni da parte dei fornitori di piattaforme online dinanzi a un organo giurisdizionale conformemente al diritto applicabile’ (DSA, articolo 21).
Gli organismi di risoluzione extragiudiziale:
– non hanno il potere di imporre una risoluzione della controversia vincolante per le parti,
– devono comunicare le loro decisioni alle parti ‘entro un periodo di tempo ragionevole e non oltre 90 giorni di calendario dal ricevimento del reclamo’. Tale periodo, si noti bene, può venire esteso a 180 giorni. Tempi biblici nell’informazione sul web, funzionali di fatto alla censura di informazioni di interesse pubblico e contingente (e.g. sotto elezioni),
– possono condannare il gestore della piattaforma online (non anche gli utenti che hanno presentato o subito il reclamo, sia pure in caso di loro soccombenza) a pagare le spese del procedimento e ‘le altre spese ragionevoli che il destinatario ha sostenuto in relazione alla risoluzione della controversia’ (DSA, articolo 21).
I fornitori di piattaforme online adottano le misure tecniche e organizzative necessarie per garantire che alle segnalazioni presentate dai segnalatori attendibili, che agiscono entro il loro ambito di competenza designato (…) venga data priorità e siano trattate e decise senza indebito ritardo.
La qualifica di «segnalatore attendibile» viene attribuita dal coordinatore dei servizi digitali dello Stato membro ove è stabilito il richiedente a ‘qualunque ente che abbia dimostrato di soddisfare tutte le seguenti condizioni:
a) dispone di capacità e competenze particolari ai fini dell’individuazione, dell’identificazione e della notifica di contenuti illegali,
b) è indipendente da qualsiasi fornitore di piattaforme online,
c) svolge le proprie attività al fine di presentare le segnalazioni in modo diligente, accurato e obiettivo’ (DSA, articolo 21).
L’esperienza in Italia del censore Open – giunto a cancellare post con semplice richiamo a URL di studi scientifici e articoli pubblicati su testate giornalistiche internazionali – è quindi destinata a ripetersi. E anzi a moltiplicarsi, tanti più saranno i ‘segnalatori attendibili’ e delatori di notizie che sfuggano (o vengano manipolate ad arte) sul mainstream media.
I controlli sui ‘segnalatori attendibili’, si noti bene, sono solo eventuali e ispirati alla quantità anziché alla qualità del loro operato. Tali controlli infatti:
– prescindono dalla gravità delle censure che risultino ingiustificate e dalle fake news utilizzate per rimuovere informazioni veritiere, di cui si ha pure esperienza,
– sono rimessi all’arbitro del fornitore di piattaforme online, il quale è tenuto a informare il coordinatore nazionale dei servizi digitali solo se ‘dispone di informazioni indicanti che un segnalatore attendibile ha presentato un numero significativo di segnalazioni non sufficientemente precise, inesatte o non adeguatamente motivate’.
Il coordinatore nazionale dei servizi digitali del resto può revocare la qualifica di segnalatore attendibile ‘se accerta, a seguito di un’indagine avviata di propria iniziativa o in base a informazioni ricevute da terzi’, che l’ente non soddisfa più le condizioni d’ingaggio (si veda il precedente paragrafo 5).
‘Ogni singola pubblicità’ presentata dai fornitori delle piattaforme online a ogni singolo destinatario deve venire accompagnata dalle informazioni che seguono:
– la notizia che l’informazione costituisce una pubblicità, anche attraverso contrassegni visibili che potrebbero seguire standard volontari a definirsi in UE,
– la persona fisica o giuridica per conto della quale viene presentata la pubblicità (ovvero quella che paga la pubblicità, se diversa),
– ‘informazioni rilevanti direttamente e facilmente accessibili dalla pubblicità relative ai parametri utilizzati per determinare il destinatario al quale viene presentata la pubblicità e, laddove applicabile, alle modalità di modifica di detti parametri’ (DSA, articolo 21. Si veda anche l’articolo 39).
L’incertezza della norma offre peraltro sponda a interpretazioni su misura degli interessi di operatori economici che paghino servizi publi-redazionali, così provando a omettere l’informazione sulla natura di articoli pubblicati ‘su commissione’. Fatte salve novità nei codici di condotta che la Commissione europea ‘incoraggia’ ad adottare entro il 18 agosto 2025 (DSA, articolo 46).
Altre previsioni del Digital Service Act riguardano:
Piattaforme online e motori di ricerca di dimensioni molto grandi (>45 milioni/mese di utenti attivi) devono valutare – attraverso due diligence – gli ‘eventuali rischi sistemici nell’Unione derivanti dalla progettazione o dal funzionamento del loro servizio e dei suoi relativi sistemi, compresi i sistemi algoritmici, o dall’uso dei loro Servizi’. Tale valutazione deve comprendere i rischi sistemici che seguono:
a) diffusione di contenuti illegali tramite i loro servizi,
b) eventuali effetti negativi, attuali o prevedibili, per l’esercizio dei diritti fondamentali sanciti nella Carta europea. Dignità umana, rispetto della vita privata e familiare, tutela dei dati personali, libertà di espressione e di informazione, inclusi la libertà e il pluralismo dei media (con buona pace dei meccanismi di censura sopra evidenziati), non discriminazione, rispetto dei diritti dei minori, ‘elevata tutela dei consumatori’,
c) ‘eventuali effetti negativi, attuali o prevedibili, sul dibattito civico e sui processi elettorali, nonché sulla sicurezza pubblica’. I quali potranno così giustificare ulteriori operazioni di censura,
d) ‘qualsiasi effetto negativo, attuale o prevedibile, in relazione alla violenza di genere, alla protezione della salute pubblica e dei minori e alle gravi conseguenze negative per il benessere fisico e mentale della persona’ (DSA, articolo 34). Con buona memoria della censura su effetti collaterali delle innominabili iniezioni imposte alla popolazione negli ultimi anni.
Le misure di ‘attenuazione’ dei rischi anzidetti dovrebbero essere ‘ragionevoli, proporzionate ed efficaci, adattate ai rischi sistemici specifici’ e prestare ‘particolare attenzione agli effetti di tali misure sui diritti fondamentali’. I diritti però rimangono sulla Carta e la censura dell’informazione sul web viene qui legittimata.
Gli strumenti di censura comprendono infatti – come prevedibile e già sperimentato in Italia su uno dei pochissimi siti web di informazione indipendente sulla geopolitica, l’Antidiplomatico – la ‘sperimentazione e l’adeguamento dei sistemi algoritmici’ dei motori di ricerca e le piattaforme online.
‘La Commissione europea, in cooperazione con i coordinatori [nazionali] dei servizi digitali, può emanare orientamenti sull’applicazione’ dei predetti strumenti di censura ‘in relazione a rischi concreti’ (DSA, articolo 35).
‘In caso di crisi, la Commissione, su raccomandazione del comitato, può adottare una decisione che impone a uno o più fornitori di piattaforme online (…) o di motori di ricerca online di dimensioni molto grandi’ (DSA, articolo 36).
La vera crisi è quella della democrazia. Ieri la pandemia, oggi la permacrisi e l’ingerenza dell’Unione Europea in un conflitto tra Paesi terzi alle sue porte possono giustificare la privazione dei diritti fondamentali a esprimere e condividere informazioni e opinioni. ‘Coloro che girano le rotelle del mondo’ (cit. Haruki Murakami) hanno così legittimato il loro potere assoluto sulla vita delle persone, sotto gli occhi di noi tutti. Colpevoli di non avere protestato con l’efficacia che serviva, fino a quando (in teoria) era possibile.
In questo quadro distopico, una sola buona notizia è l’incoraggiamento della Commissione alla redazione di codici di condotta UE anche ‘al fine di promuovere la piena ed effettiva parità di partecipazione, migliorando l’accesso ai servizi online che, attraverso la loro progettazione iniziale o il loro successivo adattamento, rispondono alle particolari esigenze delle persone con disabilità’ (DSA, articolo 47). Si intravede così la speranza di ridurre almeno alcune difficoltà della minoranza più significativa e trascurata. (2)
Dario Dongo
(1) Regulation (EU) 2022/2065 on a Single Market For Digital Services and amending Directive 2000/31/EC https://tinyurl.com/378uevvk
(2) Sabrina Bergamini, Dario Dongo. Disabilità, nuova Strategia europea 2021-2030. Égalité. 12.3.21
Dario Dongo, avvocato e giornalista, PhD in diritto alimentare internazionale, fondatore di WIISE (FARE - GIFT – Food Times) ed Égalité.