Benvenuti nel sito web Grande Oriente Della Svizzera

logo-gos-2023

Grande Oriente
Della Svizzera

Saggezza, forza, bellezza

Insieme per il progresso dell’umanità

GAFAM, istituzioni, inserzionisti, utenti consapevoli: tocca a noi agire.

Lo spazio digitale è come un tempio senza mura: si entra liberamente, si parla forte, a volte troppo forte, e si lasciano tracce che non avremmo mai immaginato. La questione dell’identificazione degli utenti sui social network si pone quindi come un colpo di mazza: bisogna incidere il nome di ciascuno nella pietra, con il rischio di soffocare i discorsi legittimi, o tollerare maschere che troppo spesso servono da rifugio all’odio? Tra l’esigenza di responsabilità e la tutela delle libertà, l’equilibrio è delicato. «La libertà consiste meno nel fare ciò che si vuole che nel non essere soggetti alla volontà altrui», scriveva Rousseau: è esattamente l’equilibrio che bisogna trovare online.

Innanzitutto, i fatti. Nell’Unione europea, la legge sui servizi digitali (DSA) impone obblighi di diligenza alle grandi piattaforme: sistemi di segnalazione accessibili, trattamento rapido dei contenuti manifestamente illeciti, trasparenza degli algoritmi, audit dei rischi e ricorsi per gli utenti. La Francia, da parte sua, punisce gli insulti e l’incitamento all’odio basati sull’origine, la religione, il sesso, l’orientamento sessuale o la disabilità, in particolare con la legge del 29 luglio 1881 sulla libertà di stampa (che si applica alle dichiarazioni pubbliche fatte online), integrata dalla LCEN del 2004 che disciplina la responsabilità degli hosting provider e delle piattaforme. In Svizzera, l’articolo 261bis del Codice penale punisce la discriminazione razziale e l’incitamento all’odio, e la giurisprudenza conferma che l’espressione online non è esente dal diritto comune. Ovunque l’idea è la stessa: la libertà di espressione è un principio, ma alcuni contenuti oltrepassano la linea dell’illegalità e devono essere rimossi e puniti.

Tuttavia, nonostante questi quadri normativi, assistiamo a una pratica impunità: commenti razzisti, molestie di massa e campagne coordinate saturano lo spazio di dibattito. I troll, le fabbriche di account falsi e le operazioni di influenza, a volte controllate a distanza da potenze straniere o movimenti estremisti, sfruttano l’architettura delle piattaforme per rinchiudere gli utenti in una realtà fabbricata, alimentare la confusione e minare la fiducia collettiva. Oggi, anche sotto un messaggio positivo, basta un velo, una pelle giudicata “non abbastanza bianca”, una regina di bellezza che non corrisponde a un ideale fantastico, un giocatore nero o nordafricano in una squadra nazionale europea o un cantante proveniente da un contesto diversificato per scatenare una valanga di commenti odiosi di una violenza senza precedenti.

Questo sconvolgimento non è frutto del caso: si tratta di una strategia, non di razzismo ordinario o semplice stupidità. Sono persone o gruppi ben consapevoli delle loro azioni e delle loro parole. E sono anche consapevoli della loro impunità.

Ma il razzismo non è un’opinione: è un crimine. La democrazia non è solo un processo elettorale: è un clima di fiducia senza il quale il dibattito si affievolisce. Gli inserzionisti non possono rimanere indifferenti; essi finanziano infatti l’ecosistema in cui sono esposti i loro marchi. Hanno consumatori da proteggere e quindi un ruolo da svolgere: rimuovere gli spazi tossici, esigere garanzie di moderazione e partecipare a carte etiche della pubblicità.

Ma l’identificazione civile deve essere resa obbligatoria per tutti?

Gli argomenti a favore possono essere riassunti in tre punti: responsabilità (le persone sono meno inclini a insultare gli altri quando firmano con il proprio nome), tracciabilità (le autorità possono indagare più rapidamente) e deterrenza (le campagne coordinate sono più costose). Ma le ragioni contrarie sono serie. Innanzitutto, c’è l’“effetto deterrente”: obbligare tutti a rivelare la propria identità civile riduce la voce di coloro che hanno più bisogno di un velo protettivo: gli informatori, le vittime di violenze, le minoranze minacciate e gli oppositori dei regimi autoritari. In secondo luogo, c’è il rischio di doxxing e ritorsioni offline: un’identità che è stata rivelata può essere copiata con un solo clic e Internet ha la memoria lunga. Infine, c’è la questione della governance: la centralizzazione di enormi banche dati di identità crea un appetito per la sorveglianza, aumenta la superficie di attacco e rende più pericolosi gli abusi politici. La storia ci ricorda che i file creati “per motivi di sicurezza” sono stati talvolta utilizzati in seguito per altri scopi. 

In materia di diritti fondamentali, la proporzionalità deve guidare l’azione: punire gli atti illegali senza imbavagliare gli altri.

Tra l’anonimato assoluto e la trasparenza totale esiste una via di mezzo: la pseudonimia verificata. Un utente agisce pubblicamente sotto uno pseudonimo stabile, ma un terzo di fiducia (verificabile, regolamentato) detiene, in deposito, la prova della sua identità e della sua età. In caso di contenuti manifestamente illegali, di una decisione giudiziaria o di motivi gravi e proporzionati, il “velo” può essere sollevato per le autorità, ma mai a vantaggio del pubblico o di una folla vendicativa. È possibile aggiungere “badge” facoltativi (account professionale, giornalista, rappresentante di un’associazione) senza creare cittadini di seconda classe su Internet. Questa architettura rispetta la libertà di espressione ordinaria, protegge le persone vulnerabili e ripristina la responsabilità in caso di violazione della legge.

La moderazione deve quindi diventare una vera e propria funzione pubblico-privata. Sono auspicabili tre livelli. Primo livello: strumenti per gli utenti (filtri, liste di blocco condivise, segnalazione semplificata, mascheramento predefinito delle “risposte degli account creati di recente”). Secondo livello: diligenza procedurale delle piattaforme — tempi chiari per il trattamento delle segnalazioni, decisioni motivate e notificate, diritto di ricorso, relazioni sulla trasparenza, “segnalatori di fiducia” provenienti dalla società civile, dal mondo accademico e dai gruppi di difesa. Terzo livello: arbitrato esterno – mediatore certificato, autorità amministrative indipendenti, giudice giudiziario. In ogni fase, la regola d’oro è la tracciabilità: chi ha segnalato, chi ha deciso, su quale base e in quale termine?

In termini di diritto positivo, è importante tenere presente il parere della Commissione nazionale consultiva dei diritti umani (CNCDH) espresso nel 2015: https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000030862432, che fornisce una buona panoramica della situazione attuale e delle sfide da affrontare. 

Tuttavia, nulla ci impedisce oggi di andare oltre senza mettere in discussione i principi sopra menzionati. Il fenomeno sta prendendo piede e, a dieci anni di distanza, sarebbe auspicabile una nuova valutazione della situazione. L’UE ha già introdotto valutazioni dei rischi sistemici per la DSA, che devono essere rafforzate: audit annuali indipendenti, sanzioni dissuasive in caso di violazioni ripetute e obblighi di accesso ai dati per i ricercatori autorizzati al fine di misurare meglio la disinformazione e le molestie. In Francia, la legge del 1881 potrebbe essere integrata da procedure accelerate per i contenuti virali chiaramente illegali, accompagnate da garanzie giudiziarie. In Svizzera, l’applicazione dell’articolo 261bis del Codice penale svizzero potrebbe essere sostenuta da protocolli intercantonali per le denunce online e la conservazione delle prove digitali. Ovunque è possibile incoraggiare l’“identità sotto sequestro” grazie a norme tecniche comuni (prove crittografiche, verifica dell’età “senza conoscenza”) che evitano la raccolta di informazioni inutili.

Il libro illustra alcuni esempi concreti. Una campagna anonima contro un eletto locale con fotomontaggi razzisti: sotto pseudonimo verificato, la piattaforma sospende la diffusione a titolo preventivo, informa gli autori, conserva le prove e, su richiesta giudiziaria, l’ente di sequestro trasmette l’identità agli investigatori. Al contrario, una vittima di violenza domestica testimonia sotto pseudonimo del suo percorso nel sistema sanitario: non c’è alcun motivo legittimo per revocare lo pseudonimo; la protezione ha la priorità. Un giornalista pubblica un’inchiesta imbarazzante, seguita da una valanga di informazioni false coordinate: l’istanza di ricorso indipendente ripristina il contenuto e sanziona i giornalisti malintenzionati. In questi tre casi, libertà e responsabilità non sono in contrasto: sono indissociabili.

Rimane il ruolo dei marchi. Un budget pubblicitario è una bussola morale: finanziare un ambiente significa convalidarlo. Gli inserzionisti possono esigere norme di sicurezza dei marchi conformi alla legge (nessuna pubblicità accanto a contenuti che incitano all’odio o complottisti), includere clausole di trasparenza nei loro contratti, aderire a marchi indipendenti e pubblicare mappe delle loro posizioni pubblicitarie. Possono anche sostenere programmi di educazione ai media, perché un pubblico informato è la migliore difesa contro la manipolazione. «La vigilanza è il prezzo della libertà», ci ricordava Jefferson; trasposta nel campo digitale, questa vigilanza è collettiva.

Cosa possiamo fare concretamente?

Segnalare e documentare sistematicamente (con screenshot datati) i contenuti illegali; sostenere le associazioni che aiutano le vittime; promuovere petizioni mirate che chiedono trasparenza, controlli e ricorsi efficaci; esortare le autorità pubbliche ad adottare l’identità fiduciaria piuttosto che la divulgazione universale; chiedere alle agenzie pubblicitarie e ai marchi di integrare clausole etiche verificabili; incoraggiare le piattaforme ad aprire le loro interfacce di ricerca agli studiosi indipendenti. E, a livello individuale, rispettare la triplice regola massonica: tacere per non nuocere, parlare per chiarire, agire per costruire. 

Vorrei cogliere l’occasione per salutare il lavoro dell’associazione Stop Hate Speech in Svizzera ( www.stophatespeech.ch) per le sue azioni. In primo luogo, le vittime, che possono segnalare gli incidenti e ricevere aiuto qui. In secondo luogo, i cittadini possono offrirsi volontari per diventare angeli custodi digitali e agire come supervisori. Infine, per il loro magnifico lavoro con l’ETH Zurich (Politecnico federale di Zurigo) e l’Università di Zurigo nello sviluppo dell’algoritmo Bot Dog, che consente il rilevamento rapido e affidabile dei commenti di odio. (https://stophatespeech.ch/fr/pages/stop-hate-speech-wie-hass-sich-verl%C3%A4sslich-erkennen-l%C3%A4sst )

In un laboratorio, tutti indossano un grembiule diverso, ma il lavoro è condiviso; lo stesso vale per Internet. Il nostro compito non è quello di vietare la libertà per combattere l’odio, né di tollerare l’odio in nome della libertà; consiste nell’organizzare lo spazio affinché la parola rimanga uno strumento di verità. La democrazia è difesa dalla legge, dalla tecnologia e dalla virtù. Se rifiutiamo le maschere complici e proteggiamo i volti vulnerabili, se esigiamo la responsabilità delle piattaforme e scelte responsabili da parte degli inserzionisti, se ricordiamo che il razzismo è un crimine e non un’opinione, allora il lavoro andrà avanti. E potremo lasciare che i nostri figli entrino in questo tempio incompiuto senza arrossire.

CR