GAFAM, institutions, annonceurs, utilisateurs conscients : à nous d’agir !
L’espace numérique ressemble à un temple sans murs : on y entre librement, on y parle fort, parfois trop, et l’on y laisse des traces que l’on n’imaginait pas. La question de l’identification des utilisateurs sur les réseaux sociaux surgit alors comme un maillet : faut-il graver le nom de chacun sur la pierre, au risque de refroidir la parole légitime, ou tolérer des masques qui, trop souvent, servent d’abri à la haine ? Entre l’exigence de responsabilité et la protection des libertés, l’ouvrage est délicat. « La liberté consiste moins à faire sa volonté qu’à ne pas être soumis à celle d’autrui », écrivait Rousseau : c’est exactement l’équilibre à atteindre en ligne.
Les faits, d’abord. Dans l’Union européenne, le Digital Services Act (DSA) impose aux grandes plateformes des obligations de diligence : systèmes de signalement accessibles, traitement rapide des contenus manifestement illicites, transparence des algorithmes, audits de risques et voies de recours pour les utilisateurs. La France, de son côté, réprime les injures et provocations à la haine fondées sur l’origine, la religion, le sexe, l’orientation sexuelle ou le handicap, notamment par la loi du 29 juillet 1881 sur la liberté de la presse (qui s’applique aux propos publics en ligne), complétée par la LCEN de 2004 organisant la responsabilité des hébergeurs et des plateformes. En Suisse, l’article 261bis du Code pénal sanctionne la discrimination raciale et l’incitation à la haine, et la jurisprudence confirme que l’expression en ligne ne déroge pas à la loi commune. Partout, l’idée est la même : la liberté d’expression est un principe, mais certains contenus franchissent la frontière de l’illicite et doivent être retirés et punis.
Pourtant, malgré ces cadres, nous observons une impunité pratique : propos racistes, harcèlement en meute, campagnes coordonnées saturant l’espace du débat. Les « trolls », les fermes de faux comptes et les opérations d’influence — parfois téléguidées par des puissances étrangères ou des mouvances extrémistes — exploitent l’architecture des plateformes pour enfermer l’utilisateur dans une réalité bricolée, alimenter la confusion et entamer la confiance collective. Aujourd’hui, même sous un message positif, il suffit qu’apparaisse un voile, une peau jugée « pas assez blanche », une Miss qui ne correspond pas à un idéal fantasmé, un joueur noir ou d’origine maghrébine dans une équipe nationale européenne ou une chanteuse issue de la diversité, pour déclencher un flot de commentaires haineux d’une violence inouïe.
Ce brouillage n’est pas un accident : c’est une stratégie, ce n’est en rien du racisme dit ordinaire ou de la simple bétise. Il s’agit de personnes ou de groupements bien conscients de leurs actes et propos. Et ils sont conscients de leurs impunités également.
Or le racisme n’est pas une opinion : c’est un délit. La démocratie n’est pas seulement une procédure électorale : elle est un climat de confiance sans lequel la délibération se dessèche. Les annonceurs ne peuvent rester indifférents ; ils financent, de fait, l’écosystème où s’affichent leurs marques. Ils ont des consommateurs à protéger, donc un rôle à jouer : déréférencer les espaces toxiques, exiger des garanties de modération, participer à des chartes d’éthique publicitaire.
Faut-il, pour autant, imposer l’identification civile obligatoire à tous ?
Les arguments « pour » tiennent en trois points : responsabilisation (on insulte moins quand on signe), traçabilité (les autorités enquêtent plus vite), dissuasion (les campagnes coordonnées se heurtent à un coût supérieur). Mais les raisons « contre » sont sérieuses. D’abord l’« effet de refroidissement » : obliger chacun à révéler son identité civile réduit la parole de ceux qui ont le plus besoin d’un voile protecteur — lanceurs d’alerte, victimes de violences, minorités menacées, opposants en régime autoritaire. Ensuite, le risque de doxxing et de représailles hors ligne : une identité dévoilée se copie en un clic, la mémoire d’internet ne se prescrit pas. Enfin, la gouvernance : centraliser des bases massives d’identités crée un appétit pour la surveillance, augmente la surface d’attaque et rend la dérive politique plus dangereuse. L’histoire rappelle que des fichiers créés « pour la sécurité » ont parfois servi, plus tard, à d’autres fins.
À l’échelle des droits fondamentaux, la proportionnalité doit guider l’action : sanctionner l’illicite sans bâillonner le reste. Entre l’anonymat absolu et la transparence totale, une voie médiane existe : la pseudosidentité vérifiée. Un utilisateur agit publiquement sous un pseudonyme stable, mais une tierce partie de confiance (auditable, régulée) détient, sous séquestre, une preuve d’identité et de majorité. En cas de contenus manifestement illicites, d’ordonnance d’un juge ou d’un motif sérieux et proportionné, le « voile » peut être levé à l’égard des autorités — jamais au bénéfice du public ni des foules vindicatives. On peut y adjoindre des « badges » facultatifs (compte professionnel, journaliste, représentant d’association) sans créer d’internautes de seconde zone. Cette architecture respecte la liberté d’expression ordinaire, protège les personnes vulnérables, tout en rétablissant la responsabilité lorsque la loi est franchie.
La modération, ensuite, doit devenir un véritable office public-privé. Trois étages sont souhaitables. Premier étage : l’outillage des usagers (filtres, listes de blocage partagées, signalement simplifié, masquage par défaut des « réponses de comptes récemment créés »). Deuxième étage : la diligence procédurale des plateformes — délais clairs de traitement des signalements, décisions motivées et notifiées, droit d’appel, rapports de transparence, « trusted flaggers » (signalants de confiance) issus de la société civile, du monde académique et des associations de défense. Troisième étage : l’arbitrage externe — médiateur certifié, autorités administratives indépendantes, juge judiciaire. À chaque étape, la règle d’or est la traçabilité : qui a signalé, qui a décidé, sur quel fondement, dans quel délai ?
Côté droit positif, il est important d’avoir à l’esprit l’avis de la Commission Nationale Consultatives des Droits de l’Homme (CNCDH) réalisé en 2015 : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000030862432 qui fait un bel état des lieux et des enjeux.
Mais rien n’empêche aujourd’hui d’aller plus loin sans fracturer les principes évoqués. Le phénomène s’amplifie et 10 ans après, une nouvelle évaluation de la situation serait souhaitable. L’UE a déjà instauré les évaluations de risques systémiques du DSA ; il faut leur donner des dents : audits indépendants annuels, sanctions dissuasives en cas de manquements répétés, obligations d’accès aux données pour les chercheurs agréés afin de mieux mesurer la désinformation et le harcèlement. En France, la loi de 1881 pourrait être complétée par des procédures accélérées dédiées aux contenus viraux manifestement illicites, avec garde-fous juridictionnels. En Suisse, l’application de l’art. 261bis CP pourrait s’appuyer sur des protocoles inter-cantonaux de plainte en ligne et de préservation de preuves numériques. Partout, il est possible d’encourager l’« identité sous séquestre » par des normes techniques communes (preuves cryptographiques, attestations d’âge « zero-knowledge ») qui évitent la collecte d’informations superflues.
Les exemples concrets éclairent l’ouvrage. Une campagne anonyme visant une élue locale par des montages racistes : sous pseudosidentité vérifiée, la plateforme suspend préventivement la diffusion, notifie les auteurs, conserve les preuves, et sur réquisition judiciaire, l’entité séquestre transmet l’identité aux enquêteurs. À l’inverse, une victime de violences conjugales témoigne sous pseudonyme d’un parcours de soins : aucun motif légitime de levée ; la protection prime. Un journaliste publie une enquête gênante, s’ensuit un déluge de faux signalements coordonnés : l’instance d’appel indépendante rétablit le contenu, sanctionne les signalants malveillants. Dans ces trois cas, la liberté et la responsabilité ne s’opposent pas : elles s’articulent.
Reste le rôle des marques. Un budget publicitaire est une boussole morale : financer un environnement, c’est le valider. Les annonceurs peuvent exiger des standards de brand safety alignés sur le droit (pas de diffusion à côté de contenus haineux ou complotistes), contractualiser des clauses de transparence, rejoindre des labels indépendants, publier la cartographie de leurs emplacements publicitaires. Ils peuvent aussi soutenir des programmes d’éducation aux médias, parce qu’un public outillé est la meilleure défense contre la manipulation. « La vigilance est le juste prix de la liberté », rappelait Jefferson ; transposée au numérique, cette vigilance est collective.
Que faire, très concrètement ?
Signaler systématiquement et documenter (captures datées) les contenus illicites ; soutenir les associations qui accompagnent les victimes ; promouvoir des pétitions ciblées réclamant transparence, audits et voies de recours effectives ; inviter les pouvoirs publics à adopter l’identité sous séquestre plutôt que la divulgation universelle ; demander aux régies et aux marques d’intégrer des clauses éthiques vérifiables ; encourager les plateformes à ouvrir des interfaces de recherche aux universitaires indépendants. Et, au niveau individuel, tenir la triple règle maçonnique : se taire pour ne pas nuire, parler pour éclairer, agir pour construire.
Je tiens à saluer ici le travail de l’association Stop Hate Speech en Suisse ( www.stophatespeech.ch ) pour ses actions. Les victimes tout d’abord qui peuvent ici dénoncer les faits et bénéficier d’un accompagnement. Les citoyens ensuite peuvent ici s’engager bénévolement à être des anges gardien numérique et faire office de surveillance. Enfin pour leur magnifique travail avec l’EPFZ (L’École Polytechnique Fédérale de Zurich) et l’Université de Zürich pour le développement de l’algorithme Bot Dog qui permet de détecter rapidement et de manière fiable les commentaires haineux. (https://stophatespeech.ch/…/stop-hate-speech-wie-hass… )
Dans un atelier, chacun porte un tablier différent, mais l’ouvrage est commun ; sur internet, il en va de même. Notre tâche n’est pas de bannir la liberté pour combattre la haine, ni de tolérer la haine au nom de la liberté ; elle est d’ordonner l’espace pour que la parole demeure un outil de vérité. La démocratie se défend par la loi, la technique et la vertu. Si nous refusons les masques complices et protégeons les visages vulnérables, si nous exigeons des plateformes des comptes et des annonceurs des choix responsables, si nous nous souvenons que le racisme est un délit et non une opinion, alors le chantier avancera. Et l’on pourra, sans rougir, laisser nos enfants entrer dans ce temple inachevé.