GAFAM, Institutionen, Werbetreibende, bewusste Nutzer: Wir müssen handeln.
Der digitale Raum ist wie ein Tempel ohne Mauern: Man betritt ihn frei, man spricht laut, manchmal zu laut, und man hinterlässt Spuren, die man sich nie hätte vorstellen können. Die Frage nach der Identifizierung der Nutzer in sozialen Netzwerken stellt sich daher wie ein Hammerschlag: Soll man den Namen jedes Einzelnen in Stein meißeln und damit riskieren, legitime Meinungsäußerungen zu unterdrücken, oder Masken tolerieren, die allzu oft als Zufluchtsort für Hass dienen? Zwischen der Forderung nach Verantwortung und dem Schutz der Freiheiten ist das Gleichgewicht empfindlich. „Freiheit besteht weniger darin, dass man tun kann, was man will, als darin, dass man nicht dem Willen eines anderen unterworfen ist“, schrieb Rousseau: Genau dieses Gleichgewicht muss online gefunden werden.
Zunächst einmal zu den Fakten. In der Europäischen Union erlegt das Gesetz über digitale Dienste (DSA) großen Plattformen Sorgfaltspflichten auf: zugängliche Meldesysteme, rasche Bearbeitung offensichtlich rechtswidriger Inhalte, Transparenz der Algorithmen, Risikoaudits und Rechtsbehelfe für Nutzer. Frankreich seinerseits bestraft Beleidigungen und Aufstachelung zum Hass aufgrund der Herkunft, der Religion, des Geschlechts, der sexuellen Orientierung oder einer Behinderung, insbesondere durch das Gesetz vom 29. Juli 1881 über die Pressefreiheit (das für öffentliche Äußerungen im Internet gilt) ergänzt durch das Gesetz LCEN von 2004, das die Verantwortung von Hosting-Anbietern und Plattformen regelt. In der Schweiz bestraft Artikel 261bis des Strafgesetzbuches Rassendiskriminierung und Aufstachelung zum Hass, und die Rechtsprechung bestätigt, dass die Meinungsäußerung im Internet nicht vom allgemeinen Recht ausgenommen ist. Überall gilt derselbe Grundsatz: Die Meinungsfreiheit ist ein Grundrecht, aber bestimmte Inhalte überschreiten die Grenze der Legalität und müssen entfernt und bestraft werden.
Trotz dieser Rahmenbedingungen stellen wir jedoch eine faktische Straffreiheit fest: Rassistische Kommentare, massenhafte Belästigungen und koordinierte Kampagnen überschwemmen den Diskussionsraum. Trolle, Fake-Account-Farmen und Einflussoperationen, die manchmal von ausländischen Mächten oder extremistischen Bewegungen ferngesteuert werden, nutzen die Architektur der Plattformen, um Nutzer in einer künstlichen Realität einzusperren, Verwirrung zu stiften und das kollektive Vertrauen zu untergraben. Heute reicht schon eine positive Botschaft, ein Schleier, eine Hautfarbe, die als „nicht weiß genug” empfunden wird, eine Schönheitskönigin, die nicht einem fantasierten Ideal entspricht, ein schwarzer oder nordafrikanischer Spieler in einer europäischen Nationalmannschaft oder ein Sänger mit vielfältigem Hintergrund, um eine Flut von Hasskommentaren von beispielloser Gewalt auszulösen.
Diese Störung ist kein Zufall: Es handelt sich um eine Strategie und nicht um gewöhnlichen Rassismus oder einfache Dummheit. Es sind Personen oder Gruppen, die sich ihrer Taten und Worte sehr wohl bewusst sind. Und sie sind sich auch ihrer Straffreiheit bewusst.
Aber Rassismus ist keine Meinung: Er ist ein Verbrechen. Demokratie ist nicht nur ein Wahlprozess: Sie ist ein Klima des Vertrauens, ohne das die Meinungsbildung verkümmert. Werbetreibende können nicht gleichgültig bleiben, denn sie finanzieren das Ökosystem, in dem ihre Marken präsentiert werden. Sie haben Verbraucher zu schützen und daher eine Rolle zu spielen: Sie müssen toxische Räume entfernen, Garantien für Moderation einfordern und sich an Werbekodizes beteiligen.
Aber sollte die zivile Identifizierung für alle verpflichtend sein?
Die Argumente dafür lassen sich in drei Punkten zusammenfassen: Verantwortung (Menschen neigen weniger dazu, andere zu beleidigen, wenn sie mit ihrem Namen unterschreiben), Rückverfolgbarkeit (Behörden können schneller ermitteln) und Abschreckung (koordinierte Kampagnen sind teurer). Die Gründe dagegen sind jedoch schwerwiegend. Da ist zunächst der „abschreckende Effekt”: Wenn alle ihre zivile Identität offenlegen müssen, werden diejenigen mundtot gemacht, die einen Schutzschild am dringendsten benötigen: Whistleblower, Opfer von Gewalt, bedrohte Minderheiten und Gegner autoritärer Regime. Dann besteht die Gefahr von Doxxing und Vergeltungsmaßnahmen offline: Eine offengelegte Identität kann mit einem einzigen Klick kopiert werden, und das Internet hat ein langes Gedächtnis. Schließlich stellt sich die Frage der Governance: Die Zentralisierung massiver Identitätsdatenbanken weckt den Appetit auf Überwachung, vergrößert die Angriffsfläche und macht politischen Missbrauch gefährlicher. Die Geschichte lehrt uns, dass Dateien, die „aus Sicherheitsgründen” angelegt wurden, später manchmal für andere Zwecke verwendet wurden.
Im Bereich der Grundrechte muss Verhältnismäßigkeit das Handeln leiten: Illegale Handlungen müssen bestraft werden, ohne andere mundtot zu machen.
Zwischen absoluter Anonymität und vollständiger Transparenz gibt es einen Mittelweg: die verifizierte Pseudonymität. Ein Nutzer agiert öffentlich unter einem stabilen Pseudonym, aber eine vertrauenswürdige (überprüfbare, regulierte) dritte Stelle verwahrt den Nachweis seiner Identität und seines Alters. Bei offensichtlich illegalen Inhalten, einer gerichtlichen Entscheidung oder aus schwerwiegenden und verhältnismäßigen Gründen kann der „Schleier” für die Behörden gelüftet werden, jedoch niemals zugunsten der Öffentlichkeit oder einer rachsüchtigen Menge. Fakultative „Badges” (Berufskonto, Journalist, Vereinsvertreter) können hinzugefügt werden, ohne dass dadurch Bürger zweiter Klasse im Internet entstehen. Diese Architektur respektiert die normale Meinungsfreiheit, schützt schutzbedürftige Personen und stellt die Verantwortung bei Gesetzesverstößen wieder her.
Die Moderation muss dann zu einer echten öffentlich-privaten Aufgabe werden. Drei Ebenen sind wünschenswert. Erste Ebene: Nutzertools (Filter, gemeinsame Sperrlisten, vereinfachte Meldung, standardmäßige Ausblendung von „Antworten kürzlich erstellter Konten”). Zweite Ebene: Verfahrenspflichten der Plattformen – klare Fristen für die Bearbeitung von Meldungen, begründete und mitgeteilte Entscheidungen, Rechtsbehelfe, Transparenzberichte, „vertrauenswürdige Melder” aus der Zivilgesellschaft, der Wissenschaft und von Interessenverbänden. Dritte Ebene: Externe Schlichtung – zertifizierter Ombudsmann, unabhängige Verwaltungsbehörden, Richter. In jeder Phase gilt die goldene Regel der Rückverfolgbarkeit: Wer hat gemeldet, wer hat entschieden, auf welcher Grundlage und innerhalb welcher Frist?
In Bezug auf das positive Recht ist es wichtig, die Stellungnahme der Nationalen Beratenden Kommission für Menschenrechte (CNCDH) aus dem Jahr 2015 zu berücksichtigen: https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000030862432, die einen guten Überblick über die aktuelle Situation und die Herausforderungen gibt.
Nichts hindert uns jedoch daran, heute noch weiter zu gehen, ohne die oben genannten Grundsätze in Frage zu stellen. Das Phänomen nimmt zu, und zehn Jahre später wäre eine Neubewertung der Lage wünschenswert. Die EU hat bereits systemische Risikobewertungen für den DSA eingeführt; diese müssen verstärkt werden: unabhängige jährliche Audits, abschreckende Sanktionen bei wiederholten Verstößen und Datenzugangsverpflichtungen für zugelassene Forscher, um Desinformation und Belästigung besser messen zu können. In Frankreich könnte das Gesetz von 1881 durch beschleunigte Verfahren für eindeutig illegale virale Inhalte ergänzt werden, die mit gerichtlichen Garantien einhergehen. In der Schweiz könnte die Anwendung von Artikel 261bis des Schweizer Strafgesetzbuches durch interkantonale Protokolle für Online-Beschwerden und die Aufbewahrung digitaler Beweise unterstützt werden. Überall kann die „identitätsgeschützte Identität” durch gemeinsame technische Standards (kryptografische Nachweise, „wissensunabhängige” Altersüberprüfung) gefördert werden, die die Erhebung unnötiger Informationen vermeiden.
Konkrete Beispiele illustrieren das Buch. Eine anonyme Kampagne gegen einen lokalen Politiker mit rassistischen Fotomontagen: Unter verifizierter Pseudonymität sperrt die Plattform die Verbreitung vorsorglich, informiert die Urheber, bewahrt die Beweise auf und übermittelt die Identität auf gerichtliche Anordnung an die Ermittlungsbehörden. Umgekehrt berichtet ein Opfer häuslicher Gewalt unter Pseudonym über seine Erfahrungen im Gesundheitssystem: Es gibt keinen legitimen Grund, das Pseudonym aufzuheben; der Schutz hat Vorrang. Ein Journalist veröffentlicht eine peinliche Untersuchung, gefolgt von einer Flut koordinierter Falschinformationen: Die unabhängige Beschwerdestelle stellt den Inhalt wieder her und sanktioniert die böswilligen Journalisten. In diesen drei Fällen stehen Freiheit und Verantwortung nicht im Widerspruch zueinander: Sie sind untrennbar miteinander verbunden.
Bleibt die Rolle der Marken. Ein Werbebudget ist ein moralischer Kompass: Ein Umfeld zu finanzieren bedeutet, es zu validieren. Werbetreibende können gesetzeskonforme Sicherheitsstandards für Marken verlangen (keine Werbung neben hasserfüllten oder verschwörungstheoretischen Inhalten), Transparenzklauseln in ihre Verträge aufnehmen, unabhängigen Labels beitreten und Karten ihrer Werbeplätze veröffentlichen. Sie können auch Medienbildungsprogramme unterstützen, denn eine informierte Öffentlichkeit ist die beste Verteidigung gegen Manipulation. „Wachsamkeit ist der Preis der Freiheit“, erinnerte uns Jefferson; übertragen auf den digitalen Bereich ist diese Wachsamkeit eine kollektive Aufgabe.
Was können wir konkret tun?
Illegale Inhalte systematisch melden und dokumentieren (mit datierten Screenshots); Unterstützen Sie Vereinigungen, die Opfern helfen; fördern Sie gezielte Petitionen, die Transparenz, Audits und wirksame Rechtsmittel fordern; fordern Sie die Behörden auf, vertrauenswürdige Identitäten statt universeller Offenlegung zu fördern; fordern Sie Werbeagenturen und Marken auf, überprüfbare Ethikklauseln aufzunehmen; ermutigen Sie Plattformen, ihre Suchschnittstellen für unabhängige Wissenschaftler zu öffnen. Und auf individueller Ebene sollte die dreifache freimaurerische Regel beachtet werden: Schweigen, um nicht zu schaden, sprechen, um aufzuklären, handeln, um aufzubauen.
Ich möchte diese Gelegenheit nutzen, um die Arbeit der Vereinigung Stop Hate Speech in der Schweiz ( www.stophatespeech.ch ) für ihre Maßnahmen zu würdigen. An erster Stelle stehen die Opfer, die hier Vorfälle melden und Hilfe erhalten können. Dann können sich Bürger freiwillig als digitale Schutzengel melden und als Aufseher fungieren. Und schließlich für ihre großartige Arbeit mit der ETH Zürich (Eidgenössische Technische Hochschule Zürich) und der Universität Zürich bei der Entwicklung des Algorithmus Bot Dog, der eine schnelle und zuverlässige Erkennung von Hasskommentaren ermöglicht. (https://stophatespeech.ch/fr/pages/stop-hate-speech-wie-hass-sich-verl%C3%A4sslich-erkennen-l%C3%A4sst )
In einer Werkstatt trägt jeder eine andere Schürze, aber die Arbeit wird geteilt; dasselbe gilt für das Internet. Unsere Aufgabe ist es nicht, die Freiheit zu verbieten, um Hass zu bekämpfen, oder Hass im Namen der Freiheit zu tolerieren; unsere Aufgabe ist es, den Raum so zu gestalten, dass das Wort ein Instrument der Wahrheit bleibt. Demokratie wird durch Gesetze, Technologie und Tugend verteidigt. Wenn wir komplizenhafte Masken ablehnen und verletzliche Gesichter schützen, wenn wir von Plattformen Verantwortung und von Werbetreibenden verantwortungsvolle Entscheidungen verlangen, wenn wir uns daran erinnern, dass Rassismus ein Verbrechen und keine Meinung ist, dann wird die Arbeit vorankommen. Und wir können unsere Kinder ohne Scham in diesen unvollendeten Tempel eintreten lassen.