|04| Äußerungsrecht als Stabilisierung des Diskurses

I. Einführung: Der Online-Diskurs – Freiheit und Verantwortung

Die Meinungsfreiheit, verankert in Artikel 5 des Grundgesetzes, ist ein Eckpfeiler jeder demokratischen Gesellschaft. Sie ermöglicht den offenen Austausch von Ideen, Kritik an Herrschenden und die politische Willensbildung. Das Internet und insbesondere soziale Medien haben diesen Diskursraum revolutioniert, ihn globalisiert, beschleunigt und potenziell demokratisiert, indem sie jedem Einzelnen eine Plattform zur Äußerung bieten. Doch diese neuen Möglichkeiten bringen auch erhebliche Herausforderungen mit sich: Anonymität kann zu Enthemmung führen, Falschinformationen und Hassrede verbreiten sich rasend schnell, Echokammern und Filterblasen verengen den Horizont, und gezielte Desinformationskampagnen können das Vertrauen in Medien und Institutionen untergraben.  

Vor diesem Hintergrund stellt sich die Frage, wie das Äußerungsrecht dazu beitragen kann, einen konstruktiven, faktenbasierten und stabilen öffentlichen Diskurs online zu ermöglichen, anstatt ihn durch ungezügelte destruktive Kräfte zu gefährden. Es geht um die schwierige Balance zwischen dem maximalen Schutz legitimer Meinungsäußerungen – auch wenn sie provokant, unbequem oder minoritär sind – und der Notwendigkeit, klare Grenzen zu ziehen, wo Äußerungen die Rechte anderer verletzen, zu Gewalt aufrufen oder die Grundlagen des demokratischen Zusammenlebens bedrohen. Aus Hegelscher Sicht könnte man argumentieren, dass der Staat als Verwirklichung der Sittlichkeit die Aufgabe hat, die Bedingungen für einen vernünftigen öffentlichen Diskurs zu gewährleisten, in dem sich der „Geist“ der Gemeinschaft artikulieren kann. Die Regulierung des Online-Diskurses wäre dann ein Versuch, diese sittliche Ordnung im digitalen Raum aufrechtzuerhalten.  

Die „Stabilisierung des Diskurses“ durch das Äußerungsrecht erscheint dabei fast paradox: Sie erfordert sowohl den umfassenden Schutz der freien Rede als auch die effektive Begrenzung ihrer missbräuchlichen Auswüchse. Dieser Balanceakt ist im dezentralen, grenzenlosen und dynamischen Online-Raum ungleich komplexer als in traditionellen Medien. Einerseits benötigt ein stabiler Diskurs Meinungsvielfalt und die Freiheit, auch unpopuläre Ansichten zu äußern. Andererseits kann eine völlig ungezügelte „Freiheit“ im Netz zu Phänomenen wie Cybermobbing, Hetzkampagnen und der massenhaften Verbreitung von Desinformation führen, die den Diskurs nicht stabilisieren, sondern aktiv destabilisieren und vergiften. Gesetze wie das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) und der europäische Digital Services Act (DSA) versuchen, diesen destabilisierenden Elementen entgegenzuwirken, indem sie insbesondere große Online-Plattformen zu einer aktiveren Inhaltsmoderation verpflichten. Die inhärente Gefahr dabei ist jedoch das sogenannte „Overblocking“ – die vorsorgliche Löschung auch legitimer Inhalte aus Furcht vor Sanktionen – und damit eine potenzielle Einschränkung der Meinungsfreiheit.  

Darüber hinaus muss berücksichtigt werden, dass die technische Architektur von Online-Plattformen, insbesondere die eingesetzten Algorithmen zur Inhaltskuratierung und die Mechanismen des Interaktionsdesigns, einen mindestens ebenso großen, wenn nicht größeren Einfluss auf die Qualität und Stabilität des Online-Diskurses haben als die reinen Rechtsnormen. Algorithmen bestimmen, welche Inhalte den Nutzern prominent angezeigt werden und können so unbeabsichtigt oder beabsichtigt Echokammern und gesellschaftliche Polarisierung fördern. Designentscheidungen, wie beispielsweise „Like“-Buttons, Retweet-Funktionen oder Kommentarspalten, können spezifische Anreize für aufmerksamkeitsstarke, oft aber auch emotionalisierende und extreme Äußerungen schaffen. Das Recht, beispielsweise der DSA mit seinen Transparenzpflichten für Empfehlungssysteme, versucht hier oft, technologisch bedingte oder verstärkte Dysfunktionen nachträglich zu korrigieren. Eine wirkliche Stabilisierung des Online-Diskurses erfordert daher eine umfassende Kooperation, die über reine Löschanweisungen für illegale Inhalte hinausgeht und das Design der Plattformen selbst sowie die Medienkompetenz der Nutzer in den Blick nimmt.  

II. Rechtlicher Rahmen: NetzDG und Digital Services Act (DSA)

Zur Regulierung von Online-Inhalten und zur Bekämpfung von Hassrede und anderen illegalen Äußerungen wurden in Deutschland und auf EU-Ebene spezifische Gesetze erlassen, die insbesondere soziale Netzwerke und andere Online-Plattformen in die Pflicht nehmen.

Das Netzwerkdurchsetzungsgesetz (NetzDG) in Deutschland, NetzDG, in Kraft seit 2017 und umgangssprachlich auch als „Facebook-Gesetz“ bekannt, zielt darauf ab, Hasskriminalität, strafbare Falschnachrichten und andere rechtswidrige Inhalte auf großen sozialen Netzwerken (mit über zwei Millionen registrierten Nutzern in Deutschland) effektiver zu bekämpfen. Die Kernverpflichtungen für die Plattformbetreiber umfassen:  

  • Einrichtung eines leicht zugänglichen und effektiven Beschwerdemanagements für Nutzer zur Meldung potenziell rechtswidriger Inhalte.
  • Entfernung oder Sperrung von „offensichtlich rechtswidrigen“ Inhalten in der Regel innerhalb von 24 Stunden nach Eingang der Beschwerde.
  • Entfernung oder Sperrung anderer rechtswidriger Inhalte in der Regel innerhalb von sieben Tagen nach Eingang der Beschwerde; in komplexeren Fällen kann die Frist überschritten werden, wenn z.B. der Uploader angehört wird oder die Entscheidung einer anerkannten Einrichtung der regulierten Selbstregulierung übertragen wird.
  • Verpflichtung zur Erstellung und Veröffentlichung halbjährlicher Transparenzberichte über den Umgang mit Beschwerden.
  • Benennung eines Zustellungsbevollmächtigten in Deutschland für behördliche und gerichtliche Zustellungen.

Das NetzDG war von Anfang an umstritten. Kritiker bemängeln unter anderem die Gefahr des „Overblockings“, also der Löschung von Inhalten im Zweifelsfall, um Bußgelder zu vermeiden, was die Meinungsfreiheit einschränken könne. Zudem wird die „Privatisierung der Rechtsdurchsetzung“ kritisiert, da private Unternehmen über die Rechtmäßigkeit von Äußerungen entscheiden müssen, eine Aufgabe, die traditionell den Gerichten obliegt. Auch die Definition von „offensichtlich rechtswidrig“ und die kurzen Fristen stellen die Plattformen vor erhebliche Herausforderungen.  

Der Digital Services Act (DSA) der Europäischen Union, DSA, der seit Februar 2024 in der gesamten EU vollumfänglich gilt, schafft einen harmonisierten Rechtsrahmen für digitale Dienste, insbesondere für Online-Vermittler und -Plattformen. Seine Ziele sind ambitioniert: die Schaffung eines sicheren, vorhersehbaren und vertrauenswürdigen Online-Umfelds, die wirksame Bekämpfung der Verbreitung illegaler Inhalte und die Adressierung gesellschaftlicher Risiken, die durch Desinformation oder andere schädliche Inhalte entstehen können. Der DSA definiert „illegale Inhalte“ sehr breit als jegliche Informationen, die nicht im Einklang mit dem Unionsrecht oder dem Recht eines Mitgliedstaats stehen. Dies birgt die Gefahr, dass der strengste nationale Standard zum Maßstab für die gesamte EU werden könnte („lowest common denominator“).  

Der DSA sieht einen abgestuften Katalog von Pflichten vor, der sich nach der Größe, Reichweite und dem potenziellen Risiko der Dienste richtet. Besonders strenge Regeln gelten für sogenannte „sehr große Online-Plattformen“ (Very Large Online Platforms – VLOPs) und „sehr große Online-Suchmaschinen“ (Very Large Online Search Engines – VLOSEs) mit mehr als 45 Millionen aktiven Nutzern monatlich in der EU. Zu den Kernpflichten für Plattformen gehören unter anderem :  

  • Einrichtung nutzerfreundlicher Mechanismen zur Meldung illegaler Inhalte.
  • Transparente Inhaltsmoderationsverfahren, einschließlich klarer Begründungen für Entscheidungen und wirksamer Beschwerde- und Rechtsbehelfsmechanismen (auch außergerichtlich).
  • Erhöhte Transparenz von Online-Werbung (Kennzeichnung, Information über Werbetreibende) und von Empfehlungssystemen (Offenlegung der Hauptparameter, alternative Optionen ohne Profiling für VLOPs).
  • Besondere Schutzmaßnahmen für Minderjährige, einschließlich eines Verbots von auf Profiling basierender Werbung für diese Zielgruppe.
  • Verbot des Targetings von Werbung auf Basis sensibler Daten (z.B. ethnische Herkunft, politische Meinungen, sexuelle Orientierung).
  • Umfassende Risikobewertungs- und Risikominderungsverpflichtungen für VLOPs/VLOSEs, insbesondere im Hinblick auf die Verbreitung illegaler Inhalte, negative Auswirkungen auf Grundrechte, Manipulation von Diensten mit Auswirkungen auf demokratische Prozesse oder die öffentliche Sicherheit.
  • Einrichtung von Krisenreaktionsmechanismen.
  • Kooperation mit nationalen Behörden (Digital Services Coordinators) und sog. „Trusted Flaggers“ (vertrauenswürdigen Hinweisgebern).  

Sowohl das NetzDG als auch der DSA verlagern somit erhebliche Verantwortung für die Inhaltskontrolle und damit für die „Stabilisierung des Diskurses“ auf private Plattformbetreiber. Dies stellt eine grundlegende Verschiebung der traditionellen staatlichen Rolle bei der Rechtsdurchsetzung und der Auslegung von Grundrechten wie der Meinungsfreiheit dar. Traditionell entscheiden unabhängige Gerichte nach sorgfältiger Prüfung über die Rechtmäßigkeit oder Rechtswidrigkeit von Äußerungen. Nun sind es die Plattformen selbst, die oft unter erheblichem Zeitdruck und Androhung hoher Bußgelder weitreichende Entscheidungen über die Sichtbarkeit von Inhalten treffen müssen. Sie agieren damit als De-facto-Richter über Meinungsfreiheit, oft ohne die umfassenden rechtsstaatlichen Garantien eines Gerichtsverfahrens. Die Kooperation zwischen Staat und Plattformen ist hier in weiten Teilen eine „erzwungene“ Kooperation, bei der die Plattformen als eine Art „Hilfssheriff“ des Staates fungieren.  

Die Effektivität dieser Gesetze hängt maßgeblich von der Kooperationsbereitschaft und den personellen wie technischen Ressourcen der Plattformen ab, aber auch von der Qualität und Unabhängigkeit der „Trusted Flaggers“ und der Leistungsfähigkeit der neu geschaffenen Aufsichtsbehörden. Es ist ein komplexes System, dessen Erfolg in der Praxis sich erst noch erweisen muss und das wahrscheinlich zu einem kontinuierlichen Anpassungsprozess und einem gewissen „Wettrüsten“ zwischen Regulierern, Plattformen und Akteuren, die den Diskurs gezielt stören wollen, führen wird.

III. Was sind „illegale Inhalte“? Abgrenzung und Beispiele

Ein zentrales Problem bei der Regulierung von Online-Äußerungen ist die Definition dessen, was als „illegaler Inhalt“ gilt. Weder das NetzDG noch der DSA definieren diesen Begriff abschließend selbst, sondern verweisen weitgehend auf bestehende Gesetze.  

Typische Kategorien illegaler Inhalte umfassen:

  • Straftatbestände: Viele Äußerungen, die online getätigt werden, können Straftatbestände des deutschen Strafgesetzbuches (StGB) erfüllen. Dazu gehören insbesondere:
    • Volksverhetzung (§ 130 StGB)
    • Verwendung von Kennzeichen verfassungswidriger Organisationen (§ 86a StGB)
    • Öffentliche Aufforderung zu Straftaten (§ 111 StGB)
    • Beleidigung (§ 185 StGB), Üble Nachrede (§ 186 StGB) und Verleumdung (§ 187 StGB)
    • Bedrohung (§ 241 StGB)
    • Verbreitung kinderpornographischer Inhalte (§ 184b StGB)
  • Urheberrechtsverletzungen: Das unerlaubte Hochladen und Verbreiten von urheberrechtlich geschütztem Material (Texte, Bilder, Musik, Videos) ist eine häufige Form illegaler Inhalte.
  • Verbreitung von Falschinformationen (Desinformation): Die reine Verbreitung von unwahren Tatsachenbehauptungen ist nicht per se strafbar, solange nicht spezifische Tatbestände wie Verleumdung oder Betrug erfüllt sind. Die Grenze zur strafbaren Handlung ist hier oft schwer zu ziehen.
  • Verstöße gegen Jugendschutzgesetze.
  • Angebote illegaler Waren oder Dienstleistungen.

Die Definition von „illegalen Inhalten“ ist oft stark kontextabhängig und erfordert eine komplexe juristische Prüfung im Einzelfall. Ob eine Äußerung beispielsweise eine strafbare Beleidigung darstellt oder noch von der Meinungsfreiheit gedeckte Satire oder scharfe Kritik ist, kann selbst für Juristen schwierig zu beurteilen sein. Von Mitarbeitern der Plattformen, die oft unter erheblichem Zeitdruck und ohne umfassende juristische Ausbildung entscheiden müssen, ist eine fehlerfreie Einschätzung kaum zu erwarten. Auch automatisierte Systeme zur Inhaltserkennung sind, trotz Fortschritten in der KI, fehleranfällig, insbesondere bei der Interpretation von Ironie, Satire, kulturellen Nuancen oder komplexen politischen Äußerungen. Dies führt zu einer inhärenten Spannung zwischen der gesetzlichen Forderung nach schneller Löschung potenziell illegaler Inhalte und der Notwendigkeit einer sorgfältigen, grundrechtskonformen rechtlichen Prüfung. Das Risiko von Fehlentscheidungen – sowohl das irrtümliche Löschen legaler Inhalte (Overblocking) als auch das Stehenlassen illegaler Inhalte (Underblocking) – ist daher systemimmanent.

Eine zusätzliche Ebene der Komplexität entsteht durch die Allgemeinen Geschäftsbedingungen (AGB) oder Community-Richtlinien der Online-Plattformen. Diese sind oft strenger als die gesetzlichen Vorgaben und verbieten Inhalte, die zwar nicht per se illegal, aber aus Sicht der Plattform unerwünscht sind (z.B. bestimmte Formen von Nacktheit, Werbung für spezifische Produkte, Spam oder bestimmte politische Meinungen). Plattformen berufen sich hier auf ihr „virtuelles Hausrecht“. Für Nutzer ist oft nicht transparent, ob eine Löschung oder Sperrung aufgrund eines Gesetzesverstoßes oder „nur“ aufgrund eines AGB-Verstoßes erfolgt. Wenn Plattformen hier nicht klar und nachvollziehbar kommunizieren, auf welcher Grundlage eine Moderationsentscheidung getroffen wurde, kann dies bei den Betroffenen zu Verwirrung, dem Gefühl willkürlicher Zensur und einem Vertrauensverlust in die Legitimität der Inhaltsmoderation führen.

IV. Kooperative Ansätze zur Stabilisierung des Diskurses

Die alleinige Fokussierung auf das Löschen illegaler Inhalte greift zu kurz, um den Online-Diskurs nachhaltig zu stabilisieren. Es bedarf vielmehr eines Bündels an kooperativen Maßnahmen, die verschiedene Akteure einbeziehen und sowohl reaktive als auch präventive Elemente umfassen:

  • Effektive Meldewege und transparentes Beschwerdemanagement der Plattformen: Nutzer müssen potenziell problematische Inhalte einfach melden können und nachvollziehbare Rückmeldungen über die getroffenen Entscheidungen erhalten. Der DSA stärkt hier die Rechte der Nutzer erheblich.  
  • Zusammenarbeit mit „Trusted Flaggers“: Sowohl das NetzDG als auch der DSA sehen die Möglichkeit vor, dass Plattformen mit sogenannten „Trusted Flaggers“ – das können spezialisierte Nichtregierungsorganisationen, Branchenverbände oder auch behördliche Stellen sein – zusammenarbeiten. Meldungen von diesen als besonders zuverlässig eingestuften Stellen sollen priorisiert behandelt werden. Die Auswahl und Unabhängigkeit dieser „Trusted Flaggers“ ist jedoch ein kritischer Punkt.  
  • Stärkung von Faktenprüfern und Förderung von Medienkompetenz: Unabhängige Faktenprüf-Organisationen spielen eine wichtige Rolle bei der Aufdeckung und Korrektur von Falschinformationen. Der EU-Verhaltenskodex zur Bekämpfung von Desinformation sieht explizit Maßnahmen zur Stärkung der Faktenprüfer-Community vor, etwa durch besseren Datenzugang und faire finanzielle Beiträge. Parallel dazu ist die Förderung von Medienkompetenz bei den Nutzern unerlässlich, damit diese Desinformation, Manipulation und Hassrede besser erkennen und kritisch hinterfragen können.  
  • Selbstverpflichtungen der Industrie: Verhaltenskodizes, wie der genannte EU-Kodex gegen Desinformation, können, wenn sie ambitioniert ausgestaltet und konsequent umgesetzt werden, einen wichtigen Beitrag leisten. Sie erfordern die Kooperation der Plattformbetreiber untereinander und mit anderen Stakeholdern.
  • Internationale Kooperation der Strafverfolgungsbehörden: Da viele illegale Inhalte und Desinformationskampagnen grenzüberschreitend agieren, ist eine effektive internationale Zusammenarbeit der Polizei- und Justizbehörden zur Identifizierung und Verfolgung der Täter unerlässlich. Dies ist in der Praxis jedoch oft mit erheblichen rechtlichen und politischen Hürden verbunden.
  • Positive Kommunikationskulturen fördern: Eine echte Stabilisierung des Online-Diskurses kann nicht allein durch Verbote und Löschanordnungen erreicht werden. Es bedarf vielmehr proaktiver, kooperativer Maßnahmen zur Stärkung der Resilienz der Nutzer und zur Förderung positiver Kommunikationskulturen. Dazu gehören die Unterstützung von „Counter Speech“ (konstruktive Gegenrede zu Hass und Hetze), die Schaffung von Plattformbereichen, die deliberative und respektvolle Diskussionen begünstigen, und die Hervorhebung qualitativ hochwertiger Informationsquellen.

Die ökonomischen Anreize vieler Online-Plattformen, die oft auf der Maximierung von Nutzerinteraktion und Verweildauer basieren, um Werbeeinnahmen zu generieren, können jedoch im Widerspruch zu den Zielen einer Diskursstabilisierung stehen. Algorithmen sind häufig darauf optimiert, Engagement zu erzeugen, was nicht selten kontroverse, emotionale und polarisierende Inhalte bevorzugt. Die konsequente Bekämpfung von Desinformation und Hassrede verursacht Kosten und kann die Reichweite bestimmter Inhalte reduzieren, was potenziell die Werbeeinnahmen schmälert. Solange die Geschäftsmodelle nicht stärkere intrinsische Anreize für ein verantwortungsvolles Plattformverhalten und einen gesünderen Diskurs setzen, bleibt die Regulierung oft ein externer Zwang, der auf Widerstand stoßen oder umgangen werden kann. Die Diskussionen um „Ethical AI“, „Responsible Platform Design“ und die im EU-Verhaltenskodex verankerte „Demonetarisierung“ von Desinformation deuten jedoch auf ein wachsendes Bewusstsein für diese grundlegende Problematik hin.  

V. Fazit: Balanceakt zwischen Freiheit und Ordnung im Netz

Das Äußerungsrecht im Online-Kontext ist und bleibt ein dynamisches und spannungsgeladenes Feld. Es gibt keine einfachen Lösungen für die komplexen Herausforderungen, die sich aus der globalen digitalen Kommunikation ergeben. Die gesetzlichen Regelungen wie NetzDG und DSA sind Versuche, einen Rahmen zu schaffen, der die Meinungsfreiheit schützt und gleichzeitig die Verbreitung illegaler und schädlicher Inhalte eindämmt.

Letztlich sind Gesetzgeber, Plattformbetreiber, die Zivilgesellschaft und jeder einzelne Nutzer gemeinsam gefordert, Verantwortung zu übernehmen und an der Schaffung und Erhaltung eines Online-Diskursraums mitzuwirken, der von Fairness, Respekt und der Suche nach Wahrheit geprägt ist. Dies erfordert kontinuierliche Anstrengungen, Anpassungsfähigkeit an neue technologische Entwicklungen und vor allem eine beständige Kooperation aller Beteiligten. Die Hegelsche Vorstellung einer „Sittlichkeit“ , die sich in den Institutionen und Praktiken einer Gemeinschaft manifestiert, könnte hier als Leitbild für die Entwicklung einer verantwortungsvollen digitalen Öffentlichkeit dienen.

Call Now Button