Dies ist ein Open-Source-Beitrag. Der Berliner Verlag gibt allen Interessierten die Möglichkeit, Texte mit inhaltlicher Relevanz und professionellen Qualitätsstandards anzubieten.
Seit diesem Jahr setzen die Vereinigten Arabischen Emirate die Pflicht zum Erwerb einer Medienlizenz für alle dort tätigen Influencer durch. Die Grundlage bildet ein bereits 2023 in Kraft getretenes Mediengesetz, das nicht nur formale Anforderungen regelt, sondern auch klare inhaltliche Standards setzt.
So müssen beispielsweise die Religion des Islams und die Regierung respektiert werden und die nationale Einheit darf nicht gefährdet werden. Auch Beleidigungen, „Fake News“ und Verstöße gegen die öffentliche Moral sind untersagt. Über Ausführungsbestimmungen behält sich die zuständige Medienbehörde zudem vor, weitere Einschränkungen zu erlassen.
Öffentlich sichtbar wurde dieses System zuletzt durch Berichte, nach denen Influencer Bildmaterial eines iranischen Angriffs auf Dubai unter Androhung von Sanktionen löschen mussten. Kritiker sprechen darüber hinaus von einem strukturellen Druck, ein positives Bild des Landes zu zeichnen, um Lizenzentzug oder sogar Ausweisung zu vermeiden.
Die Empörung über ein solches Maß staatlichen Eingriffs ist in Europa regelmäßig groß. Doch der reflexhafte Blick auf vermeintlich autoritäre Systeme verstellt mitunter den Blick auf die eigene Regulierungspraxis. Wie unterschiedlich sind die Ansätze tatsächlich?
Auch Europa erfasst „systemische Risiken“
Ein Vergleich der beiden Systeme zeigt zunächst einige Parallelen. Auch das Medienrecht der Vereinigten Arabischen Emirate schützt zentrale gesellschaftliche Interessen, die in Europa ein Begriff sind. Den sozialen Zusammenhalt, die öffentliche Ordnung, die Vermeidung von Desinformation oder die Wahrung gesellschaftlicher Werte. Kategorien, die aus europäischer Perspektive zunächst weit und normativ erscheinen, finden zum Beispiel funktionale Entsprechungen im europäischen Digital Services Act (DSA). Dort werden unter dem Begriff der „systemischen Risiken“ unter anderem negative Auswirkungen auf die gesellschaftliche Debatte, die öffentliche Sicherheit oder auf die Ausübung von Grundrechten erfasst.
Der DSA ist eine europäische Verordnung und verfolgt unter anderem das Ziel, illegale Inhalte im Internet zu bekämpfen. Zugleich soll er die Meinungs- und Informationsfreiheit schützen. Schon in dieser zweifachen Zielsetzung kann aber durchaus eine Spannung liegen, die sich in der praktischen Anwendung zunehmend zeigen könnte.
Das beginnt bereits bei der Konstruktion der Verordnung. Der DSA verpflichtet Plattformen, eine regelmäßige Risikobewertung und Maßnahmen zur Risikominimierung vorzunehmen, soweit diese Risiken ein systemisches Risiko darstellen. Systemische Risiken sind unter anderem rechtswidrige Inhalte. Geschützt werden damit eine Vielzahl von Rechtsgütern. Vom Urheberrecht über Persönlichkeitsrechte und Jugendschutz bis hin zu strafrechtlichen Tatbeständen.
In Deutschland ist insbesondere der Bereich der Ehrdelikte, allen voran die Beleidigung, Gegenstand intensiver rechtlicher und gesellschaftlicher Auseinandersetzungen. Maßnahmen zur Minimierung dieser Risiken sind etwa die Anpassung der Verfahren zur Moderation von Inhalten durch die Plattformen oder, soweit erforderlich, die rasche Entfernung gemeldeter Inhalte oder Sperrung des Zugangs dazu.
Die Entscheidung liegt zunächst bei Meta
Der DSA schafft damit weniger ein neues materielles Medienrecht als vielmehr ein Durchsetzungsregime. Gleichzeitig sieht er verschiedene Sicherungsmechanismen vor, etwa Transparenzanforderungen, Begründungspflichten sowie Beschwerde- und Überprüfungsverfahren. Gleichwohl liegt ein zentraler Punkt darin, dass die Anwendung in der Praxis häufig zunächst nicht durch Gerichte, sondern durch private Plattformen wie Instagram oder Facebook erfolgt. Sie werden unter Umständen zu den ersten Entscheidungsinstanzen darüber, welche Inhalte rechtswidrig sind und welche nicht.
Hinzu kommt, dass diese privaten Akteure mit offenen und selbst für Juristen schwer auslegbaren Begriffen operieren müssen. Insbesondere die Kategorie der „systemischen Risiken“ nach den Art. 34, 35 DSA ist weit gefasst. Sie umfasst darüber hinaus nicht nur die Verbreitung illegaler Inhalte, sondern auch tatsächliche oder potenzielle negative Auswirkungen auf die gesellschaftliche Debatte. Was genau eine solche Beeinträchtigung darstellt, bleibt weitgehend unbestimmt.
Die Offenheit des Rechts für gesellschaftlichen Wandel ist zwar kein neues Phänomen, sondern ein bewusstes und notwendiges Strukturmerkmal moderner Rechtsordnungen. Die neue Qualität liegt jedoch darin, dass die Auslegung nicht mehr primär rechtlich formalisiert in öffentlich kontrollierten Verfahren, sondern unter Zeitdruck, unternehmerischer Logik und regulatorischen Risiken stattfindet. Wo früher rechtliche Abwägung beiderseitiger Interessen im Zentrum stand, treten heute Risikobewertung und präventive Entscheidungslogiken.
Damit kann sich auch die Bewertungsebene verschieben. Nicht mehr allein die Rechtswidrigkeit eines Inhalts steht im Mittelpunkt, sondern seine mögliche Wirkung. Die Entscheidung darüber wird, zumindest in der „ersten Instanz“, privaten Plattformen überlassen.
Plattformen löschen eher zu viel als zu wenig
Das eigentliche Problem liegt dabei nicht in einzelnen Fehlentscheidungen, sondern darin, dass gesellschaftliche Stimmungen und Debatten zunehmend Einfluss darauf haben, wie Inhalte rechtlich bewertet werden. Gerade in den vergangenen Jahren hat sich in gesellschaftlichen Krisensituationen gezeigt, wie stark solche Dynamiken die Bewertung und Moderation von Inhalten prägen können.
Der Schutz der gesellschaftlichen Debatte ist zwar ein legitimes Ziel. Ihrem Wesen nach kann dieser Schutz jedoch nicht auf jeder inhaltlichen Ebene ansetzen. In einem freiheitlichen Rechtsverständnis erfolgt ein Eingriff grundsätzlich vielmehr erst dort, wo durch eine Äußerung konkret Rechte Dritter verletzt werden, etwa im Falle von Ehrdelikten.
Eine vorgelagerte inhaltliche Bewertung dessen, was die Debatte „gefährdet“, ist demgegenüber weder neutral noch dauerhaft eindeutig bestimmbar. Soweit Plattformen gleichwohl über solche inhaltlichen Maßstäbe eingreifen, überschreiten sie diesen Grundsatz und verlagern die Grenze zulässiger Kommunikation vor, ohne dass die hierfür maßgeblichen Kriterien hinreichend klar und bestimmt wären.
Hinzu tritt eine klare Anreizstruktur. Angesichts regulatorischen Drucks und potenziell erheblicher Sanktionen handeln Plattformen im Zweifel präventiv. Sie löschen eher zu viel als zu wenig. In gewisser Weise unterscheidet sich diese Logik kaum von der Situation der Influencer in Dubai. Auch dort führt Unsicherheit über die Grenzen des Zulässigen zu vorsorglicher Anpassung.
Sie erhalten eine Bestätigung per E-Mail.
Dass diese Dynamik nicht mehr nur theoretischer Natur ist, zeichnet sich bereits in der Praxis ab. Erste Auswertungen von Moderationsentscheidungen legen nahe, dass ein nicht unerheblicher Anteil der entfernten Inhalte rechtlich zulässig war. In Streitbeilegungsverfahren der außergerichtlichen Streitbeilegungsstellen unter dem DSA wurde ein großer Teil der Entscheidungen nachträglich korrigiert und Inhalte wiederhergestellt. In der ersten Hälfte des Jahres 2025 betraf dies 52 Prozent von 1800 untersuchten Streitfällen auf Facebook, Instagram und TikTok. Nach Angabe der Europäischen Kommission wurden innerhalb von nur zwei Jahren fast 50 Millionen Entscheidungen von Online-Plattformen, die Inhalte oder Nutzerkonten betrafen, wieder rückgängig gemacht.
Die Verschiebung ist damit auch praktisch angekommen. Eingriffe in die öffentliche Kommunikation erfolgen in Europa nun zu einem Teil nicht mehr nur durch staatliche Stellen, sondern systemisch durch private Akteure unter regulatorischem Druck. Die Rechtsanwendung wird vorverlagert, beschleunigt und entformalisiert.
Es ist wohl davon auszugehen, dass nur ein geringer Teil der gelöschten Beiträge überhaupt angefochten wird und dementsprechend noch weniger Fälle eine gerichtliche Klärung erreichen. Der Großteil verbleibt im Raum privater Moderation, ohne umfassende öffentliche Kontrolle. Hinzu kommt, dass auch eine nachträgliche Korrektur die bereits eingetretene Beeinträchtigung der Sichtbarkeit und Reichweite unter Umständen nicht vollständig aufhebt.
Das Recht wird durch Konzerne konkretisiert
Damit verschiebt sich der Fokus. Nicht mehr allein die Frage nach der Rechtswidrigkeit eines Inhalts steht im Vordergrund, sondern wer diese Bewertung vornimmt und nach welchen Maßstäben. Wenn diese Entscheidung zunehmend von privaten Plattformen getroffen wird, verschiebt sich auch die Grenze des Zulässigen. Recht wird dann nicht mehr ausschließlich durch Gerichte konkretisiert, sondern durch Risikobewertungen und interne Richtlinien und wird damit anfälliger für gesellschaftliche Stimmungen und den jeweiligen Zeitgeist.
Gerade darin könnte in Zukunft unsere eigentliche Herausforderung liegen. Weniger in der offenen Einschränkung von Freiheit, sondern in ihrer schleichenden Verschiebung.
Noch tritt diese Verschiebung in Europa nicht in voller Schärfe zutage. Grundlegende gesellschaftliche Wertvorstellungen werden weiterhin in weiten Teilen geteilt und extreme Konfliktlagen bleiben die Ausnahme. Doch diese Stabilität ist keine Selbstverständlichkeit. Wenn gesellschaftliche Meinungen künftig stärker auseinandergehen, wächst die Bedeutung genau jener unbestimmten Begriffe und privaten Entscheidungsprozesse, die heute noch weitgehend im Hintergrund bleiben. Die gesetzgeberischen Grundlagen dafür sind nun bereits gelegt.
Wer legt die Grenzen fest?
Der Vergleich mit den Vereinigten Arabischen Emiraten zeigt zwar keine Gleichsetzung der Systeme. Die Unterschiede, insbesondere im Hinblick auf rechtsstaatliche Garantien und den Schutz der Meinungsfreiheit, sind jedoch teilweise evident. Gleichwohl erlaubt der Vergleich eine differenzierte Perspektive auf die jeweiligen Regulierungsansätze.
Die Regulierung von Inhalten im Internet in den beiden Regionen unterscheidet sich weniger in den zugrunde liegenden Schutzinteressen, als in der Art ihrer Umsetzung. Während in den Emiraten inhaltliche Grenzen offen staatlich definiert werden, ist die indirekte Steuerung in Europa über regulatorische Rahmenbedingungen und deren Umsetzung durch private Akteure zwar weniger sichtbar. Sie kann aber gleichwohl eine erhebliche praktische Wirkung entfalten.
Vor diesem Hintergrund stellt sich die Frage weniger als Gegenüberstellung von „frei“ und „unfrei“, sondern vielmehr danach, wie transparent und nachvollziehbar die jeweiligen Wertentscheidungen ausgestaltet sind. Denn unabhängig vom gewählten Modell bleibt entscheidend, dass dort, wo Grenzen des Sagbaren gezogen werden, auch erkennbar ist, wer diese festlegt.



