Wer bei YouTube Videos schaut, kennt den Effekt: Du interessierst dich für vegetarische Rezepte und nach ein paar Klicks bekommst du vegane Inhalte, dann geht's um Frutarismus, und irgendwann landest du bei Lichtnahrung. Sobald der Algorithmus eine Präferenz zu erkennen glaubt, bedient er diese zielgerichtet und verstärkt das, was funktioniert. So werden Themen immer extremer, immer weiter zugespitzt und emotional aufgeladen. All das mit dem Ziel, die Aufmerksamkeit von Nutzer:innen so lange wie möglich zu binden.
Seit dem spektakulären Urteil einer Jury von Geschworenen in den USA gegen Meta und YouTube fragen sich viele: Was machen Autoplay, endloses Scrollen, algorithmische Verstärkung und thematische Radikalisierung auf Dauer mit uns? Die Jury in Los Angeles hat Meta und YouTube aufgrund der Gestaltung ihrer Plattformen als fahrlässig und schädlich für die psychische Gesundheit einer jungen Klägerin verurteilt - mit Schadensersatz in Millionenhöhe. Wenn sich diese Sichtweise in weiteren Fällen durchsetzt, stellt sich die Frage: Wer bestimmt künftig über die Regeln digitaler Räume?
Die Co-Evolution von Technologie & Rechtssprechung
Schauen wir in die jüngere deutsche Geschichte: Die Medienordnung hierzulande mit dem Rundfunkstaatsvertrag als Kernelement ist nicht zufällig entstanden. Sie ist eine direkte Antwort auf die totalitäre Kontrolle der Öffentlichkeit im Nationalsozialismus. Mit klaren Regeln, Aufsichtsgremien und einem gesellschaftlichen Auftrag. Der Medienstaatsvertrag ist seit 2020 in Kraft und schließt nun die sogenannten Telemedien mit ein, also Websites, Streamingdienste oder Plattformen. Er regelt Meinungspluralismus, diskriminierungsfreie Auffindbarkeit, Jugendschutz und Transparenz.
So gut und durchdacht dieses System ist, so muss man doch auch sehen, dass juristische Rahmenbedingungen wie der Medienstaatsvertrag nur in Deutschland gelten. Plattformen wie YouTube oder TikTok operieren global. YouTube etwa sitzt in Kalifornien, während TikTok seinen europäischen Hauptsitz in Irland hat. Die Zuständigkeiten und Anwendbarkeiten von Datenschutzbestimmungen oder Altersverifikation sind komplex und wechseln zwischen geographischen Rechtsräumen und unterschiedlichen politischen Auffassungen.
Digitale Räume sind also keineswegs „rechtsfrei“, vielmehr liegt das Problem in der fehlenden internationalen Abstimmung und Durchsetzung gemeinsamer Regeln für globale Plattformen. Wenn du eine wissenschaftlich fundierte, aktuelle Diskussion zur Co‑Evolution von Technologie und Rechtssprechung suchst, ist dieser Artikel von Martina Eckardt sehr empfehlenswert. Er beleuchtet sowohl strukturelle Herausforderungen als auch die Entwicklung der Regulierung im digitalen Plattformkontext.
Vom Nischendiskurs zum Mainstream-Thema
Inmitten all dieser Grauzonen wird eines klar: Die heute mächtigsten digitalen Plattformen bewegen sich weitgehend jenseits etablierter Gesetze und internationaler Abkommen. Regeln gelten hier nur bedingt, wenn überhaupt. Besonders deutlich wird dies beim Einsatz von Algorithmen, also dem technologischen Werkzeug, um das es im aktuellen Urteil gegen Meta und YouTube geht. Wer selbst schon im Kaninchenloch von Social Media gefangen war, kennt die Kraft dieser unsichtbaren Fesseln: Man wird endlos durch Feeds und Empfehlungen getrieben, bis sich das Zeitempfinden auflöst und die Aufmerksamkeitsspanne zerbröselt.
Nun zeichnet sich zunehmend ein breiter Konsens ab, dass dieses Ausmaß an Beeinflussung und Abhängigkeitsdynamik für viele nicht länger hinnehmbar ist. Nachrichtenredaktionen wie ZDF heute widmen dem Thema Sondersendungen wie Wie Social Media dich abhängig macht – und wie du zurücktrickst – ein klares Signal dafür, dass die Problematik inzwischen im Mainstream angekommen ist. Doch wenn es an rechtlicher Durchsetzbarkeit mangelt und wohl auch kein einheitlicher politischer Schulterschluss zu erwarten ist, stellt sich die Frage, was man in dieser Situation überhaupt tun kann?
Fragen wir uns: wer profitiert von unserer Abhängigkeit?
Zunächst einmal die Plattformen selbst. Ihre Algorithmen maximieren Engagement, also die messbare Zeit auf der Plattform. Jede zusätzliche Minute steigert Werbeeinnahmen und Datengewinnung. Der größte Treiber aber ist die Werbe- und Marketingbranche, für die jede Interaktion bares Geld ist. Sie nutzt die Daten, um uns gezielt zu beeinflussen: Sie steuert, welche Inhalte wir sehen, welche Produkte wir kaufen oder welche politischen Meinungen wir bilden. Unternehmen wie Acxiom, Experian oder Equifax sammeln und verknüpfen riesige Mengen an Konsument:innendaten. Das geht oft weit über das hinaus, was Nutzer:innen bewusst preisgeben. Diese Daten werden von spezialisierten Einheiten wie Oracle Data Cloud aggregiert und für den Weiterverkauf aufbereitet.
Auf der anderen Seite stehen die Plattformen und Werbenetzwerke: Über Systeme wie Google Ads oder die Werbeinfrastruktur von Meta Platforms werden diese Daten genutzt, um Verhalten präzise vorherzusagen und gezielt zu beeinflussen. Hinzu kommen globale Werbekonzerne wie WPP, Publicis Groupe oder Omnicom Group, die diese Datenströme strategisch einsetzen und in Kampagnen übersetzen.
Diese Zuspitzung zeigt die extreme Logik des heutigen Kapitalismus: Karl Marx hat zwar den Wert menschlicher Arbeit analysiert, aber dass einmal unsere Aufmerksamkeit und Zeit selbst zur Handelsware werden könnten, hätte er sich wohl kaum so vorgestellt. Wir geben unsere Aufmerksamkeit freiwillig her und zahlen mit unserer Zeit. Die Marketing-Industrie kassiert Einnahmen aus unserem Klickverhalten und akkumuliert obendrein noch unsere kollektive Intelligenz in Formen von Daten. Was für ein lukrativer Deal!
Die Radikalisierung nach rechts
Die Dynamik, die ich in diesem Artikel beschreibe, ist nicht nur ökonomisch oder gesundheitlich problematisch. Algorithmen, die endlose Klicks und Likes maximieren, führen uns in Echokammern und verstärken die wachsende Polarisierung der Gesellschaft. Inhalte, die Wut, Angst oder Empörung erzeugen, werden algorithmisch bevorzugt, weil sie Engagement steigern. So werden wir immer mehr zu Zielscheiben radikalisierter politischer Botschaften. Radikalisierung und Manipulation werden Teil des Geschäftsmodells, während die Plattformen selbst von unserer Spaltung profitieren. In diesen Räumen gedeihen rechtspopulistische Narrative, Frauenfeindlichkeit, sexualisierte Gewalt und Hetze gegen Migrant:innen. Die Plattformen profitieren direkt von dieser Dynamik: Jede Empörung, jeder Aufruf zum Hass erzeugt Engagement und damit Geld. Unsere Aufmerksamkeit wird nicht nur monetarisiert, sondern gleichzeitig instrumentalisiert, um das politische Spektrum nach rechts zu verschieben.
Zurück in die Zukunft
Vor zwanzig Jahren, also in der Frühzeit von YouTube und Facebook, waren diese Plattformen technologisch-soziale Infrastrukturen, bei denen Zufall, Kreativität und das Community-Erlebnis im Zentrum standen. Algorithmische Sortierung gab es zwar von Anfang an, aber erst in den letzten Jahren sind Algorithmen zum dominierenden Steuerungsprinzip geworden. Mit der Optimierung auf Verweildauer und Engagement haben sich Plattformen grundlegend verändert: von sozialen Netzwerken hin zu hochgradig gesteuerten Aufmerksamkeitsmaschinen.
Ich kann mich auch noch sehr gut erinnern, wie der Kurznachrichtendienst Twitter, heute X, ab ca. 2008 mein mediales Zuhause wurde und wie ich dort eigentlich alles gelernt habe über sozialen Diskurs und Austausch. Bis Elon Musk kam, war Twitter für viele ein Ort des Lernens und des Austauschs. Diskussionen entstanden organisch, Trends wurden allein durch die Community gesetzt und man konnte noch wirklich beobachten, wie Ideen und Argumente Wirkung zeigten. Genau zu diesem Moment, zu dieser Form des sozialen Lernens, würde ich gern zurückkehren. Zurück in die Zukunft. Hinein in einen Raum, der wieder Gemeinschaft, Kreativität und echte Debatte erlaubt.
Was ist zu tun?
Steile These: Wir sollten sofort aufhören, Corporate Social Media als Diskursraum zu betrachten, weil echte Diskussion dort strukturell nicht möglich ist. Die Logik dieser Plattformen ist nicht auf Austausch ausgelegt, sondern auf Extraktion. Das heißt aber nicht, dass Kommunikation im Internet scheitern muss. Sie kann sehr wohl funktionieren, wenn Räume bewusst gestaltet sind. Das heißt, wenn klare Regeln gelten, die etwa durch einen Verhaltenskodex oder Moderation durchgesetzt werden und Plattformen strategisch darauf ausgerichtet sind, konstruktiven Austausch zu fördern.
Die wirksamste Maßnahme liegt dabei in unser aller Händen: der Entzug unserer Aufmerksamkeit. Weniger Zeit auf Social Media, weniger Interaktion, weniger Futter für die Algorithmen. Erst wenn der permanente Strom an Klicks und Likes versiegt, verlieren die Systeme ihre Grundlage.
Gleichzeitig existieren längst Alternativen, die zeigen, wie digitale Kommunikation anders funktionieren kann. Moderierte Communities wie Discourse oder Netzwerke wie Mastodon setzen auf klare Regeln, Moderation und strukturierte Diskussionen, in denen Argumente zählen und nicht Eskalation. Dezentral organisierte Systeme wie Matrix entziehen sich der Logik zentral gesteuerter Algorithmen und ermöglichen Kommunikation, die chronologisch oder thematisch geordnet ist.
Auch kollaborative Werkzeuge wie Etherpad, HackMD oder Nextcloud Talk eröffnen Räume für gemeinsames Denken und Schreiben. Ergänzend dazu bieten Newsletter, Blogs oder Podcasts Formate, die auf Tiefe und Reflexion setzen. Und schließlich zeigen deliberative Plattformen wie LiquidFeedback oder Decidim, dass strukturierte digitale Beteiligung möglich ist, wenn Moderation und klare Verfahren zusammenspielen.
Aber wer nutzt das denn ernsthaft?
Weltweit suchen immer mehr Menschen nach digitalen Räumen, in denen sie selbst die Kontrolle behalten. Plattformen wie Mastodon oder Nextcloud verzeichnen wachsende Nutzerzahlen, insbesondere nach Krisen großer Dienste, wie der Twitter-Übernahme durch Elon Musk 2022, als Hunderttausende auf Mastodon strömten. Noch sind diese Communities klein im Vergleich zu YouTube, TikTok oder X, aber sie zeigen schon sehr gut, dass es Alternativen gibt. Wer hier aktiv wird, entzieht den großen Plattformen ihre wertvollste Ressource - unsere Aufmerksamkeit.
Wege aus der Radikalisierungsmaschine
Algorithmen, die Engagement maximieren, haben aus einst offenen sozialen Räumen Aufmerksamkeitsfallen gemacht. Während wir abgelenkt sind, profitieren Plattformen, Werbeindustrie und Datenbroker. Unsere Aufmerksamkeit wird zur Währung. Dennoch steigen viele nicht aus dem Kreislauf aus, weil sie süchtig sind nach den Inhalten, die ihnen schaden. Dass dies nicht mehr tolerierbar ist, hat eine Jury in den USA gerade festgestellt und Meta und YouTube zu einer Millionenstrafe verurteilt.
Was wir daraus lernen können? Die Dynamik der Radikalisierung ist nicht alternativlos. Wer die Mechanismen versteht, kann bewusst handeln: Aufmerksamkeit entziehen, Engagement reduzieren und sich Plattformen und Formaten zuwenden, die Dialog, Kreativität und Vertrauen fördern. Es gibt immer mehr moderierte Foren, dezentrale Netzwerke, kollaborative Tools oder reflektierte Medienformate, die zeigen, dass konstruktiver Austausch in digitalen Räumen möglich ist.
Die Radikalisierungsmaschine ist nicht unangreifbar. Sie existiert, weil wir ihr unsere Aufmerksamkeit schenken. Wenn wir bewusst wählen, wo und wie wir kommunizieren, können wir sie stören und digitale Räume zurückerobern. Zurück in die Zukunft ist möglich, wenn wir die Kontrolle über unsere Aufmerksamkeit zurückgewinnen. Für manche von uns, inklusive mir selbst, wird das einem Entzug gleichkommen. Deswegen empfehle ich, in kleinen Schritten anzufangen. Vielleicht mit einem Konto auf Mastodon, wo man mal schauen kann, ob Menschen, die man aus anderen Netzwerken kennt, dort unterwegs sind. Oder Medieninhalte nicht mehr ausschließlich über YouTube konsumieren, sondern einen News-Aggregator wie EUCube nutzen, der einfach nur über die offenen Schnittstellen aller möglichen News-Portale nach thematischen Präferenzen sucht und diese dann übersichtlich kuratiert - ohne Werbung, ohne Zwang zum Engagement.
Was man dadurch gewinnt? Autonomie über die eigenen Themen und Meinungen. Persönliche Sicherheit, weil man sich keinem extremistischen Diskurs aussetzt. Gesteigerte Aufmerksamkeit, weil man selbst bestimmt, wann es genug ist.
Vielleicht liegt die größte Freiheit im digitalen Zeitalter nicht darin, alles sehen zu können - sondern darin, bewusst zu wählen, was wir nicht mehr sehen wollen.