Vermischtes
Newsroom – Ludwig Thoma und Eva Roth

Moderieren oder blockieren? 8 Tipps für den Umgang mit Trollen auf Medienplattformen

Moderieren oder blockieren? 8 Tipps für den Umgang mit Trollen auf Medienplattformen Eva Roth und Ludwig Thoma

Trolle, Bots und Fake-Accounts überlasten Moderationsteams und verzerren Debatten auf Medienplattformen. Ludwig Thoma und Eva Roth von Trusted Accounts geben Tipps, wie Medienhäuser ihre Communities schützen und Diskussionen wieder kontrollieren können.

München – Trolle, Bots und Fake-Accounts überlasten Moderationsteams, treiben Leser aus Debatten und verzerren Umfragen oder Kennzahlen. Laut Weltwirtschaftsforum gilt Desinformation inzwischen als globales Risiko Nummer eins. Medienhäuser müssen mit gutem Journalismus dagegenhalten – aber auch ihre Plattformen schützen. Ludwig Thoma und Eva Roth kämpfen mit Trusted Accounts als externer Dienstleister gegen Bots. Dieser Beitrag erschien in der „Themenwoche Zeitungen“ bei turi2.


1. Gefahrenquellen erkennen
Wer seine Community trollfrei halten will, muss sie wirklich kennen. Spezialisierte Analytics-Tools unterstützen dabei, echten Traffic von Gefahrenquellen zu unterscheiden: Bot-Netzwerke sind automatisierte Rechnerverbünde, die massenhaft Accounts oder Klicks erzeugen. Fake-Accounts sehen aus wie echte Profile, werden aber von keiner realen Person genutzt. Scraper Bots lesen Inhalte automatisiert aus und kopieren sie, während Trolle Diskussionen gezielt manipulieren. Prüfen Sie deshalb regelmäßig, wer auf Ihrer Plattform aktiv ist (registrierte sowie nicht registrierte Nutzer:innen) – und sorgen Sie dafür, Bots, Fake-Accounts und Trolle nicht nur kurzfristig zu stoppen, sondern diese nachhaltig zu moderieren und zu entfernen.


2. Effizient moderieren
Viele Trolle tauchen immer wieder auf – nur unter neuem Namen. Zur Erkennung solcher Muster können Technologien wie Verhaltensanalyse, Netzwerkanalyse, Browser- und Geräte-Fingerprinting sowie IP-Auswertungen zum Einsatz kommen. So lassen sich Wiederholungstäter:innen automatisch markieren oder blockieren. Gleichzeitig gilt: Nicht jeder kritische Kommentar ist Trolling. Wer effizient erkennt, läuft weniger Gefahr, wertvolle Leser:innen zu Unrecht zu verdächtigen. Klare Regeln schaffen Sicherheit und verhindern Chaos. Ein transparenter Dialog bindet außerdem die Community und nimmt Störer:innen die Bühne.


3. Wirkungsvolle Technik einsetzen
Automatisierte Angriffe sind die größte Belastung: Bots melden sich massenhaft zu Newslettern an, posten Spam oder klauen Inhalte. Gegen solche Angriffe hilft manuelle Moderation kaum. Einzelne Schutzmaßnahmen wie ein simples CAPTCHA sind heute zu schwach – wirksam ist erst der kombinierte Einsatz mehrerer Systeme. Dazu zählen unter anderem Browser Fingerprinting, Bot Detection, User-Verifikation, E-Mail-Validierung oder Netzwerkanalysen. Da sich Angriffsformen ständig weiterentwickeln, sollten Medienhäuser auf spezialisierte Lösungen setzen, die kontinuierlich optimiert und bestmöglich kombiniert werden können.


4. Nutzer einfach verifizieren
Viele Nutzer schrecken davor zurück, sich für einen Kommentar mit einem Ausweis verifizieren zu müssen. Deshalb sollte eine Ausweisprüfung immer der letzte Ausweg bleiben. Smarte Tools prüfen im Hintergrund automatisiert, ob echte Menschen hinter Accounts stehen, und liefern eine Sicherheitseinschätzung, ohne die Interaktion zu stören. Nur bei Auffälligkeiten oder in sensiblen Bereichen sollte eine zusätzliche Stufe greifen – etwa eine Telefonnummer. So bleibt das Erlebnis nahtlos, während Fake-Accounts aussortiert werden.


5. Umfragen vor Manipulation schützen
Koordinierte Troll-Aktionen oder Bot-Armeen verzerren Meinungsbilder – wie etwa bei der bekannten Tesla-Umfrage von T-Online. Browser Fingerprinting zeigt, ob ein Gerät schon abgestimmt hat. Ergänzend helfen IP-Limitierungen, CAPTCHAs, User-Verifikationen, Bot-Indikatoren oder Verhaltensmuster-Analysen (z. B. Mausbewegungen), um Mehrfachabstimmungen und automatisierte Stimmen zu verhindern. Nur so bleiben Ergebnisse repräsentativ.


6. Werbekunden und Inhalte schützen
Fast die Hälfte des Web-Traffics stammt von Bots. Für Werbekunden zählt aber nur echte Reichweite. Ad Fraud Detection Tools erkennen Klickbetrug, Fake Impressions oder Bot Traffic, bevor Kampagnen verfälscht werden – und zeigen, ob eine Optimierung nötig ist. Parallel gilt es, Inhalte vor Scraper Bots zu schützen – automatisierte Programme, die systematisch Artikel und Paywall-Texte abgreifen. So entsteht ein dreifacher Mehrwert: Schutz vor Content-Klau, Optimierungsbedarf & Transparenz. Gleichzeitig können Medienhäuser Werbekunden versichern, dass Anzeigen nicht im Bot-Sumpf versickern – was beispielsweise bei X.com viele zum Absprung brachte.


7. Marke und Reputation sichern
Kommentarspalten sind eine Visitenkarte. Wer toxisches Verhalten toleriert, verliert Leser:innen und verschreckt Partner. Kein Werbekunde möchte seine Marke neben Hass oder Spam sehen. Gezielte Erkennung und Moderation stoppen toxische Beiträge. Gleichzeitig gilt: zuhören statt nur löschen – wer konstruktiv auf Kritik eingeht, zeigt Haltung, stärkt Vertrauen und entzieht echten Trollen die Bühne.


8. Debatten auf eigenen Plattformen ermöglichen
Social-Media-Giganten sind längst von Trollen und Bots überrannt – Diskussionen dort sind kaum noch kontrollierbar. Für Verlage ist das die große Chance, eigene Portale und Community-Bereiche zu sicheren Orten für Dialog zu machen. Mit klaren Regeln, transparenter Moderation und einer technischen Absicherung lassen sich Debatten führen, die auf Social Media kaum noch möglich sind. So entsteht ein Raum für echten Austausch – direkt an der Marke und unabhängig von fremden Algorithmen.


Fazit
Trolle und Bots verschwinden nicht von allein. Doch mit Analyse, smarter Technik, effizienter Moderation und einer klaren Strategie können Medienhäuser ihre Communitys schützen – und Debatten zurückgewinnen. Externe Anbieter für Bot- und Fake-Account-Schutz entwickeln ihre Lösungen kontinuierlich weiter und entlasten Redaktionen so von aufwendigen Sicherheitsfragen. Das schafft Raum, sich auf das eigentliche Kerngeschäft zu konzentrieren.


Autorin Eva Roth ist Co-Gründerin von Trusted Accounts. Die 36-Jährige hat es sich gemeinsam mit Co-Gründer Ludwig Thoma zur Aufgabe gemacht, Publisher und Community-Plattformen vor Betrug und Missbrauch zu schützen. Ob Kommentarspam, Klickbetrug, Content Scraping oder Umfrage-Manipulation: mithilfe von Technologien blockiert das im Media Lab Bayern geförderte Start-up Angriffe automatisiert – ohne echte Nutzende auszubremsen.