Vermischtes
Newsroom

Was tun gegen KI-Fakes? (Feiertagswiederholung)

Was tun gegen KI-Fakes? (Feiertagswiederholung) Eliot Higgins

Eliot Higgins, Gründer und Chef des Recherchekollektivs Bellingcat, erklärt, wie KI das Potenzial von Falschinformationen verändern könnte – und was das für die journalistische Arbeit bedeutet.

Berlin – Eliot Higgins ist Gründer und Chef des Recherchekollektivs Bellingcat. Im „medium magzin“-Interview mit Patrick Bernau spricht er darüber, wie neue Technologien das Potenzial von Falschinformationen verändern könnten – und was das für die journalistische Arbeit bedeutet.

 

Mit künstlicher Intelligenz lassen sich Bilder und Videos fälschen. Viele Erkennungstools sind einen Schritt hinterher. Was tun?

Eliot Higgins: Idealerweise sollten KI-Erkennungstools in Browser integriert werden. Soziale Medien sollten hochgeladene Bilder und Videos automatisch prüfen und diejenigen kennzeichnen, bei denen die Prüfung aufgemerkt hat.

 

Künstliche Intelligenz entwickelt sich schnell. Da ist ja sogar die Erkennung von KI-generiertem Text schwierig. 

Sprachmodelle wie GPT werden immer besser. Umso schwieriger wird es, zwischen echtem und KI-generiertem Inhalt zu unterscheiden. Forscher entwickeln jedoch auch KI-basierte Tools, um solche Fälschungen zu erkennen, zum Beispiel durch die Analyse von Sprachmustern und anderen Anomalien.

 

Wie kann ich gefälschte Bilder und Aufnahmen erkennen?

Es gibt verschiedene Techniken und Werkzeuge. Zum Beispiel die umgekehrte Bildsuche, bei der Sie das Bild in die Suchmaschine stecken und schauen, wo es auftaucht. Sie können die Metadaten der Datei überprüfen, Sie können Unstimmigkeiten bei Beleuchtung und Schatten untersuchen. Und Sie können spezielle Software verwenden, zum Beispiel Truepic oder Sensity.

 

Gibt es neuere Software?

Die Algorithmen machen so schnelle Fortschritte, dass die alten Werkzeuge nicht mehr unbedingt so wirksam sind wie früher. Es werden jedoch ständig neue Programme und Gegenmaßnahmen entwickelt, zum Beispiel auf Deep Learning basierende Erkennungstools und KI-gestützte forensische Analysen.

 

Wohin führt das alles?

Wenn mehr KI-generierte Inhalte eingesetzt werden und das Manipulationspotenzial in Journalismus, Politik und sozialen Medien wächst, dann kann das zur Verbreitung von Fehlinformationen führen. Das Vertrauen in Organisationen und Medien kann untergraben werden. Das zeigt: Wir brauchen laufend Forschung und Entwicklung zu Erkennungs- und Gegenmaßnahmen. Außerdem muss die Öffentlichkeit stärker sensibilisiert werden, und sie braucht Aufklärung darüber, wie man KI-generierte Fälschungen erkennt und bekämpft.

 

Was ist zurzeit am anfälligsten für Fälschungen?

Dazu gehören soziale Medien, Online-Nachrichten und Multimedia- Inhalte wie Bilder, Videos und Tonaufnahmen. Diese Kanäle sind besonders anfällig, weil sich manipulierte Inhalte leicht teilen lassen und schnell viral gehen können.

 

Welche Themen sind besonders anfällig?

Der Papst in der weißen Jacke ist ein gutes Beispiel …

 

… ein künstlich generiertes Foto, das sich im März in den sozialen Medien verbreitet hat …

Es ist genau im richtigen Maß glaubwürdig und unwichtig, dass sich die Leute nicht richtig mit der Echtheit beschäftigen, bevor sie es weitergeben. So eine Sache würde nicht auf allen Social-Media-Kanälen viral gehen, also nicht wie die Trump-Verhaftung. Also wundern die Leute sich nicht, dass so wenige Medien darüber berichten. In solchen Fällen handelt es sich nicht um eine große Gefahr für die Gesellschaft, also sollten wir uns nicht zu viele Gedanken machen.

 

Was Sie wirklichüber KI-Tools wissen müssen

Zehn KI-Tools, die Sie kennen müssen

Zum KI-Schwerpunkt