Wie verändern KI-Tools die tägliche Recherche? Wo helfen sie beim Faktencheck – und wo sind sie gefährlich trügerisch? Beim siebten AI for Media Meetup im SPIEGEL-Haus in Hamburg wurde deutlich: KI kann im Verifikationsprozess Arbeit abnehmen und Hinweise geben – ob Inhalte echt sind und in welchem Kontext sie zu sehen sind, müssen auch künftig Journalist:innen entscheiden.

Der Spiegel war am 12. Februar 2026 Gastgeber des siebten AI for Media Meetups. Rund 120 Teilnehmende aus Journalismus, Software-Entwicklung, Produktentwicklung und Wissenschaft diskutierten im SPIEGEL-Hochhaus in Hamburg, wie KI in Recherche und Verifikation eingesetzt werden kann – von Manuskriptchecks über große Datenanalysen bis zur Erkennung synthetischer Inhalte.
Ole Reißmann: Ob Bilder echt oder manipuliert sind, lässt sich 2026 nicht mehr sagen

Ole Reißmann, Leiter KI der SPIEGEL-Gruppe, zeigte in seiner Keynote „Die Vertrauensfrage: Technische Lösungen oder soziale Probleme?”, wie einfach sich Wasserzeichen und Kennzeichnungen von KI-generierten Bildern entfernen oder imitieren lassen – selbst bei Systemen wie Google SynthID oder C2PA. Weder sichtbare Labels noch technische Fingerabdrücke werden dauerhaft zuverlässig zwischen „echt“ und „fake“ unterscheiden. Sein Fazit: „2026. Bilder sind echt. Oder nicht. I guess we’ll never know“. Die Beispiele aus seinem Vortrag hat er auch auf seinem Blog verlinkt.
KI-assistiertes Fact Checking in der SPIEGEL-Dokumentation

Gerret von Nordheim, stellvertretender Leiter der SPIEGEL-Dokumentation, erläuterte, wie KI beim Prüfen von Manuskripten hilft. Er stellte ein eigenes Fact-Checking-Tool vor, das auf großen Sprachmodellen und komplexem Prompt-Chaining basiert. Es zerlegt Texte in überprüfbare Claims, sucht automatisiert nach passenden Webquellen und markiert potenzielle Fehler, inklusive Begründung und Quellenlink. Das KI-Tool des SPIEGEL hat laut von Nordheim 74 Prozent der Fehler aus der SPIEGEL-Rubrik „Korrekturspalte“ der letzten drei Jahre gefunden – von falschen Jahreszahlen über ungenaue Formulierungen bis zu juristischen und medizinischen Details. Eingesetzt wird das Tool als zusätzliche Prüfschicht: Es ersetze weder Dokumentar:innen noch Autor:innen, sondern solle vor allem triviale, übersehene Fehler abfangen und Texte sichern, die aus Zeitgründen sonst gar nicht mehr geprüft würden.
Große Datenrecherchen: Mit KI tausende TikTok-Videos durchsuchbar machen

Susmita Arp, stellvertretende Leiterin der KI-Projekte in der SPIEGEL-Dokumentation, zeigte, wie die Redaktion KI bei einer großen Datenrecherche zu reichweitenstarken Islam-Influencer:innen auf TikTok einsetzte. Für zwölf große Accounts wurden Audiospuren und Captions von mehr als 6000 Videos transkribiert und in einem KI-gestützten Recherchesystem indexiert, das auf der SPIEGEL-Pressedatenbank DIGAS aufsetzt. Journalist:innen können dort mit eigenen Prompts quer durch alle Transkripte recherchieren, bekommen zu jeder Antwort konkrete Zitatstellen plus Link zum Originalvideo und können mit einem Klick an die entsprechende Stelle im Video springen. „Wir haben KI genutzt, um uns einen Überblick über den Content zu verschaffen, um Gemeinsamkeiten und Widersprüche zwischen Accounts, aber auch innerhalb der Accounts zu finden“, so Arp. KI habe auch dabei geholfen, relevante Clips zu finden – die journalistische Arbeit bestand weiterhin darin, Inhalte einzuordnen, Betroffene zu finden und Folgen im Alltag zu recherchieren.
Umfrage im AI for Media Network: Wer arbeitet wie mit KI?

Dr. Michael Graßl (Hochschule Magdeburg-Stendal) und Prof. Jonas Schützeneder (Universität der Bundeswehr München) stellten ein aktuelles Forschungsvorhaben vor, das in Kooperation mit dem AI for Media Network durchgeführt wird. Alle Mitglieder des AI for Media Network aus dem deutschsprachigen Raum werden befragt, welche Rollen sie im Haus haben, wie sie ihre eigenen KI-Kompetenzen einschätzen, wo ihr Haus KI einsetzt bzw. braucht und welche Angebote des Netzwerks ihnen am meisten nutzen. Ziel ist ein fundiertes Lagebild zum Stand von KI im deutschsprachigen Journalismus sowie konkrete Hinweise, wie sich das Netzwerk weiterentwickeln sollte. Die Befragung ist am 13. Februar gestartet, die Ergebnisse werden beim nächsten AI for Media Meetup am 12. Mai vorgestellt.
Fähigkeiten von generativer KI: ein Einblick in „Fälschers Werkzeugkasten“

Jan Eggers, Datenjournalist beim WDR, führte live vor, wie leistungsfähig aktuelle Bild-, Video- und Stimmgeneratoren sind. Modelle wie Flux, Google Gemini, Sora oder Grok erzeugen aus einfachen Textprompts realistische Fotos, Bewegtbilder und täuschend ähnliche Stimmen – inklusive automatisch generierter Tonspur. Eggers demonstrierte, wie sich Fotos oder Nachrichtenclips in Sekunden manipulieren lassen und wie Open-Source-Modelle diese Fähigkeiten auf den eigenen Rechner bringen. Gleichzeitig betonte er: Viele Fakes scheitern noch an Details im Hintergrund oder am Kontext. Bei der Entlarvung solle man sich nicht allein auf KI-Erkennungs-Tools verlassen, sondern auch grundlegende Verifikationsmethoden anwenden: Quellenkritik, Kontextrecherche und systematische Quervergleiche.
Auf seinem Blog hat Eggers über die Beispiele aus dem Meetup geschrieben.
Im Toolblock präsentierten drei Anbieter ihre Lösungen für die Verifikation visueller Inhalte.
Lumid: Fingerabdruck soll Herkunft und Bearbeitungshistorie für Bilder und Videos sichtbar machen

Hans Brorsen und Daniel Larena Baumann vom Startup Valid Tech zeigten, wie ihr Tool Lumid Inhalte bei der Entstehung kennzeichnet – etwa mit Metadaten, Wasserzeichen und einem extern gespeicherten „Fingerabdruck“. Aus technischen Merkmalen (Farben, Frequenzen, Pixel) und semantischen Eigenschaften („Auto vor Gebäuden“, „Himmel“) wird eine abstrakte Repräsentation eines Bildes erzeugt. Diese Signatur erlaube es, auch nach dem Entfernen von Metadaten Bilder eindeutig zuzuordnen, Herkunft und Bearbeitungshistorie abzurufen oder Deepfakes zu kennzeichnen. Wenn Medienhäuser ihre Systeme mit Lumid verknüpfen, könnten sie ihren Nutzer:innen einen schnellen Quellencheck innerhalb ihrer eigenen Kanäle ermöglichen.
Gretchen AI kombiniert Deepfake- und Kontextanalyse

Jakob Tesch demonstrierte die Funktionsweise von Gretchen AI, das forensische Deepfake-Analyse mit automatisierter Kontextrecherche verbindet. Bilder oder Videos werden pixelbasiert analysiert und auf Manipulationsspuren geprüft. Parallel dazu startet eine umfassende Reverse-Image-Suche. Gefundene „Cluster“ ähnlicher Bilder aus unterschiedlichen Quellen werden ausgewertet. Dabei generiert das Tool für jedes Bild eine Beschreibung, markiert widersprüchliche Kontexte und hebt Fact-Checking-Quellen (z.B. Angebote, die zum International Fact-Checking Network zählen) gesondert hervor. Ziel sei es, Verifikationsschritte zu bündeln und nachvollziehbar zu machen.
Neuramancer: Forensische Deepfake-Erkennung

Anika Gruner stellte den Ansatz von Neuramancer vor, der aus der forensischen Attribution stammt. Jede Kameralinse hinterlässt individuelle, physikalisch bedingte Muster im Bildrauschen, ähnlich einem Fingerabdruck – genauso erzeugen KI-Bildgeneratoren charakteristische Muster. Neuramancer trainiert eigene Modelle, um diese Muster zu unterscheiden und markiert in Heatmaps Bildbereiche, die vermutlich KI-generiert oder nachträglich manipuliert wurden. Das funktioniere auch ohne Metadaten und robust gegenüber Kompression, etwa bei weitergeleiteten WhatsApp-Bildern. Für Kund:innen – derzeit vor allem Versicherer – könne das System minimale Nachbearbeitungen oder „aufgebesserte“ Schadensfotos sichtbar machen. Neben den Heatmaps gibt das Tool auch eine Einschätzung ab, zu wie viel Prozent die Datei echt oder gefaked ist und nennt dabei gleichzeitig den Grad der Unsicherheit. Je höher der Grad der Unsicherheit, desto eher enthält sich das Tool einer Wertung.
Panel: Ob ein Bild echt oder gefälscht ist, muss am Ende ein Journalist entscheiden

In der anschließenden von Isabel Lerch (NDR) moderierten Diskussion zwischen Jakob Tesch (GretchenAI), Anika Gruner (Neuramancer), Jana Heigl (Teamlead Faktenfuchs beim Bayerischen Rundfunk) und Stefan Voß (Leiter Verifikation dpa) ging es um die Frage, was KI-Tools im Verifikationsprozess leisten können und wo es weiter Journalist:innen braucht. Der Masse an manipulierten Inhalten müsse man mit Tools begegnen, die auch massenhaft Inhalte analysieren können, sagte Gruner. Die Bewertungen von KI-Tools sind für Journalist:innen aber oft schwer nachvollziehbar, waren sich Heigl und Voß einig.
Fact-Checker:innen bräuchten nachvollziehbare Indikatoren. Mit Aussagen eines Tools, ein Bild sei zu 78 Prozent KI-generiert, können sie nicht arbeiten, ergänzte Voß und bezeichnete solche Werte als „Blackbox“. Einigkeit herrschte darin, dass keine KI eine „100-Prozent-Garantie“ liefern kann – insbesondere nicht bei komplexen, newsrelevanten Ereignissen im öffentlichen Raum. Tools können Hinweise geben, Massen von Bildern vorsortieren und verstreute Informationen schneller auffinden. Letzten Endes müssen Journalist:innen über den Wahrheitsgehalt fraglicher Informationen, Bilder und Videos entscheiden – und gegebenenfalls offenlegen, wenn sich das nicht eindeutig beantworten lässt.
Problem Pitch: Wie lassen sich False Positives beim KI-Textcheck reduzieren?

Riccardo Longo (Produktmanager bei BILD) schilderte in der Rubrik „Problem Pitch“, wie im Springer-Verlag bereits publizierte Texte automatisiert mit KI auf Rechtschreibung, Grammatik und Korrektheit der Inhalte geprüft werden – und wo der Prozess noch hakt. Besonders störend seien False Positives: Die KI markiert korrekte Inhalte als fehlerhaft, etwa markenspezifische Bild-Sprache („Transferhammer“) oder spezifische Ortsangaben. Die Folge: Frust bei Autor:innen, sinkendes Vertrauen in das Tool sowie die steigende Gefahr, echte Hinweise zu übersehen. Longo fragte nach Ansätzen, wie man die False Positives-Rate senken könnte. Von den Teilnehmenden erhielt Longo mehrere Lösungsvorschläge: aktuelle Reasoning-Modelle im „Thinking“-Modus verwenden, bei API-Abfragen immer das aktuelle Datum mitschicken, um der KI zeitlichen Kontext zu geben, oder KI in einem spezifischen Prompt strikt auf Textvergleich zu verpflichten, anstatt Weltwissen zu verwenden.
KI-Blitzlicht: dpa entwickelt Tool für Live-Faktenchecks von Videos
Im KI-Blitzlicht stellte Arne Beckmann, Software Engineer bei der dpa, „Checkmate“ vor, einen Prototypen für KI-gestütztes Fact Checking von Videos in Live-Situationen. Das Tool transkribiert laufende Video-Streams, markiert überprüfbare Aussagen („Claims“) und gibt sie als Liste aus. Diese Claims kann man anhand einer großen Quellenbasis überprüfen, dazu zählen dpa-Archivinhalte, Faktenchecks, der Google Fact Check Explorer sowie weiteren Quellen, die man selbst hinterlegen kann. Redaktionen sollen damit während Reden, Debatten oder Breaking-News-Lagen schneller relevante Belege finden und auf einer einheitlichen Oberfläche prüfen können, welche Behauptungen sich stützen oder widerlegen lassen.
Eine Dokumentation des Meetups mit Aufzeichnung und Präsentationen finden Sie in diesem (passwortgeschützten) Artikel.
Das nächste Meetup findet am 12. Mai 2026 beim Bayerischen Rundfunk in München statt. Die Anmeldung dafür beginnt am 23. März.