Wie funktioniert KI? Wie setzen Redaktionen KI ein? Und kann ich selbst mal KI ausprobieren? Darum ging es am 23. Januar bei Bots&Beers, einem gemeinsamen Event von AI for Media Network, Media Lab Bayern und ifp. So hat ifp-Stipendiatin Marina Schepetow den Abend erlebt.

40 junge Journalistinnen und Journalisten waren am 23. Januar der Einladung von ifp, Media Lab Bayern, SWR X Lab und dem AI for Media Network gefolgt, um interaktiv mehr über den Einsatz von KI im Journalismus zu erfahren.
ifp-Direktorin Isolde Fugunt stellte zu Beginn fest, dass KI durchaus im Redaktionsalltag angekommen sei, aber auch Ängste und Zweifel unter Kolleg:innen schüre. Wichtig sei es deshalb sich in Zeiten rasanter Entwicklungen im Bereich der Technologie bewusst zu werden, was Journalismus ausmacht und was unmöglich durch KI ersetzt werden kann. Derzeit finde in Redaktionen kein Stellenabbau durch KI statt, teilte sie eine Beobachtung der Medienforscherin Alexander Borchardt aus dem BR24-Medien-Podcast, sondern eher ein Ausbau im Bereich KI.
Bernd Oswald, Manager des AI for Media Network, stellte kurz die Arbeit des Netzwerks vor, in dem der Fokus auf der Demonstration von journalistischen Use Cases liegt, bei denen KI zum Einsatz kommt.
Fünf Use Case Stationen
Einen solchen Use Case steuerte das Netzwerk auch zu Bots&Beers bei: Luis Mayerhofer aus demAI + Automation Lab des BR stellte die KI-unterstützte Videoschnitt-Pipeline namens “SchnittmAIster” vor. Ein Sprachmodell wie Google Gemini analysiert Video-Rohmaterial und schlägt zum Sprechertext passende Bilder vor. Am Beispiel eines Unfallvideos demonstrierte Mayerhofer, wie in kurzer Zeit ein Rohschnitt entsteht. Je länger das Videomaterial ist, desto größer ist die Zeitersparnis für die Redaktion. Mit dem “SchnittmAIster” hatten Mayerhofer und fünf ARD-Kollegen 2025 den AI for Media Hackathon zu KI in der Videoproduktion gewonnen.
Daneben gab es noch vier weitere Use Cases:
- Das SWR X Lab präsentierte „Whatsupdate“, einen individualisierter News-Chatbot, der es Nutzenden ermöglicht, das News-Update nach eigenen, regionalen Interessen anzupassen. Außerdem können sie Rückfragen stellen, die unter anderem mit Verweisen auf SWR-Artikel beantwortet werden.
- Vertreter:innen der Süddeutschen Zeitung präsentierten den Filmsuchassistenten, eine KI-gestützte Suchmaschine, die dem User je nach Interesse und Genre einen entsprechenden Film aus einer umfassenden Rezensionen-Datenbank der SZ heraussucht, der in der Vergangenheit gut bewertet wurde. Außerdem zeigten sie den Einsatz von KI am Beispiel des Bundestagswahlassistenten, der basierend auf der SZ-Berichterstattung Fragen zur Bundestagswahl in einer Chatbot-Funktion beantwortete. Für Artikelzusammenfassungen oder die Umformulierung von Texten in einfache Sprache verwendet die SZ das Sprachmodell Claude.
- Das vom Media Lab Bayern geförderte Startup WeDaVinci bringt Literatur- und Filmbranche in Kontakt. Das Tool erlaubt es auf Basis eines Manuskripts mit Hilfe generativer KI Storyboards und Video-Trailer zu erstellen. Eine Literaturadaption wird so deutlich einfacher.
- Den Fans des englischen Fußballs bietet die Premier League App zahlreiche Optionen, Spielzusammenfassungen als Podcast oder kurzen Artikel zu erstellen und diese nach eigenen Interessen anzupassen. Ermöglicht wird das durch den in die App integrierten KI-Assistenten Microsoft Copilot.
KI kann journalistische Beobachtungsgabe nicht ersetzen
Im Anschluss an die Use-Case Präsentationen warf Anna Künster von der Deutschen Welle in ihrer Keynote einen kritischen Blick auf die Chancen und Risiken und ethischen Aspekte der KI-Nutzung im Journalismus. Dabei stellte sie zunächst das „Stochastic Parrot Paradigma“ vor, eine Metapher für sogenannte Large Language Models, also mathematisch gestützte Sprachmodelle, die basierend auf statistischen Wahrscheinlichkeiten Texte wie Papageien nachahmen, ohne sie zu verstehen. Im Vergleich zu klassischen LLMs haben neuere Reasoning-Modelle wie OpenAI o3 mehr “Denkzeit” und liefern akkuratere Antworten, die allerdings ebenfalls auf Wahrscheinlichkeiten beruhen. Künster schlussfolgerte, dass künstliche Intelligenz Fähigkeiten, die für die journalistische Arbeit unabdingbar sind, wie zwischenmenschlich sensible Interaktion, Beobachtungsgabe in der realen Welt und Verifikation nicht liefern kann.
Kreativer Vibe-Coding-Workshop
Beim letzten Programmpunkt durften die Teilnehmenden dann selbst kreativ werden – und zwar im Rahmen eines Vibe-Coding-Workshops. Der Auftrag: Entwickelt in Gruppen ein Projekt, welches die Berichterstattung über die Olympischen Spiele für User interaktiv erfahrbar macht. Die Ergebnisse, die nach 40 Minuten Vibe Coding mit Google AI Studio präsentiert wurden, reichten von einem Quiz mit wahren und falschen Aussagen über aufgestellte Rekorde und interaktive Karten zum Erkunden der Sportstätten bis hin zu einem pokemon-artigen Spiel mit Infos rund um die Athlet:innen.
Diesem “Bot-Part” folgte zum Abschluss noch der „Beers“-Teil: Ein gemütlicher Ausklang mit Getränken, Pizza und vielen Gesprächen, untermalt vom DJ-Set von Alicea.