Добавить новость
World News in German
Новости сегодня

Новости от TheMoneytizer

Zwischen Leitlinien und Redaktionstisch: Verantwortungsvoller KI-Einsatz im Journalismus

Desinformation verbreitet sich grenzüberschreitend, oft beschleunigt durch künstliche Intelligenz. Das EU-Projekt PROMPT hat sich damit beschäftigt, wie Journalismus, Fact-Checking und KI verantwortungsvoll zusammenspielen können – und daraus konkrete Best-Practice-Guidelines entwickelt.

KI, Desinformation und Journalismus: Ein europäischer Realitätscheck

Desinformation zählt zu den zentralen Herausforderungen der digitalen Öffentlichkeit. Gerüchte, manipulierte Narrative oder gezielte Einflusskampagnen machen nicht an Landesgrenzen halt, sondern verbreiten sich über Plattformen, Sprachen und Medienökosysteme hinweg. Künstliche Intelligenz (KI) spielt dabei eine doppelte Rolle: Sie kann Desinformation verstärken – aber auch helfen, sie sichtbar zu machen.

Genau hier setzt das EU-geförderte Projekt PROMPT (Predictive Research on Misinformation & Propagation Trajectories) an. Zwischen 2024 und 2026 bringt es Journalist:innen, Forschende und Fact-Checking-Organisationen aus ganz Europa zusammen. Ziel ist es, Desinformationsnarrative zu analysieren, grenzüberschreitende Muster zu erkennen und praktikable Leitlinien für einen verantwortungsvollen Einsatz von KI im Journalismus zu entwickeln.

Desinformation kennt keine (Länder-)Grenzen

Die Praxis zeigt: Bedrohungen durch Desinformation sind transnational, dynamisch und oft schwer vorhersehbar. Die im Rahmen des PROMPT-Projekts geführten Interviews mit Fact-Checker:innen aus sechs europäischen Ländern (Italien, Frankreich, Litauen, Estland, Rumänien, Lettland) machen deutlich, wie zentral frühe und institutionalisierte Zusammenarbeit in Redaktionen für den Umgang mit Desinformation geworden ist. In Estland und Litauen etwa sind Fact-Checking-Teams nicht mehr nur als nachträgliche Korrekturinstanz tätig, sondern zunehmend in laufende redaktionelle Prozesse eingebunden. Journalist:innen melden verdächtige Inhalte bereits während der Recherche, holen sich methodische Unterstützung bei der Verifikation von Quellen, Bildern oder Social-Media-Beiträgen und konsultieren Fact-Checker:innen vor der Veröffentlichung – insbesondere bei politisch sensiblen Themen. Diese Praxis stärkt die Verifikationskultur in den Redaktionen und reduziert das Risiko, unbeabsichtigt irreführende oder manipulierte Inhalte zu verbreiten.

Gleichzeitig zeigen Fallstudien zu den Wahlen in Rumänien und Moldau, wie hochgradig koordiniert und grenzüberschreitend Desinformationskampagnen inzwischen operieren. Über soziale Netzwerke, Messenger-Dienste und kollaborative Wissensplattformen werden identische oder leicht variierte Narrative parallel ausgespielt. Inhalte werden sprachlich angepasst, emotionalisiert und gezielt in unterschiedliche Öffentlichkeiten eingespeist, um verschiedene lokale Zielgruppen zu erreichen. Besonders auffällig ist dabei das sogenannte „Narrative Laundering“: Aussagen, die zunächst auf randständigen Plattformen kursieren, tauchen später in scheinbar glaubwürdigeren Kontexten wieder auf. Während diese Kampagnen mühelos nationale Grenzen, Sprachen und Plattformen überschreiten, bleiben journalistische Gegenstrategien häufig an nationale Medienlogiken und begrenzte Ressourcen gebunden. Die Diskrepanz zwischen transnationaler Manipulation und fragmentierter journalistischer Abwehr macht deutlich, warum europäische Koordination und gemeinsame Infrastrukturen und geteilte Tools für Recherche und Verifikation zunehmend unverzichtbar werden.

 

In einer zunehmend vernetzten Welt kann sich auch Desinformation immer schneller verbreiten. Bildquelle: Pexels

Gemeinsame Prinzipien und ihre Lücken

Eine umfangreiche Auswertung bestehender Leitlinien und Selbstverpflichtungen im Kontext mit KI – unter anderem vom Council of Europe, von UNESCO sowie aus journalistischen Fachdebatten, siehe zum Beispiel  CJR – zeigt ein größtenteils einheitliches Bild auf der Ebene der Grundsätze, unabhängig davon, ob es sich um politische Empfehlungen, akademische Analysen oder praxisnahe Positionspapiere handelt.

Im Zentrum steht dabei die menschliche Verantwortung. Der Einsatz von KI wird als redaktionelle, nicht als rein technische oder ökonomische Frage verstanden. Journalist:innen sollen die letzte Entscheidungsgewalt behalten, KI-Systeme lediglich unterstützend eingesetzt werden. Eng damit verbunden ist die Forderung nach Transparenz: Medien sollen offenlegen, ob und wie KI in Recherche, Produktion oder Distribution eingesetzt wurde, damit das Publikum journalistische Inhalte einordnen kann.

Ebenso wiederkehrend ist der Verweis auf Sorgfaltspflichten. KI-generierte oder KI-unterstützte Inhalte müssen überprüfbar sein, ihre Quellen nachvollziehbar bleiben. Gleichzeitig warnen einige Leitlinien vor den Risiken algorithmischer Verzerrung. Bias, Diskriminierung und stereotype Darstellungen können sich durch Trainingsdaten und Modelle unbemerkt in journalistische Inhalte einschreiben und müssen aktiv erkannt und begrenzt werden. Ergänzt werden diese Prinzipien durch die Forderung nach kontinuierlicher Aus- und Weiterbildung: Redaktionen sollen technisches Verständnis, ethische Reflexion und praktische Kompetenzen im Umgang mit KI systematisch aufbauen.

So klar diese Prinzipien formuliert sind, so deutlich werden ihre Grenzen im redaktionellen Alltag. Viele der bestehenden Leitlinien verbleiben auf einer abstrakten Ebene. Sie beschreiben kaum, wie Journalist:innen unter Zeitdruck, Ressourcenknappheit und komplexen Nachrichtenlagen konkret handeln sollen. Studien und Praxisberichte zeigen, dass solche Richtlinien deshalb häufig ungelesen bleiben oder im Arbeitsprozess kaum integriert werden können.

Besonders offensichtlich sind diese Defizite bei der praktischen Umsetzung von Transparenz.  Hier fehlen einheitliche Standards: Welche Informationen über KI-Einsatz sind relevant? Reicht ein Hinweis auf automatisierte Unterstützung – oder braucht es Angaben zu Modellen, Datenbasis und menschlicher Kontrolle? Ohne standardisierte Formate bleibt Transparenz für das Publikum schwer vergleichbar.

Auch bei der Qualitätskontrolle zeigen sich Lücken. Während es in anderen Bereichen technische Prüfverfahren gibt , fehlen im Journalismus weitgehend spezifische Bewertungsmaßstäbe für KI-Tools, die journalistische Kernwerte wie Genauigkeit, Fairness oder Vertrauen abbilden. Damit bleibt oft unklar, ob KI-Systeme die journalistische Qualität tatsächlich verbessern – oder sie schleichend untergraben.

Hinzu kommt eine strukturelle Schieflage: Die meisten Leitlinien orientieren sich implizit an großen, gut ausgestatteten Medienhäusern. Kleinere Redaktionen, lokale Medien oder Angebote in weniger verbreiteten Sprachen finden darin kaum praktikable Unterstützung. Das Risiko ist eine wachsende Ungleichheit im Mediensystem, bei der nur wenige Akteure über Ressourcen und Know-how verfügen, um KI verantwortungsvoll einzusetzen.

Schließlich bleiben auch Abhängigkeiten von externen KI-Anbietern weitgehend ungelöst. Fragen der Datenhoheit, der Trainingsgrundlagen, der vertraglichen Kontrolle und der redaktionellen Unabhängigkeit werden zwar benannt, aber selten mit konkreten Handlungshilfen unterlegt.

Insgesamt zeigt sich damit ein zentrales Problem: Zwischen dem normativen Konsens über verantwortungsvolle KI-Nutzung und der tatsächlichen redaktionellen Praxis gibt es eine große Lücke. Genau in diesem Spannungsfeld setzt das EU-geförderte PROMPT-Projekt an, indem das Projekt bestehende Prinzipien nicht nur bündelt, sondern sie anhand empirischer Forschung, Interviews und Fallstudien in konkrete redaktionelle Entscheidungsgrundlagen übersetzt.

Praktisches Werkzeug: Editorial Decision Checklist für KI-Einsatz

PROMPT hat neben den Best Practices eine Checkliste für Redaktionen erstellt. Sie soll sicherstellen, dass jeder KI-Einsatz die journalistischen Kernwerte – menschliche Aufsicht, Faktenprüfung, Fairness und Transparenz – wahrt und gleichzeitig den Anforderungen europäischer Regelwerke wie dem EU AI Act entspricht.

Die Checkliste kann bei Redaktionssitzungen, Schulungen oder individuellen Entscheidungen angewendet werden. Hier abgebildet in aller Kürze:

  • Zweckklärung: Welches Ziel verfolgt der KI-Einsatz? Wenn der Nutzen unklar oder der öffentliche Wert gering ist → Einsatz überdenken.
  • Menschliche Aufsicht: Wer überprüft das KI-Ergebnis? Zuständig ist immer eine fachkundige Journalistin oder ein Journalist.
  • Verifikation: Können Quellen und Inhalte unabhängig geprüft werden? Wenn nicht → Veröffentlichung vermeiden.
  • Bias- & Fairness-Check: Besteht Risiko für Verzerrung, Stereotypen oder Diskriminierung? Bei hohem Risiko → Gegenmaßnahmen anwenden (z. B. zweite Kontrolle, diverse Quellen). PROMPT-Tools unterstützen hier z. B. bei narrativen Clustern und Sprachsensitivität.
  • Transparenz & Offenlegung: Wird der KI-Einsatz für die Leser:innen offengelegt? Angabe von Modellname, Rolle der KI und menschlicher Kontrolle.
  • Rechtliche & ethische Compliance: Entspricht der Output Gesetzen (Urheberrecht, Datenschutz) und redaktionellen Codes? Bei Verstößen → Korrektur oder Stopp.
  • Qualität & Genauigkeit: Entspricht der Inhalt den journalistischen Standards für Genauigkeit, Klarheit und Fairness? Fehler → Korrigieren, nicht veröffentlichen.
  • Nachbeobachtung: Wer überwacht den veröffentlichten KI-Inhalt und Rückmeldungen? Zuständige Person bestimmen; Korrekturen protokollieren. Tools wie WikiSensiBarometer können helfen, Änderungen in kollaborativen Plattformen wie Wikipedia nachzuvollziehen und Transparenz zu stärken.

Mit dieser Checkliste wird deutlich: KI darf die journalistische Arbeit unterstützen, sie darf jedoch nicht menschliches Urteilsvermögen ersetzen. Sie operationalisiert ethische Leitlinien direkt im redaktionellen Alltag und zeigt gleichzeitig, wie transnationale Zusammenarbeit Journalist:innen über Länder- und Sprachgrenzen hinweg stärkt.

Medienkompetenz als Schlüssel – nicht nur in der Theorie, sondern auch mit praktischem Tool

Ein unverzichtbarer Baustein ist die Aus- und Weiterbildung. Mit dem MOOC-Modul „Narratives, News, and Noise: AI, Journalism and the Integrity of Information“, integriert in die EU-geförderte COPE-Plattform, hat PROMPT ein frei zugängliches Lernangebot entwickelt, das Journalist:innen und Studierende für die Dynamiken von KI-gestützter Desinformation sensibilisiert. Anhand realer Fallbeispiele, praktischer Übungen und ethischer Fragestellungen vermittelt der Kurs, wie Desinformation entsteht, sich verbreitet – und journalistisch eingeordnet werden kann.

Der Beitrag Zwischen Leitlinien und Redaktionstisch: Verantwortungsvoller KI-Einsatz im Journalismus erschien zuerst auf Europäisches Journalismus-Observatorium (EJO).

Читайте на сайте


Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. Абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city
Музыкальные новости
Новости России
Экология в России и мире
Спорт в России и мире
Moscow.media






Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *