Unschaerfe

Zertifikation, Förderdruck und Pressefreiheit: Warum die Diskussion um KI-Standards juristische und journalistische Grundsätze treffen kann

Zusammenfassung (Executive Summary)

Berufsverbände wie der Deutsche Journalisten-Verband (DJV) und die European Federation of Journalists (EFJ) haben sich in Positionspapieren zur Rolle von Künstlicher Intelligenz (KI) im Journalismus geäußert. Beide Papiere enthalten wohlbegründete Forderungen — Kennzeichnungspflichten, Transparenz bei Trainingsdaten, Fortbildung — zugleich propagieren sie Instrumente (Zertifizierungen; Förderpräferenzen), die bei unsauberer Ausgestaltung die redaktionelle Unabhängigkeit und die Vielfalt des Medienspektrums gefährden können. Dieser Kommentar legt die Kernargumente der Verbände dar, analysiert die Risiken institutioneller Verknüpfungen zwischen Politik/NGOs und technischen Standards und formuliert konkrete, praktikable Gegenforderungen, die Journalismus, Vielfalt und Rechtsschutz wahren.

Wir veröffentlichen diesen Kommentar als Diskussionsbeitrag: Für die sachliche Debatte sind Offenlegung, unabhängige Prüfmechanismen und technologie-neutrale Förderprinzipien unabdingbar.


1. Einleitung — Warum das Thema jetzt wichtig ist

Die Integration von KI-Technologie in redaktionelle Prozesse ist real und beschleunigt sich. Zugleich befindet sich das normative Umfeld (Gesetze, Förderprogramme, Zertifizierungsinitiativen) in einem Umbruch. Das Problem: Wenn Standards und Förderkriterien gleichzeitig normativ und instrumentell von politischen oder parteiischen Akteuren gestaltet werden, entsteht ein Mechanismus, der Technik-Konformität belohnt und inhaltliche Diversität bestraft. Vor diesem Hintergrund sind die Vorschläge des DJV und der EFJ zu verstehen — sie sind gut gemeint, bergen aber praktische Gefahren.


2. Kernthesen der Verbände (Kurzüberblick)

DJV (Deutschland):

  • Forderung nach Kennzeichnung KI-generierter Inhalte, Transparenz bei Trainingsdaten und Vergütungsansprüchen für journalistische Inhalte.
  • Vorschlag: Zertifizierung von KI-Systemen, die im Journalismus eingesetzt werden; Entwicklung der Standards „eng mit der Politik und relevanten NGOs“.

EFJ (Europa):

  • Forderung nach menschlicher Kontrolle, Offenlegung, Ausbildung und „ethischen Bedingungen“ für öffentliche Investitionen.
  • Explizite Empfehlung, dass öffentliche Geldgeber Medien bevorzugen sollten, die KI-Tools nutzen, sofern diese unter ethischen Rahmenbedingungen arbeiten.

Beide Positionen betonen die Notwendigkeit von Transparenz, Rechenschaft und Schutz der journalistischen Sorgfaltspflicht — Punkte, die kaum strittig sind. Problematisch werden jedoch Formulierungen, die Techniknutzung zur Bedingung von Förderungen oder Zertifikaten machen.


3. Detaillierte Analyse der Risiken

3.1. Risiko: Instrumentalisierung durch Förder- und Zertifizierungslogik

Wenn öffentliche Fördermittel oder Labels an die Nutzung bestimmter (zertifizierter) Tools gekoppelt werden, entsteht ein ökonomischer Anreiz zur Anpassung an technische Vorgaben. Kleine Redaktionen, gemeinnützige Medien oder neue Formate könnten dadurch strukturell benachteiligt werden; Vielfalt und kritische Distanz leiden. Die EFJ-Formulierung zur „Bevorzugung“ KI-nutzender Medien ist hier besonders sensibel.

3.2. Risiko: Politische Nähe der Normgeber

DJV und EFJ sehen die Einbindung von Politik und NGOs in Standardprozesse vor. Wenn dieselben politischen Kräfte, die an inhaltlicher Steuerung interessiert sind, auch über Zertifikate und Fördervergabe mitentscheiden, liegt die Gefahr einer to-beweisenden Schleife nahe: politisch genehme Inhalte werden durch technikbasierte Standards belohnt. Daraus folgt ein Legitimitätsproblem: Standards dienen nicht länger Qualitätsprüfung, sondern Durchsetzung politischer Präferenzen.

3.3. Risiko: „Gatekeeping“ durch Zertifizierungsinstanzen

Zertifikate ohne pluralistische, unabhängige Kontrolle können zu Gatekeeper-Instrumenten werden: wer das Zertifikat besitzt, hat Zugang zu öffentlichen Mitteln, Plattformkooperationen und Reputation. Das verengt die Debattenlandschaft und begünstigt zentrale Akteure (große Medienhäuser, staatsnahe NGOs).

3.4. Risiko: Formale vs. materielle Rechenschaft

Transparenzanforderungen sind nötig, doch technische Offenlegung allein reicht nicht. Wo Offenlegung formal erfolgt, aber Prüfmechanismen fehlen, bleibt der Schutz hohl. Notwendig sind belastbare, überprüfbare Auditierbarkeiten (Trainingsdaten, Modellentscheidungen, Haftungswege).


4. Gegengewicht: Was sinnvoll ist — und wie man es gestaltet

Nicht alles an den Verbandsforderungen ist falsch. Viele Vorschläge sind berechtigt; wichtig ist ihre Ausgestaltung:

4.1. Kennzeichnung & Transparenz — aber verbindlich und überprüfbar

  • Verbindliche Kennzeichnung KI-gestützter Inhalte: ersichtlich für Leser.
  • Offenlegungspflichten für Trainingsdaten-Kategorien (nicht zwingend alle Rohdaten, aber Herkunftsklassen, Bias-Risiken, Datengenese).
  • Auditierbarkeit: Externe, unabhängige Auditstellen prüfen stichprobenartig (Open-Source-Checklisten, Revisionsberichte).

4.2. Bildung & Infrastrukturförderung statt Technikpräferenz

  • Förderprogramme sollten technologie-neutral sein: Gelder für journalistische Qualität, nicht für bestimmte Tools.
  • Aufbau von Open-Source-Infrastruktur und Zuschüsse für kleine Redaktionen (Schulungen, Prüf-Tooling). So wird Vielfalt gestützt, nicht untergraben.

4.3. Unabhängige, plural besetzte Zertifizierungsinstanzen

  • Falls Zertifikate erforderlich erscheinen: Nur durch plural zusammengesetzte Gremien (Wissenschaft, Datenschutz, Zivilgesellschaft, Branchenvertreter — keine Dominanz durch Regierung oder einzelne NGOs).
  • Transparente Verfahrensregeln, Einspruchs- und Revisionsmechanismen, regelmäßige Rotation der Experten.

4.4. Haftung & Rechtsbehelfe klar regeln

  • Haftungsregeln für Schäden durch KI-gestützte Berichterstattung: Redaktionen, Betreiber oder Toolanbieter müssen nachvollziehbare Verantwortungs- und Regresspfade haben.
  • Rechtsansprüche für Betroffene (Berichtigung, Offenlegung, Beschwerde).

5. Konkrete Empfehlungen (Check-List / Minimumanforderungen)

Für jede Politik, jede Förderung oder Zertifizierung sollten die folgenden Mindestanforderungen erfüllt sein:

  1. Technologie-Neutralität bei Förderprogrammen. Förderkriterien bemessen sich an redaktionellem Mehrwert, nicht an Tool-Nutzung.
  2. Transparente Offenlegungspflichten. Kennzeichnung KI-unterstützter Inhalte; Offenlegung von Datenkategorien; Nachweis der redaktionellen Kontrolle.
  3. Unabhängige Auditinstanzen. Plural besetztes Prüfungsgremium; regelmäßige Prüfberichte; Einspruchsmechanismen.
  4. Förderung von Open-Source-Alternativen und kleinen Redaktionen. Ziel: Diversität sichern.
  5. Haftungsregelung & Rechtschutz. Klare Verantwortungszuweisung und wirksame Rechtsbehelfe für Betroffene.
  6. Bildungsoffensive. Mittel für Fortbildung und Qualitätsentwicklung, nicht für technische Abhängigkeit.

6. Zur Rolle der Verbände — Kritik und Selbstverpflichtung

Verbände wie DJV und EFJ haben eine legitime Rolle: Mitarbeiterschutz, Standards, berufliche Fortbildung. Ihre Stellungnahmen sind wichtige Diskussionsbeiträge. Gleichwohl sollten sie sich selbst verpflichten:

  • Offenlegung ihrer methodischen Arbeit (wer hat das Papier erstellt; welche Interessenkonflikte bestehen?).
  • Distanz zu einseitigen Förderpräferenzen: Forderungen nach Steuerungsinstrumenten müssen mit Schutzmechanismen gegen politische Einflussnahme gekoppelt sein.
  • Förderung pluraler Debatten — Verbände sollten Plattformen für divergierende Positionen offenhalten.

7. Fallbeispiele & empirische Hinweise (Kurz)

Die Erfahrung aus regulatorischen Feldern (z. B. Öffentlichkeitsförderung, Medienkonzentration) zeigt: Wenn Förderregime an technische oder inhaltliche Compliance geknüpft werden, konsolidieren sich Marktführer und Marginalisierte fallen zurück. Historische Parallelen warnen: Regulierung kann unbeabsichtigte Machtverschiebungen erzeugen. In demokratischen Debatten muss das verhindert werden — durch Pluralität, Transparenz und Rechtsschutz. (Siehe verwandte Diskurse in Urheberrechts- und Medienförderungsdebatten.)


8. Schlussfolgerung

Die Verbandsforderungen zur KI-Integration im Journalismus tragen wichtige Impulse: Transparenz, Kennzeichnung, Fortbildung. Doch sie dürfen nicht in Instrumente münden, die öffentliche Mittel, Reputation und redaktionelle Unabhängigkeit an technische Konformität koppeln. Wenn staatliche Akteure, NGOs oder große Marktteilnehmer in zu engem Verhältnis zur Standardsetzung stehen, drohen Gatekeeping-Effekte und eine Verdrängung pluralistischer Medien. Das Ergebnis wäre ein verarmter öffentlicher Diskurs — genau das Gegenteil dessen, was Journalismus zu leisten hat.

Die richtige Richtung ist: technologie-neutrale Förderung, unabhängige Prüfungen, offene Standards, gezielte Unterstützung für kleine Redaktionen und klare Haftungs- sowie Rechtsmechanismen. Nur so bleibt Journalismus ein freier, kritischer Prüfstein demokratischer Öffentlichkeit — auch in der Ära der KI.


Quellen

DJV — Positionspapier bezüglich des Einsatzes Künstlicher Intelligenz im Journalismus (April 2023).

EFJ — Künstliche Intelligenz und die Zukunft des Journalismus in Europa (September 2025).

Pressekodex

Titelbild: Bruce Barrow, unsplash



Redaktionelle Stellungnahme — Stand: 16.12.2025, Version v1

© Redaktion – Analyse-Team