Es gibt derzeit kaum ein Gespräch, in dem Chat GPT, die neue Software des US-amerikanischen Unternehmens OpenAI, kein Thema ist. Es vergeht auch kein Tag, an dem beim Durchlesen von Nachrichtenwebsites oder Newslettern nicht mindestens ein Beitrag über Chat GPT zu finden ist. Der Business Insider hat berichtet, welche zehn Jobs wegfallen könnten. Darunter nennt er Medienjobs (Marketing, Content-Erstellung, Technische Redaktion, Journalismus). Gerade auf die Einsatzmöglichkeiten im Journalismus muss man aber einen differenzierten Blick werfen. Content-Erstellung bzw. Textgenerierung alleine sind nämlich noch lange kein Journalismus. Das wurde im Social-Media-Zeitalter schon oft verwechselt, dass das Übermitteln von Nachrichten gleichzusetzen ist mit Journalismus. So einfach ist diese in Artikel 5 des Grundgesetzes verankerte Aufgabe aber nicht.
Wie beim Roboterjournalismus, gibt es drei Ebenen, wie eine Künstliche Intelligenz beim Verfassen eines journalistischen Textes helfen könnte:
1. Der generierte Text ist eine Vorarbeit, ein erster Rohentwurf, der vom Journalisten anschließend angereichert wird, indem er selbst szenische Elemente, Zitate und eine persönliche Färbung einbaut. Das heißt, die KI unterstützt.
2. Die KI generiert den vollständigen journalistischen Text. Der Journalist liest nach dem Vier-Augen-Prinzip anschließend über den Text und gibt ihn – sofern er journalistischen Standards entspricht – zur Veröffentlichung frei.
3. Die KI verfasst den Text und publiziert ihn ohne Kontrolle selbstständig.
Bei 1. und vielleicht sogar noch 2. kann man von Journalismus sprechen, bei 3. nicht. Denn Journalismus ist mehr als die Generierung von Texten: Es geht neben Recherche vor allem auch um Faktencheck und Verifikation, und auch die Einordnung der Ereignisse in den aktuellen Kontext spielt eine bedeutende Rolle. Dass die KI ihre eigenen Recherchen selbst verifiziert – davon sind wir (um es vorsichtig zu sagen) noch ein Stück weit entfernt.
Natürlich gibt es noch einen weiteren Punkt, warum Chat GPT keinen Journalismus kann: Es wird (noch) nicht auf aktuelle Daten zurückgegriffen. Unmittelbar nach dem verheerenden Erdbeben in der Türkei hätte Chat GPT noch keinen Text dazu verfassen können. Hier ist Roboterjournalismus, wo weitgehend noch auf strukturierte Daten (wie Wetter, Börse und Sport) gesetzt wird, deutlich brauchbarer für den Journalismus. Allerdings wird es nur eine Frage der Zeit sein, bis eine KI (es muss ja nicht Chat GPT oder das nun von Google angekündigte „Bard“ sein) auch in Echtzeit mit unstrukturierten Daten Texte verfassen kann.
Chat GPT kann den Pressekodex (noch) nicht
Doch auch dann sind wir noch immer nicht beim Journalismus. Erst wenn die KI den Pressekodex des Presserats in ihrem Code implementiert hat (und auch befolgt), kann ein journalistischer Text aus einem Programm wie Chat GPT herauskommen. Schauen wir uns beispielhaft Ziffer 13, die Unschuldsvermutung an: „Die Berichterstattung über Ermittlungsverfahren, Strafverfahren und sonstige förmliche Verfahren muss frei von Vorurteilen erfolgen. Der Grundsatz der Unschuldsvermutung gilt auch für die Presse.“ Auch wird in Ziffer 13.2 gefordert: „Hat die Presse über eine noch nicht rechtskräftige Verurteilung eines Betroffenen berichtet, soll sie auch über einen rechtskräftig abschließenden Freispruch bzw. über eine deutliche Minderung des Strafvorwurfs berichten, sofern berechtigte Interessen des Betroffenen dem nicht entgegenstehen.“ Eine KI kann dies (zumindest Stand Februar 2023) nicht gewährleisten.
Ziffer 14 zur Medizinberichterstattung fordert: „Bei Berichten über medizinische Themen ist eine unangemessen sensationelle Darstellung zu vermeiden, die unbegründete Befürchtungen oder Hoffnungen beim Leser erwecken könnte.“ Auch diese Abwägung ist – Stand heute – von einer KI wohl nicht zu erwarten. Von Ziffer 2, der Sorgfaltspflicht, sollte man besser gar nicht sprechen.
Journalismus bedeutet – neben dem Pressekodex – Standards einzuhalten: Wird jemandem etwas vorgeworfen, so hat man ihm die Möglichkeit zur Stellungnahme einzuräumen. Und selbst wenn es nicht um Vorwürfe geht, so sollte die Gegenseite doch immer gehört werden. Eine KI kann aber noch nicht selbst zum Hörer greifen und den Betroffenen anrufen und anschließend das Zitat einbauen.
Nur der menschliche Journalist kann Verantwortung übernehmen
Doch genau dies unterscheidet Journalismus vom bloßen Publizieren (diese Diskussion hatte es auch schon gegeben, als die Unterschiede zwischen Bloggern und Journalisten aufgezeigt worden sind). Auch wenn sich die Produkte, also die Texte, am Ende vielleicht gar nicht unterscheiden mögen. Die Leistung eines Journalisten ist nicht, dass er auf irgendeinem Trägermedium (im Internet oder auf Papier) etwas verbreitet. Die Leistung eines Journalisten ist, dass er Themen erkennt und auswählt, recherchiert und verifiziert, dann Texte schreibt und schließlich publiziert. In all diesen Schritten gibt es heute hilfreiche Unterstützung durch eine KI. Diese sollte man zur Arbeitserleichterung und Qualitätsverbesserung auch dankend annehmen. Aber den Pressekodex und die journalistischen Standards einzuhalten, diese Verantwortung kann alleine der menschliche Journalist übernehmen.