Nicht der „Roboter“, sondern der Mensch war der Dumme

Zu Recht machen sich Fußball-Fans über das Schweizer Boulevard-Portal Nau.ch lustig (danke an Klaus Schardt von Kontext PR in Fürth, der den Screenshot auf Facebook gepostet hat), weil es am Sonntag titelte: „SpVgg Greuther Fürth und Dynamo Dresden trennen sich unentschieden.“ Man kann sich aber nur wieder „trennen“, wenn man vorher auch zusammengekommen ist. Wegen Sturm „Eberhard“ ist das Zweitliga-Spiel aber abgesagt worden – was die Software nicht davon abhielt, einen automatisch generierten Text zu schreiben, fälschlicherweise sogar mit dem Hinweis „Der Schiedsrichter pfeift die Partie an“.

Zu Unrecht schimpfen Journalisten aber über die Software, die noch zu dumm sei, Spielberichte zu verfassen. „Roboterjournalismus“ nennt man diese Art umgangssprachlich, wenn die Software anhand von Daten selbst Spiel-, Wetter- oder Börsenberichte schreibt. Denn der Dumme ist natürlich auch hier der Mensch dahinter, der beim Programmieren der Software den Fall einer Spielabsage aufgrund eines Sturms nicht vorhergesehen hat. Aus Fehlern lernen Menschen (also auch die Programmierer) aber – und damit auch die Software. Wer jetzt noch über die Anfängerfehler spottet und sich zurücklehnt, wird in wenigen Jahren das Nachsehen haben. Es gab mehrfach Tests, bei denen Leserinnen und Leser die automatisch generierten Texte für die vom Menschen geschriebenen hielten. Und umgekehrt.

In der Massenproduktion schneiden Maschinen besser ab als Menschen

Prof. Thomas Hestermann in meedia im Jahr 2017

„Roboterjournalismus“ ignorieren und sich darüber lustig machen, ist für Verlage und speziell auch für Journalistinnen und Journalisten keine Lösung.

1. Den Markt nicht anderen überlassen

Nach dem Verlust von Rubrikenanzeigen für Immobilien, Autos & Co. an einstige Startups können es sich traditionelle Medienhäuser nicht erlauben, auch den Automatisierungs-Trend zu verschlafen. Hier stehen Tech-Newcomer ebenfalls schon in den Startlöchern bzw. arbeiten schon länger daran, Inhalte automatisiert zu publizieren: Retresco in Berlin oder AX Semantics in Stuttgart sind hier zwei in der Medienszene inzwischen recht bekannte Beispiele. Wenn man es nicht selbst macht, machen es andere. Allein die Masse an „Roboter“-Texten wird sauber journalistisch recherchierte, überprüfte und stilistisch fein geschriebene Texte im Netz an den Rand drängen.

2. Lasst uns über Transparenz diskutieren!

Wir brauchen eine breite Diskussion und anschließend einen von allen Seiten getragenen Konsens darüber, ob und wie die Texte gekennzeichnet werden sollten, die von der Software geschrieben werden. Ich plädiere dafür, deutlich (und nicht irgendwo versteckt) sichtbar zu machen: „Dieser Text wurde vom Computer verfasst.“ Hier bin ich völlig anderer Meinung als Saim Alkan von AX Semantics, der auf einer Tagung der TH Nürnberg bei der Akademie für Politische Bildung in Tutzing argumentiert hat, es werde ja in der Zeitung auch nicht gekennzeichnet, wenn ein Text von einem Volontär stammt. Transparenz ist wichtig. Es ist heute vielleicht sogar das bedeutendste Unterscheidungskriterium, ob ein Content Journalismus ist oder nicht.

Mitgestalten statt negieren ist hier wichtig. Wäre es nicht vielleicht sogar auch sinnvoll, dass man künftig als Option bei der Suchmaschine nur nach von Journalisten verfassten Texten suchen kann, so wie man heute mit dem Hinweis „filetype:pdf“ nur Internetseiten mit pdfs oder bei „site:taz.de“ nur Beiträge von der Website der taz erhält?

Bei „Roboter“-Texten muss es außerdem kein Schwarz-Weiß geben. Ein Mittelweg könnte sein: Vielleicht nimmt einem der „Roboter“ die Arbeit ab und formuliert die Texte im Amateurfußball vor. Der Redakteur redigiert sie anschließend, prüft Fakten – und stellt erst dann den Beitrag online. Routinearbeit erledigt sozusagen der „Roboter“, die Veredelung erfolgt durch den Menschen. Dies erinnert etwas an die Main Post: Die Zeitung aus Würzburg hat für ihre Artikel drei Kategorien festgelegt: Journalisten sollen sich auf die wichtigsten konzentrieren und hier ihre Energie investieren, statt für Texte von Jubiläumsfeiern der Freiwilligen Feuerwehr oder des Gesangvereins. Heute muss man als Journalist mit seinen Ressourcen eben sinnvoll haushalten.

3. Grafiken wären die bessere darstellungsform

Dann ist sicher auch die Frage erlaubt, ob es überhaupt Sinn ergibt, aus Daten Texte formulieren zu lassen. Dies widerspricht dem Grundprinzip von multimedialem Storytelling, wie wir es zum Beispiel in all den Onepagern, Scrollytelling-Projekten bzw. Multimedia-Features kennen: Vom Thema her denken! Also erst überlegen, was man erzählen will, und dann das dafür am besten geeignete Medium auswählen (Video bei Bewegungen und Emotion, Grafiken bzw. Tabellen bei Zahlen und Statistiken, Text für Analyse etc.). Denn heute kann der „Roboter“ vor allem aus möglichst strukturiert bereitgestellten Daten Texte erstellen. Also wäre oft eine grafische Mannschaftsaufstellung mit einer schematischen Torfolge-, Rote-Karten- und Fehlpass-Darstellung die bessere Variante.

Warum uns dann der „Roboter“-Text nicht nervt? Erstens weil noch zu viele von Journalisten verfasste Texte auch nicht besser sind, auch nicht mehr auf Hintergründe eingehen und Zusammenhänge aufzeigen. Zweitens weil es (wie beim ersten Virtual-Reality-Erlebnis) ein Aha-Effekt ist, wenn man seinen Namen als A-Klasse-Fußballer erstmals in einem Spielbericht lesen darf (der dann sogar noch personalisiert sein, zumindest die Brille der Heim- oder der Gastmannschaft einnehmen kann). Und drittens weil vor allem im Audio-Bereich (insbesondere für Voice-Assist-Systeme) Text statt Grafiken nötig sind.

Schmunzeln über den Fußball-Fauxpas von Nau.ch darf man aber natürlich trotzdem. Ich selbst als eingefleischter Fan des 1. FC Nürnberg würde mich ja sogar sehr freuen, wenn ich im Netz mal wieder einen Spielbericht über ein 0:0 meines Vereins finden würde. Leider lese ich nur Berichte über Niederlagen – egal ob vom „Roboter“ oder vom menschlichen Journalisten geschrieben.

2 Kommentare zu „Nicht der „Roboter“, sondern der Mensch war der Dumme

  1. ‚Dann ist sicher auch die Frage erlaubt, ob es überhaupt Sinn ergibt, aus Daten Texte formulieren zu lassen.‘

    Aus Sicht von Google: Ja, klar! Denn es ist auch heute für Google noch einfacher eine Relevanzbewertung für Text zu treffen, als für Grafik und Text. Des Weiteren kann man dadurch bei Google eine höhere Aktualität und Inhaltsfülle vorgaukeln, als tatsächlich vorhanden ist.

    Auch für die Barrierefreiheit ist ein Text hier wohl besser als eine Grafik. Es lässt sich mit einem Screenreader einfach besser lesen, als wenn man sich die Daten aus einer einfachen Tabelle saugt.

    Gefällt 1 Person

Hinterlasse einen Kommentar