„Automated Journalism“ gewinnt an Bedeutung, doch „Algorithmen sind nicht kreativ“
Bei der „Los Angeles Times“ in den USA hat die automatisierte Nachrichtenerstellung bereits Einzug gehalten. Sei es bei der Wetterprognose oder bei Berichten über Geschäftsberichte und Sportereignisse. Auch bei der „Associated Press (AP)“ kommt „Automated Journalism“ zum Einsatz – mit Erfolg: Die Fehlerquote bei Texten über die quartalsmäßigen Geschäftsberichte sank von sieben auf ein Prozent. „Forbes“ und die „New York Times“ experimentieren ebenfalls damit. Auch bei uns in Deutschland werden beispielsweise Sportberichte bei Zeitungen wie dem „Weser Kurier“ durch Algorithmen mitgestaltet. Bedeutet dies einen weiteren großen Wandel in der Medienbranche?
„Rund 50 Prozent der Inhalte einer Tageszeitung können durch Algorithmen produziert werden“
Sam Alkan, CEO von AX Semantics (einer von fünf Firmen, die in Deutschland Softwareanwendungen für Algorithmen-basierten Inhalt anbietet) hat gegenüber der Fachzeitschrift „kresspro“ betont, „dass geschätzt rund 50 Prozent der Inhalte einer Tageszeitung durch Algorithmen produziert werden könnten“. Zu verlockend könnte die Aussicht für rein auf Rendite orientierte Verlagsleiter sein, anstelle auf menschliche Redakteure, die fehler- und krankheitsanfällig sind und sogar streiken können, verstärkt auf „Automated Journalism“ von Maschinen zu setzen.
Die Ergebnisse aus den USA zeigen, dass bei der Auswertung von Zahlen die Algorithmen der „Roboterkollegen“ schneller, fehlerfreier und vor allem billiger als die Arbeit der „menschlichen“ Kollegen sind. Zudem können die Roboter-Computer Datensätze sekundenschnell in verschiedenen Sprachen erstellen, zielgruppenspezifisch auswerten und auf die individuellen Bedürfnisse der Lesenden anpassen („news on demand“). Die Auswertungen zeigen ferner, dass die durch Algorithmen erstellten Meldungen durch ihre „neutrale“ und „sachliche“ Sprache mit vielen Zahlen, z.B. bei Finanzberichten, „glaubwürdiger“ bei den Lesern ankommen. Zudem beeinflussen keine Emotionen oder politische Einstellungen von menschlichen Redakteure die Beiträge. Allerdings klingen die Texte dadurch bisher oft „mechanisch“ und „trocken“. Doch reicht dies alles, um menschliche Redakteure zu ersetzen?
„Algorithmen sind nicht kreativ“
Für Dr. Andreas Graefe, der mit seiner Forschungsarbeit in den USA der Debatte um den „Automated Journalism“ neuen Schwung gegeben hat, tritt allerdings auf die Bremse. Gegenüber der LMU München betonte der renommierte Mitarbeiter der Columbia-Universität in New York und der Universität München (LMU): „Die Algorithmen sind noch nicht so weit, dass die komplett von alleine etwas Neues erfinden können. Sie sind nicht kreativ.“ Denn sie können noch keine Interpretationen der Daten vornehmen oder Interviews führen, zumindest nach aktuellem technischen Stand. Daher sieht Dr. Graefe den „Automated Journalism“ auch noch nicht in der Lage menschliche Redakteure zu ersetzen. „Aber sie werden immer besser und werden weitere Themengebiete erobern“, so Dr. Graefe in der Vorausschau. Als Beispiele werden hier Wahlprognosen oder die Erstellung von Metadaten wie „Tags“ (Schlagworten) zu Artikeln genannt, wie sie die „New York Times“ bereits verwendet.
„mehr Zeit investigativ zu arbeiten“
Trotzdem ist sich Dr. Graefe in seinem Report „Guide to Automated Journalism“ des Tow Center for Digital Journalism (Web: www.tiny.cc/ouvs8x) sicher, dass der „Automated Journalism“ die Arbeit in den Redaktionen verändern wird. Aus seiner Sicht werden Roboter-Computer fester Bestandteil von „man-machine marriages“ werden. Im Bereich von datenbasierten Journalismus (z.B. Börsenkurse) werden Roboter möglicherweise Menschen ersetzen. Doch Menschen bleiben unverzichtbar bei der Einordnung und Bewertung der Daten sowie der eigenständigen Entwicklung neuer Ideen. „Algorithmen können viele Routineaufgaben abnehmen. Journalisten haben dann mehr Zeit, investigativ zu arbeiten“.
In der Frage nach einem befürchteten Stellenabbau durch den „Automated Journalism“ sieht Dr. Graefe Chancen und Herausforderungen: Es könnten Stellen bei Routinetätigkeiten, die auf Datenberuhen abgebaut werden, aber auch neue Stellen geschaffen werden. So hat die Agentur AP bereits einen „Automation Editor“ eingestellt, um die Chancen des „Automated Journalism“ zu bewerten.
„Vertraue nie einer Statistik, die du nicht selber gefälscht hast“
Bei der Debatte gerät dabei auch immer mehr die Frage nach der Herkunft der Daten, die für den „Automated Journalism“ verwendet werden, in den Fokus. Wie ist es um die Herkunft, Verwendung und Speicherung der Daten bestellt? Werden diese Daten zukünftig, wie derzeit bereits beispielsweise bei Post- und E-Mailadressen und Telefonnummern im Marketing massenhaft eingesetzt, durch Firmen an die Redaktionen verkauft? Und unter welchen Gesichtspunkten werden in den Redaktionen die Algorithmen programmiert, die einen so großen Einfluss auf das Ergebnis der redaktionellen Berichterstattung haben? Hier sind Transparenz und ein Kontrollsystem notwendig, um Verlässlichkeit und Glaubwürdigkeit der Daten zu gewährleisten. Sonst gilt das alte Sprichwort aus der Mathematik: „Vertraue nie einer Statistik, die du nicht selber gefälscht hast“.
„Roboter versus Mensch“: Chancen und Herausforderungen
Die Frage „Roboter versus Mensch“ ist nicht neu und verursacht seit der Industriellen Revolution schnell Abwehrhaltungen. Es wird befürchtet, dass die Maschinen die Überhand gewinnen und den Menschen verdrängen könnten. Auch in den Redaktionen. Gleichzeitig eröffnet der „Automated Journalism“ aber Chancen, bessere und fehlerfreiere Beiträge zu erstellen, die Redakteure von Routinearbeiten zu entlasten und damit mehr Zeit für die eigentliche journalistische Aufgabe zu geben: Investigativ zu recherchieren und kreativ zu schreiben. Technikfeindlichkeit scheint daher eben so wenig hilfreich, wie ein unkritischer Technikglauben. Dafür haben die Daten einen zu großen Einfluss auf Medien und Gesellschaft, wie die Entwicklungen in den USA und auch bei uns in Europa zeigen.
„Dorthin gehen, wo noch niemand zuvor gewesen ist“
Wie machtvoll bereits heute Zahlen im Journalismus sind, zeigten die letzten Parlamentswahlen im Vereinigten Königreich. Die Medien (und auch die Politik) hatten sich auf die Algorithmen und Prognosen der Forschungsinstitute verlassen und erlebten ein Desaster. Die Ergebnisse wichen fundamental von den Prognosezahlen ab. Seitdem sind die Glaubwürdigkeit der Umfrageinstitute und der Medien in den UK so stark gesunken, dass ich bei der jüngsten „Brexit“ – Abstimmung niemand mehr auf sie verlassen wollte.
Das belegt die Forderungen, dass beim Einsatz von „Automated Journalism“ einerseits auf Transparenz bei der Quellenwahl und deren Bearbeitung gesetzt werden sollte und andererseits nur gut ausgebildete, angemessen bezahlte und nicht überarbeitete „menschliche“ Journalisten benötigt werden, um die Daten der Roboter-Computer zu kontrollieren und zu interpretieren. Und dies anhand von klaren journalistischen und ethischen Grundsätzen. Ansonsten gilt die Aufforderung des Star Trek-Gründers Gene Roddenberry auch für die Zukunft des Journalismus: „Dorthin gehen, wo noch niemand zuvor gewesen ist“.
Christian Schnaubelt
(Ressortleiter Digitale Medienwelt)
Kommentare (0)
Keine Kommentare gefunden!