Ob Wettervorhersage, Finanz-News oder Sportbericht: Die aktuellen Nachrichten, die wir jeden Tag lesen, sind nicht immer von menschlicher Hand geschrieben. Künstliche Intelligenz (KI) übernimmt in immer mehr Medienunternehmen journalistische Aufgaben.

Dabei geht die Automatisierung schon weiter, als viele Leser ahnen: KI hilft nicht nur bei der Themenrecherche, Datenauswertung, Bildauswahl und Textoptimierung, sondern schreibt auch Berichte und wählt Nachrichten für die Leser aus. Focus Online veröffentlicht zum Beispiel seit Jahren automatisch generierte Wetternachrichten. Aber auch die Süddeutsche Zeitung verwendet KI  – unter anderem für die Wahlberichterstattung. Ein paar Schritte weiter ist das US-Business-Portal Bloomberg, das rund ein Drittel seiner News auf diese Weise erzeugt und verbreitet.

Journalismus: KI als Mitarbeiter des Monats

Diese Entwicklung wird im Journalismus wohl kaum aufzuhalten sein: Zum einen sind viele Medienunternehmen, durch Corona-Krise und Digitalisierung in Not geraten; sie nehmen deshalb gerne jede Chance wahr, Geld zu sparen – und eine KI ist für einen großen Verlag nun einmal viel billiger als ein Redakteur.

So verwundert es nicht, dass laut eines Berichts des Digital News Project der Oxford University und des Reuters Institute for the Study of Journalism 69 Prozent aller befragten Medienunternehmer künstliche Intelligenz als wichtigsten Treiber für Innovation im Journalismus betrachten.

Eine KI bietet Chefredakteuren aber nicht nur Kostenvorteile – sie sind auch schneller als menschliche Mitarbeiter es je sein könnten. So kann künstliche Intelligenz Börsenzahlen oder Wahlergebnisse mit einer viel höheren Geschwindigkeit auswerten und veröffentlichen. Einfachere Anwendungen arbeiten Redakteuren zu und wählen für deren Artikel automatisch Bilder aus einer Datenbank oder helfen bei der Analyse des Leserinteresses.

Im investigativen Journalismus wird KI darüber hinaus beim Auswerten gewaltiger Datensätze immer wichtiger. Ein berühmtes Beispiel dafür sind die Berichte um den Fall der Panama Papers, bei dem 11,5 Millionen Dokumente zu 214.000 Briefkastenfirmen von einer Kanzlei aus Panama an die Medien geleakt wurden. Ohne KI hätten Redakteure die Datensätze nur schwer bewältigen können – und viel mehr Zeit dafür gebraucht.

Der Bot, ein schleichender Jobkiller?

Dass so eine bahnbrechende Entwicklung in den Redaktionen nicht nur auf Freude stößt, dürfte allerdings auch niemanden wundern. Immerhin gilt KI auch im Journalismus als Jobkiller. So sprechen sich laut einer Online-Umfrage zum Roboterjournalismus etwa 75 Prozent der Befragten für eine Kennzeichnung von automatisch erstellen Texten aus. Teilgenommen an der Umfrage von Medienprofessor Markus Kaiser hatten 88 Journalistinnen und Journalisten, 23 Ausbilderinnen und Ausbilder sowie sechs Verbandsvertreter.

Aber wehrt sich hier nur ein Berufsstand gegen den Verlust von Arbeitsplätzen? Nun, das Problem bei künstlicher Intelligenz ist das gleiche wie bei allen neuen Technologien: Sie ist noch nicht ganz ausgereift und auch nicht gefeit vor allzu menschlichen Fehlern. Ein Beispiel dafür lieferte vergangenes Jahr unfreiwillig Microsofts Webportal MSN. Der Software-Riese entließ seine komplette Redaktion und automatisierte alle Prozesse bei der Ausspielung von News.

Wenn ein Fehler System hat

Prompt machte der erste Fehler der KI Schlagzeilen: Sie verwechselte die Sängerinnen Leigh-Anne Pinnock und Jade Thirlwall, beide Mitglieder der britischen Pop-Band „Little Mix“, miteinander. Das kann natürlich einem Redakteur ebenso mal passieren – allerdings ist bei einer KI der Fehler meist systemisch: Algorithmen haben nachweislich große Probleme, die Gesichter von Menschen mit dunkler Hautfarbe zu erkennen. Und beide Sängerinnen identifizieren sich als nicht-weiß, sehen sich aber überhaupt nicht ähnlich.

Solche KI-Fehler sind keine Einzelfälle: So konnte auch Joy Buolamwini, Informatikerin am Massachusetts Institute of Technology, in einer Studie nachweisen, dass die Gesichtserkennungssoftwares von IBM, Microsoft und Face++ bei der Treffsicherheit in Bezug auf Hautfarbe und Geschlecht stark variierten. Bei schwarzen Frauen lagen die Programme bei über 30 Prozent der Fälle falsch, während die Fehlerquote bei weißen Männern nur bei 0,3 Prozent lag.

KI-Journalisten mögen Kardashians

Auch bei der Nachrichtenauswahl scheint künstliche Intelligenz den Menschen unterlegen zu sein: So zeigen die US-Journalismusforscher Jack Bandy und Nicholas Diakopoulos in einer Untersuchung, dass menschliche Redakteure im Fall von Apple News mehr Quellen auswählen als ihre KI-Kollegen.

Die konzentrieren sich außerdem vor allem auf „weiche“ Themen, da sie wohl darauf programmiert sind, Berichte mit vielen Likes zu favorisieren. Eine Entwicklung, die dazu führen könnte, dass sich Nachrichten zukünftig vor allem um die Royals und Kardashians drehen, während politische und wirtschaftliche Themen vom virtuellen Tisch fallen.

Aber natürlich trägt die Technologie an sich daran keine Schuld, sondern die fehlerhafte Programmierung der Entwickler. Am Ende der Fehlerkette steht trotz neuer technologischer Möglichkeiten immer noch der Mensch. Ein großer Auftrag für KI-Entwickler wird daher sein, ihre unbewusste Voreingenommenheit zu reflektieren und KI dauerhaft auf systemische Fehler zu evaluieren.

Titelbild: © studiostoks / stock.adobe.com

Ihre Meinung zu diesem Beitrag?

Please enter your comment!
Please enter your name here