Mehr Zeit für Qualitätsjournalismus mithilfe Künstlicher Intelligenz


Seit den Anfängen von Künstlicher Intelligenz in den Fünfziger Jahren des vergangenen Jahrhunderts ging es stets auch um Sprachtechnologie: das Verstehen natürlicher Sprache als Text oder gesprochenes Wort, die Umwandlung von dem einen in das andere oder die Übertragung in eine andere Sprache. Sicher war Spionage und Misstrauen ein Motor und weniger der Wunsch, mit dem Spion, der aus der Kälte kam, warm zu werden. Doch nutzen Erkenntnisse, die fürs Militär gewonnen werden, stets auch der Zivilgesellschaft.

Während wir uns noch über die Möglichkeiten von digitalen Assistenten wie Siri oder Alexa wundern, ist künstliche Intelligenz längst Teil unseres Alltags und spielt nicht zuletzt im Journalismus eine wichtige Rolle. Dabei geht es nur am Rande um das Verfassen von Texten. Ein Robotorjournalismus, der den kreativen Journalisten ersetzt, ist nicht zu befürchten.

Denn Algorithmen können zwar beschreiben, was geschieht, können aber nicht interpretieren, warum Dinge passieren. „Algorithmen sind in ihrer Fähigkeit eingeschränkt, die Gesellschaft zu beobachten und journalistische Aufgaben wie Orientierung und öffentliche Meinungsbildung zu erfüllen.“ [1]

Vielmehr kann „Roboterjournalismus (...) über Content-Automatisierung zur Demokratisierung von Berichterstattung beitragen, kann neue publizistische Räume erschaffen, zusätzliche Werbeeinnahmen realisieren. Fließtext fördert Leselust. Roboterjournalismus kann neue Leser und Information erschließen und helfen, Inhalte leichter zu erfassen, breiter zu verteilen. Die sequentielle Form entspricht den Berichterstattungs- und Kulturgewohnheiten und der veröffentlichte Artikel adelt die lokalen Ereignisse, über die aus nachvollziehbaren Kostengründen kein Journalist und kein Medium berichtet hätte.“ [2]


Recherche in Big Data

So entstehen zum Beispiel hyperlokale Wetterberichte, Sportnachrichten in Echtzeit und Börsennotizen. Alles Texte also, bei denen es nicht darauf ankommt, besonders sexy zu klingen oder witzig zu sein – und bei denen dies auch niemand erwartet. Anderes gilt bei komplexen Themen, bei denen Leser sich wünschen, an die Hand genommen zu werden, bei denen Informationen kuratiert und analysiert werden. Experten wie Prof. Dr. Andreas Graefe, Kommunikationswissenschaftler, sind sich einig: „In wirklich gesellschaftlich relevanten Themen, die Menschen wirklich interessieren, wird es schwierig sein, komplett automatisierte Texte zu erstellen.“ [3]

Doch schaut man sich die Gründe an, warum automatisierte Texte bei Themen wie Börse und Wetter funktionieren, wird einer der großen Vorteile Künstlicher Intelligenz deutlich, nämlich die Auswertung komplexer Daten und großer Datenmengen, die so erst zugänglich werden. Journalisten sind nun einmal Lotsen in einem immer komplexer werdenden Informationsdschungel: Sie müssen aus einer Vielzahl an Nachrichtenquellen Informationen filtern, bewerten und auf unterschiedlichen Kanälen weiter verarbeiten.


Neues Analysetool “News-Stream”

Im Forschungsprojekt „News-Stream“ entwickeln das Fraunhofer IAIS und Neofonie zusammen mit Deutsche Welle und dpa neue Recherche- und Analysetools: Mit wenigen Klicks können Journalisten tausende Inhalte aus Videoplattformen, RSS-Feeds, Medienarchiven oder sozialen Medien auf dem Bildschirm thematisch bündeln und sich in Echtzeit über aktuelle Ereignisse informieren.

Möchte eine Redaktion zum Beispiel einen Artikel über das kontroverse Thema PKW-Maut produzieren, lässt sich aus den vielen verschiedenen Datenquellen ein kompakter Überblick über das Thema erstellen. In Sekundenschnelle kann der Redakteur verfolgen, was auf Blogs, über Twitter oder in anderen sozialen Medien dazu berichtet oder diskutiert wird. Auch die laufende Recherche wird so leichter: Sobald ein Stichwort wie “PKW-Maut” fällt, zum Beispiel in einer Bundestagsdebatte oder Nachrichtensendung, wird die Analyse automatisch aktualisiert.

Die Nachrichtenagentur dpa will die Plattform im Tagesgeschäft testen und weiterentwickeln. “Ziel ist es, einen umfassenden, schnellen und gezielten Überblick über all diese Informationen zu ermöglichen. Das bedeutet dann vielfach einen enormen Recherchevorsprung für unsere Redakteure und damit für unsere Kunden”, erklärt dpa-Chefredakteur Sven Gösmann. Auch die Deutsche Welle will die Redaktionen mit modernen Recherche- und Analysewerkzeugen stärken: “Ein großes Plus für unsere Journalisten besteht unter anderem darin, in der enormen Datenflut neue Geschichten entdecken zu können. Durch die Bündelung der Informationen aus Sozialen Netzen gelingt es uns, wichtige Themen auch durch die Augen von Nutzern genauer zu betrachten”, sagt Gerda Meuer, Programmdirektorin der Deutschen Welle. [4]

Im Projekt News-Stream ist der Partner Neofonie federführend für die Entwicklung von Textanalyse-Diensten verantwortlich. Die bisher von dem Berliner Unternehmen entwickelten Textmining-Komponenten sollen im Rahmen von News-Stream weiterentwickelt werden. Hier wird vor allem auf eine verbesserte Verarbeitungsgeschwindigkeit für Big-Data-Anwendungsfälle sowie auf eine verbesserte Fehlertoleranz bei der Verarbeitung multimodaler Daten abgezielt.
Grundlage der Arbeiten ist TXT Werk, eine von Neofonie bereitgestellte API zur Analyse deutschsprachiger Texte. Kern-Features sind die Eigennamen-Erkennung, die automatische Verschlagwortung und die Ressortklassifikation.


Golf: Auto oder Sport?

Bei letzterer wird der Eingabetext anhand einer kleinen Menge von vorgegebenen allgemeinen Themenbereichen zu klassifiziert. Die Themenbereiche entsprechen dabei am ehesten Themenressorts einer Zeitung (z. B. “Kultur”). Der Auto-Tagging Service der TXT Werk API ermittelt Schlüsselwörter bzw. -phrasen, die charakteristisch für den jeweiligen Text sind. Die Kandidaten hierfür werden anhand von linguistischen Mustern identifiziert. Ausgewählt werden die Schlüsselwörter anhand verschiedener Features durch ein maschinell erlerntes Modell (Support-Vector-Machine).

Eine wichtige Klasse von referenzierenden Ausdrücken sind Datums- und Zeitangaben sowie Erwähnungen von Entitäten wie Personen, Organisationen oder Orte. Auch hier ist der Einsatz maschineller Lernverfahren (z.B. Conditional Random Fields) unabdingbar, da lexikalische Ansätze schnell an ihre Grenzen stoßen: das Wort “Golf” in einem Text kann das Auto oder den Sport zum Gegenstand haben. Zudem sind selbst große Wissensbasen wie Wikidata oder DBpedia naturgemäß unvollständig; sie sind letztlich digitale Modelle der bisher bekannten Welt.

Auch bei der Entitätenerkennung stellt sich das Problem der Mehrdeutigkeit. Handelt es sich bei “Peter Müller” um den deutschen Politiker oder den Ski-Fahrer? Oder wird hier ein weiterer Namensvetter erwähnt, einer, der noch nicht die Popularität erreicht hat, um in einer der Wissensbasen aufgeführt zu werden? Beim Entity Linking (auch Named Entity Disambiguation genannt) wird jeder Fundstelle eine eindeutige Ressource in der Wissensbasis zugeordnet. [5]

 

In Vernetzung denken

“Durch Methoden der künstlichen Intelligenz wie Natural Language Processing und Machine Learning können neue Formate im Journalismus entstehen, beispielsweise Plattformen für lokale Inhalte”, erläutert Peter Adolphs, Leiter der Forschungsabteilung von Neofonie.

Was bedeutet die neuen technologischen Herausforderungen für Journalisten? Programmdirektorin Wappler-Hagen sagt: „In Vernetzung denken ist die große Herausforderung für Journalisten“. Vishal Sikka, CEO des indischen Informationstechnikkonzerns Infosys sieht die wesentlichen Merkmale des Menschen gefragt: „Das KI-Zeitalter bringt mit sich, dass wir uns auf das konzentrieren können, was uns als Menschen ausmacht: die Fähigkeit zu lernen, Neues zu entdecken und es zu gestalten. Wir können unsere Kreativität und Vorstellungskraft nutzen, um Probleme zu finden, neue Erfahrungen zu sammeln und Wertvolles zu schaffen, das es heute noch nicht gibt. Wir müssen lebenslang Lernende werden.“ [6]

-----------------------------------------------------------------------------------------

Quellenangaben:

[1] Macromedia Fachhochschule:
Automatisierter Journalismus: Andreas Graefe publiziert Tow Center Report
vom 08.01.2016, (abgerufen am 27.06.2017)

[2] Zeit Online: Keine Angst vor Roboter-Reportern
vom 20.02.2017, (abgerufen am 27.06.2017)

[3] Deutschlandfunk: Medientage München: Wie künstliche Intelligenz den Journalismus verändert
vom 29.10.2016, (abgerufen am 27.06.2017)

[4] dpa:
Neue Big-Data-Infrastruktur für Journalisten: Fraunhofer IAIS, dpa-infocom, Deutsche Welle und
Neofonie starten Forschungsprojekt

vom 03.12.14, (abgerufen am 27.06.2017)

[5] Newssstream: Explainer: Was passiert bei semantischer Textanalyse?
vom 14.09.2015, (abgerufen am 27.06.2017)

[6] Handelsblatt: Gastbeitrag von Vishal Sikka - Keine Angst vor Künstlicher Intelligenz!
vom 20.01.2017, (abgerufen am 27.06.2017)

Kommentare
Einen Kommentar schreiben
Entschuldigung

Ihr Browser ist leider nicht aktuell genug.
Um diese Webseite zu benutzen, benötigen Sie einen aktuellen Browser
Wir empfehlen einen der folgenden Browser in der aktuellsten Version zu installieren.

Auf iOS Geräten sollte mindestens die Betriebssystem Version iOS 9 installiert sein.

Mozilla Firefox Google Chrome Microsoft Edge Internet Explorer