Im Rahmen des Wissenstransferworkshops „Journalismus trifft Informatikforschung“ des Graduiertenkollegs „Adaptive Informationsaufbereitung aus heterogenen Quellen“ (AIPHES) am 11. November 2016 diskutierten rund 15 Forschende der Universitäten Darmstadt und Heidelberg über mögliche Lösungsansätze mit Expertinnen und Experten aus der journalistischen Praxis, u.a. von der Süddeutschen Zeitung und der ZEIT.
Den Hauptteil der Veranstaltung bildeten drei aufeinander folgende Postermessen, in denen die Promovierenden des Kollegs ihre Vorhaben diskutierten. Die Themen reichten von grundlegenden Techniken der Textanalyse zur Identifikation von Entitäten (Benjamin Heinzerling), Fakten (Teresa Martin) und Ereignisstrukturen (Todor Mihalylov) über die Analyse von Textstruktur (Thomas Arnold) und -qualität (Christopher Tauchmann), bis zur Erkennung und Bewertung von Meinungen (Ana Marasović) und Argumenten (Andreas Hanselowski; Christian Stab). Einer wesentlichen Aufgabe der Informationsaufbereitung, der Einschätzung und Aggregation von wichtigen Inhalten, näherten sich die Doktoranden Tobias Falke, Maxime Peyrard, Avinesh PVS und Markus Zopf über verschiedene methodische Ansätze zur automatisierten Zusammenfassung von Texten.
Der späte Nachmittag stand selbst ganz im Zeichen der Aggregation, um die vielfältigen Eindrücke und Ideen aus den Gesprächen in der abschließenden Plenumsdiskussion zu sammeln und auszutauschen. Die Teilnehmerinnen und Teilnehmer waren sich über die Wichtigkeit einer weiteren Zusammenarbeit einig, sahen aber auch noch viel Handlungsbedarf, um die Lücke zwischen aktuellen Forschungsarbeiten und praktischen Bedarfen zu schließen, etwa in der Entwicklung von vorhandenen oder neu zu schaffenden prototypischen Systemen. Von journalistischer Seite sahen die Gäste vor allem drei wichtige Anknüpfungspunkte:
(1) Die Vertrauenswürdigkeit von Informationen ist wichtiger denn je und kann nur gelingen, wenn die Originalquellen auch bei der Aufbereitung und Aggregation zugreifbar und einschätzbar bleiben. Das Thema Fact Checking und das automatisierte Auffinden zusätzlicher Evidenz zum Validieren von Angaben ist sowohl im Journalismus als auch für die Informatik von hohem Interesse, da aktuelle Suchlösungen für diese Aufgabe nur bedingt geeignet sind.
(2) Das Thema Qualität ist generell ein Schlüsselfaktor und reicht von der Qualität einer Quelle über die eigentliche Form einer formulierten Nachricht bis zur Qualität von automatisierten Verfahren. Gerade bei den automatisierten Verfahren wird es von großer Wichtigkeit sein, die Vorschläge der Maschine zu verstehen und aus welchen Schlüssen sich diese ergeben. Die Nachrichtenwerttheorie benennt eine Vielzahl an Faktoren, wann eine Nachricht berichtenswert ist. Diese Faktoren auch in Algorithmen abzubilden ist sicherlich kein leichtes Unterfangen, aber ein wichtiger Schritt zur automatisierten Qualitätseinschätzung.
(3) Skepsis herrschte hinsichtlich der Frage der Kreativität zukünftiger journalistischer Vorgehensweisen. Maschinelle Verfahren nutzen üblicherweise häufig beobachtete Muster und sind dadurch auf wiederkehrende, stromlinienförmige Resultate zu mehrheitlich beobachteten Phänomenen fokussiert. Im Journalismus sind dagegen nicht selten das Überraschungsmoment und die von der Masse abgesetzten Ausreißer von Bedeutung. Gerade die Interaktion zwischen Mensch und Maschine wird dann eine große Rolle spielen, um die Algorithmen in eine bestimmte Richtung zu steuern, sei diese nun vielversprechend oder eine Sackgasse.
Mit diesen Impulsen im Gepäck verabschiedeten sich die Teilnehmenden – die Informatikforschung mit zahlreichen Hinweisen zu praktisch eingesetzten Werkzeugen und Bedarfen, der Journalismus mit Entwürfen zu aktuellen Methoden zur automatisierten Datenanalyse.