Journalismus trifft Informatikforschung

Journalismus trifft Informatikforschung

Wissenstransferworkshop des DFG-Graduiertenkollegs GRK 1994 „Adaptive Informationsaufbereitung aus heterogenen Quellen“ (AIPHES)

11. November 2016

Im Graduiertenkolleg AIPHES finden regelmäßig Aktivitäten zum wissenschaftlichen Austausch statt. Bei der Veranstaltung unter dem Motto “Journalismus trifft Informatikforschung” lud das Graduiertenkolleg in Kooperation mit dem Forum für interdisziplinäre Forschung (FiF) der TU Darmstadt führende Experten aus Redaktion und Journalismus ein, um mit Promovierenden und assoziierten Forschenden neue Anknüpfungspunkte zu identifizieren, die sich von der Forschung (in der automatischen Sprachverarbeitung) zur Anwendung im Journalismus ergeben. Das Ziel war eine beiderseitige Bereicherung und ein gemeinsames Beraten über zukünftige Einsatzgebiete und Entwicklungsmöglichkeiten von Informatikmethoden für Journalisten. Bei der Veranstaltung hatten die Promovierenden des Kollegs ihre Vorhaben im Rahmen einer Projektmesse vorgestellt und mit führenden Expert_innen aus der journalistischen Praxis diskutiert.

Digitale Technologien sind längst nicht mehr aus dem journalistischen Alltag wegzudenken. Doch während das World Wide Web und Social-Media-Plattformen wie Twitter wesentliche Funktionen der Informationsbeschaffung und -verbreitung leisten, bleiben Recherche und Datenaufbereitung zeitraubende, größtenteils manuelle Tätigkeiten. Der Fall der Panama Papers mit 11,5 Millionen Dokumenten zeigt eindrucksvoll den Bedarf für eine teilautomatisierte Unterstützung der Informationsaufbereitung.

Im Rahmen des Wissenstransferworkshops „Journalismus trifft Informatikforschung“ des Graduiertenkollegs „Adaptive Informationsaufbereitung aus heterogenen Quellen“ (AIPHES) am 11. November 2016 diskutierten rund 15 Forschende der Universitäten Darmstadt und Heidelberg über mögliche Lösungsansätze mit Expert_innen aus der journalistischen Praxis, u.a. von der Süddeutschen Zeitung und der ZEIT.

Den Hauptteil der Veranstaltung bildeten drei aufeinander folgende Postermessen, in denen die Promovierenden des Kollegs ihre Vorhaben diskutierten. Die Themen reichten von grundlegenden Techniken der Textanalyse zur Identifikation von Entitäten (Benjamin Heinzerling), Fakten (Teresa Martin) und Ereignisstrukturen (Todor Mihalylov) über die Analyse von Textstruktur (Thomas Arnold) und -qualität (Christopher Tauchmann), bis zur Erkennung und Bewertung von Meinungen (Ana Marasović) und Argumenten (Andreas Hanselowski; Christian Stab). Einer wesentlichen Aufgabe der Informationsaufbereitung, der Einschätzung und Aggregation von wichtigen Inhalten, näherten sich die Doktoranden Tobias Falke, Maxime Peyrard, Avinesh PVS und Markus Zopf über verschiedene methodische Ansätze zur automatisierten Zusammenfassung von Texten.

Der späte Nachmittag stand selbst ganz im Zeichen der Aggregation, um die vielfältigen Eindrücke und Ideen aus den Gesprächen in der abschließenden Plenumsdiskussion zu sammeln und auszutauschen. Die Teilnehmer_innen waren sich über die Wichtigkeit einer weiteren Zusammenarbeit einig, sahen aber auch noch viel Handlungsbedarf, um die Lücke zwischen aktuellen Forschungsarbeiten und praktischen Bedarfen zu schließen, etwa in der Entwicklung von vorhandenen oder neu zu schaffenden prototypischen Systemen. Von journalistischer Seite sahen die Gäste vor allem drei wichtige Anknüpfungspunkte:

(1) Die Vertrauenswürdigkeit von Informationen ist wichtiger denn je und kann nur gelingen, wenn die Originalquellen auch bei der Aufbereitung und Aggregation zugreifbar und einschätzbar bleiben. Das Thema Fact Checking und das automatisierte Auffinden zusätzlicher Evidenz zum Validieren von Angaben ist sowohl im Journalismus als auch für die Informatik von hohem Interesse, da aktuelle Suchlösungen für diese Aufgabe nur bedingt geeignet sind.

(2) Das Thema Qualität ist generell ein Schlüsselfaktor und reicht von der Qualität einer Quelle über die eigentliche Form einer formulierten Nachricht bis zur Qualität von automatisierten Verfahren. Gerade bei den automatisierten Verfahren wird es von großer Wichtigkeit sein, die Vorschläge der Maschine zu verstehen und aus welchen Schlüssen sich diese ergeben. Die Nachrichtenwert-theorie benennt eine Vielzahl an Faktoren, wann eine Nachricht berichtenswert ist. Diese Faktoren auch in Algorithmen abzubilden ist sicherlich kein leichtes Unterfangen, aber ein wichtiger Schritt zur automatisierten Qualitätseinschätzung.

(3) Skepsis herrschte hinsichtlich der Frage der Kreativität zukünftiger journalistischer Vorgehens-weisen. Maschinelle Verfahren nutzen üblicherweise häufig beobachtete Muster und sind dadurch auf wiederkehrende, stromlinienförmige Resultate zu mehrheitlich beobachteten Phänomenen fokussiert. Im Journalismus sind dagegen nicht selten das Überraschungsmoment und die von der Masse abgesetzten Ausreißer von Bedeutung. Gerade die Interaktion zwischen Mensch und Maschine wird dann eine große Rolle spielen, um die Algorithmen in eine bestimmte Richtung zu steuern, sei diese nun vielversprechend oder eine Sackgasse.

Mit diesen Impulsen im Gepäck verabschiedeten sich die Teilnehmenden – die Informatikforschung mit zahlreichen Hinweisen zu praktisch eingesetzten Werkzeugen und Bedarfen, der Journalismus mit Entwürfen zu aktuellen Methoden zur automatisierten Datenanalyse.

Neues aus der TU „Brücken zwischen Journalismus und Informatikforschung“ vom 8.11.2016

Weiterführende Informationen zur Veranstaltung (Booklet PDF 1,8 MB)