FiF-Workshop 2015 Computerassistierte Annotation textueller Phänomene

6. November 2015 im Georg Christoph Lichtenberg-Haus, Darmstadt

Die Fachgebiete Ubiquitäre Wissensverarbeitung (Informatik), Computerphilologie und Philosophie veranstalte zusammen mit dem Forum interdisziplinäre Forschung der TU Darmstadt (FiF) einen Workshop mit dem Titel:

Computerassistierte Annotation textueller Phänomene

Ziel des Workshops war es, einen Austausch über den aktuellen Stand von textuellen Annotationswerkzeugen und über die jeweils dahinter stehende geisteswissenschaftliche Methodologie zu befördern. Da die „Digital Humanities“ in den vergangenen Jahren enorme Fortschritte gemacht haben, sind nun tiefergreifende Synergieeffekte möglich geworden.

Besonders betrifft das den Bereich der Annotationen, in dem ein tiefgreifender Wandel stattgefunden hat und weiterhin stattfindet: computergestützte und (voll-)automatische Verfahren gewinnen zunehmend an Bedeutung.

Um diese Synergieeffekte weiter zu vertiefen, galt es den interdisziplinären Dialog über methodologische Ansätze des computerassistierten Annotierens anzustoßen und dabei aufkommende textuelle Fragestellungen und Problemlösungsstrategien zu diskutieren, zu einer produktiven Bereicherung der „Digital Humanities“ zu führen.

Gibt es in „binär denkenden“ Systemen Platz für hermeneutische „Wahrheiten“?

Der Workshop „Computerassistierte Annotationen textueller Phänomene“ im Lichtenberg Haus lud nicht nur zum Nachdenken über Annotationen ein.

Ein weites Feld der digital arbeitender Disziplinen deckte die ersten Riege von Vorträgen ab: Eine Untersuchung von Figurenreferenzen in Romanen mithilfe von Name-Entity-Recognition und Koreferenzauflösung (Jannidis) gab neben komplexen Annotationen der narratologischen Zeitkategorien Duration, Frequenz und Dauer in Erzählungen (Gius) und den Metaphernannotationen im historischen Korpus „Natur und Staat“ (Do Dinh, Gerloff, Núñez) spannende Einblicke in aktuelle, bundesweite und interdisziplinäre Projekte. Ein informatisch-politikwissenschaftlicher Vortrag zur Argumentationsanalyse im neoliberalen Mediendiskurs, der Begriffskonjunkturen und Trendanalysen behandelte, die erst mithilfe automatischer Werkzeuge sichtbar gemacht werden konnten, ergänzte diese Beiträge (Wiedemann).

Dass Annotationen mehr als nur interdisziplinäre Schnittstellenphänomene darstellen, zeigte sich in den weiteren Beiträgen. Dabei standen nicht nur Reflexionen über den Status von Annotationen als prozedurale, digitale Praxis und als dokumentierte Wissenssammlung zur Debatte (Müller-Birn); auch der gängige kollaborative Forschungsumgang zwischen der Informatik und den digital arbeitenden Geisteswissenschaften wurden aufs Tapet gebracht und diskutiert (Kuhn). Die Sicht- und Herangehensweise der Informatik auf und an diese Phänomene stand dann zum Abschluss der Vorträge im Zentrum der Betrachtung, sofern auch die am Ubiquitous Knowledge Processing Lab entwickelten Tools zur digitalen Analyse und Annotation vorgestellt wurden (Eckhart de Castilho).

Die methodischen Fragen, welche Modelle bei den Annotatorinnen und Annotatoren sowie den Informatikerinnen und Informatikern implizit vorliegen und wie Annotationen formattechnisch (TEI, XML, etc.) beschaffen sein sollten, um auch für andere Forscherinnen und Forscher oder auch andere Anwendungszwecke später weiterverwendbar zu sein, führten auch zu Fragen nach dem Status von Annotationsguidelines und schließlich nach Evaluation und Produktion von nachvollziehbaren interdisziplinären Ergebnissen.

Praxeologische Überlegungen zu grundlegenden Axiomen und „Denkstilen“ der vertretenen Disziplinen kulminierten in der (philosophischen) Frage nach dem Geltungsbereich hermeneutischer, multipler Wahrheiten und Vagheiten im Rahmen deterministischer und modularer Systeme.

Gibt es nun einen Platz für diese Wahrheiten im Kreise binärer informatischer Logiken?

Das Votum der Diskutanten des Workshops war eindeutig: Kann der interpretierende Mensch einen adäquaten, kritisch-hermeneutischen Weltzugriff abbilden, kann der Computer durchaus als ein, wenn auch in seinen Axiomen begrenztes, kritisches, reflektorisches und auch korrigierendes Analyseinstrument eingesetzt werden. Insofern ist es das Ziel, ein systematisches und methodologisch nachvollziehbares Forschungsdesign mit klar definierbaren Analysekategorien zu entwickeln, wie es für Annotationen notwendig ist.

Dass eine Fortsetzung und Intensivierung des Dialogs innerhalb der „Digital Humanities“ zwischen Informatik und den jeweiligen spezifischen geisteswissenschaftlichen Disziplinen notwendig ist, ergab sich aus diesen Gedanken fast zwangsläufig und ist daher bereits angedacht.

Download Bericht zum Workshop (wird in neuem Tab geöffnet)

Impressionen