Kaminski, Andreas

Philosophie | Strategien im Umgang mit Desinformation | Vortrag am 15.11.2023

Mehr zur Person

Die Herausforderung

Unser Wissen erhalten wir zum größten Teil durch Andere. Was wir an Informationen aufnehmen, entstammt häufig nicht unseren eigenen Erfahrungen, sondern einer Vielzahl verschiedener Quellen. Dies ist nicht nur ein enormer Vorteil der modernen Wissensgesellschaft, sondern macht letztere auch verwundbar für Täuschung und Manipulation.

Aus dem Vortrag

Die Methoden und Möglichkeiten der Erstellung und Verbreitung von Täuschungen und Desinformation gehen Hand in Hand mit der Fortschrittsgeschichte der Technik. Längst sind zahlreiche aktuelle Fälle von sogenannten Deep-Fakes bis hin zu Bot-Netzwerken, die von den Medien und der Wissenschaft aufgedeckt worden sind, einer breiten Öffentlichkeit bekannt. Kann die Technologie, welche die Generierung irreführender Inhalte erst ermöglicht, auch dazu beitragen, diese zu erkennen und deren Verbreitung einzudämmen? Dem technisch-epistemischen Lösungsansatz liegt dabei grundsätzlich die Annahme zugrunde, dass Desinformation einerseits deshalb funktioniert, weil sie vortäuscht, Information zu sein, sich andererseits jedoch die Täuschung als Täuschung erkennen lässt. Im Rahmen des technisch-epistemischen Ansatzes sollen Modelle diese Erkenntnisleistung (und Sortierung: was ist Information und was ist Desinformation?) erbringen.

Der technisch-epistemische Ansatz lässt sich auf Überlegungen, die der schottische Philosoph David Hume in der Mitte des 18. Jahrhunderts vorstellte, zurückführen. Nach ihm ist das Problem der Vertrauenswürdigkeit ein Problem des Wissens. Wir können uns bemühen, Wissen zu gewinnen, das uns dabei hilft, zu unterscheiden, ob Mitteilungen vertrauenswürdig sind oder nicht. Für Hume handelt es sich dabei um empirisch gewonnenes Wissen. Einzig unsere Erfahrung, so Hume, kann uns dieses Wissen, nämlich auf der Basis induktiver Schlussfolgerungen vermitteln. So können Track-records Auskunft darüber geben, wie häufig Personen oder Institutionen in der Vergangenheit wahre Aussagen gemacht, um auf dieser Basis Prognosen über zukünftige Fälle zu geben. Oder es können Indikatoren für wahre (oder täuschende) Redeweisen gebildet werden. Modelle, die algorithmisch umgesetzt werden, können auf dieser Grundlage gebildet werden.

Dabei zeigt sich jedoch, dass der technisch-epistemische Ansatz einen fundamentalen Zirkel aufweist: Er setzt voraus, was durch ihn erst geleistet werden soll – nämlich dass wir mit Blick auf die Vergangenheit wissen, was die wahren oder täuschenden Aussagen waren. Nur in seltenen Fällen wissen wir dies jedoch aus eigener Kraft. In der Regel wissen wir es durch andere.

Diesen anderen müssen wir daher bereits vertrauen, wenn wir den Ansatz praktizieren. Dies gilt dann auch für die technischen Lösungen. Wir müssen den Personen oder Institutionen, die diese entwickelt haben, vertrauen.

Insofern kehrt das Problem in der Lösung wieder: Was man als Evidenz für wahre oder täuschende Rede akzeptiert, hängt vom Vertrauen oder Misstrauen gegenüber der Quelle ab, die den Beweis erbringt. Hierdurch werden die Möglichkeiten des epistemischen Ansatzes limitiert, denn das erforderliche Wissen zur Unterscheidung wahrer und falscher Aussagen ist nicht in ausreichendem Maße auf Basis eigener Erfahrungen verfügbar. Somit ist das Vertrauen in Andere eine notwendige Prämisse für die Akzeptanz des belegten Wahrheitsgehaltes einer Aussage.

Perspektiven

Epistemisch-technische Ansätze zur Erkennung von Täuschung und Manipulation können im Umgang mit Desinformation hilfreich sein, ermöglichen jedoch noch keine hinreichende Bekämpfung derselben. Daher können weitergehende Ansätze, konkret: sozial orientierte und normative, auf Bildungsprozesse setzende Strategien wie Sensibilisierung und Aufklärung sowie rechtliche Maßnahmen zur Eindämmung der Verbreitung von Falschinformationen eine sinnvolle Ergänzung der epistemischen Strategien darstellen, um Desinformation entgegenzuwirken. Offen bleibt, wie die Urteilskraft von Personen unterstützt werden kann.