Damer, Naser

Akademisches Viertel am 21. Januar 2026 mit Naser Damer

Biometrie und menschenzentriertes maschinelles Lernen: Auf dem Weg zu mehr Sicherheit und Komfort

Die Herausforderung:

Moderne Gesellschaften müssen Identität verwalten, einerseits für staatliche Aufgaben wie Grenzkontrolle, Strafverfolgung oder die Absicherung demokratischer Prozesse, andererseits für den alltäglichen Nachweis von Identität in digitalen Diensten und Bezahlvorgängen. Klassische Verfahren wie Passwörter, PINs und Tokens (Ausweise, Karten) sind indes fehleranfällig: sie können vergessen werden, geraten in falsche Hände oder werden gefälscht. Viele Sicherheitsvorfälle hängen mit schwachen Zugangsdaten zusammen.

Parallel dazu gibt es weltweit große Gruppen von Menschen ohne formale Ausweisdokumente, denen der Zugang zu zentralen gesellschaftlichen Bereichen wie Finanzsystem oder Wahlen verwehrt bleibt. Biometrische Verfahren werden vor diesem Hintergrund als technisches Versprechen präsentiert, denn sie knüpfen an körperliche oder verhaltensbezogene Merkmale an und sollen Identität automatisiert und verlässlich erkennbar machen. Biometrische Verfahren sind jedoch nicht schon selbst die Lösung der Probleme. Tatsächlich stellen sich mehrere Herausforderungen: Performance, Security, Deployability, Privacy, Equality und Inclusion, Transparency, Legal Awareness und Social Adoption.

Aus dem Vortrag:

Im ersten Schritt wird Biometrie nach ISO-Definition als automatisierte Erkennung von Individuen anhand biologischer oder verhaltensbezogener Merkmale eingeführt. Beispiele sind Gesicht, Fingerabdruck oder Iris, aber auch dynamische Merkmale wie Gang oder Stimme. Diese Verfahren stehen im Spannungsfeld zwischen Sicherheitsbedürfnissen, Bequemlichkeit und den Rechten der Betroffenen.

Performance:

Die Leistungsfähigkeit biometrischer Systeme wird im Blick auf mehrere Aspekte diskutiert. Zum einen erschließen sich ständig neue Anwendungsfelder, etwa automatisierte Grenzkontrolle oder mobile Gesichtserkennung. Zum anderen müssen Systeme mit intra-personalen Variationen umgehen: Alterung, Krankheit, Lichtverhältnisse, Masken oder Accessoires verändern das Erscheinungsbild derselben Person. Die Forschung verfolgt hier sowohl empirische Studien als auch modellbasierte Ansätze, die Lernverfahren explizit auf unterschiedliche Variationsniveaus verschiedener Nutzer einstellen.

Security:

Im Sicherheitskontext stehen Angriffe im Mittelpunkt, die versuchen, biometrische Systeme zu täuschen. Der Vortrag thematisiert die Notwendigkeit, Attacken zu erkennen und auch neue Angriffstypen antizipieren zu können. Dazu zählen Präsentationsangriffe (etwa Masken oder „spoof faces“), Morphing-Angriffe, bei denen Gesichtsbilder mehrerer Personen verschmolzen werden, aber auch weiterentwickelte Strategien wie adversarial attacks, Datenvergiftung oder „Master Samples“, die mehrere Identitäten gleichzeitig imitieren können. Forschungsarbeiten zielen darauf, Detektoren zu entwickeln, die über konkrete Trainingsfälle hinaus generalisieren und die Erkennung solcher Angriffe ermöglichen.

Deployability:

Unter dem Stichwort „Deployability“ werden praktische Einsetzbarkeit und Ressourceneffizienz diskutiert. Tiefe neuronale Netze benötigen hohe Rechenleistung, Speicher und Energie, was sich direkt in Kosten und im CO₂-Fußabdruck niederschlägt. Gleichzeitig sollen biometrische Verfahren zunehmend in eingebetteten Systemen laufen, etwa in Fahrzeugen, Head-Mounted Displays oder mobilen Endgeräten mit begrenzten Ressourcen.

Privacy:

Ein Kernproblem ist der Datenschutz. Biometrische Daten sind hochsensibel, weil sie nicht einfach „gewechselt“ werden können und für mehr Zwecke nutzbar sind als nur zur Wiedererkennung. Zugleich werden große Datenmengen benötigt, um Modelle zu trainieren. Die Forschung verfolgt hier zwei Linien: Zum einen wird untersucht, welche Zusatzinformationen, etwa Geschlecht, Alter oder andere „Soft Biometrics", in Embeddings mitgespeichert werden und ob sich diese selektiv ausblenden lassen, während Identitätsinformation erhalten bleibt. Zum anderen wird der Einsatz synthetischer Daten diskutiert, die realistische Eigenschaften aufweisen, ohne direkt auf reale Personen zurückzuführen zu sein. Solche Daten sollen sowohl Trainingsbedarfe decken als auch Datenschutzanforderungen besser erfüllen.

Equality and Inclusion:

Prominent und relevant sind Fragen der Fairness. Biometrische Systeme zeigen in der Praxis unterschiedliche Fehlerquoten entlang demographischer Linien. Bestimmte Gruppen werden häufiger falsch erkannt oder abgewiesen. Die Ursachen sind nicht vollständig verstanden. Forschungsvorhaben untersuchen daher systematisch, welche Faktoren diese Unterschiede prägen, wie sich Fairness mit bestehenden Feature-Extraktoren verbessern lässt und ob auch Angriffserkennungssysteme bestimmte Gruppen besser schützen als andere.

Transparency:

„Transparency“ meint die Transparenz biometrischer Systeme. Bislang ist oft unklar, welche Bildbereiche oder Signalanteile tatsächlich zur Entscheidung beitragen und wie sicher eine Entscheidung ist. Pixelgenaue Einschätzungen der Bildqualität sollen verdeutlichen, warum bestimmte Gesichter für die Erkennung besonders hilfreich sind. Ergänzend kommen Methoden zur Sprache, die Vergleichsscores mit einem expliziten Unsicherheitsmaß versehen und im Idealfall erklären, warum ein Vergleich als Treffer oder Nicht-Treffer gewertet wurde. Ziel ist es, Entscheidungen nach außen nachvollziehbarer zu machen, etwa für Grenzbeamte, die eine algorithmische Entscheidung einordnen müssen.

Legal Awareness und Social Adoption:

Schlussendlich sind rechtliche und gesellschaftliche Rahmenbedingungen von Bedeutung. Unter dem Titel „Legal aware AI and AI aware laws“ geht es darum, dass technische Systeme und rechtliche Rahmenbedingungen aufeinander bezogen sein müssen. Das Datenschutzrecht, konkret: spezielle Vorgaben für biometrische Daten und zukünftige KI-Regulierung, bestimmt, welche Formen der Datenerhebung, -speicherung und -wiederverwendung zulässig sind. Gleichzeitig ist soziale Akzeptanz von Vertrauen, Transparenz und erlebter Fairness abhängig.

Perspektiven:

Die Perspektive der vorgestellten Forschung ist eine Welt, in der biometrische Systeme zugleich sicher, datenschutzkonform, transparent, inklusiv und ethisch vertretbar sind und dadurch auf längerfristige gesellschaftliche Zustimmung hoffen können.

Technische Fragen zur Erkennungsleistung, zur Robustheit gegenüber Angriffen und zur Ressourceneffizienz sind dabei eng mit datenschutzrechtlichen, rechtspolitischen und gesellschaftlichen Fragen verflochten.