Israelisches Startup behauptet ihre Technologie könne Terroristen am Gesichtsausdruck identifizieren

Israelisches Startup behauptet ihre Technologie könne Terroristen am Gesichtsausdruck identifizieren
Das israelische Startup Faception behauptet, es könne Terroristen per Gesichtsanalyse erkennen. So sollen ohne Vorkenntnisse, neun der Pariser Attentäter als "potenzielle Terroristen" durch die Technologie erkannt worden sein. Sie geben an, deswegen mit „einer der führenden Heimatschutzbehörden“ zusammenzuarbeiten, um potenzielle „Gefährder“ zu identifizieren. Aus der Wissenschaft kommt Kritik an dem "pseudowissenschaftlichen Vorgehen" und dem "Unterbau für Rassismus und Menschenverachtung".

Screenshot: http://clearista.com/

Das 2014 gegründete Unternehmen nutze „maschinelles Sehen und Lernen“, um nur mit dem Gesichtsbild eines Menschen, ein Profil zu erstellen, dass eine Reihe von Persönlichkeitsmerkmalen und Typen offenbare. Bisher wurden 15 verschiedene Klassifikatoren erstellt, darunter extrovertierte, Genies, akademische Forscher, professionelle Pokerspieler, Bingo-Spieler, Marken-Promoter, Wirtschaftsstraftäter, Pädophile und Terroristen.

Allerdings stellt Faception auf ihrer Website fest, dass diese anpassbar sind und ein entsprechender Klassifikator erstellt werden könne, wenn das entsprechende Verhalten einer Person DNA-basiert ist, also in der DNA „verankert“.

Dem Vorstandsvorsitzenden des Unternehmens, Shai Gilboa, nach, sei die DNA der Schlüssel:

„Unsere Persönlichkeit wird durch unsere DNA definiert und spiegelt sich in unseren Gesichtern. Es ist eine Art Signal.“

Das Unternehmen beruft sich auch auf die „Forschung im Bereich Sozial- und Biowissenschaften“, um ihre Behauptungen zu stützen. Insbesondere führen sie die Forschungsergebnisse der Universität Edinburgh an, die untersuchte, wie sich welchen Einfluss Genetik auf die Persönlichkeit hat, indem Ein- und Zweieiige Zwillinge untersucht wurden. Innere- und öffentliche Sicherheit stünden im Fokus des Startups Faception, obwohl die Technologie auch auf Finanzdienstleistungen, Marketing und künstliche Intelligenz anwendbar wäre.


Ein Werbevideo erklärt, dass die Technologie über die Gesichtserkennung hinaus geht und vorhersagen kann, ob es sich bei einer Person um einen Terroristen handelt. Es bedient sich der Terroranschläge von Paris im letzten Jahr als Beispiel, um zu zeigen, wie die Technik funktioniert:

„Es gab nur Aufzeichnungen von drei der elf Terroristen. Unsere Technologie erkannte, ohne Vorkenntnisse, neun von ihnen als potenzielle Terroristen, deshalb arbeiten wir mit der führenden Heimatschutzbehörde.“

In dem Video wird auch der der Erfolg bei einem Pokerturnier angeführt, in dem zwei der vier Spieler [von insgesamt 50], die das System als Favoriten vorhergesagt hatte, es ins Finale schafften. Die Ergebnisse ergaben sich aus dem Foto-Vergleich der Amateurspieler mit einer Faception-Datenbank professioneller Pokerspieler.

Gilboa behauptet gegenüber der Washington Post, dass die Genauigkeit etwa 80 Prozent betrage, was faktisch bedeutet, dass ein von fünf Personen fälschlicherweise als Terrorist oder Pädophil eingestuft werden könnte.

Generell jedoch, ist die Früherkennung von Terroristen durch automatisierte Systeme besonders in Israel auf dem Vormarsch. So erklärte ein Offizier der israelischen Armee gegenüber Journalisten:

„Wir haben unsere Denkweise umgestellt. […] Die meisten Attentäter schlafen in der Nacht vor ihrer Tat nicht. Wenn ich jemand ausmache, der die ganze Nacht im Internet aktiv ist, sich dort für gewisse Dinge interessiert, bestimmte extremistische Kommentare abgibt, und danach mit gewissen Leuten spricht – dann gehen in unseren automatisierten Systemen die Warnleuchten an.“

Auf diese Warnungen würde dann durch die Sicherheitsbehörden fallspezifisch reagiert. Dieses Vorgehen unterscheidet sich jedoch vom Ansatz her grundlegend von dem des Startup Unternehmens Faception. 

Deren Praxis erinnert vielmehr an Physiognomik oder Phrenologie, bereits seit langem entlarvte Pseudowissenschaften, die auf der Theorie basieren, dass Persönlichkeitsmerkmale und Charakterzüge eines Menschen durch äußere Merkmale vorherzusagen, beispielsweise die Vermessung des Schädels. Diese Ansätze wurden nicht nur im dritten Reich als „wissenschaftlicher“ Unterbau für Rassismus und Menschenverachtung gebraucht.

Auch Experten stehen dem Gedanken angesichts der ethischen Tragweite kritisch gegenüber und werfen die Frage auf, ob es sich nicht nur um eine computerisierte Form der Pseudowissenschaft handelt.

„Der Beweis für die Genauigkeit dieser Urteile ist extrem schwach“, sagte Alexander Todorov der Washington Post. Er ist Psychologieprofessor in Princeton und forscht unter anderem im Bereich der Gesichtswahrnehmung. Er sagte weiter: „Gerade als wir dachten, dass das Thema Physiognomik vor 100 Jahren beendet wurde. Tja.“

Ähnlich argumentiert Professor Werner Sarges, vom Prof. Sarges & Partner Institut, in Hamburg:

„Die Suche nach einem Geheimsystem, mit dem man den Charakter eines Menschen sofort erkennen kann, lässt sich leider nicht ausrotten“