Technologie

Die künstliche Intelligenz denkt, dass dein Gesicht voller Daten ist. Könnte es dich wirklich entlarven?

Jedes Jahr im Januar kommen rund 4.500 Unternehmen nach Las Vegas zum psychologischen Marathon, der als Consumer Electronics Show oder CES bekannt ist.

Die Feierlichkeiten 2019 waren wie alle anderen. Unternehmen haben ihre Ideen überbewertet. Die Teilnehmer tweeted heraus die verrücktesten Produkte, und Instagrammed die endlosen Meilen des Versammlungsraums. Trendfleck war der Name des Spiels, und die diesjährigen Trends spielten eine große Rolle: Drohnen, sprachaktivierte Hausangestellte, so genanntes “8K”-Fernsehen. Aber die provokantesten Roboter waren diejenigen, die behaupteten, Menschengesichter zu “lesen” und unsere Emotionen und unsere körperliche Gesundheit in einem einzigen Bild offenbarten.

Einige waren überwältigend, wenn auch zahnlose Mashups von Meme-Kultur und Pseudowissenschaften. Eine Maschine interpretierte ein Foto unseres 36-jährigen Technologie-Redakteurs Stan Horaczek als “bezaubernd, 30 Jahre alt und sieht aus wie ein G-Drache”. (Zwei von drei ist nicht schlecht.) Ein anderer bestimmt, dass er 47 Jahre alt und “männlich 98 Prozent” war. Beide zeigten viele, viele Emoji.

Aber einige der Vorschläge könnten schwerwiegende Folgen für unser tägliches Leben haben. Intel bot ein Update über seine Bemühungen, einen Rollstuhl zu bauen, der von Gesichtsausdrücken gesteuert wird (mit einem Augenzwinkern nach links oder mit einem Kissy-Gesicht nach rechts), was klare und positive Auswirkungen auf die Mobilität haben würde. Veoneer förderte sein Konzept der “expression recognition” für die autonome Fahrzeug-KI. Es beurteilt Gesichtsausdrücke, um festzustellen, ob die Fahrer auf der Straße beschäftigt, schläfrig oder anderweitig abgelenkt sind. Und wieder andere äußerten die Absicht, einen Teil des Arztbesuchs zu automatisieren und blickten tief in unsere Gesichter, um festzustellen, was uns bedrückt.

Die Waren, die im CES ausgestellt werden, mögen glänzend und neu sein, aber der menschliche Wunsch, Gesichter in Informationen zu verwandeln, hat seinen Ursprung in der Antike. Der griechische Mathematiker Pythagoras wählte seine Schüler “danach aus, wie begabt sie aussahen”, so Sarah Waldorf vom J. Paul Getty Trust. In den 1400er Jahren galt das millionenschwere Muttermal auf dem Gesicht von James II. von Schottland (alias: “Fiery Face”) als Ausdruck seines schwelenden Temperaments nach außen. Und im kolonialen Europa haben viele Wissenschaftler rassistischen Karikaturen Glaubwürdigkeit verliehen, die menschliche Ausdrücke mit tierischem Verhalten verknüpften.

“Physiognomie”, der Name für den weit verbreiteten Glauben, dass unsere Gesichter mit hintergründiger Bedeutung faltig sind, ist nie wirklich verschwunden. Im New York Times Magazine argumentierte Teju Cole, dass sich der Glaube in jedem Werk der Fotografie manifestiert: “Wir neigen dazu, Porträts so zu interpretieren, als würden wir etwas lesen, das der porträtierten Person innewohnt”, schreibt er. “Wir reden über Stärke und Unsicherheit, wir loben die Menschen für ihren starken Kiefer und bedauern ihr schwaches Kinn. Hohe Stirnen gelten als intelligent. Wir verbinden die Gesichtszüge der Menschen leicht mit dem Inhalt ihrer Figur.”

Aber was können uns zwei Augen, ein Mund und eine Nase eigentlich sagen?

“Ich denke, es ist möglich, dass irgendwann Technologie entwickelt werden könnte, um Ihre Stimmung aus Ihrem Gesicht zu lesen”, sagt Lisa Feldman Barrett, Expertin für Psychologie und Neurowissenschaften der Emotionen an der Nordost-Universität. “Nicht nur dein Gesicht, wie auch immer – dein Gesicht im Kontext.”

Betrachten wir die Grimasse. Es wird angenommen, dass es ein fast universelles Zeichen des Unmuts ist. “Du hast das in Inside Out gesehen”, sagt Barrett und verweist auf den Pixar-Film 2015 über verschlüsselte Emotionen. “Der kleine Wutcharakter sieht im Gehirn eines jeden Menschen gleich aus… Das ist ein Stereotyp, dem die Leute glauben.” Aber die robustesten Beweise deuten auf etwas anderes hin. “Die Leute blicken, wenn sie wütend sind – mehr oder weniger 20 oder 30 Prozent der Zeit”, sagt sie. “Aber manchmal tun sie es nicht. Und sie blicken oft, wenn sie nicht wütend sind, was bedeutet, dass böse Blicke nicht besonders diagnostisch für Wut sind.”

An dieser Stelle kommt der Kontext ins Spiel. Wir analysieren ständig die “Körpersprache” anderer Menschen, die Gesichtsausdrücke und sogar den Tonfall ihrer Stimme. Während wir zusehen, berücksichtigen wir, was gerade passiert ist, was derzeit passiert und was als nächstes passieren könnte. Wir betrachten sogar, was in unserem eigenen Körper geschieht, betont Barrett, und was wir fühlen, sehen und denken. Einige Menschen sind darin besser als andere, und bestimmte Faktoren können Ihren Erfolg in einer bestimmten Interaktion beeinflussen. Wenn du jemanden gut kennst, wenn er durch Versuch und Irrtum, bist du gekommen, um zu verstehen, wie sich seine besonderen Emotionen manifestieren könnten – du bist eher geneigt, seinen finsteren Blick genau zu interpretieren.

Aber nichts davon ist wirklich das “Lesen” des Gesichts von jemandem. “Es ist eigentlich eine schlechte Analogie”, sagt Barrett, “denn wir erkennen keine psychologische Bedeutung in den Bewegungen einer Person, wir schließen sie. Und wir schließen, dass es weitgehend auf dem Kontext basiert.” Im besten Fall arbeiten Sie in Zusammenarbeit mit dem Gesicht eines anderen, indem Sie aus den Daten (eine gewellte Lippe) und Ihren Vorurteilen etwas Neues schaffen, was Roboter derzeit nicht beobachten oder verstehen können.

Diese angeborenen Qualitäten helfen uns, uns einzufühlen, andere zu verstehen und unsere eigenen Emotionen zu vermitteln. Aber sie können uns in die Irre führen. “Die Literatur deutet darauf hin, dass wir dazu neigen, unsere Fähigkeit, Charakter aus dem Gesicht zu lesen, zu überschätzen”, sagt Brad Duchaine, ein Professor.

Comments Off on Die künstliche Intelligenz denkt, dass dein Gesicht voller Daten ist. Könnte es dich wirklich entlarven?