Technologie

Die künstliche Intelligenz denkt, dass dein Gesicht voller Daten ist. Könnte es dich wirklich entlarven?

Jedes Jahr im Januar kommen rund 4.500 Unternehmen nach Las Vegas, um an dem als Consumer Electronics Show oder CES bekannten psychologischen Marathon teilzunehmen.

Die Feierlichkeiten von 2019 waren wie alle anderen. Unternehmen haben ihre Ideen überbewertet. Die Teilnehmer twitterten die verrücktesten Produkte und stellten die endlosen Kilometer an Meetingfläche zur Verfügung. Trendfleck war der Name des Spiels, und die diesjährigen Trends spielten eine große Rolle: Drohnen, sprachaktivierte Hausangestellte, sogenanntes “8K” -Fernsehen. Aber die provokantesten Roboter waren diejenigen, die behaupteten, menschliche Gesichter zu “lesen” und unsere Emotionen und unsere körperliche Gesundheit in einem einzigen Bild zu offenbaren.

Einige waren überwältigend, wenn auch zahnlos Mashups von Memkultur und Pseudowissenschaft. Eine Maschine interpretierte ein Foto unseres 36-jährigen Technologie-Editors Stan Horaczek als “bezaubernd, 30 Jahre alt und sieht aus wie ein G-Drache”. (Zwei von drei sind nicht schlecht.) Ein anderer stellt fest, dass er 47 Jahre alt und “männlich 98 Prozent” war. Beide zeigten viele, viele Emoji.

Aber einige der Vorschläge könnten schwerwiegende Konsequenzen für unser tägliches Leben haben. Intel hat ein Update zu seinen Bemühungen zur Verfügung gestellt, einen Rollstuhl zu bauen, der durch Mimik gesteuert wird (mit einem Augenzwinkern nach links oder einem küssen Gesicht nach rechts), was sich eindeutig und positiv auf die Mobilität auswirken würde. Veoneer förderte sein Konzept der “Ausdruckserkennung” für die autonome Fahrzeug-KI. Es bewertet Mimik, um festzustellen, ob die Fahrer auf der Straße beschäftigt, schläfrig oder auf andere Weise abgelenkt sind. Wieder andere drückten die Absicht aus, einen Teil des Arztbesuchs zu automatisieren, und schauten uns tief in die Gesichter, um zu sehen, was uns störte.

Die auf der CES ausgestellten Waren mögen glänzend und neu sein, aber der menschliche Wunsch, Gesichter in Informationen zu verwandeln, hat seinen Ursprung in der Antike. Der griechische Mathematiker Pythagoras wählte seine Schüler “nach ihrer Begabung” aus, sagte Sarah Waldorf vom J. Paul Getty Trust. In den 1400er Jahren galt das Millionen-Dollar-Muttermal auf dem Gesicht von James II von Schottland (alias “Feuriges Gesicht”) als Ausdruck seines schwelenden Temperaments. Und im kolonialen Europa haben viele Wissenschaftler rassistischen Karikaturen, die den menschlichen Ausdruck mit dem Verhalten von Tieren in Verbindung brachten, Glaubwürdigkeit verliehen.

“Physiognomie”, der Name für die weit verbreitete Annahme, dass unsere Gesichter subtil faltig sind, ist nie wirklich verschwunden. Im New York Times Magazine argumentierte Teju Cole, dass sich der Glaube in jedem fotografischen Werk manifestiere: “Wir tendieren dazu, Porträts so zu interpretieren, als würden wir etwas lesen, das der dargestellten Person innewohnt”, schreibt er. “Wir reden über Stärke und Unsicherheit, wir loben die Menschen für ihre starken Kiefer und bedauern ihr schwaches Kinn. Hohe Stirnen gelten als intelligent. Wir verbinden die Gesichtszüge der Menschen auf einfache Weise mit dem Inhalt ihrer Figur.”

Aber was können uns zwei Augen, ein Mund und eine Nase sagen?

“Ich denke, es ist möglich, dass irgendwann eine Technologie entwickelt wird, mit der Sie Ihre Stimmung aus Ihrem Gesicht ablesen können”, sagt Lisa Feldman Barrett, Psychologie- und Neurowissenschaftsexpertin für Emotionen an der Northeast University. “Nicht nur dein Gesicht, was auch immer – dein Gesicht im Kontext.”

Schauen wir uns die Grimasse an. Es wird angenommen, dass es ein fast allgemeines Zeichen der Unzufriedenheit ist. “Sie haben das von innen nach außen gesehen”, sagt Barrett und bezieht sich auf den Pixar-Film von 2015 über codierte Emotionen. “Der kleine Charakter von Wutch sieht im Gehirn jedes Menschen gleich aus … Es ist ein Stereotyp, an das die Leute glauben.” Aber die robustesten Beweise deuten auf etwas anderes hin. “Die Leute schauen, wenn sie wütend sind – in etwa 20 bis 30 Prozent der Fälle”, sagt sie. “Aber manchmal tun sie es nicht und schauen oft auf, wenn sie nicht wütend sind, was bedeutet, dass böse Blicke keine besondere Diagnose für Wut sind.”

An dieser Stelle kommt der Kontext ins Spiel. Wir analysieren ständig die “Körpersprache”, den Gesichtsausdruck und sogar den Ton ihrer Stimme. Während wir zuschauen, berücksichtigen wir, was gerade passiert ist, was passiert und was als nächstes passieren könnte. Wir schauen uns sogar an, was in unserem eigenen Körper passiert, betont Barrett, und was wir fühlen, sehen und denken. Einige Menschen können es besser als andere, und bestimmte Faktoren können Ihren Erfolg in einer bestimmten Interaktion beeinflussen. Wenn Sie jemanden gut kennen und durch Versuch und Irrtum herausgefunden haben, wie sich seine besonderen Gefühle manifestieren können, ist es wahrscheinlicher, dass Sie sein finsteres Gesicht richtig interpretieren.

Aber nichts davon ist wirklich das “Lesen” von jemandes Gesicht. “Tatsächlich ist es eine schlechte Analogie”, sagt Barrett, “weil wir die psychologische Bedeutung in den Bewegungen einer Person nicht erkennen, sie schließen und zu dem Schluss kommen, dass sie größtenteils kontextabhängig ist.” Bestenfalls arbeiten Sie mit dem Gesicht eines anderen zusammen, indem Sie aus den Daten (einer wellenförmigen Lippe) und Ihren Vorurteilen, die Roboter derzeit nicht beobachten oder verstehen können, etwas Neues erstellen.

Diese angeborenen Eigenschaften helfen uns, andere zu verstehen und unsere eigenen Emotionen zu vermitteln. Aber sie können uns in die Irre führen. “Aus der Literatur geht hervor, dass wir unsere Fähigkeit, von Angesicht zu Angesicht zu lesen, tendenziell überschätzen”, sagt der Professor Brad Duchaine.

Comments Off on Die künstliche Intelligenz denkt, dass dein Gesicht voller Daten ist. Könnte es dich wirklich entlarven?