Lesezeit ca. 16 Min.

BERECHNETE GEFÜHLE


Logo von Spektrum der Wissenschaft
Spektrum der Wissenschaft - epaper ⋅ Ausgabe 4/2022 vom 19.03.2022

KÜNSTLICHE INTELLIGENZ

Artikelbild für den Artikel "BERECHNETE GEFÜHLE" aus der Ausgabe 4/2022 von Spektrum der Wissenschaft. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: Spektrum der Wissenschaft, Ausgabe 4/2022

GESICHTSSCAN Einige KI-Technologien können große Menschenmengen absuchen und Emotionen in den Gesichtern der Personen analysieren.

spektrum.de/artikel/1989118

Im Februar 2020 fand in Liverpool eine Konferenz zum mäßig reizvollen Thema »öffentliches Beschaffungswesen« statt. Wie bei solchen Veranstaltungen üblich, schlenderten die Teilnehmerinnen und Teilnehmer an den Ausstellungs-und Verkaufsständen vorbei, blieben an einigen stehen, während sie andere umgingen. Was nicht allen Besuchern bewusst war: Sie wurden dabei genau beobachtet. 24 diskret angebrachte Kameras verfolgten die Bewegungen jedes einzelnen Menschen und zeichneten mit fünf bis zehn Bildern pro Sekunde die subtilen Bewegungen seiner Gesichtsmuskeln auf, während er die verschiedenen Ausstellungsstücke beäugte. Die Aufnahmen wurden in ein Computernetzwerk eingespeist, in dem KI-Algorithmen das Geschlecht und die Altersgruppe der Beobachtungsobjekte schätzten und die Mimik auf emotionale Anzeichen wie »Neugier« und »Freude« absuchten. ...

Weiterlesen
epaper-Einzelheft 5,99€
NEWS Jetzt gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von Spektrum der Wissenschaft. Alle Rechte vorbehalten.
Lesen Sie jetzt diesen Artikel und viele weitere spannende Reportagen, Interviews, Hintergrundberichte, Kommentare und mehr aus über 1050 Magazinen und Zeitungen. Mit der Zeitschriften-Flatrate NEWS von United Kiosk können Sie nicht nur in den aktuellen Ausgaben, sondern auch in Sonderheften und im umfassenden Archiv der Titel stöbern und nach Ihren Themen und Interessensgebieten suchen. Neben der großen Auswahl und dem einfachen Zugriff auf das aktuelle Wissen der Welt profitieren Sie unter anderem von diesen fünf Vorteilen:

  • Schwerpunkt auf deutschsprachige Magazine
  • Papier sparen & Umwelt schonen
  • Nur bei uns: Leselisten (wie Playlists)
  • Zertifizierte Sicherheit
  • Freundlicher Service
Erfahren Sie hier mehr über United Kiosk NEWS.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 4/2022 von EIN BIZARRER WURM. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
EIN BIZARRER WURM
Titelbild der Ausgabe 4/2022 von IMPLANTAT LÄSST QUERSCHNITTGELÄHMTE WIEDER LAUFEN. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
IMPLANTAT LÄSST QUERSCHNITTGELÄHMTE WIEDER LAUFEN
Titelbild der Ausgabe 4/2022 von RIESIGER KOMET AUS DER OORTSCHEN WOLKE. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
RIESIGER KOMET AUS DER OORTSCHEN WOLKE
Mehr Lesetipps
Blättern im Magazin
KRATZER UM DIE SONNE
Vorheriger Artikel
KRATZER UM DIE SONNE
WENN MAN DEN WALD VOR LAUTER BÄUMEN NICHT SIEHT
Nächster Artikel
WENN MAN DEN WALD VOR LAUTER BÄUMEN NICHT SIEHT
Mehr Lesetipps

...

Ungefähr ein Jahr nach der Veranstaltung war Panos Moutafis, CEO des in Texas ansässigen Unternehmens Zenus, das hinter der dort genutzten Technologie steht, immer noch begeistert von den Ergebnissen. »Ich habe nicht viele kommerzielle Systeme gesehen, die so präzise sind«, äußerte er während eines Videoanrufs und zeigte ein Foto der untersuchten Menschenmenge, bei dem jedes Gesicht mit einem Kästchen umrandet ist. Die Zenus­ Ingenieure hatten die Software zuvor auf das Erkennen von Emotionen trainiert, indem sie ihr einen riesigen Datensatz von Gesichtsausdrücken mit Beschriftungen, die relevante Gefühle beschreiben, vorlegten. Das Unternehmen hat den Algorithmus auf verschiedene Weise überprüft, unter anderem in Live-Tests, bei denen Menschen berichteten, wie sie sich fühlten, während man sie fotografierte. Das System funktioniert laut Moutafis überall: in Innenräumen, ohne Beleuchtung und im Freien sowie wenn die Personen Masken, Hüte oder Sonnenbrillen tragen.

Die Software von Zenus ist nur eines von vielen Beispielen für eine neue Technologie: die emotionale KI oder affektive Datenverarbeitung, bei der man Kameras und andere Geräte mit künstlicher Intelligenz kombiniert, um Gesichtsausdrücke, Körpersprache, Stimmlage und weitere Merkmale zu erfassen. Das Ziel ist es, über die reine Gesichtserkennung hinauszugehen und etwas zu enthüllen, was für Maschinen zuvor unsichtbar war: die inneren Gefühle, Motivationen und Einstellungen der Menschen. »Bisher waren Kameras dumm«, so Jay Stanley, Senior Policy Analyst bei der Nichtregierungsorganisation American Civil Liberties Union. »Jetzt wachen sie auf. Sie erlangen die Fähigkeit, nicht nur stumm aufzuzeichnen, was wir tun, sondern auch darüber zu urteilen.«

Hundewelpen und Eiscreme statt Freibier

Emotionale KI hat sich zu einem beliebten Marktforschungsinstrument entwickelt. Zum Beispiel konnte Zenus den Mitarbeitern von Hilton-Hotels nach einer Messe erklären, dass die Veranstaltung mit Hundewelpen und Eiscreme besser ankam als die offene Bar mit Freigetränken. Die Technologie erstreckt sich allerdings auf Bereiche, bei denen es um viel mehr geht, als Messebesucher glücklich zu machen. Man setzt mittlerweile intelligente Systeme ein, die Hinweise auf Gefühle, Charakter und Absichten von Personen untersuchen, um Bedrohungen an Grenzkontrollstellen zu erkennen, Bewerber für Stellenangebote zu bewerten, Klassenzimmer zu überwachen und Anzeichen für aggressives Fahren zu finden. Autohersteller integrieren die Technologie daher in kommende Fahrzeuggenerationen; Amazon, Microsoft, Google und andere Technologieunternehmen bieten cloudbasierte emotionale KI-Dienste an, die sie mit Gesichtserkennung kombinieren; Dutzende Start-ups bringen Anwendungen auf den Markt, um Unternehmen bei Einstellungsentscheidungen zu helfen. In Südkorea ist die Praxis inzwischen so weit verbreitet, dass Job-Coaches mit ihren Kunden KI-Interviews proben.

KI-Systeme nutzen verschiedene Arten von Daten, um Erkenntnisse über Emotionen und Verhalten zu gewinnen. Neben Gesichtsausdruck, Klang der Stimme, Körpersprache und Gangart können sie auch Texte oder Audioaufnahmen auf Stimmungen und Ansichten analysieren. Einige Anwendungen nutzen die gesammelten Daten, um nicht bloß nach Gefühlslagen zu suchen, sondern den Charakter einer Person zu bestimmen.

Kritiker warnen jedoch, emotionale KI-Systeme würden zu Zwecken eingesetzt, die ihre Kompetenz übersteigen – was gefährliche Folgen hätte. Ein Problem stellen etwa die Datensätze dar, mit denen man die Algorithmen trainiert:

Sie enthalten teilweise rassistische, ethnische und geschlechtsspezifische Vorurteile, was wiederum die Bewertungen der KI beeinträchtigt, zum Beispiel angesichts nicht weißer Bewerber. »Es gibt die Vorstellung, dass wir einen Teil unserer kognitiven Prozesse auf diese Systeme abwälzen können«, so die Informationswissenschaftlerin Lauren Rhue von der University of Maryland, »damit wir dank ihrer Analyse sagen können ›Diese Person zeigt ein bedrohliches Verhalten‹. Das ist der Punkt, an dem wir uns in einen gefährlichen Bereich begeben.«

Aber nicht nur die Datensätze bergen Risiken, auch die zu Grunde liegende Wissenschaft ist umstritten. Viele Anwendungen der emotionalen KI basieren auf Forschungsarbeiten von Paul Ekman und Wallace Friesen, die bereits ein halbes Jahrhundert zurückliegen. Die Psychologen stellten damals die Theorie auf, dass eine Hand voll Gesichtsausdrücke den grundlegenden Emotionen (Wut, Ekel, Angst, Freude, Traurigkeit und Überraschung; Ekman fügte der Liste später noch Verachtung hinzu) entsprechen und die Mimiken eine universell verständliche Sprache bilden. Diese Vorstellung wird heute jedoch heftig diskutiert. Mittlerweile haben Fachleute erhebliche kulturelle und individuelle Unterschiede gefunden. Deshalb sind viele von ihnen der Meinung, Computer könnten die Feinheiten der menschlichen Mimik bei verschiedenen Personen nicht (oder zumindest noch nicht) verstehen, da diese nicht unbedingt mit stereotypen inneren Gefühlen übereinstimmen. Selbst Ekman, der frühe Formen der algorithmischen Emotionserkennung mitentwickelt hat, ist heute der Auffassung, dass die Technologie die Privatsphäre bedroht und man sie deshalb regulieren sollte.

AUF EINEN BLICK DAS INNERSTE DURCHLEUCHTEN

1 Firmen nutzen Algorithmen, um die Gefühle, Empfindungen und sogar die Persönlichkeit von Menschen zu untersuchen.

2 Dadurch lässt sich besser beurteilen, ob ein Bewerber für einen bestimmten Job geeignet ist, die Produkte einer Messe ansprechend sind oder Schüler aufmerksam dem Unterricht folgen.

3 Aber die Datensätze, mit denen man die KI trainiert, enthalten oft vorurteilsbehaftete Inhalte. Zudem stehen die genutzten psychologischen Modelle in der Kritik.

Dennoch ist emotionale KI nicht per se schlecht. Wenn sich Maschinen darauf trainieren lassen, Gefühle und Verhaltensweisen zuverlässig zu interpretieren, ist das Potenzial für Bereiche wie die Robotik, das Gesundheitswesen oder die Automobilindustrie enorm, urteilen Experten.

Allerdings sind die Programme aktuell praktisch für alle uneingeschränkt nutzbar. So könnte eine Technologie allgegenwärtig werden, die auf weitgehend unbewiesenen Annahmen fußt, bevor die Gesellschaft Zeit hat, die damit einhergehenden Risiken abzuwägen.

Interview mit einer KI

2018 suchte Mark Gray, damals Vizepräsident für Personal und Geschäftsbetrieb beim Technikunternehmen Airtame, nach Möglichkeiten, den Einstellungsprozess seiner Firma zu verbessern. Airtame produziert Geräte, um Präsentationen und Bildschirme gemeinsam zu nutzen, und beschäftigt etwa 100 Mitarbeiter, die sich auf Büros in Kopenhagen, New York City, Los Angeles und Budapest verteilen. Bei offenen Stellen, gerade im Bereich von Marketing und Design, können allerdings Hunderte von Bewerbungen eingehen, was die Personalabteilung oft überfordert. Gray ärgerte zudem die Willkür bei Einstellungsentscheidungen. »Oft habe ich das Gefühl, dass eine Stimme im Hinterkopf sagt: ›Ich mag diese Person‹, und nicht ›Diese Person erscheint kompetenter‹«, erklärt er. »Ich wollte herausfinden, wie man dem Einstellungsverfahren einen greifbaren Aspekt hinzufügen kann.«

Dazu schloss Airtame einen Vertrag mit dem in München ansässigen Unternehmen Retorio ab, das Videointerviews mit KI auswertet. Dafür müssen die Bewerber bloß etwa 60 Sekunden lange Antworten auf zwei oder drei Fragen aufnehmen, woraufhin der Algorithmus den Gesichtsausdruck und die Stimme der Befragten sowie den Inhalt ihrer Worte analysiert. Anschließend erstellt das System ein Profil, das auf fünf grundlegenden Persönlichkeitsmerkmalen basiert, dem in der Psychologie weit verbreiteten Modell der »Big Five«, das nach den Anfangsbuchstaben der englischen Begriffe auch OCEAN genannt wird: Offenheit für Erfahrungen (openness), Gewissenhaftigkeit (conscientiousness), Extraversion, Verträglichkeit (agreeableness) und Neurotizismus (neuroticism, emotionale Labilität). Die Personalverantwortlichen erhalten anschließend eine Rangliste der geeignetsten Kandidaten für die Stelle.

Solche Software verändert die Art und Weise, wie Geschäftsentscheidungen getroffen werden und wie Unternehmen mit Menschen umgehen. Bei Airtame habe sich die Bewerber-Profilerstellung bewährt, findet Gray. Wie sich herausstellte, stimmt die Arbeitsleistung mehrerer kürzlich eingestellter Vertriebsmitarbeiter mit ihren Persönlichkeitswerten überein, wobei jene mit besseren Ergebnissen für Gewissenhaftigkeit, Verträglichkeit und Offenheit auch beruflich am besten abschneiden.

Maschinen, die Emotionen verstehen, gibt es schon lange in Sciencefiction-Filmen und -Literatur. In der Informatik und im Ingenieurwesen schien diese Fähigkeit allerdings unerreichbar. Noch in den 1990er Jahren »war es ein Tabuthema«, erinnert sich Rosalind Picard vom Massachusetts Institute of Technology (MIT), die 1995 den Begriff »affective computing« prägte. »Wenn ich es ansprach, hielt man mich für verrückt, dumm und peinlich. Ein angesehener Kollege sagte mir damals: ›Sie verschwenden Ihre Zeit – Emotionen sind nur Rauschen.‹«

Antrainierte Vorurteile

Ungeachtet dessen entwickelten Picard und andere Fachleute Instrumente, die automatisch biometrische Informationen, welche auf emotionale Zustände hinweisen (von Mimik und Gestik bis zur Durchblutung), detektieren und darauf reagieren. Die heutige Technologie geht jedoch auf den zunehmenden Einsatz neuronaler Netze zurück, die dem biologischen Gehirn nachempfunden sind. Das damit verbundene »Deep Learning« hat die Leistung und die Genauigkeit von KI-Algorithmen enorm gesteigert; dadurch lassen sich Aufgaben automatisieren, die zuvor nur Menschen zuverlässig erledigen konnten, etwa Autofahren, Gesichtserkennung und die Analyse medizinischer Scans.

Trotzdem sind solche Systeme weit davon entfernt, perfekt zu sein – und die emotionale KI stellt eine besonders große Herausforderung dar. KI-Algorithmen lernen, indem sie Daten (häufig Bilder, aber auch Video-, Audio- und anderen Dateien) wiederholt mit Trainingsdaten vergleichen, bei denen ein gewünschtes Merkmal gekennzeichnet ist. Auf diese Weise kann ein System relevante Gemeinsamkeiten ausmachen, etwa spitze Ohren bei Katzen.

Wenn es dagegen darum geht, schwer zu definierende Eigenschaften wie den Charakter eines Menschen oder Emotionen zu erkennen, wird die Aufgabe extrem komplex. Wie sehen Glück oder Neurotizismus aus? Emotionale KI-Algorithmen können Gefühle, Persönlichkeit oder Absichten nicht direkt ausmachen. Stattdessen trainiert man sie durch eine Art computergestütztes Crowdsourcing darauf, die Auffassungen anderer Menschen nachzuahmen. Kritiker befürchten, dass dieser Prozess zu viele subjektive Variablen mit sich bringt. »Es gibt eine große Diskrepanz zwischen dem, was uns die Technologie zeigt, und dem, was im emotionalen Bereich einer Person vor sich geht«, sagt Kate Crawford von der University of Southern California Annenberg, die sich mit den sozialen Folgen künstlicher Intelligenz beschäftigt. Der Prozess, der zur digitalen Beurteilung eines Menschen führt, ist kompliziert – und jede Stufe birgt potenzielle Fallstricke. Deep Learning ist beispielsweise extrem datenhungrig. Für emotionale KI braucht man riesige Datensätze, die Hunderttausende, Millionen oder manchmal sogar Milliarden menschlicher Urteile kombinieren. Meist handelt es sich dabei um Porträts, die Datenwissenschaftler kategorisiert haben, etwa als glücklich oder lächelnd. Algorithmen können jedoch versehentlich die Vorurteile der Menschen übernehmen, welche die Daten zusammengestellt haben. Das kann von einer verzerrten Demografie in den Trainingsdaten oder unbewussten Ressentiments derjenigen herrühren, die die Daten aufbereiten, oder weitere Gründe haben.

Selbst ein Lächeln zu identifizieren ist alles andere als einfach: 2020 untersuchte Carsten Schwemmer vom GESIS Leibniz-Institut für Sozialwissenschaften in Köln mit seinen Kollegen Bilder von Kongressabgeordneten mit Hilfe cloudbasierter Emotionserkennungs-Apps von Amazon, Microsoft und Google. Als sie die Aufnahmen selbst durchsahen, machten die Forscherinnen und Forscher 86 Prozent lächelnde Männer und 91 Prozent lächelnde Frauen aus. Das Ergebnis der Apps sah hingegen völlig anders aus: Google Cloud Vision wies zum Beispiel mehr als 90 Prozent der Frauen, aber weniger als 25 Prozent der Männer das Etikett »Lächeln« zu. Schwemmer und sein Team vermuten, dass es in den Trainingsdaten eine geschlechtsspezifische Verzerrung gibt. Doch auch bei ihrer eigenen Untersuchung ergaben sich häufig Unsicherheiten: »Viele Gesichtsausdrücke waren nicht ganz eindeutig. War das wirklich ein Lächeln? Zählt ein Grinsen? Was ist, wenn man die Zähne sieht, die Person aber nicht glücklich wirkt?«, schrieben die Fachleute in ihrer Studie.

Lächelnde Frauen und ernste Männer

Auch Gesichtserkennungssysteme standen wegen ihrer Voreingenommenheit vielfach in der Kritik. So haben Forscherinnen und Forscher des MIT Media Lab herausgefunden, dass die Systeme schlechter funktionieren, wenn sie nicht weiße, nicht männliche Gesichter erkennen sollen. Diese Fehler entstehen in der Regel durch unausgewogene Trainingsdatensätze, die in erster Linie Bilder von weißen Männern enthalten. Und Gefühlslagen zu bestimmen gestaltet sich noch wesentlich komplexer: Denn Mimik ist dynamisch, zudem können sich die Ausdrücke auf gestellten Fotos von denen spontaner Schnappschüsse deutlich unterscheiden.

Um die Probleme zu verdeutlichen, nutzte Rhue einen öffentlichen Datensatz mit Bildern von Profi-Basketballspielern und testete damit zwei Emotionserkennungsdienste – einen von Microsoft und einen von Face++, einem in China ansässigen Unternehmen. Beide ordneten nicht weißen Spielern durchweg mehr negative Emotionen zu als weißen, allerdings auf unterschiedliche Weise: Face++ sah erstere doppelt so oft als wütend an wie weiße Spieler; für Microsoft blickten farbige Basketballer hingegen dreimal so oft verächtlich drein wie weiße, wenn der Gesichtsausdruck uneindeutig war. Das Problem lässt sich wahrscheinlich auf eine Verzerrung in den Trainingsdatensätzen zurückführen, schließt Rhue. Microsoft und Face++ wollten sich dazu nicht äußern.

Viele Unternehmen betonen inzwischen, sie seien sich solcher Probleme bewusst und würden sich damit auseinandersetzen. Die Entwickler von Retorio haben ihren Algorithmus beispielsweise mit einem Datensatz trainiert, den bezahlte Freiwillige über mehrere Jahre zusammengestellt haben. Er besteht aus kurzen Videos von Interviews, die mit Persönlichkeitsmerkmalen versehen sind, so der Retorio-Mitbegründer Christoph Hohenberger. Die Firma habe Maßnahmen ergriffen, um verschiedene demografische und kulturelle Verzerrungen herauszufiltern, die dazu führen könnten, dass eine Gruppe im Vergleich zu einer anderen besser abschneidet. Da es derzeit jedoch keine Regulierung oder Aufsicht in der Branche gibt, muss man sich auf die Versprechungen der Unternehmen verlassen, denn die Ausgewogenheit von nicht öffentlichen Datensätzen ist schwer zu überprüfen. HireVue, das Videointerviews KIbasiert analysiert, gehört zu den wenigen Firmen, die einen externen Prüfer hinzugezogen haben, um die Unvoreingenommenheit ihrer Technologie zu gewährleisten.

Neben unausgewogenen Daten bereitet Kritikern auch ein anderer Punkt Sorgen. Denn die Theorie, wonach der äußere Anschein bei jedem Menschen mit einer entschlüsselbaren inneren Emotion übereinstimmt, stößt mittlerweile auf starken wissenschaftlichen Widerspruch. Das ursprüngliche Konzept entstand vor mehr als 50 Jahren und wird nun immer mehr hinterfragt. Damals führten Ekman und Friesen Feldforschung an der indigenen Gruppe der Fore durch, die im Hochland im Südosten von Papua-Neuguinea beheimatet sind. Die Psychologen wollten herausfinden, ob die Fore Gesichtsausdrücke auf die gleiche Weise erkennen und verstehen wie Menschen mit einem völlig anderen Hintergrund, etwa ein Hafenarbeiter in Brooklyn oder eine Krankenschwester im Senegal. Sie zeigten den Freiwilligen Porträtaufnahmen, welche die sechs grundlegenden Emotionen ausdrückten. Um den Kontext zu verdeutlichen, lieferte ein Übersetzer kurze Beschreibungen (zum Beispiel »Er/Sie sieht etwas an, was schlecht riecht« für Ekel). Die Antworten der Fore waren praktisch identisch mit denen von Menschen, die man in Ländern wie Japan, Brasilien oder den USA befragte. Deshalb gingen die beiden Forscher davon aus, Mimik sei eine universelle Sprache.

Die Vorstellung, dass eine kleine Gruppe von Gesichtsausdrücken die grundlegenden emotionalen Zustände aller Menschen repräsentieren, wurde in der Psychologie und anderen Bereichen schnell populär. Ekman und Friesen entwickelten einen Atlas mit Tausenden entsprechender Bewegungen, um Mimiken zu interpretieren, das so genannte Facial Action Coding System (FACS). Sowohl FACS als auch das dazugehörige Modell bilden die Eckpfeiler der emotionalen KI. Allerdings hat man inzwischen einige Lücken in Ekmans Theorie identifiziert. So belegt eine 2012 erschienene Studie, dass sich die Mimik je nach Kultur erheblich unterscheidet. Sieben Jahre später veröffentlichte die Psychologin Lisa Feldman Barrett von der Northeastern University zusammen mit Kollegen eine Metaanalyse, in der sie mehr als 1000 wissenschaftliche Arbeiten zu dem Thema untersuchten. Die Vorstellung, Gesichter würden universelle Anzeichen für Gefühle zeigen, habe sich von der Technologie bis zu den Rechtswissenschaften durchgesetzt, so die Forscher – doch es gebe kaum Beweise dafür, dass dies in Wahrheit auch so ist.

Vereinfachte Modelle passen gut zu den vorhandenen Methoden

Die grundlegenden Emotionen sind stereotype Kategorien, so Barrett. Der Gesichtsausdruck spiegle oft komplizierte innere Zustände wider – ein Lächeln kann Schmerz überdecken oder Mitgefühl ausdrücken. Für ein KI-System sei es fast unmöglich, das zuverlässig zu kategorisieren. »Es misst etwas und schließt hinterher daraus, was es psychologisch bedeutet«, sagt Barrett. »Aber das sind zwei verschiedene Sachen. Die aktuell beworbene Technologie zur Emotionserkennung vermischt die beiden Dinge routinemäßig.«

Ein Grund für dieses Problem liegt laut Kate Crawford darin, dass viele Start-ups die wissenschaftlichen Debatten in anderen Bereichen nicht kennen. Zudem ziehe die elegante Einfachheit von Systemen wie FACS die Entwickler an: »Sie passt sehr gut zu den Möglichkeiten des maschinellen Lernens. Wenn eine Theorie eine begrenzte Anzahl von Ausdrücken und Emotionen voraussagt, dann machen sich die Leute diese Ansicht vor allem deshalb zu eigen, weil es zu dem passt, was ihre Werkzeuge leisten können.«

Neben der Arbeit von Ekman und dem OCEAN-Persönlichkeitsmodell haben Entwickler auch andere Ideen übernommen. Eine davon ist das von Robert Plutchik entwickelte »Rad der Gefühle«, welches das britische Unternehmen Adoreboard verwendet, um Emotionen in Texten zu analysieren. Selbst wenn sich die Ansätze unterscheiden, versuchen sie alle gleichermaßen, die Komplexität menschlicher Gefühle in einfache Formeln zu übersetzen. Dadurch besitzen sie ähnliche Schwächen. Laut einer Studie liefert etwa das OCEAN-Modell in verschiedenen Kulturen verschiedene Ergebnisse.

Dennoch sind viele Fachleute überzeugt, dass Emotionserkennung funktionieren kann – wenn man die Grenzen der Anwendungen versteht. Die Robotikerin Ayanna Howard von der Ohio State University verwendet beispielsweise in Robotern eine modifizierte Version der Microsoft-Software zum Erfassen von Gesichtsausdrücken, die mit autistischen Kindern interagieren. Registriert ein Roboter zum Beispiel Wut im Gesicht seines Gegenübers, passt er seine Bewegungen an, damit sich die Situation beruhigt. Die stereotypen Mimiken bedeuten vielleicht nicht immer genau das Gleiche, so Howard, trotzdem sind sie nützlich. »Ja, jeder Mensch ist einzigartig, doch man unterscheidet sich nicht so sehr von der Person nebenan«, sagt sie. »Wenn man also über Emotionen im Allgemeinen spricht, kann man sie zwar nicht immer, aber immerhin häufiger als zufällig richtig einschätzen.«

Darum sind laut Barrett Algorithmen, welche die Reaktionen zahlreicher Personen scannen, präziser, weil die Statistik bei einer großen Gruppe relevant wird. Einzelne Personen zu beurteilen ist hingegen tückischer, da alles, was nicht 100 Prozent genau ist, bestimmte Menschen diskriminieren kann.

Viele Spezialisten des Bereichs Computer-Vision sind deshalb vorsichtig, was ihre Versprechen angeht. Immer mehr Unternehmen verzichten mittlerweile darauf, Emotionen direkt abzubilden. »Mit der Entwicklung des Fachgebiets wächst die Einsicht, dass einige Gesichtsausdrücke nichts mit der inneren Gefühlswelt zu tun haben«, erklärt der Informatiker Jonathan Gratch von der University of Southern California. »Sie sind eine Art Werkzeug, mit dem wir uns gegenseitig beeinflussen, fast wie Worte in einem Gespräch, die durchaus eine Bedeutung haben. Sie sind jedoch kein direkter Zugang zu dem, was man in diesem Moment wirklich fühlt.«

Mit den wachsenden Möglichkeiten, emotionale Ausdrücke, Persönlichkeitsmerkmale und Verhaltensweisen digital zu erfassen und daraus Profit zu schlagen, nehmen auch die Bereiche unseres Lebens zu, die sich überwachen lassen. Nach 20 Jahren, in denen Technologieunternehmen persönliche Daten aus dem Online-Verhalten gesammelt haben, steht ihnen nun ein neuer, intimerer Teil von uns zur Verfügung: unsere Gesichter und Körper sowie die Signale, die wir damit aussenden.

»Wenn Coca-Cola online eine Kampagne durchführt, weiß das Unternehmen alles über die Zielgruppe, die es erreicht hat«, sagt Jay Hutton, CEO der in Vancouver ansässigen Firma VSBLTY, die intelligente Kameras und Software zur Untersuchung von Menschenmengen vertreibt. »Aber was wäre, wenn wir mit Hilfe von Computer-Vision die gleichen Analysemöglichkeiten auch für den Offline-Handel hätten?«

Fernsehmoderatorin: 56 % Lächeln: 64 %

Sprecherin: 56 %

Schwarze Haare: 68 %

Frisur: 84 %

Kinn: 84 %

Person: 92 %

Öffentlicher Sprecher: 56 % Rede: 66 %

Business: 56 %

Anzug: 74 %

Sprecher: 72 %

Geschäftsmann: 80 % amtlich: 88 %

ZAHLENQUELLE: SCHWEMMER, C. ET AL.: DIAGNOSING GENDER BIAS IN IMAGE RECOGNITION SYSTEMS. SOCIUS 6, 2020, FIG. 5 (DOI.ORG/10.1177/2378023120967171) / CC BY 4.0 (CREATIVECOMMONS.ORG/LICENSES/BY/4.0/LEGALCODE)

UNITED STATES GOVERNMENT (1. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:BONNIE_WATSON_COLEMAN_OFFICIAL_PORTRAIT.JPG; 2. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:CAROL_SHEA-PORTER_OFFICIAL_PHOTO.JPG; 3. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:LUCILLE_ROYBAL-ALLARD_OFFICIAL_PHOTO.JPG; 4. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:HEIDI_HEITKAMP_OFFICIAL_PORTRAIT_113TH_CONGRESS.JPG; 5. COMMONS.WIKIMEDIA.ORG/

WIKI/FILE:JAMES_CLYBURN,_OFFICIAL_CONGRESSIONAL_MAJORITY_WHIP_PHOTO.JPG; 6. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:STEVE_DAINES_OFFICIAL_SENATE_PORTRAIT.JPG; 7. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:JOAQUIN_CASTRO,_OFFICIAL_PORTRAIT,_113TH_CONGRESS.JPG; 8. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:JOHN_BOEHNER_OFFICIAL_PORTRAIT.JPG; 9. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:DANNYKDAVIS113TH.JPG; 10. COMMONS.WIKIMEDIA.ORG/ WIKI/FILE:VIRGINIA_FOXX_OFFICIAL_PHOTO.JPG; 11. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:JOHN_FASO_OFFICIAL_CONGRESSIONAL_PHOTO.JPG; 12. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:LISA_BLUNT_ROCHESTER_OFFICIAL_PHOTO.JPG; 13: COMMONS.WIKIMEDIA.ORG/WIKI/FILE:JASON_LEWIS,_OFFICIAL_PORTRAIT,_115TH_CONGRESS.JPG; 14. COMMONS.WIKIMEDIA.ORG/WIKI/FILE:LINDA_SÁNCHEZ,_116TH_CONGRESS,_OFFICIAL_PHOTO.JPG) / PUBLIC DOMAIN

GESCHLECHTLICHE UNTERSCHIEDE Emotionale KI-Programme erkennen Lächeln bei Männern seltener als bei Frauen. Die prozentualen Angaben zu Merkmalen in den äußersten rechten Bildern der oberen beiden Reihen zeigen, wie sicher sich die KI mit ihren Zuordnungen ist. Die Frau wurde unter anderem mit 64 Prozent Sicherheit als »lächelnd« eingestuft, während diese Bezeichnung beim Mann gar nicht erst auftauchte.

Im Dezember 2020 kündigte VSBLTY eine Partnerschaft mit der mexikanischen Brauerei Grupo Modelo an, bei der sie in den nächsten sieben Jahren Kameras in 50 000 lateinamerikanischen Modelorama-Brauerei-Märkten zur Datenerfassung aufbauen wird. Die Technologie werde künftig in Verkehrsknotenpunkten, Flughäfen oder Stadien eingesetzt, prognostiziert Hutton. »Werbetreibende zahlen Millionen von Dollars, um als Sponsor aufzutreten, und ihre Werbung erscheint auf Bildschirmen im ganzen Stadion. Natürlich möchten sie wissen, ob sich der Einsatz lohnt.«

Dieser Trend wirft eine fundamentale rechtliche Frage auf: Gehören die Gesichts-und Körperdaten der betreffenden Person? In den meisten Ländern der Welt lautet die Antwort: Nein – solange die Identität von den Daten getrennt bleibt. »Wenn sich jemand in einer öffentlichen Umgebung befindet, kann man die Person ohne Schwierigkeiten nach ihren Emotionen scannen«, erklärt die Rechtswissenschaftlerin Jennifer Bard von der University of Cincinnati.

Im öffentlichen Raum darf spioniert werden

Die meisten KI-Firmen beteuern, die gesammelten Informationen zu anonymisieren, weshalb ihre Erfassung keinen Anlass zur Sorge geben sollte. Zum Beispiel speichert VSBLTY keine Bilder von Gesichtern oder andere Daten, mit denen man jemanden identifizieren könnte, so Hutton.

Moutafis von Zenus weist darauf hin, die App seines Unternehmens lade nicht die eigentlichen Aufnahmen hoch, sondern nur die relevanten Metadaten. »Eine ausdrückliche Zustimmung ist nicht erforderlich«, erklärt er. »Unter Umständen muss man höchstens ein Schild anbringen, dass ein Bereich überwacht wird.« Normalerweise, äußert Moutafis, haben die Leute nichts dagegen und vergessen die Kameras sofort. Aber durch die vielfältigen Anwendungsmöglichkeiten gibt es keine gemeinsamen Standards. Zudem ist alles andere als klar, ob die Menschen und die Gesetzgebung eine solche Routineüberwachung weiterhin akzeptieren, wenn sie zu einem politischen Thema wird.

Ekman, der früher mit Apple und dem Unternehmen Emotient an emotionalen KI-Systemen gearbeitet hat, warnt nun, die Technologie stelle eine Bedrohung für die Privatsphäre dar. Ihm zufolge sollten Firmen gesetzlich verpflichtet sein, die Zustimmung jeder Person einzuholen, die sie scannen. »Leider kann die Technologie völlig problemlos eingesetzt werden, ohne dass die Betroffenen das merken –und zwar nicht, um diejenigen glücklicher zu machen, sondern um sie zum Kauf von Produkten zu bewegen, die sie sonst vielleicht nicht kaufen würden. Und das ist wahrscheinlich einer der harmlosesten Verwendungszwecke der Technologie.«

Emotionale KI ist inzwischen auch in den persönlichen Bereich vorgedrungen, wo die potenzielle Datenmenge noch viel größer ist. Alexa von Amazon analysiert beispielsweise die Stimmlage der Nutzer auf Anzeichen von Frustration, um ihre Algorithmen zu verbessern, so ein Sprecher.

Bis 2023 führen einige Autohersteller KI-fähige Systeme in ihren Fahrzeugen ein, die zahlreiche Informationen über das Fahrverhalten sammeln. Die Automobilhersteller möchten diese (vermutlich anonymisierten) Daten unter anderem nutzen, um die Systemreaktionen und das Fahrzeugdesign zu verfeinern sowie um das allgemeine Verhalten wie den Fahrstil zu bestimmen. Tesla sammelt schon jetzt solche Informationen.

Der Experte für Computer-Vision Aleix Martinez von der Ohio State University verdeutlicht seine Bedenken gegen die Technologie mit einem Foto. Es zeigt das Gesicht eines Mannes, das in einer Mischung aus Wut und Angst verzogen zu sein scheint. Dann enthüllt er das vollständige Bild. Es ist ein Fußballspieler, der nach einem Tor jubelt. Mimik, Gestik und andere Signale sind nicht nur ein Produkt des Körpers und des Gehirns, sondern auch des Kontextes – all dessen, was um eine Person herum geschieht. Das habe sich bisher als die größte Herausforderung für emotionale KI-Systeme erwiesen: mehrdeutigen Kontext zu interpretieren. »Wenn ich nicht weiß, was Fußball ist, werde ich nie verstehen können, was auf dem Bild passiert«, erklärt Martinez. »Dieses Wissen ist also von grundlegender Bedeutung, und wir haben im Moment kein KI-System, das so etwas gut kann.«

Die Technologie wird effizienter, wenn die Aufgabe gut abgesteckt ist, die Umgebung simpel und die gesammelten biometrischen Daten vielfältig – Stimme, Gesten, Puls, Durchblutung der Haut und so weiter. Künftige KI-Generationen könnten genau diese Art von Informationen miteinander kombinieren. Andererseits wird das zu noch leistungsfähigeren Anwendungen führen, auf die unsere Gesellschaft möglicherweise ebenso wenig vorbereitet ist.

QUELLEN

Barrett, L. F. et al.: Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements.Psychological Science in the Public Interest 20, 2012

Jack, R. E. et al.: Facial expressions of emotion are not culturally universal. PNAS 109, 2012

Laajaj, R. et al.: Challenges to capture the big five personality traits in non-WEIRD populations. Science Advances 5, 2019

Picard, R. W.: Affective computing. MIT Media Laboratory Perceptual Computing Section Technical Report 321, 1995

Schwemmer, C. et al.: Diagnosing gender bias in image recognition systems. Socius: Sociological Research for a Dynamic World 6, 2020

Stanley, J.: The dawn of roboter surveillance. American Civil Liberties Union, 2019