Smartphones sollen Emotionen erkennen

0
36

Ingenieure an der University of Rochester haben einen Algorithmus entwickelt, der gefühlserkennende Smartphones ermöglichen könnte. Denn die Lösung, die heute, Mittwoch, im Rahmen des IEEE Workshop on Spoken Language Technology genauer vorgestellt wird, kann verschiedene Emotionen anhand der Stimme abschätzen und das Tests zufolge mit bisher unerreichter Zuverlässigkeit. Ein App-Prototyp nutzt das bereits, um entsprechend der Stimme des Users ein fröhliches oder trauriges Gesicht anzuzeigen.

Gute Laune am Handy: Bald Sprach-erkennbar (Foto: Joachim Kirchner/pixelio.de)

Das neue Programm betrachtet zwölf Charakteristiken gesprochener Worte, wie beispielsweise Tonlage und Lautstärke, um so auf eine von sechs Emotionen zu schließen. Die Worte selbst sind dabei unerheblich. „Wir haben Aufnahmen von Schauspielern verwendet, die das Datum vorlesen“, sagt Wendi Heinzelman, Professorin für Elektrotechnik und Informatik. Bei der Analyse der Aufnahmen konnte das System mit 81-prozentiger Genauigkeit die Gefühlslage – beispielsweise „fröhlich“ oder „angewidert“ – richtig bestimmen, wenn es die Stimme bereits kannte. Das ist ein sehr guter Wert, allerdings mit der Einschränkung, das nur mit Aufnahmen gearbeitet wurde.

„Im wirklichen Leben müssen wir Emotionen in Echtzeit erkennen. Wir müssen die Gefühle während des Sprechens erfassen“, meint Spracherkennungsexperte Léon Rothkrantz, Professor an der Technischen Univsität Delft. Denn erst das eröffnet wirklich alle mit der Emotionserkennung verbundenen Möglichkeiten – etwa, das Notfallzentralen die Dringlichkeit von Anrufen abschätzen oder auch, dass ein Simultanübersetzungssystem wirklich den vollen Inhalt einer Aussage transportieren kann.

So sich der Algorithmus der University of Rochester auch unter realen Bedingungen bewähren kann, wäre er aber sehr interessant für ein breites Anwendungsspektrum. Ein Beispiel sind Smartphone-Apps, die weit über den aktuellen Prototypen hinausgehen. „Man kann sich leicht eine komplexere App vorstellen, die die Technologie für alles Mögliche vom Anpassen der angezeigten Farben auf dem Display des Handys bis hin zum Abspielen von zur eigenen Laune passenden Musik nutzt“, so Heinzelman.

Ein völlig anderes Anwendungsbeispiel ergibt sich aus der Zusammenarbeit der Ingenieure mit Psychologen an der University of Rochester, die die Interaktion von Teenagern und Erwachsenen studieren. „Eine zuverlässige Möglichkeit, Emotionen zu kategorisieren, könnte für unsere Arbeit sehr nützlich sein“, meint Psychologieprofessorin Melissa Sturge-Apple. Denn dann müsste nicht immer ein Forscher Gesprächen beiwohnen, um den Gefühlszustand der Beteiligten händisch aufzuzeichnen. (pte)

Diskussion: Neuen Beitrag verfassen