Ein Sprachassistent mit Ohren
Earnterface. Ein Interface für Ohren?
Das Projekt Earnterface befasst sich mit Sprachassistenten, die eine körperliche Form bekommen.
Wie sieht ein physisches Interface für eine künstliche Intelligenz aus? Wie verändert das unsere Wahrnehmung?
Das physische Artefakt, das eine verbale Kommunikation zwischen einer Person und einer Maschine möglich macht.
Im Bereich der Sprachassistenten und dem Thema der künstlichen Intelligenz gibt es moralische Fragestellungen, die einen Einfluss auf das Projekt hatten. Die Frage des Datenschutzes ist eine sehr präsente, da aus Stimmdaten viele Merkmale, wie Alter, körperliche Gesundheit und Herkunft extrahiert werden können. Zudem ist fraglich, ob die Daten der User-Interaktion mit Sprachassistenten wie Google Echo und Amazon Alexa verwendet werden sollen.
Da Mikrofone, die Ohren der Maschinen, meistens leistungsorientiert geformt sind, entschlossen wir uns bewusst dafür, uns mit der Form der Ohren an Menschen oder Tieren zu orientieren.
Unser Augenmerk lag dabei aber nicht nur auf der Funktion der Ohren als Sensor, sondern auch der Funktion der Ohren durch Bewegungen Gefühle und Intentionen ausdrücken zu können, wie man das auch bei verschiedenen Tieren beobachten kann.
Demnach floss das Kriterium der Beweglichkeit der Ohren schon früh in unsere Design-Entwürfe mit ein.
Das endgültige Design ist ein abstraktes, robotisches Ohr, um die Bewegung zu ermöglichen und einen Kompromiss zwischen organisch-tierischen Merkmalen und maschinell-mechanischen Merkmalen zu treffen.
Der Kopf ist dagegen bestimmt klar gestaltet, da dieser eher im Hintergrund stehen soll. Das Wabenmuster deutet auf die Sprachfähigkeit des Artefakts hin.
Um einen Sprachassistenten zu simulieren, verwenden wir ein Chat-Framework. Die Entscheidung lag dabei zwischen "Alexa Skills" und "Rasa". Letztendlich wählten wir Rasa, da unter anderem die Nutzung von Alexa Skills ein kostenpflichtiges Abonnement der Amazon Web Services vorausgesetzt hätte und Rasa gegenteilig dazu ein Open-Source-Framework und damit kostenlos ist. Außerdem hatte unsere Betreuer*in Alessandra Zarcone schon erhebliche Erfahrung mit Rasa vorzuweisen.
Für die Gestaltung des Dialogs war es unser Ziel, einen verrückten und einschüchternden Charakter zu erschaffen. Dies lässt die dominante Gesprächsführung, durch die ein funktionierender Dialog leichter zu erreichen ist, natürlicher wirken. Gleichzeitig ist die Beschaffenheit des Charakters auch eine Anspielung auf die extrem schnelle und möglicherweise bedrohende Entwicklung von künstlichen Intelligenzen.
Die Installation besteht aus einem Notebook, das per USB-Anschluss mit einem Arduino innerhalb des Kopfes verbunden ist. Auf demselben Notebook läuft ein Frontendserver mit Web Speech API, der als zentrale Schaltstelle zwischen Rasa, dem Arduino, einem Mikrofon und einem Lautsprecher fungiert. Zudem kann man auf dem Notebook den Gesprächsverlauf anhand eines grafischen Interfaces verfolgen.