Geschlechterneutralität:
Studie: Alexa, Siri & Co. sägen am Frauenbild der Gesellschaft
Für die Gleichberechtigung der Frau haben Generationen von Feministen jahrzehntelang gekämpft. Virtuelle Assistenten wie Alexa und Siri machen diese Bemühungen wieder zunichte.
Dass virtuelle Assistenten wie Alexa und Siri standardmäßig mit Frauenstimmen jeder Bitte folgsam nachkommen, ist für die Gleichberechtigung der Geschlechter Gift, zeigte ein aktueller Bericht der Unesco. Demnach fördern die Sprachassistenten ein unterwürfiges Frauenbild, wecken bei Männern falsche Erwartungshaltungen gegenüber echten Frauen und steigern die Akzeptanz sexistischer Beleidigungen, zitiert die FAZ aus der Studie. Zudem würde die Frauenstimme auch zum Gesicht für Hard- und Software-Fehler, was bei männlichen Nutzern zur Schlussfolgerung führen könnte: "Kein Wunder, dass Alexa meine Frage nicht verstanden hat, sie ist ja eine Frau".
Die Studienautoren monieren auch, dass Alexa nicht adäquat reagiert, wenn sie beschimpft wird. Auf die Bezeichung "Schlampe" antwortet Amazons virtuelle Assistentin mit der Floskel "Danke für das Feedback." Siri erwidert: "Ich würde erröten, wenn ich könnte." Und Cortana macht gleich ganz auf Dummchen und antwortet: "Tut mir leid, das habe ich nicht verstanden." Keine Assistentin würde sich gegen derart sexistische Beleidungen passend zur Wehr setzen, kritisiert die Unesco.
Um die Sensibilität für Geschlechterneutralität in diesem Bereich zu steigern, spricht sich Saniye Gülser Corat, Leiterin des Unesco-Bereichs für Gleichberechtigung, für einen höheren Frauenanteil unter Entwicklern künstlicher Intelligenzen aus. Aktuell sind nur zwölf Prozent der Forscher in diesem Bereich und sechs Prozent der Entwickler weiblich. Frauen sollten in diesem Bereich deshalb mehr gefördert werden, so ihr Vorschlag.