Kurz notiert: Warum wir Männer Siri, Alexa und Co nicht beschimpfen sollten!

Auch schon mal auf Siri oder Alexa geschimpft, weil die verdammte, dumme Tante einfach nicht verstehen will, was Du sagst? Wenn ja, sind wir schon beim Thema des Beitrags rund Künstliche Intelligenz und Diversität, den das manager magazin veröffentlicht hat. Um was geht es?

Fast alle Stimmen, ob Alexa, Siri oder Google Assistant oder generell von Chatbots sind weiblich. Sie werden – so der Beitrag – als „liebevoller“, „hilfreicher“ und „gefälliger“ empfunden. Zum ersten Mal – so wird LivePerson CEO Robert Locascio zitiert – habe „Technologie ein Geschlecht“. Implizit könnte meine Beschimpfung von Siri also auch dazu führen, dass ich meine Frau anpflaume? Na ja, die weiss sich zu wehren.

Nun wurde die Initiative „Equal AI“ ins Leben gerufen, die sich mit solchen Themen befasst, denn auch bei der Entwicklung von Chatbots hat man „typisch“ weibliche und männliche Ausprägungen festgestellt. Also aufgepasst: Geschlechter- oder auch Rassen-spezifische Bias können schaden und verzerren und so zu systematischen fehlerhaftem  Wahrnehmen, Erinnern und Urteilen entsprechender KI-Systeme führen. Im Beitrag werden entsprechende Beispiele aufgeführt.

Mein Arbeitgeber IBM hat sich des Themas ja auch kürzlich angenommen und mit AI Fairness 360 (AIF360) einen Open Source-Toolkit angekündigt, mit dem unerwünschte kognitive Verzerrungen, eben Bias, und daraus folgende Diskriminierungen in Daten und Modellen entdeckt werden können.

(Stefan Pfeiffer)

P.S. Auf den Beitrag im manager magazin bin ich durch einen Tweet von Bianca Gade aufmerksam geworden.

Zuerst erschienen auf  Kurz notiert: Warum wir Männer Siri, Alexa und Co nicht beschimpfen sollten! — StefanPfeiffer.Blog

Kommentare sind sehr willkommen

This site uses Akismet to reduce spam. Learn how your comment data is processed.