Wenn Vorurteile in Systemen der Künstlichen Intelligenz landen – #CIOKuratorLive Gespräch mit @SvenSemet auf der #NextAct2020 in Köln

Daten, die wir in Systeme der Künstlichen Intelligenz speisen, um sie zu trainieren, seien schon dermaßen vorkategorisiert und beinhalten Vorurteile, dass man nicht von neutralen Maschinen reden könne. Das sagte die Zukunftsforscherin Amy Webb auf dem Digitalfestival South by Southwest in Austin. Eine Lösung des Problems sei schwierig. Man müsse mehr auf Transparenz achten. Welche Forscher sind beteiligt, mit welchen Annahmen hat man gearbeitet, wo kommen die Daten her, wie wird gewichtet, welche Widerspruchsmöglichkeiten haben die Datengeber und, und, und. Die Regulierung dieser Systemschwächen war das große Thema in Austin – überraschenderweise.

All das habe ich auf der Kölner Konferenz #NextAct2020 mit dem HR-Experten Sven Semet von IBM besprochen. Das Interview fand schon großen Anklang im Netz:

Eure Meinung?

One comment

Kommentare sind sehr willkommen

This site uses Akismet to reduce spam. Learn how your comment data is processed.