sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Der Rat der Stadt New York hat beschlossen, dass die BürgerInnen der Stadt bei Bewerbungen auf eine Arbeitsstelle nicht durch KI-basierte Werkzeuge bewertet werden dürfen. Nachdem in den letzten Jahren die impliziten Verzerrungen (Gender, Herkunft, Religion etc.) von KI-Werkzeuge bei der Bewertung von Menschen im Zuge von Bewerbungen in- oder externer Art bekannt geworden sind, wollte der Rat der Stadt nun ein Zeichen setzen. Die Anwendung von KI-basierten Werkzeuge bei der Einstellung von BewerberInnen ist nur dann zulässig, wenn die Unternehmen einmal pro Jahr eine Unbedenklichkeitsprüfung durchlaufen und damit garantieren, dass die KI “verzerrungsfrei” arbeitet.
Das was sich auf den ersten Blick positiv anhört, offenbart aber auf den zweiten Blick eklatante Schwächen und könnte sogar das Gegenteil von dem bewirken, was eigentlich intendiert war: Die Unbedenklichkeitsprüfung enthält nach Auffassung von ExpertInnen keine weitreichenden Prüfungskriterien: Herkunft und Gender werden zwar überprüft, Alter und Behinderungen werden aber außer acht gelassen.
"The bill was recently watered down so that it effectively just asks employers to meet existing requirements under U.S. civil rights laws prohibiting hiring practices that have a disparate impact based on race, ethnicity or gender. (...) The burden of these audits falls on the vendors of the tools to show that they comply with some rudimentary set of requirements that are very easy to meet."
Zudem erfasst die Notwendigkeit der Unbedenklichkeitsprüfung keine internen KI-Werkzeuge zur Bewertung von Arbeitskräften, wie sie Amazon weitreichend nutzt. Ist dieser Beschluss also nicht mehr als “gut gemeint” und wird sich am Ende sogar zu einem Freifahrtschein für die Verwendung von KI zur Personalauswahl entwickeln?
Quelle: Matt O'Brien Bild: Pymetrics EN techxplore.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Da sowohl menschliche als auch algorithmische Entscheidungen immer die Gefahr der Voreingenommenheit mit sich bringen, ist es nicht immer der beste Ansatz, Algorithmen vollständig zu entfernen. In einigen Fällen sind voreingenommene Algorithmen sogar leichter zu beheben als voreingenommene Menschen. Aufgabe der politischen Entscheidungsträger ist es, dafür zu sorgen, dass die Algorithmen dies auf gerechte, ausgewogene und nicht diskriminierende Weise tun. Ob dies im dargestellten Fall in New York gelungen ist, kann in der Tat bezweifelt werden.
Um diese gewünschte Balance zu erlangen, sind drei wichtige Schritte erforderlich (gelten für alle zu regulierenden KI-Bereiche). Erstens müssen die Regulierungsbehörden den Begriff der Voreingenommenheit praktisch definieren, d. h. im Hinblick auf seine realen Folgen. Zweitens müssen die Aufsichtsbehörden der jeweiligen regulierten Branche dringend benötigte Leitlinien an die Hand geben und Ziele für objektive, harte Untersuchungen von voreingenommenen Algorithmen zu definieren. Drittens sollten die Regulierungsbehörden auf spezifischen internen Rechenschaftsstrukturen, Dokumentationsprotokollen und anderen Präventivmaßnahmen bestehen, die Voreingenommenheit und Diskriminierung verhindern können, bevor sie entsteht.
Anstelle von präskriptiven Regeln, die in einem sich schnell entwickelnden Bereich schnell veralten würden, sind diese Praktiken eine solide Grundlage für die Abschwächung von Voreingenommenheit.