sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Algorithmen werden aus Kostengründen immer häufiger eingesetzt, um die teure Arbeit von Führungskräften teilweise zu ersetzen. Bewertungen der Arbeitsleistungen und Lebensläufen bis hin zur Entscheidung, wer als nächstes entlassen wird, sind inzwischen selbstverständliche Aufgaben, die der Algorithmus übernimmt.
Was aber ist, wenn eine weiterreichende künstliche Intelligenz (KI) nicht nur mechanistisch Entscheidungen trifft, sondern aus dem eigenen Lernen heraus Bewertungen durchführt? Über die Verzerrung von Bewertungen aufgrund des geschlechtlichen oder migrantischen Hintergrunds des Beschäftigten wurde in den letzten Jahren bereits viel geschrieben.
Wie reagiert der KI-Mechanismus aber über diese Bias-Fragen hinaus betrachtet auf Notfälle wie den Ausfall der Kinderbetreuung, wie verständnisvoll reagiert er auf den ineffizienten Beschäftigten in dessen Einarbeitungszeit, wie geht die KI mit Fragen nach Gehaltssteigerungen um?
Letztlich ist schon jetzt offensichtlich, dass der Einsatz von KI in Führungsrollen der Arbeitgeberin Kosten spart und den Profit steigert: Was aber haben die Beschäftigten davon? Können Beschäftigte künftig noch die Arbeitgeberin wie bisher auch für Fehlverhalten rechtlich belangen? Das Machtungleichgewicht verschiebt sich weiter zugunsten der Arbeitgeberin. Wollen wir das?
Quelle: Robert Donoghue, Tiago Vieira EN theconversation.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Noch ein bisschen Geduld. In 2023 soll der Artificial Intelligence Act (AIA) vom europäischen Gesetzgeber veröffentlicht werden. In den Art. 6-51 AIA werden die Hoch-Risiko-KI-Systeme reguliert. Daraus resultieren eine Vielzahl von Anforderungen. Unter anderem sollen menschliche Entscheider stets in der Lage sein, das Ergebnis eines solchen Hoch-Risiko-KI-Systems zu „überschreiben“ oder auch die Anwendung zu beenden. Das regel- und datenbasierte Modell soll also niemals die letzte Entscheidung treffen
können. Die genannten Anwendungsbeispiele würden beispielsweise als solche Hoch-Risiko-Systeme charakterisiert werden.
Mit Hinblick auf Antidiskriminierung versteht sich der AI als eine stärkende Maßnahme in Bezug auf den Nichtdiskriminierungsgrundsatz gemäß der Charta der Grundrechte der EU. Mit dem AIA stehen vor allem die Technologien im Vordergrund. In einem Interview antwortete die US-Mathematikerin Cathy O’Neil auf die Frage, ob es einen guten Algorithmus geben kann: „Das kommt auf den jeweiligen Kontext an. Bei Einstellungen bin ich optimistisch, aber wenn wir die interessierenden Ergebnisse […] und – was am wichtigsten ist – den Begriff der Fairness sowie die Schwellenwerte nicht gut definieren, dann könnten wir am Ende wirklich bedeutungslose Regeln haben, die zu sehr oroblematischen algorithmischen Einstellungssystemen führen." Eine wirksame Regulierung sollte sich daher auf die Ergebnisse und nicht auf technische Verfahren konzentrieren.