sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Algorithmen greifen in immer mehr unternehmensinterne Prozesse und Entscheidungen ein oder treffen diese Entscheidungen sogar zunehmend selbst. Sie unterstützen Architekten bei der Konstruktion neuer Gebäude, Ärzte beim Treffen medizinischer Entscheidungen, Personaler bei der Auswahl neuer Arbeitskräfte oder weisen Plattformarbeitern wie Uber-Fahrern die entsprechenden Aufträge zu.
Immer häufiger - wie beispielsweise im Falle der Uber-Fahrer - handelt es sich um selbstlernende Systeme, die dann auch entsprechend selbständig Entscheidungen treffen und Aufträge vergeben. Man spricht dann vom “algorithmischen Management”.
Die Zuweisung von Aufträgen an Amazon-Mitarbeiter in den Verteilerzentren ist ein weiteres Beispiel für eigenständig entscheidende Algorithmen. Dass diese Mechanismen in ihrem Code eine Diskriminierung enthalten können, ist inzwischen hinlänglich bekannt. Ein anderes immer offensichtlicher werdendes Problem, das sich durch die Intransparenz des Codes ergibt, ist aber das sich dadurch verstärkende Ungleichgewicht in der Hierarchie von Unternehmen. Wenn der Algorithmus Entscheidungen trifft, die nicht mehr nachvollziehbar sind und gleichzeitig kein Mensch mehr dafür Verantwortung übernehmen muss, gibt es für die Angestellten keine Möglichkeit mehr, die Entscheidung an irgendeiner Stelle zu hinterfragen.
Dieses Problem wird in der Hierarchiepyramide weiter oben dadurch verstärkt, dass sich Führungsmenschen immer häufiger darauf zurückziehen können, dass ja der Algorithmus die Entscheidung getroffen hat. Die von den Studienautoren interviewten Essens-Kuriere schilderten, dass sie versucht haben, sich mit ihrem Verhalten an die Logik des Algorithmus anzupassen. Dies führt also letztlich dazu, dass ein eventueller Bias im Code durch antizipierendes vorauseilendes Verhalten der Menschen selbstreferenziell verstärkt wird. Die Studienautoren schließen mit dem Hinweis, dass es für den Fall, dass es keine internationalen Standards von “fairen Algorithmen” geben sollte, am Ende heißen dürfte:
"Without human oversight based on agreed principles we risk inviting HAL into our workplaces."
Quelle: Tom Barratt, Alex Veen, Caleb Goods Bild: Shutterstock EN theconversation.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Ist so etwas wie internationale Standards für "faire Algorithmen" denn überhaupt im Gespräch?
Und zugegebenermaßen habe ich die Brücke bezüglich HAL zu "A Space Odyssey" nicht ohne den Link bei The Conversation schlagen können. Wieder eine kulturelle Wissenslücke geschlossen, danke :)