sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Feminismen Liebe, Sex und Wir Kopf und Körper
Theresa Lachner ist Journalistin, systemische Sexualberaterin und Gründerin des größten deutschsprachigen Sexblogs LVSTPRINZIP, sowie des gleichnamigen Podcasts und Buchs (Aufbau/Blumenbar 2019).
Sie schrieb u.a. für Business Punk, NEON, Spiegel Online, ZEIT sowie diverse Frauenzeitschriften und ist Chefredakteurin von SCHRIFT X, dem Magazin von Beate Uhse.
Als systemische Sexualberaterin arbeitet sie sowohl mit Menschen im Einzel- und Paarsetting, als auch mit Unternehmen und Marken von Krankenkasse über Werbeagentur bis Coffeeshop und Dokumentarfilm an einem befreiteren Umgang von Sexualität und Gesellschaft.
Sie mag Pragmatismus, Schnitzel und Eisbaden.
Warum passt die Welt für manche Menschen besser als für andere? Und wie tragen nicht nur Menschen, sondern auch Maschinen zu struktureller Diskriminierung bei?
Schwarze Menschen werden von Gesichtserkennungssoftware und Lichtschranken schlechter wahrgenommen. Die Inhalte mehrgewichtiger Influencerinnen werden in sozialen Netzwerken weniger ausgespielt oder gleich gesperrt.
Symptom-Checker-Apps deuten Krankheitssymptome falsch und sorgen dafür, dass die Diskriminierung im schlimmsten Fall sogar tödlich enden kann.
Im Auftakt der neuen Doku-Reihe "Digital Empire" von ZDF Zoom geht es um unethische Technik und verzerrte Datensätze, aber auch um die Verantwortung von Wirtschaft und Politik, die digitale Welt gerechter zu machen – und um uns alle, die wir uns dieser Ungerechtigkeiten erst mal bewusst werden müssen.
Quelle: Edith Löhle Bild: ZDF www.zdf.de
Bleib immer informiert! Hier gibt's den Kanal Feminismen als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Ich möchte in diesem Zusammenhang das neue Buch von Cathy O'Neil "The Shame Machine: Who Profits in the New Age of Humiliation" empfehlen. Als Mathematikerin hatte sich bereits in ihrem 2016 erschienenen Buch "How Big Data Increases Inequality and Threats Democracy" die Vorstellung demontiert, dass Algorithmen objektiv sind. Sie zeigt dort stattdessen anhand vieler Beispiele, wie Algorithmen Ungleichheit verfestigen können und dies auch tun. In ihrem neuen Buch geht es um den Einsatz von Scham als ein wirksames Mittel, um eine systembedingte Ungerechtigkeit gegen die Betroffenen zu wenden. Wenn man sich von einen Algorithmus interessiert, hört man häufig: "Das kannst du nicht verantworten". Dieses Etikett reicht oft aus, um die betroffenen Menschen dazu zu bringen, keine Fragen mehr zu stellen. Sie fordert daher darauf zu bestehen, dass das Design der Plattformen, einschließlich der Algorithmen, geprüft und auf Toxizität überwacht wird. Kein einfacher Weg, aber machbar.