sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Fundstücke
In Hohenlimburg geboren und in Berlin lebend. Recherchen in knapp vierzig Ländern für Feature-Redaktionen des Deutschlandfunks, verschiedener ARD-Sender sowie u.a. auch DIE ZEIT und FAS, einige Auszeichnungen, Bücher zu den Themen MENSCHENWERTBERECHNUNG, DEMENZ und HEIMAT, zuletzt vorwiegend Theaterstücke mit Uraufführungen an den Staatstheatern Karlsruhe, Nürnberg und Weimar.
Der Nutzer als berechnetes und berechenbares Wesen ist in seinem Verhalten ziemlich durchschaubar.
Adrian Lobe schreibt in der SZ über die Auswirkungen algorithmischer Empfehlungssysteme auf Kunst und Kultur.
Es gibt im Digitalen kein Flanieren mehr, kein zufälliges Stehen- oder Hängenbleiben an einer Sache. Was wir lesen, sehen, hören, essen und fühlen, entscheiden und manipulieren immer häufiger Algorithmen.
Hintergrund ist die Tatsache, dass beispielsweise Netflix jeden Film "in seine mathematischen Einzelteile" zerlegt und künstlerische Entscheidungen bei seinen Eigenproduktionen einerseits weitgehend von der Analyse der allgemeinen Sehgewohnheiten bestimmen lässt, und andererseits dem einzelnen Nutzer mit immer feineren Marketingmaßnahmen nur das vorschlägt, was ihm nach immer weiter optimierten Wahrscheinlichkeitsrechnungen gefallen wird.
Doch durch die Berechnungen und Prognosen des Gefallens wird eine Variable eliminiert, die für den Kultur- und Wissenschaftsbetrieb elementar ist: der Zufall.
Diese Beobachtung ist nicht neu. Mittlerweile wurde auch ein Algorithmus für den Buchmarkt entwickelt, der angeblich das Bestsellerpotential von Manuskripten vorhersagen kann. Trotzdem oder gerade deswegen scheint es mir wichtig, auf die Folgen dieser durchaus diskussionswürdigen Entwicklung hinzuweisen, in der Algorithmen mehr und mehr "kulturelle Objekte, Prozesse und Erfahrungen generieren".
Der US-Informationstheoretiker Christian Sandvig spricht von einer "korrupten Personalisierung": Mit Algorithmen, die vorgeben, unseren Interessen zu dienen, hätten wir ein System geschaffen, das vor allem kommerziellen Interessen dient, die im Widerspruch zu unseren eigenen stehen.
Die Frage ist, ob wir das wirklich als selbstverständlich akzeptieren wollen.
Quelle: Süddeutsche.de GmbH, Munich, Germany Bild: Sky Deutschland/obs sueddeutsche.de
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Diese Diskrepanz zwischen reflektiert gewollten Verhalten und reflexhaftem Verhalten ist im Silicon Valley nicht nur bekannt, sondern wird dort als Werkzeug missbraucht. Eine ganze Generation von Designern ist in Stanford durch den digitalen Wiedergänger des Behaviorismus beeinflusst worden. Die Annahme ist, dass Design das Verhalten von Menschen beeinflussen, diese gewissermaßen programmieren kann. Obwohl der Bevhaviorismus in der Psychologie recht schnell wieder aussortiert wurde, kann man schlecht leugnen, dass Designentscheidungen in Software (z.B. der Like-Button) durchaus eine stark manipulative Wirkung haben.
Was hat das mit dem Thema zu tun? Der Witz ist, dass jede Plattform ihre Nutzer so manipuliert, dass diese im Interesse der jeweiligen Plattform handeln. Das kann durchaus identisch sein mit den eigenen Interessen (z.B. Spotify). In den meisten Fällen ist es dies aber nicht. Ich vermute hinter der allerorts beklagten Technologie-Müdigkeit, steckt das Bewusstmachen dieser Diskrepanz. Machine Learning optimiert Software auf Basis manipulierten, nicht gewollten Verhaltens. Das mag eine Zeitlang funktionieren. Irgendwann kippt dieses System aber und Nutzer wenden sich ab. Facebook steuert auf diesen Punkt zu, würde ich vermuten und ob Netflix bessere narrative Entscheidungen auf dieser Basis trifft, halte ich auch für höchst unwahrscheinlich.