sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Medien und Gesellschaft Klima und Wandel
Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.
Mit Gary Marcus und Emily M. Bender hatte ich hier auf piqd bereits zwei prominente Vertreter der englischsprachigen Kritik am AI-Hype vorgestellt, hierzulande hat jüngst IT-Experte Jürgen Geuther, den man auch als Tante auf Twitter kennt, einen langen Text auf Golem.de veröffentlicht, der sich von den Innovationen im sich scheinbar rasend schnell entwickelnden AI-Sektor gänzlich unbeeindruckt zeigt und aus linker Perspektive einigen Diskussionspunkten die heiße Luft rauslässt.
So bescheinigt er etwa, den Londoner Physiker Dan McQuillan zitierend, den AI-Unternehmen ausbeuterische Absichten, "um menschliche Arbeitskräfte zu ersetzen oder, was noch wichtiger ist, sie zu prekarisieren und zu untergraben", es gehe nicht wirklich um "echte KI mit brillanten Ergebnissen, es reichten passable Ergebnisse, um große Mengen von Menschen ökonomisch unter Druck zu setzen". Argumente, die zweifelsohne auch in den kommenden Verfahren gegen Microsofts CoPilot und Stable Diffusion im Gericht vorgetragen werden.
Ich persönlich würde in meiner Kritik nicht so weit gehen und über die Passagen kann man streiten. Ich persönlich glaube etwa einem Sam Altman, wenn er während eines Interviews mit Lex Fridman nach dem Start von GPT4 vor wenigen Wochen sagte, das Ziel sei vorrangig die Entwicklung von AGI, also künstlicher allgemeiner Intelligenz, die von menschlicher Kognition nicht mehr zu unterscheiden sei, und denke, viele AI-Enthusiasten wie Altman ordnen die sozialen Folgen dieser Entwicklung dieser Vision schlichtweg unter. Auch hierüber kann man trefflich streiten.
Tatsache aber ist, dass AI-Systeme bereits heute den Arbeitsmarkt unter Druck setzen – in der Kreativbranche, bei den Textern, im Marketing, in der IT-Branche selbst –, während die Arbeit von Millionen von Menschen, die die Trainingsdaten für die Produkte von Meta, Google, Microsoft und OpenAI geschaffen haben, ohne Entlohnung verwertet wird – Menschen, die damit unfreiwillig und gratis zu ihrem eigenen überflüssig machen beitragen. Dies geschieht, wie von Andy Baio an anderer Stelle dargelegt, indem Datensätze in einem akademischen Setting von der Fair-Use-Klausel gedeckt abgegriffen werden und schließlich in einem kommerziellen Produkt landen, was mutmaßlich eben nicht mehr von der amerikanischen Fair-Use-Regelung getragen wird. Baio bezeichnet diese Strategie daher als Data Laundering.
Geuther spricht in seinem Text durchgehend von künstlicher Intelligenz als Narrativ, das eigentlich auf der zwar innovativen Transformer-Architektur aus dem Jahr 2017 basiert, das sämtliche LLM- und Image-Synthesis-Produkte der neueren Zeit von ChatGPT bis Dall-E ermöglichte, die aber seitdem aus wissenschaftlicher Sicht nur wenig tatsächliche Innovation vorzuweisen und mit dem alten Traum einer wirklichen maschinellen Intelligenz nur wenig zu tun habe. Das Narrativ diene vor allem dazu, der Technologie, die derzeit in praktisch alle Office-Produkte und Web-Interfaces verbaut wird, eine Art Persilschein auszustellen, laut dem künstliche Intelligenz wie im bekannten One-Liner des Avengers-Villains Thanos angeblich "inevitable", also unvermeidlich sei, während wir als Gesellschaft in Wirklichkeit durchaus entscheiden könnten, auf den Einsatz von künstlicher Intelligenz zumindest in sensiblen Bereichen zu verzichten, wenn es etwa um Entscheidungen in Gesundheits- oder Pflegebereichen geht.
Die Sage von der angeblichen Alternativlosigkeit von AI-Systemen entspricht auch der Analyse des Philosophen Mark Fisher, der unseren Gesellschaften einen Capitalist Realism nachweist, in dem uns ökonomische Systeme davon überzeugt haben, es gäbe keine anderen Möglichkeiten des Wirtschaftens und der Umverteilung. Selbst ein gesellschaftsweites bedingungsloses Grundeinkommen, so Ted Chiang in einem Vortrag auf der Summit on AI in Society, übertrage die Verantwortung für die sozialen Folgen von Automation an den Staat: Die Kosten für die Ausbeutung menschlicher Arbeit durch das Training von AI-Systemen, die schließlich auch zur Vernichtung genau dieser Arbeitsplätze führen, werden sozialisiert, die Profite privatisiert. Alles alternativlos und unabwendbar, gestützt, absurderweise, auf eine Fair-Use-Klausel.
Wie fair AI-Unternehmen mit menschlicher Arbeit umgehen, werden sicher bald Gerichte beurteilen, und bis dahin ist Geuthers Text eine klare Empfehlung und der möglicherweise bislang umfassendste Überblick über die Kernpunkte linker AI-Kritik im deutschsprachigen Raum.
Quelle: Jürgen Geuther Bild: Pixabay www.golem.de
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Spannender Streifzug durch die vielschichtige Diskussion rund um LLMs, vielen Dank!
Ein Satz am Ende des Artikels hat es mir besonders angetan: "Wenn Technologie ein befreiender, bereichernder Aspekt unseres Lebens sein soll, müssen wir Menschen und Gesellschaften mit unseren Zielen und Werten im Zentrum stehen."
Ich denke, dass der Appell aktiver formuliert werden darf: Wir müssen das Wohlergehen der Menschen im Umgang mit LLMs ins Zentrum STELLEN. Ein wichtiger Ansatz scheint mir dabei im Training von Medienkompetenzen zu liegen, das Wohl der Kunden/Zielgruppen und der Dienstleistenden im Auge behalten muss. Grundlage dazu ist ein vertieftes Verständnis der in diesem Artikel skizzierten Aspekte der Funktionsweise von LLMs und deren vielfältigen Anwendungen. Ich freue mich auf weitere, vertiefende Artikel aus dieser Ecke!