sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Medien und Gesellschaft Klima und Wandel
Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.
Vor zwei Wochen veröffentlichten Forscher von OpenAI eine Sicherheitsanalyse ihres jüngsten GPT4o-Chatbots, der mit seinem Advanced Voice Mode dazu in der Lage ist, Sprachausgaben inklusive sogenannter non-verbal cues (also Pausen, Ahs und Ohs, Räuspern, Atmen und so weiter) zu erzeugen. Die Forscher schreiben, diese realistischen, mimetischen AI-Sprachausgaben verleiten User dazu, das System zu vermenschlichen und Vertrauen aufzubauen.
Im Abschnitt "Anthropomorphization and emotional reliance" berichten die Forscher etwa, wie Nutzer Sprache benutzten, die Ansätze emotionaler Bindungen mit dem AI-System suggerieren, und sehen daher die Notwendigkeit langfristiger Untersuchungen solcher psychologischen Effekte von Large Language Models, um dieses bislang weitgehend ignorierte gesellschaftliche AI-Risiko genauer zu definieren. Der Bericht warnt weiter davor, dass Interaktion mit anthropomorphen, mimetischen AI-Systemen, die wie Menschen reagieren, "Externalitäten" durch Angleichung des menschlichen Sprachgebrauchs an Maschineninteraktion produzieren und damit soziale Normen beeinflussen können: Allzu menschliche Bots könnten uns dazu verleiten, Menschen wie AI-Systeme -- also Software -- zu behandeln. Vor allem im Bereich der AI-Companions, die allzeit bereit unsere eigenen Wünsche reflektieren, kann dies zu emotionalen Störungen führen.
Vor einem Monat erst schrieb ich hier auf Forum.eu über die Arbeit von Sherry Turckle, die solche "Artificial Intimacy" als einen Angriff auf menschliche Empathie bezeichnet, und vor anderthalb Jahren warnte ich an dieser Stelle bereits vor diesen "unspektakuläreren Gefahren durch AI-Systeme" und schrieb in meinem privaten Newsletter schon damals "über Verleumdungen durch Stochastic Gossip Models, Radikalisierung durch Open Source AI und Selbsttherapie, die allesamt darauf zurückzuführen sind, dass AI-Systeme menschliche Sprache so gut zu imitieren in der Lage sind, dass wir gar nicht anders können, als ihnen menschliche Eigenschaften zuzuschreiben" und vor einer "synthetische(n) Theory of Mind."
Im von mir hier geteilten Text im Tech-Magazin T3n schreiben nun Robert Mahari und Pat Pataranutaporn vom MIT Media Lab, die sich auf Computational Law beziehungsweise "Cyber-Psychologie" spezialisiert haben, über Ideen, Hürden und Ansätze, um solche mimetischen, emotional wirksamen AI-Systeme zu regulieren. Sie bescheinigen ein "dusteres Gesamtbild" und schreiben, letztlich ginge es um "die Wahrung der Menschenwürde angesichts des technologischen Fortschritts, der durch wirtschaftliche Anreize getrieben wird", und betonen unter anderem den Suchtfaktor der 24 Stunden verfügbaren und niemals "Nein" sagenden AI-Companions.
Die Warnungen gerade vor dem Suchtpotenzial mimetischer AI-Systeme sind angebracht: Die Nutzer-Verweildauer auf etwa Character.ai beträgt zwei Stunden - im Durchschnitt! - und in absolut nicht repräsentativen Umfragen im Replika-Forum auf Reddit geben rund die Hälfte der User an, die AI-Companions mehr als 1 Stunde am Tag und rund 10% mehr als 4 Stunden am Tag zu nutzen. Zum Vergleich: Die durchschnittliche Verweildauer auf Facebook beträgt rund eine halbe Stunde am Tag.
Das erklärte Ziel von Replika, hier nachzuhören und nachzulesen in einem Interview mit CEO Eugenia Kuyda auf The Verge, ist angeblich nicht, echte Menschen zu ersetzen, sondern eine "komplett neue Beziehungs-Kategorie mit AI-Companions zu erschaffen, ein virtuelles Wesen, das immer da ist und für jeglichen Zweck dienlich sein kann." Eine neue Beziehungs-Kategorie, die sich, wohlgemerkt, basierend auf den Frameworks und wirtschaftlichen Interessen einiger AI-Konzerne ausgestalten soll.
Ich denke nicht, dass Robert Palmer solche BigData-Kapitalismus-induzierten, beziehungssimulierenden, mimetischen AI-Systeme aus Silicon Valley im Sinne hatte, als er diese Zeilen in seinem Song "Addicted to Love" schrieb:
The lights are on,
but you're not home,
Your mind is not your own.
Quelle: Robert Mahari und Pat Pataranutaporn Bild: Midjourney / t3n t3n.de
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.