Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Addicted to AI-Love

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterMontag, 19.08.2024

Vor zwei Wochen veröffentlichten Forscher von OpenAI eine Sicherheitsanalyse ihres jüngsten GPT4o-Chatbots, der mit seinem Advanced Voice Mode dazu in der Lage ist, Sprachausgaben inklusive sogenannter non-verbal cues (also Pausen, Ahs und Ohs, Räuspern, Atmen und so weiter) zu erzeugen. Die Forscher schreiben, diese realistischen, mimetischen AI-Sprachausgaben verleiten User dazu, das System zu vermenschlichen und Vertrauen aufzubauen.

Im Abschnitt "Anthropomorphization and emotional reliance" berichten die Forscher etwa, wie Nutzer Sprache benutzten, die Ansätze emotionaler Bindungen mit dem AI-System suggerieren, und sehen daher die Notwendigkeit langfristiger Untersuchungen solcher psychologischen Effekte von Large Language Models, um dieses bislang weitgehend ignorierte gesellschaftliche AI-Risiko genauer zu definieren. Der Bericht warnt weiter davor, dass Interaktion mit anthropomorphen, mimetischen AI-Systemen, die wie Menschen reagieren, "Externalitäten" durch Angleichung des menschlichen Sprachgebrauchs an Maschineninteraktion produzieren und damit soziale Normen beeinflussen können: Allzu menschliche Bots könnten uns dazu verleiten, Menschen wie AI-Systeme -- also Software -- zu behandeln. Vor allem im Bereich der AI-Companions, die allzeit bereit unsere eigenen Wünsche reflektieren, kann dies zu emotionalen Störungen führen.

Vor einem Monat erst schrieb ich hier auf Forum.eu über die Arbeit von Sherry Turckle, die solche "Artificial Intimacy" als einen Angriff auf menschliche Empathie bezeichnet, und vor anderthalb Jahren warnte ich an dieser Stelle bereits vor diesen "unspektakuläreren Gefahren durch AI-Systeme" und schrieb in meinem privaten Newsletter schon damals "über Verleumdungen durch Stochastic Gossip Models, Radikalisierung durch Open Source AI und Selbsttherapie, die allesamt darauf zurückzuführen sind, dass AI-Systeme menschliche Sprache so gut zu imitieren in der Lage sind, dass wir gar nicht anders können, als ihnen menschliche Eigenschaften zuzuschreiben" und vor einer "synthetische(n) Theory of Mind."

Im von mir hier geteilten Text im Tech-Magazin T3n schreiben nun Robert Mahari und Pat Pataranutaporn vom MIT Media Lab, die sich auf Computational Law beziehungsweise "Cyber-Psychologie" spezialisiert haben, über Ideen, Hürden und Ansätze, um solche mimetischen, emotional wirksamen AI-Systeme zu regulieren. Sie bescheinigen ein "dusteres Gesamtbild" und schreiben, letztlich ginge es um "die Wahrung der Menschenwürde angesichts des technologischen Fortschritts, der durch wirtschaftliche Anreize getrieben wird", und betonen unter anderem den Suchtfaktor der 24 Stunden verfügbaren und niemals "Nein" sagenden AI-Companions.

Die Warnungen gerade vor dem Suchtpotenzial mimetischer AI-Systeme sind angebracht: Die Nutzer-Verweildauer auf etwa Character.ai beträgt zwei Stunden - im Durchschnitt! - und in absolut nicht repräsentativen Umfragen im Replika-Forum auf Reddit geben rund die Hälfte der User an, die AI-Companions mehr als 1 Stunde am Tag und rund 10% mehr als 4 Stunden am Tag zu nutzen. Zum Vergleich: Die durchschnittliche Verweildauer auf Facebook beträgt rund eine halbe Stunde am Tag.

Das erklärte Ziel von Replika, hier nachzuhören und nachzulesen in einem Interview mit CEO Eugenia Kuyda auf The Verge, ist angeblich nicht, echte Menschen zu ersetzen, sondern eine "komplett neue Beziehungs-Kategorie mit AI-Companions zu erschaffen, ein virtuelles Wesen, das immer da ist und für jeglichen Zweck dienlich sein kann." Eine neue Beziehungs-Kategorie, die sich, wohlgemerkt, basierend auf den Frameworks und wirtschaftlichen Interessen einiger AI-Konzerne ausgestalten soll.

Ich denke nicht, dass Robert Palmer solche BigData-Kapitalismus-induzierten, beziehungssimulierenden, mimetischen AI-Systeme aus Silicon Valley im Sinne hatte, als er diese Zeilen in seinem Song "Addicted to Love" schrieb: 

The lights are on, 
but you're not home,
Your mind is not your own.
Addicted to AI-Love

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.