sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Medien und Gesellschaft Klima und Wandel
Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.
Vergangene Woche präsentierte OpenAI das neueste Update von ChatGPT: Der Chatbot kann nun in verschiedenen Stimmen mit Usern "reden" und "Konversation" betreiben, komplett mit "menschlichen" Füllwörtern ("Äh", "Öhm" usw.), Pausen, simuliertem Atmen, Lachen und Kichern. Diese Stimme der neuen Chatbot-Version klang genau wie die von Scarlett Johansson, die vor rund 10 Jahren bereits eine KI synchronisierte -- für Spike Jonzes Film "Her", einer melancholischen Charakterstudie über die Folgen emotionaler Bindungen an KI-Systeme. Noch während der Präsentation twitterte (xte?) OpenAI-CEO Sam Altman ein einzelnes Wort: "Her".
Heute veröffentlichte Scarlett Johansson ein Statement, in dem sie rechtliche Schritte ankündigte und OpenAI entfernte daraufhin die Stimm-Option "Sky" aus ChatGPT. Alles sei nur ein Missverständnis und die Ähnlichkeit mit der Stimme Scarlett Johanssons nicht beabsichtigt. Klaro. Wie Johanssons Statement zeigt, standen OpenAI und die Schauspielerin seit Monaten in Verhandlungen, und noch zwei Tage vor der Präsentation versuchte Altman die Schauspielerin dazu zu bewegen, seiner "Her"-Version ihre Stimme zu leihen. Johansson verweigerte die Zustimmung, und OpenAI nutzte dennoch eine Stimmfarbe, die der von Johansson maximal ähnlich war.
Ich möchte diese Episode des skrupellosen Umgangs von AI-Unternehmen mit Persönlichkeitsmarkern von Menschen dazu nutzen, um auf einen Text über die Philosophie von Bernard Stiegler hinzuweisen. Stiegler grenzte den Begriff der "Technik" vom Begriff "Technologie" ab, um zu zeigen, wie unsere Faszination mit der Oberfläche der Technologien -- die glänzenden Gadgets, die bunten Interfaces, die schnittigen Formen, und heute: die verführerischen Stimmen von bekannten Schauspielerinnen -- unser tatsächliches Verhältnis zum Werkzeug und seiner eigentlichen Wirkung auf uns als Mensch in unserem gesellschaftlich sozialen Gefüge zu verschleiern.
Stiegler entwickelte dazu den Begriff der "Pharmakologie", laut dem Technologien neuer Medien ähnlich auf uns wirken wie Pharmazeutika, und können ähnlich wie Medizin gute und schädliche Effekte aufweisen. Stieglers Begriff der Technik weist auf genau diese "pharmazeutischen" Effekte von Technologie hin: Die "Nebeneffekte", die unter der Oberfläche der Interfaces und reinen Anwendungsergebnisse schlummern.
Sam Altman hat der jüngste Version ChatGPT die Stimme einer bekannten Schauspielerin gegeben mit dem expliziten Ziel einer tatsächlichen Realisierung des fiktiven Chatbots aus Spike Johnsons Film. Die Frage ist nun, um mit Stiegler zu argumentieren, welche "pharmakologischen" Wirkungen sich hinter diesem Scarlett-Johansson-Interface tatsächlich verbirgt. Zwei Dinge fallen spontan ein.
Zum einen bestätigte jüngst eine Studie die psychoaktive Wirkung von AI-Chatbots: Ein Experiment mit über 2000 Anhängern von Verschwörungstheorien zeigte, dass eine Unterhaltung mit einem Chatbot die Überzeugungen dieser Menschen um rund 20% senken konnte. Das klingt oberflächlich betrachtet toll, bedeutet aber zunächst einfach "nur", dass ein Chatbot in der Lage ist, Menschen soweit zu beeinflussen, dass sie durchaus grundlegende Haltungen verändern. AI-Systeme sind anscheinend im Wortsinne überzeugend -- und die Nutzung der vertrauten Stimme von Scarlett Johansson bildet eine direkte Verbindung zwischen der akkustischen, nun auch hollywood-glamourösen Interface-Oberfläche der ChatGPT-Technologie und der darunter durchscheinenden Verführungskraft der sprachsimulierenden Technik.
(Vor einem Jahr habe ich den offenen Moratoriums-Brief genau aus diesem Grund unterschrieben: Ich habe nur wenig Angst vor angeblichen AI-Doomsday-Szenarien. Aber die Verführungskraft mimetischer und anthropomorpher AI-Systeme, die suggerieren, es handele sich bei der simulierten Sprache um "Persönlichkeit", und die unabsehbaren psychologischen Folgen, wenn diese "Persönlichkeiten" zu einer synthetischen Theorie des Geistes führen, in dem AI-Systeme einen echten und wirksamen Platz als "soziale Akteure" in unserer individuellen Psyche einnehmen, bereitet mir mehr Sorge als irgendein robotiger Büroklammer-AI-Bastelphillip. Ein weiteres, ähnlich gelagertes Beispiel wäre die psychoaktive Wirkung von Romantic Chatbots, die alle unsere Wünsche auf Befehl erfüllen, und damit möglicherweise unabsehbare und unerfüllbare Ansprüche in Beziehungen mit Menschen produzieren können.)
Indem OpenAI die (non-konsensual genutzten) Stimmen bekannter Schauspielerinnen nutzt, und sie betont "menschlich" gestaltet (also Füllwörter und Ohs und Ahs und Kichern benutzt), versucht OpenAI gezielt "under the skin" ihrer Nutzer zu gelangen (um den Titel eines anderen Films mit Scarlett Johansson zu zitieren). Mit dieser AI-mimetischen Verführungstaktik verschleiert OpenAI einerseits die psychoaktive Wirkung ihres Produkts, andererseits natürlich die Tatsache, dass wir für diese synthetische Verführung durch einen Chatbot teuer bezahlen in Form von gigantischen CO2-Bilanzen und einem Wasserverbrauch von Datacentern, der alleine für Microsoft im Jahr 2022 um 30% anstieg.
Dies sind nur einige der möglichen und tatsächlichen Wirkungen von ChatGPTs Technik, die OpenAIs techno-mimetische Masken bereits heute verschleiern. Weitere werden folgen.
Quelle: Bryan Norton Bild: screenshot: aeon.co EN aeon.co
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Nun... da wäre noch wesentlich länger nachzudenken.
Aber eine meiner ersten Reaktionen wäre:
Diese Art pharmazeutische Wirkung von Technologie scheint sehr gut unseren Umgang mit des deutschen liebstes Kind dem AUTO zu beschreiben, sogar der mimetische Verschleierungsaspekt ließe sich finden...