Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

ChatGPT is Bullshit

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterMontag, 17.06.2024

Im Jahr 2005 erschien das Buch "On Bullshit" des amerikanischen Philosophen Harry Frankfurt, in dem er zwischen Lügen (Unwahrheiten mit der Intention, die Wahrheit zu verschleiern) und Bullshit (Aussagen, die wahr oder falsch sein können und angewandt werden, um die Intention des Akteurs zu verschleiern) unterscheidet. Das Buch war ein globaler Bestseller und inspirierte Bullshit-Kurse an Universitäten -- heute ist der Begriff ein gängiger Term in akademischen Arbeiten, etwa in dem breit diskutierten Aufsatz "On the reception and detection of pseudo-profound bullshit".

Seit dem Start von ChatGPT wurde AI-Technologie in dutzenden von Artikeln mit Bullshit im frankfurterschen Sinne verglichen: Ein sprachsimulierendes System, das ohne Anbindung zur Wirklichkeit funktioniert und dem es völlig egal ist, ob seine Aussagen wahr oder falsch sind. Nun haben Michael Townsen Hicks, James Humphries und Joe Slater ein wissenschaftliche Paper dazu veröffentlicht, in dem sie im Detail untersuchen, ob AI-gestützte Sprachmodellierer und Chat-Systeme nun selbst Bullshitter sind, oder einfach nur genauso Bullshit produzieren können wie Bleistifte. 

Die Autoren des Papers konzentrieren sich vor allem auf Terminologie bezüglich falscher Outputs, die angeblichen "Halluzinationen", die aber keine tatsächlichen Halluzinationen sind, da den LLM-Systemen eine Wahrnehmung fehlt, die verzerrt oder verfälscht sein könnte. Daher das Fazit des Papers: "(ChatGPT) is bullshitting, even when it's right." 

Die tatsächliche Intention der Produzenten von Sprachmodellen, die mit den Stimm- und Text-Ausgaben verschleiert werden soll und der Kern-Bullshit von AI-Chatbots liegt in der mimetischen Menschenähnlichkeit: ChatGPTs sprachsimulierendes Interface mit der kuscheligen Stimme eines Scarlett Johansson-soundalike, das wahrheitsindifferenten Text (also Bullshit) erzeugt, verdeckt die ausbeuterischen und klimaschädlichen Wahrheiten hinter der Technologie, was uns erneut zu OpenAIs mimetischen Masken führt, über die ich vor einem Monat schrieb.

Medientheoretiker Hannes Bajohr schrieb vor einem Jahr einen Text über "artificial and post-artificial Text", in dem er Roland Barthes "Tod des Autors" für AI-Technologie adaptierte und ihr bescheinigte, zu einer Irrelevanz des Text-Ursprungs zu führen. Im Pick dazu schrieb ich darüber, warum wir schon lange mit dieser post-artifiziellen Haltung zum geschriebenen Wort leben -- schließlich sind die Autoren eines sehr großen Teils unserer menschlichen Kommunikation, von Werbung über Trivial-Literatur bis zum Wetterbericht, mehr als egal.

Die mimetischen Masken der Sprachmodelle -- mimetischer Bullshit! --, die über die Nichtmenschlichkeit der Sprachsimulanten hinwegtäuschen sollen, arbeiten gegen eine solche egalitäre Haltung gegenüber dem Autoren -- sie sind dazu gedacht, echte Menschen hinter den AI-Interfaces zu vermuten. Am weitesten gedacht ist diese Selbst-Täuschung durch AI-Bullshit in der AI-Companion-Industrie, die einsamen Menschen ermöglicht, sich einen Partner vorzugaukeln, ohne irgendwelche störenden Idiosynkrasien, immer präsent und allzeit bereit.

Wie der jüngst verstorbene Philosoph Daniel Dennett tendiere auch ich dazu, die Menschenähnlichkeit von AI-Systemen, von ihm als "Counterfeit People" bezeichnet, als eine der heikelsten und wirkmächtigsten Eigenschaften der Sprachmodelle zu sehen. Dennett forderte Gefängnisstrafen für die Produzenten menschenähnlicher AI-Modelle, und auch wenn ich soweit (noch) nicht gehen möchte, erscheint mir eines völlig klar, dank dieses Papers nun auch medientheoretisch sauber hergeleitet: Counterfeit People sind Bullshit.

ChatGPT is Bullshit

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Kommentare 1
  1. Cornelia Gliem
    Cornelia Gliem · vor 6 Monaten

    Hm.
    Hm! ...

    Ich glaube man muss auf jeden Fall unterscheiden zwischen Technik, die auf der einen Seite hauptsächlich verschleiert, dass ihre Texte nicht (direkt) von Personen stammen und vortäuscht, "selbstverständlich" von Menschen verfasst zu sein und andererseits klar kommuniziert, dass sie ki-generiert schreibt.

    Das weitere ... hm.
    Da bin ich (um eine Figur in einer Krimiserie zu zitieren) "noch nicht fertig mit dem Denken" ...

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.