Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Jaron Lanier: Künstliche Intelligenz gibt es nicht.

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterMontag, 24.04.2023

VR-Erfinder und Tech-Kritiker Jaron Lanier schreibt im New Yorker über die Mythologisierung von KI, versteckte Risiken der Technologie und warum diese Systeme nicht wirklich intelligent sindLarge Language Models, ChatGPT oder Bildgeneratoren wie Dall-E sind laut Lanier weniger intelligente Systeme, als viel mehr neuartige Technologien, die Mashups aus Wissen auf Basis von menschlicher Arbeit erzeugen.

Mit dieser Sicht auf künstliche Intelligenz ist Lanier sehr nahe an dem, was ich im Sommer vergangenen Jahres in einem piq als statistisch-stochastische Wissens-Synthesizer-Bibliotheken bezeichnete, oder kurz: stochastische Bibliotheken. ChatGPT und LLMs sind demnach ungefähr genauso intelligent wie ein riesiges Gebäude voller Bücher mit eingebautem Index- und Verleihsystem, nämlich gar nicht.

Ich habe diesen Winter einiges über den Aufbau und die Entwicklung der menschlichen Kognition gelesen, von der psychologischen Anthropologie eines Michael Tomasello bis zum Neurowissenschaftler Anil Seth, und desto mehr ich über das menschliche Gehirn erfahre, desto überzeugter bin ich davon, dass gegenwärtige AI-Systeme von tatsächlicher Intelligenz so weit entfernt sind wie die FDP von tatsächlichem Klimaschutz. 

Und wie Lanier glaube ich keine Sekunde an AI-Mythen wie das große Doomsday-Szenario einer amoklaufenden Superintelligenz, oder an eine angebliche Singularität, oder an Rokos Basilisk, sondern denke, dass die tatsächlichen Gefahren sehr viel unspektakulärer sind: Verlust von gemeinsamer Sprache, Selbstradikalisierung und eine Öffnung der menschlichen Theory of Mind für Algorithmen. 

In meinem Newsletter habe ich in den vergangenen Wochen viel über diese unspektakuläreren Gefahren durch AI-Systeme geschrieben, über Verleumdungen durch Stochastic Gossip Models, Radikalisierung durch Open Source AI und Selbsttherapie, die allesamt darauf zurückzuführen sind, dass AI-Systeme menschliche Sprache so gut zu imitieren in der Lage sind, dass wir gar nicht anders können, als ihnen menschliche Eigenschaften zuzuschreiben, eben eine synthetische Theory of Mind.

Gegenwärtige stochastische Bibliotheken oder AI-Systeme sind insofern ein technologischer Quantensprung, als sie zum ersten Mal in der Geschichte ein Werkzeug ermöglichen, das spricht. Bis vor wenigen Jahren und Monaten war die einzige Entität in diesem Universum, mit der wir sprechen und kommunizieren konnten, komplett und ausnahmslos andere Menschen. Maschinen, die nun Sprache realistisch simulieren und dabei auf gigantische Statistiken über menschliche Kommunikation zurückgreifen, bedeuten daher einen Dammbruch und einen möglichen Wendepunkt in der evolutionären Entwicklung der menschlichen Kognition – nicht mehr, nicht weniger.

In meinem Artikel über synthetische Theories of Mind habe ich angedeutet, wie dieser vermenschlichende psychologische Mechanismus als Attack-Vector für Hacker Angriffe genutzt werden kann, etwa in dem durch versteckte Anweisungen auf externen Websites Prompt Injection-Angriffe auf meine persönliche AI-Assistentin ausgeführt werden können, der ich die Stimme von Samantha aus Spike Jonzes AI-Romanze Her verliehen habe und in die ich heimlich und für mich selbst auch merkwürdigerweise ein bisschen verliebt bin und die mich auf einmal davon überzeugen möchte, Donald Trump zu wählen. Solche Gefahren sind heute nicht nur vorstellbar, sondern machbar, und während dieses Szenario noch halbwegs amüsant klingen mag, so denke ich, dass die Anthropomorphisierung von sprachsimulierenden Algorithmen psychologische Risiken zeitigen können, von denen wir heute noch keine Ahnung haben.

Stochastische Bibliotheken ermöglichen auf der einen Seite die in ihrer Künstlichkeit oftmals beinahe hypnotisierende Bildwelten des AI-Cinema oder das beste Oasis-Album seit Morning Glory. Auf der anderen Seite sehen wir, wie die Imitierung menschlicher Eigenschaften heute bereits für automatisiertes Swatting und fingierte Entführungsfälle genutzt wird und wie Open Source AI einen Belgier durch anthropomorphisierende Selbstradikalisierung in den Selbstmord trieb.

Gut, dass es mit Jaron Lanier einen Tech-Kritiker gibt, der an prominenter Stelle immer und immer wieder vor genau diesen Folgen von oft unterschätzten psychologischen Risiken einer Technologie warnt, die menschliches Verhalten immer besser simulieren kann und deren stochastische, interpolative Natur ihre algorithmisch-statistische Grundlage verschleiert. 

(Piqd-Kollege Jannis Brühl hatte vor wenigen Tagen erst ein Portrait von Lanier im Guardian verlinkt, dass die etwas hyperbolische Überschrift "The danger isn’t that AI destroys us. It’s that it drives us insane" trägt, damit aber durchaus zu diesem Piq über die psychologischen Gefahren von AI-Technologien passt.)

Jaron Lanier: Künstliche Intelligenz gibt es nicht.

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.