sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Medien und Gesellschaft Klima und Wandel
Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.
Spätestens mit ChatGPT sind "künstliche Intelligenz" und Large Language Models im Mainstream angekommen. Microsoft und Google haben in den vergangenen Tagen ein von der New York Times sogenanntes "A.I. arms race" losgetreten, in dem praktisch alle Kernprodukte der Konzerne mit AI-Features angereichert werden, von Office bis Search. Natürlich halluzinierte Googles AI-Chatbot "Bard" ausgerechnet in einer Werbekampagne für diese Integration, was den Aktienkurs prompt (sic!) einbrechen lies.
Der bekannte Science-Fiction-Autor Ted Chiang, der mit "The Story of your life" die Vorlage zu Denis Villeneuves exzellentem Film "Arrival" lieferte, vergleicht im New Yorker-Magazin den Latent Space dieser AI-Systeme mit verlustreicher Datenkompression, die ähnlich wie bei einem JPG Artefakte aufweisen und nur eine ungefähre Näherung liefern. Mit diesem Vergleich ist er nicht allein: Emad Mostaque, Gründer von Stability.ai (Stable Diffusion), sprach nach dem Start des wegweisenden Open Source-Models davon, dass sein Team "100.000 Gigabyte von Wissen in 2 Gigabyte komprimiert" habe (ein Fakt, der wohl auch bald die Gerichte beschäftigen wird).
Diese Lesart ähnelt Alison Gropniks Interpretation dieser neuen Generativen AI-Modelle als bibliotheksartige kulturelle Technologien, die Zugang zu Wissen bereitstellen und dieses vervielfältigen. Auch dieser Vergleich ist naheliegend, und ich würde die von Algorithmen berechneten Latent Spaces davon ausgehend als stochastische Bibliotheken bezeichnen, wie eine Bücherei, in der man einem Roboter-Bibliothekar beschreibt, welches Buch man haben möchte und der dann ein ungefähr passendes heraussucht: "AI ist wie eine Schachtel Pralinen, man weiß nie, was man kriegt – aber immer bekommt man Schokolade."
Diese stochastischen Bibliotheken sind interpolationsfähige Datenbanken ihrer Trainingsdaten: Eine AI lernt durch Mustererkennung verschiedene Charakteristika ihres Inputs und speichert diese als sogenannte Weights, die man als Parameter über Prompt Engineering ansteuern kann. Eine AI, die auf Bilder von Katzen und Häusern trainiert wurde, kann ich nun über die Parameter "Katzen-artig" und "Haus-artig" eine Interpolation erzeugen, die eine Katze in einem Haus zeigt. Die Speicherung der "Katzen-artigkeit" als Weights in einer Datenbank entspricht einer Datenkompression, und die Interpolation zwischen diesen komprimierten Datenpunkten erzeugt die bekannten Halluzinationen, die in Office-Produkten oder einer Suchmaschine unerwünscht und in anderen Sektoren potenziell gefährlich sind, die allerdings grade aus diesen Gründen in der Bildsynthese oder Creative Writing für zumindest kurzweilige Unterhaltung, oft aber auch zu überraschenden und ungesehenen Ästhetiken führen, weshalb AI als "art of the archive" wohl einen der spannendsten kreativen Schauplätze unserer Zeit ausmacht.
Ausgehend von seinem Vergleich von AI-Systemen, Datenkompression, den "Halluzinationen" und JPG-Artefakten evaluiert Ted Chiang in seinem Artikel schließlich, welchen Nutzen eine solche stochastische Bibliothek voll komprimierter Sprach/Bild-Relationen in der kreativen Anwendung wirklich haben könnten, und seine Antwort ist: Keinen.
Ich würde dem teilweise widersprechen wollen und sagen, dass diese stochastischen Bibliotheken durchaus ein veritables Werkzeug für Künstler und Autoren darstellt, die ihr Handwerk bereits verstehen und die stochastische, "halluzinierende" Natur dieser Systeme als ästhetisches Element bewusst in ihrer Arbeit nutzen können. Ich würde allerdings auch sagen, dass diese interessantere AI-Kunst immer experimentellen Charakter aufweist und die interpolative Stochastik von AI-Systemen in Business-Anwendungen noch lange für ausreichend Witz-Material mit Papageien und betrunkenen Clippys sorgen wird.
Quelle: The New Yorker Bild: Vivek Thakker EN www.newyorker.com
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
danke für's piqn, rené. das ist der informativste artikel, den ich in dem ganzen hype um LLMs bisher gelesen habe. der hintergrund der jpeg analogie ist sauber dargelegt!
Ist der menschliche Zugang zu so komplexen Wissen nicht noch viel stochastischer? Also ist nicht AI viel effektiver und zielführender? Letztendlich gibt es ja immer nur Annäherungen an die unendliche Wirklichkeit.