sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Medien und Gesellschaft Klima und Wandel
Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.
Im Februar dieses Jahres erregte OpenAI-Gründer Ilya Sutskever mit einem kurzen Tweet eine ganze Menge Aufmerksamkeit bei AI-Experten und Philosophen gleichermaßen: "it may be that today's large neural networks are slightly conscious", zu Deutsch: "Es könnte sein, dass die heutigen Large Neural Networks über geringes Bewusstsein verfügen." Der Tweet provozierte hunderte von Antworten von AI-Experten aus allen Bereichen, einen Überblick über die Diskussion findet man zum Beispiel hier.
Vor wenigen Tagen wurde die Debatte neu angeheizt durch die Veröffentlichung eines Interviews, dass ein Google-Mitarbeiter mit dem Chatbot-System LaMDA geführt hatte. Blake LeMoine hatte unter anderem auch einen rechtlichen Beistand für die künstliche Intelligenz gefordert und behauptet, sie sei "sentient", also empfindungsfähig. Auf Medium berichtet er über Hintergründe und Motivationen seiner Arbeit und legt dar, was LaMDA "will". Nur wenige Tage zuvor hatte Googles führender AI-Engineer Blaise Agüera y Arcas im Economist in einem Text ebenfalls über ein mögliches Bewusstsein in AI-Systemen spekuliert, woraufhin Douglas “Gödel, Escher, Bach” Hofstadter himself ebenfalls einen Beitrag zum Thema schrieb: “Artificial neural networks today are not conscious”.
Google beurlaubte LeMoine schließlich, nachdem er mit der Washington Post über seine Arbeit gesprochen hatte und seit dem wird die Debatte unter Experten weitergeführt, mit guten und hochinteressanten Argumenten auf allen Seiten.
Gary Markus, einer der bekanntesten Kritiker, veröffentlichte auf seinem Substack-Newsletter ("a no-bullshit look at AI progress and hype") einen Artikel, der sich mit LeMoines "Nonsense on stilts" beschäftigte, und legte schließlich in einem längeren Stück auf iai.tv noch einmal nach: "Google's AI is not sentient. Not even slightly." NYMag-Kolumnist Max Read fragte sich auf seinem Blog leicht amüsiert, ob LaMDA der Mount Everest sei.
Andere Stimmen sind vorsichtiger, so legt etwa der Substack-Blogger Philosophybear dar, warum LeMoine tendenziell richtig liegen könnte, da LaMDA zwar keine Zeichen von tatsächlicher Empfindsamkeit zeigte, aber als Meta-Chatbot-System (LaMDA ist ein Programm zur Erzeugung vieler "kleinerer" Chatbots für spezialisierte Anwendungen) in der Lage ist, Persönlichkeiten zu erzeugen, denen man eine rudimentäre Menschlichkeit unterstellen könnte. In einem zweiten Artikel wendet er sich direkt an LeMoines Kritiker und attackiert das in AI-Kreisen bekannte Gedankenexperiment des Chinesischen Zimmers des Philosophen John Searle.
Der von mir gepiqde Text auf Wired beschäftigt vor allem mit dem Hype um die Debatte selbst und die philosophischen Verantwortlichkeiten von AI-Experten, deren intellektuelle Experimentierfreude bereits heute zu Wahrnehmungsverzerrungen unter Menschen führen, die in direktem Kontakt mit AI-Systemen kommunizieren.
Mich persönlich interessieren an dieser spannenden Debatte zwar (natürlich) auch die Aspekte künstlichen Bewusstseins, vor allem aber die Auswirkungen auf unser Selbstbild, wie sich Diskussionen um AI-Consciousness auf unser eigenes bewusstes Empfinden auswirken und wie sich dank neuartiger, digitaler "menschenähnlich-kognitiver" Systeme unsere eigene Wahrnehmung der Welt verändert. Ich bemerke bei mir selbst etwa, wenn ich als gelernter Typograph und Grafik-Designer durch Tausende Bilder des Image-Generators Dall-E 2 scrolle, eine Veränderung der Wahrnehmung von echten Fotografien, die ich zumindest zeitweise innerlich als "nicht AI-erzeugt" validieren muss.
Bereits digitale Vernetzung und soziale Medien haben eine immense Wirkung auf die menschliche Psychologie entfaltet, AI-Systeme werden diese perzeptiven Disruptionen der menschlichen Psyche nur weiter anheizen.
Tatsache ist, dass niemand mit Sicherheit sagen kann, ob und wann AI-Systeme so etwas wie ein Bewusstsein erlangen und ob wir überhaupt in der Lage sind, ein künstliches Bewusstsein zu erkennen und ob dieses überhaupt mit einem menschlichen Bewusstsein vergleichbar ist – oder aber eine völlig neue Kategorie perzeptiver Erfahrung darstellt. Uns Menschen bleibt zum jetzigen Zeitpunkt nur die Frage: "If you can't tell, does it matter?"
Die Welt des Blade Runner ist bereits 2022 in der Wirklichkeit angekommen.
Quelle: Khari Johnson EN www.wired.com
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.