Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Medien und Gesellschaft

AI-Regulierung tritt in ihre heiße Phase

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterDonnerstag, 02.11.2023

Die Bemühungen um AI-Regulation treten derzeit offensichtlich in ihre heiße Phase: US-Präsident Joe Biden unterzeichnete vor wenigen Tagen eine Anordnung zur sicheren Entwicklung künstlicher Intelligenz, die G7 haben einen internationalen Verhaltenskodex für Organisationen angekündigt, die fortschrittliche KI-Systeme entwickeln, die EU finalisiert derzeit ihren AI-Act, und 28 Staaten, inklusive China, unterzeichneten am ersten Tag des AI Safety Summit der britischen Regierung die sogenannte Bletchley-Erklärung.

In meinem Newsletter habe ich aufgeschrieben, warum ich diese, für Verhältnisse des politischen Parketts durchaus schnelle Entwicklung gutheiße und das Open Sourcing von AI-Technologie sehr kritisch betrachte.

Large Language Models sind automatisierte Wissens-Interpolatoren, die jedes Muster in ihren Trainingsdaten auf jede nur erdenkliche Art transformieren und ausgeben können. Ein Large Language Model enthält deshalb nicht nur alle Informationen zu, sagen wir mal, einzelnen chemischen Reaktionen, sondern auch alle Variationen zwischen diesen Reaktionen. Deshalb kann ich mit einem unzensierten Large Language Model problemlos eine Bombenbauanleitung produzieren, die im Latent Space bereits enthalten ist. Und das trifft nicht nur auf chemische Reaktionen und Bomben zu, sondern jegliches Wissen, auf das AI-Systeme trainiert wurden.

Die Interpolation von Wissen kann dazu benutzt werden, um neue Bilder aus den Trainingsdaten von Stable Diffusion zu generieren, in denen sich die unterschiedlichsten Stilrichtungen und Motive zu nie gesehenen Welten in einem neuen Output vereine. Dasselbe Prinzip angewendet auf Biologie wiederum bietet Hackern die Möglichkeit, bislang unbekannte Pathogene mit Hilfe von spezialisierten Open Source-LLMs zu finden und in DIY-Biolaboren herzustellen. Ich möchte nicht in der Nähe sein, wenn dies geschieht.

Deshalb denke ich, dass das Open Source-Paradigma im Zeitalter der künstlichen Intelligenz kein geeigneter Ansatz ist, um Sicherheit und Verantwortlichkeit zu garantieren und eine Lösung gefunden werden muss, die irgendwo zwischen "Offener Entwicklung und frei zugänglichem Code auf Github" und "AI-Entwicklung in abgeschlossenen Laboratoren großer Unternehmen" gefunden werden muss.

AI-Regulierung tritt in ihre heiße Phase

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Kommentare 2
  1. Dennis Schmolk
    Dennis Schmolk · vor einem Jahr

    Ich glaube nicht, dass die Sicherheitsversprechen von proprietärer Software jemals funktioniert haben. Und ich denke auch nicht, dass das bei künftiger Software bzw. trainierten Modellen anders ist. Bei Open Source hast du wenigstens eine Chance, zu erkennen, was schief läuft. (Ich glaube aber auch nicht, dass es unter den gegenwärtigen wirtschaftlichen und politischen Rahmenbedingungen realistisch ist, dass wir an irgend einer Stelle großflächig auf Open Source umstellen.)

    Außerdem sei angemerkt, dass "Open Source" bei diesen Modellen ja gar nicht im herkömmlichen Sinne funktioniert - man kann zwar Code offenlegen, klar, aber auch die Entwickelnden wissen ja nicht, was das Modell wirklich "gelernt" hat; und man kann es nicht debuggen, nur neu- oder nachtrainieren. Daher müsste man vielleicht erstmal definieren, was mit "Open Source" hier gemeint ist.

  2. Dieter Mayer
    Dieter Mayer · vor einem Jahr

    Als wenn technische Entwicklung sich regulieren ließe.... Der Traum jedes Faschismus!?
    Aufklärung über mögliche Folgen tut Not bei allen, die glauben, sie könnten die Welt in ihrem Sinn verändern.
    Bedenke bei allem Tun das letzte Ergebnis...

Bleib immer informiert! Hier gibt's den Kanal Medien und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.