Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

The Big Five warning of AI-risk before it was cool

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterDienstag, 15.08.2023

Eine Supermarktkette in Neuseeland bietet eine KI-basierte App an, mit der Kunden neue Rezepte aus verschiedenen Zutaten generieren können. Als Menschen vor einigen Tagen begannen, mit der Software zu experimentieren, stellten sie nun fest, dass die künstliche Intelligenz nicht nur lustige Kleber-Sandwiches und Mückenspray-Bratkartoffeln generierte, sondern auch ein Rezept, das Chlorgas erzeugt, ein tödlicher chemischer Kampfstoff. Der Supermarkt reagierte enttäuscht auf die Experimentierfreudigkeit seiner Kunden und sah sich gezwungen, einen Warnhinweis hinzuzufügen. 

Dieses Beispiel zeigt einerseits, dass KI-Software nur so gut ist wie ihr Input: Wer einen Chatbot nach Chlorgas fragt, wird Chlorgas erhalten, je nachdem, wie sehr die Software mit Finetuning-Methoden "aligned", also menschlichen Werten angepasst wurde. Dies ist kein Beispiel der viel gerühmten Halluzinationen, in der eine KI Nonsense generiert, sondern schlichtweg ein KI-System, das genau tut, was es soll – in diesem Fall ein Rezept basierend auf Wasser, Bleiche und Ammoniak –, das aber für seine Aufgabe nicht angepasst ist.

Andererseits zeigt dieses Beispiel auch, dass KI-Software noch nicht bereit ist für den Einsatz im Mainstream. Grade ein KI-basierter Chatbot für die Zubereitung von Speisen und Getränken muss grundsätzlich einer scharfen Kontrolle unterliegen und sich grundsätzlich an Auflagen für die Lebensmittelproduktion halten. Einen Chatbot for fun anzubieten und damit das Risiko einzugehen, dass etwa Kinder einen lustigen Giftgas-Cocktail anmischen, ist unverantwortlich.

Ein weiteres, nicht ganz so gefährliches Beispiel habe ich heute Morgen getwittert: Google generiert auf die Frage nach afrikanischen Ländern, die mit K beginnen, ernsthaft eine Antwort, die ein Kleinkind besser hinbekommen würde: Es gibt keine afrikanischen Länder, die mit dem Buchstaben K beginnen, und Kenia sei das nächstliegende, da es mit einem K beginne, aber nicht mit einem K beginnt. Der Kicker: Googles KI hat diese Wirrnis aus einem Dialog mit OpenAIs ChatGPT gelernt, ein Beispiel der sogenannten Model Autophagy Disorder, laut der KI-Systeme schlechter werden, desto mehr KI-Output in ihren Trainingsdaten enthalten ist.

Solche Systeme sind schlichtweg (noch) nicht bereit für den Einsatz in der breiten Öffentlichkeit und von den Risiken für Privacy und Informationssicherheit dank Prompt Injection und anderen Hacking-Methoden habe ich hier noch gar nicht angefangen. Doch diese Gefahren, die von dem verfrühten Einsatz von KI-Systemen ausgehen, sind bei Weitem nicht die Einzigen.

Der von mir gepiqden Text im Rolling Stone Magazine stellt fünf Frauen vor, die bereits seit Jahren vor inhärenten Biases in algorithmischen Systemen und deren Auswirkungen grade auf benachteiligte Bevölkerungsgruppen warnen. Für ihre Warnungen vor einer Technologie, die noch nicht wirklich bereit ist für einen breiten, öffentlichkeitswirksamen Einsatz wurden Joy Buolamwini, Timnit Gebru, Safiya Noble, Rumman Chowdhury und Seeta Peña Gangadharan verlacht, gefeuert und von den üblichen Silicon Valley Tech-Zirkeln ausgegrenzt. 

Ihre Arbeit geht über die viel zu viel diskutierten, oft genauso abstrakten wie unsinnigen Doomsday-Szenarien hinaus und beleuchtete vor Jahren schon die heute bereits wirksamen Effekte von Algorithmen auf bürokratische Mechanismen. Und genau deshalb sind sie für mich die "Big Five warning of AI-risk before it was cool".
The Big Five warning of AI-risk before it was cool

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.