Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

The Dawn of the AI-Military Complex

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterDonnerstag, 25.01.2024

In meinem Newsletter habe ich grade einen Text über den sich abzeichnenden Aufstieg des neuen AI-Military Complex geschrieben, und habe ihn für Piqd mit Hilfe von ChatGPT übersetzt und anschließend editiert.

---

Der Anbruch des AI-Militärischen Komplexes

Im Dezember 2022 veröffentlichte die ukrainische Armee ein Video für russische Soldaten mit einer Anleitung "Wie man sich einer Drohne ergibt". Im Video sehen wir "drei Männer in Uniform und mit weißen Armbinden in einem Schützengraben in einer verschneiten Landschaft", die später "von einem kleinen roten Quadrocopter in ukrainische Gefangenschaft geführt werden". Diese Drohnen werden höchstwahrscheinlich (noch) von Menschen betrieben, aber es ist leicht vorstellbar, dass es schon bald automatisierte Versionen von ihnen gibt, die mit KI-gesteuerten Zielsystemen verbunden sind. Surrender or die.

Im Sommer letzten Jahres titelte die Financial Times mit "Wie das Silicon Valley dem Pentagon im KI-Wettrüsten hilft", in einem Beitrag darüber, wie das "US-Militär sich Verteidigungs- und Waffen-Start-ups annähert", die KI-Technologie verwenden. Darin wird beispielsweise das Startup Saildrone beschrieben, das autonome Segelboote baut, die Daten für eine "unvergleichliche Datenbank von Ozeankarten" sammeln, die dann mittels Machine Learning analysiert werden und zur Klimaforschung genutzt werden. Daneben war Saildrone im Jahr 2021 ein wichtiger Auftragnehmer der US Navy und half ihr, eine Flotte künstlicher AI-Systeme zu entwickeln, um Überwachung in internationalen Gewässern, einschließlich des Arktischen Ozeans rund um Russland und des Südchinesischen Meeres, durchzuführen."

Saildrone ist bei weitem nicht das einzige Unternehmen, das Fortschritte in zivilen Anwendungen von KI-Technologie nutzt, um lukrative Regierungsaufträge mit dem Militär zu landen.

In ihrer jährlichen Unitas-Übung brachte die US-Marine "Schwärme von Luft- und Seeflugdrohnen (die) Aufklärungsdaten sammelten und miteinander teilten und die einer multinationalen Flotte dabei halfen, feindliche Fahrzeuge schneller zu erkennen, zu identifizieren und auszuschalten." In diesem sogenannte Replicator-Programm konzipiert das US-Militär auch "tausend 'robotische Flügelmänner', die bemannte Flugzeuge unterstützen sollen", oder "tausende 'intelligente Satelliten', die KI verwenden, um Einheiten zu navigieren und Feinde zu verfolgen". SpaceX von Elon Musk und Blue Origin von Jeff Bezos sind sicherlich ernsthafte Kandidaten, um diese Satelliten in die Umlaufbahn zu bringen, während Eric Schmidt sein neues militärisches KI-Startup "White Stork" für "Suicide Drones" hinter einer "Matrioschka von LLCs" versteckt hat. "White Stork" ist "eine Anspielung auf den Nationalvogel und das heilige Totem der Ukraine, wo Schmidt die Rolle eines Verteidigungstechnik-Beraters und Finanziers übernommen hat".

Was sich hier abzeichnet, ist eine ganze Pipeline für KI-gesteuerte, halbautonome Entscheidungsfindung auf dem Schlachtfeld: Luft- und Seeflugdrohnenschwärme zur Informationsgewinnung, generative KI zur Analyse dieser Informationen für die Zielauswahl und schließlich autonome Luftdrohnensysteme für Angriffe. Alles, was ein Mensch hier noch tun muss, ist, die Ausgabe des Systems zu bestätigen und in einen Befehl umzuwandeln.

Autonome Waffensysteme stehen unter der Aufsicht der Vereinten Nationen, und eine Resolution zu autonomen Waffensystemen vom November 2023 erklärte, dass "ein Algorithmus keine vollständige Kontrolle über Entscheidungen haben darf, die das Töten oder Schädigen von Menschen betreffen", und dass "das Prinzip der menschlichen Verantwortung und Rechenschaftspflicht für jede Verwendung von tödlicher Gewalt erhalten bleiben muss, unabhängig von der Art des beteiligten Waffensystems". Es wäre nicht die erste UN-Resolution, die von bad actors verletzt wird.

Die USA haben ihre eigene Regulierung autonomer Waffen in der DoD Directive 3000.09, die gerade 2023 aktualisiert wurde. Human Rights Watch unterzog diese aktualisierte Richtlinie einer Überpfrüfung und fand ein interessantes Detail: die "Definition bewahrt die vorausgegangene Definition eines autonomen Waffensystems aus der Direktive von 2012, nämlich 'ein Waffensystem, das nach der Aktivierung Ziele auswählen und angreifen kann, ohne dass weitere Eingriffe durch einen menschlichen Operator erforderlich sind'", aber "die aktualisierte Direktive von 2023 entfernt das Wort 'menschlich' vor 'Operator'", und "definiert einen 'Operator' als 'eine Person, die eine Plattform oder ein Waffensystem bedient'."

Die oben beschriebene Pipeline, bei der autonome Drohnenschwärme Daten sammeln, die dann für die Zielerstellung analysiert werden, um autonome Drohnen für tödliche Angriffe einzusetzen, kann leicht als eine einzige Plattform betrachtet werden. Das bedeutet, dass ein Mensch nicht wie ehemals ein Ziel für eine autonome Waffe vorgeben kann und einen Knopf drückt. Stattdessen muss sie nur noch einen ungefähren geographischen Bereich angeben, der von Computer Vision-Systemen in Dronenschwärmen nach Kombatanten und feindlichen Einheiten durchsucht werden soll, und die gesamte Pipeline vom Zielen bis zum Abfeuern kann vollständig automatisiert werden. Der Bediener muss dem System und seinen automatisch generierten Zielen, nur vertrauen und die Ausführung von einem Befehlshaber bestätigen lassen.

Das Wort Vertrauen ist hier entscheidend: Eine Studie von 2022 ergab, dass Menschen KI-Systemen in ethischen Entscheidungsprozessen übermäßig vertrauen, während eine wissenschaftliche Vorveröffentlichung aus dem Oktober 2023 eine "starke Neigung zum übermäßigen Vertrauen in unzuverlässige KI bei lebensentscheidenden Entscheidungen unter unsicheren Umständen" feststellte, in einer Reihe von Experimenten, die "Vertrauen in die Empfehlungen künstlicher Agenten bezüglich Entscheidungen zum Töten" untersuchten. Die Implikationen sind offensichtlich: Autonome Waffensysteme werden mit immer einfacheren und breiteren Methoden zur Identifizierung und Auswahl von Zielen und deren Tötung entwickelt, und Soldaten schenken diesen automatischen Systemen in lebensentscheidenden Situationen übermäßig viel Vertrauen. Die geringfügige Änderung in der US-DoD-Direktive 3000.09, bei der das Wort "menschlich" vor "Operator" entfernt wurde, ebnete den regulativen Weg dafür.

Zumindest teilweise wird eine Pipeline wie diese bereits in realen Kriegssituationen auf dem Schlachtfeld angewendet. Im Dezember 2023 enthüllte der Guardian unter Berufung auf Berichte der israelisch-palästinensischen Publikation +972 Magazine und des hebräischsprachigen Mediums Local Call "The Gospel: wie Israel KI einsetzt, um Bombenziele im Gazastreifen auszuwählen". "The Gospel" ist eine "KI-gestützte militärische Nachrichtendiensteinheit, die eine bedeutende Rolle in Israels Reaktion auf das Hamas-Massaker im südlichen Israel am 7. Oktober spielt".

Es handelt sich kurz gesagt um ein automatisches Zielsystem, das alle Arten von geheimdienstlichen Daten aufsaugt, einschließlich "Drohnenaufnahmen, abgefangene Kommunikationen, Überwachungsdaten und Informationen aus der Beobachtung von Bewegungen und Verhaltensmustern von Einzelpersonen und großen Gruppen". Damit konnte der IDF die Zahl der generierten Ziele von 50 pro Jahr auf 100 pro Tag erhöhen, bei denen es sich um "Personen, die autorisiert sind, ermordet zu werden", handelt. Das System wurde auch als "'Massenmordfabrik' bezeichnet, in der der Schwerpunkt auf Quantität und nicht auf Qualität liegt. 'Ein menschliches Auge wird die Ziele vor jedem Angriff überprüfen, wird sich damit jedoch nicht viel Zeit lassen'". Das klingt für mich sehr nach einer "starken Neigung zum übermäßigen Vertrauen in unzuverlässige KI bei lebensentscheidenden Entscheidungen" aus der zuvor genannten Studie.

Palantir, das KI-Kriegsunternehmen von Peter Thiel, kündigte gerade eine "strategische Partnerschaft" mit Israel an, um die "fortschrittliche Technologie des Unternehmens zur Unterstützung von kriegsbezogenen Missionen zu nutzen", und man kann davon ausgehen, dass "The Gospel" sich in Zukunft noch stark verbessern wird (wenn man diese Entwicklungen als "Verbesserungen" betrachten möchte). In einer Präsentation im Jahr 2023 zeigte Palantir einen ChatGPT-ähnlichen Bot, der einen menschlichen Operator von der Benachrichtigung über eine Situation und die Identifikation des Ziels, die strategische Entscheidungsfindung bis hin zum "Weiterleiten der Optionen an die Befehlskette" für die endgültige Entscheidung zum Abfeuern führt. In diesem Szenario bleiben zwei Menschen in der Entscheidungskette: der Operator, der mit der KI interagiert, und der Befehlshaber. Formell bleibt Palantir damit innerhalb der Grenzen der von der UN-Resolution für autonome Waffensysteme festgelegten wurde. Vorerst.

In der Frühjahrsausgabe 2023 des US Army College Quarterly ersetzten Robert J. Sparrow und Adam Henschke das Framing zukünftiger Kriegsoperationen, das als "Centaur Warfighting" bekannt ist — wonach die Zukunft des Krieges in "Mensch-Maschine-Hybriden" liegt und wobei der Centaur-Ansatz sich auf die mythologische Kreatur bezieht, die halb Mensch und halb Pferd ist —, durch ein sogenanntes "Minotaur Framing", das sich auf die mythologische Kreatur mit dem Kopf eines Stiers und einem menschlichen Körper bezieht, und bei dem KI-Systeme effektiv den Kopf zukünftiger Kriegsoperationen bilden, die alle Entscheidungen in allen Phasen des Kampfes leiten und führen, was zu diesem Zeitpunkt der KI-Entwicklung zumindest mittelfristig wahrscheinlicher erscheint als scifi-artige Mensch-Roboter-Hybriden. Datenanalyse schlägt Terminator.

Vor zwei Wochen hob OpenAI sein Verbot zur Nutzung von ChatGPT für "Militär und Kriegsführung" auf und verkündete, dass es mit dem Pentagon an "Werkzeugen für Cybersecurity" arbeitet. Es liegt auf der Hand, dass die Darlings der generativen KI bei den Wargames des Pentagon mitspielen wollen, und ich bin davon überzeugt, dass sie nicht die Einzigen sind. Mit immer mehr internationalen heißen Konflikten, angefangen von Israels Krieg gegen die Hamas nach dem Massaker am 7. Oktober über Russlands Invasion der Ukraine bis hin zu lokalen Konflikten mit den Huthis, sowie dem Wettbewerbsdruck aus China, die sicherlich bereits ihre eigenen Versionen von KI-gesteuerten automatisierten Waffensystemen haben, denke ich, dass automatische Kriegspipelines von vielen internationalen Akteuren mit sehr tiefen Taschen stark nachgefragt werden, und Silicon Valley scheint mehr als bereit dafür zu sein, das auszunutzen.

Das KI-Wettrüsten der AI-Konzerne ist also tatsächlich ein Wettbewerb darum, der führende Unternehmensbestandteil des Maschinenkopfs des neuen Minotaurus zu werden.

Wenn Sie noch Zweifel daran haben, wie die KI-Industrie im Silicon Valley das notwendige Geld für ihre "lustigen" und ausbeuterischen Büro- und Marketing-Spielzeuge für Büro-Arbeiter und die explodierenden Energie- und Rechenkosten verdienen wird:

Es ist genau hier, im entstehenden AI-Militärkomplex. Und ich habe ein sehr schlechtes Gefühl dabei.

The Dawn of the AI-Military Complex

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.