KI-Waffensysteme − Spiel mit dem Feuer

Mit dem 5G-Netzausbau kommt bekanntermaßen auch das Zeitalter der Künstlichen Intelligenz (KI), welches alle Ebenen des Lebens revolutionieren soll. Interessanterweise wird hier bei aller Euphorie und Schwärmerei in nüchternen Zahlen jährlich ein Vielfaches mehr Mittel in militärische als in zivile Entwicklungen gesteckt. So berichtet der KI-Entwickler und Gegner der KI-Waffensysteme Max Tegmark in seinem Buch „Leben 3.0, Mensch sein im Zeitalter Künstlicher Intelligenz“, dass 2016 in den USA die zivilen Investitionen zur KI 1 Milliarde Dollar betrugen, der militärische Budgetbedarf des Pentagons diese mit 12 bis 15 Milliarden Dollar aber weit in den Schatten stellte.

Heute (Stand 2021) sind die USA bei den Militärausgaben mit 801 Milliarden Dollar nach China (293 Milliarden), Indien (76,6 Milliarden), England (68,4 Milliarden), Russland (65,9 Milliarden) absoluter Spitzenreiter, doch längst nicht mehr allein. Da laut Sipri-Friedensforschungs-Institut Stockholm 2021 weltweit einige Staaten insgesamt über 2 Billionen (2.113 Milliarden US-Dollar) für militärische Zwecke ausgaben. Worunter natürlich auch KI-Waffensysteme einen hohen Stellenwert einnehmen. Denn wie Russlands Präsident Putin 2017 äußerte:

„Wer in diesem Bereich die Führung übernimmt, wird die Welt beherrschen.“

Dieser Beitrag möchte deshalb folgende Fragen ergründen:

  • Wohin führt das neue Wettrüsten?
  • An welchen Entwicklungen wird hier geforscht?
  • Sichern KI-Waffen wirklich den Weltfrieden oder schaffen sie neue Bedrohungen?
  • Und haben wir mit der KI tatsächlich den heiligen Gral der Wissenschaft gefunden oder eher die Büchse der Pandora geöffnet?

KI-Waffensysteme − Definition(en)

KI-Waffen werden laut Definition auch gern als „letale autonome Waffensysteme“ bezeichnet. Welche auf einer Podiumsdiskussion zum aktuellen technischen Entwicklungsstand am 26. Januar 2021 der Humboldt-Universität Berlin unter dem Thema „Letale Autonome Waffensysteme so definiert wurden:

„LAWS definieren wir als Waffen, die einen Menschen orten, identifizieren und töten können, ohne dass ein Soldat daran beteiligt ist. Es sind Technologien, die ein hohes Maß an Autonomie erfordern. Die ReferentInnen betonen erstmal, dass die Definition nicht so sehr umstritten ist, wie wir zunächst erwähnt haben. Das internationale Komitee des roten Kreuzes betrachtet LAWS als Waffensysteme, die selbständig und ohne menschliche Kontrolle ihr Ziel auswählen, identifizieren und angreifen können. Diese Bezeichnung ist verbindlich. Dazu wird klargestellt, dass ein militärisches Ziel nicht unbedingt ein Mensch sein muss.“

Ziele können also Menschen oder spezielle Volksgruppen aber auch neben Gebäuden, Bunkeranlagen, AKWs …, das Hacken der Infrastruktur eines Landes durch KI sein. Unterschieden werden kann hierbei in voll- oder teilautonome Waffensysteme. Teilautonome Waffen unterstehen noch einem menschlichen Befehl, vollautonome Waffen nicht. Doch bevor wir uns detaillierter anschauen, welche Entwicklungen es hier gibt, wäre es erst einmal wichtig zu klären …

Weshalb wir KI-Waffensysteme „brauchen“

Wer nämlich nach den Ursachen dieser neuen Entwicklungen sucht, stößt auf einige interessante Punkte in der Argumentation und Rechtfertigung von KI-Waffen. Wovon viele der angeführten und öffentlich sogar zugegebenen Gründe überraschenderweise geistiger Natur sind. Was bedeutungsvoll ist in einer Welt, die meist nur wissenschaftlich denkt und (fast nur) an das glaubt, was sie sieht, messen, wiegen, riechen oder anfassen kann. Und bei der Energie, die hier auch an Mitteln investiert wird, schnell vergessen wird. Dabei handelt es sich um gesellschaftlich tiefsitzende Gründe wie:

Angst und Misstrauen

Zitat:

„Die Vereinigten Staaten müssen jetzt handeln, um KI-Systeme einzusetzen und wesentlich mehr Ressourcen in KI-Innovationen zu investieren, um ihre Sicherheit zu schützen, ihren Wohlstand zu fördern und die Zukunft der Demokratie zu sichern«, heißt es in dem Bericht. Ein globales Verbot solcher Waffensysteme wäre dagegen nicht im Interesse des Landes – weil sich die wichtigsten strategischen Gegner ohnehin nicht daranhalten würden: ‚Zusagen von Staaten wie Russland oder China würden wahrscheinlich bedeutungslos sein’, so das Fazit der Kommission. Amerika solle so viel investieren wie möglich, um einen Vorsprung vor Ländern wie Russland, vor allem aber China zu behalten, diese Dominanz würde dann für Stabilität sorgen. Aufrüsten für den Frieden, sozusagen.“

Das neue Wettrüsten

Die 20 weltweit am meisten aufrüstenden Nationen wie die USA, China, Indien, Großbritannien, Russland, Frankreich, Deutschland, Saudi-Arabien, Japan, Südkorea, Italien, Australien, Kanada, Iran, Israel, Spanien, Brasilien, die Türkei, Niederlande und Polen befinden sich also durch Angst, Neid, Misstrauen usw. „getrieben“, in einem endlosen Kampf auf den „Schlachtfeldern der Zukunft“ überlegen oder unterlegen zu sein. Was einen Rüstungswettlauf startet, der schnell in einer ungebremsten Eskalationsdynamik gipfeln kann.

Zitat www.deutschlandfunk.de:

„Wenn ein Land, ein Akteur anfängt, gewisse Systeme anzuschaffen, dann sehen sich Gegner gezwungen, diese Systeme auch anzuschaffen, um sich dagegen zu schützen. Also es geht nicht einfach nur darum, alle schaffen die sich an, weil die der Meinung sind, die funktionieren gut, sondern es gibt so eine Art Zwang. Der eine zieht vor und dann muss der andere nachziehen und es gibt so eine Eskalationsdynamik, die extrem teuer werden kann und vor allen Dingen auch sehr destabilisierend. Also dass man ebenso eine Situation hat, wo man sagt: ‚Jetzt bin ich gerade vorne, jetzt muss ich den anderen angreifen, weil sonst zieht der wieder nach und es wird alles schwieriger.’

Es gibt also einen Mix aus Begeisterung für die neue Technik und ihre Möglichkeiten, und dem Narrativ eines KI-Wettlaufs, den kein Land verlieren will. Mit einer sich verändernden geostrategischen Lage wächst der Druck, KI einzusetzen, bevor sie wirklich einsatzbereit ist. Verschiedene Staaten dürften diesem Druck unterschiedlich schnell nachgeben.

Vom Faustkampf zur KI-Kriegsführung

Was historisch gesehen also noch recht harmlos mit den Fäusten begann, über Pfeil und Bogen zu Schwertern und ersten Entwicklungen des Militärs zum Schießpulver, dann zu maschinellem, atomaren und nun zum KI-Waffen-Wettrüsten führte, droht also in einem niemals endenden Rüstungswettlauf auszuufern. Der jederzeit auch eskalieren kann, da mit KI immer schnellere Entscheidungen in immer kürzerer Zeit getroffen werden. Wodurch man Konflikten keine Zeit mehr lässt, sich abzukühlen, wie Experten meinen. Weshalb der Nobelpreisträger Stephen Hawking kurz vor seinem Tod nicht zu Unrecht anmerkte, dass – wenn wir nicht aufpassen, es mit der Entwicklung und dem Einsatz von KI auch unser letzter Entwicklungssprung sein könnte.

Profitsucht

Ein weiterer Grund für das neue Wettrüsten im Bereich der KI ist natürlich, dass mit Waffen mehr Geld verdient werden kann als mit zivilen Entwicklungen. So gilt die Waffenproduktion als „Rettungsanker in wirtschaftlichen Krisenzeiten“ (wie der Coronapandemie), da sie unabhängig vom industriellen Komplex eines Landes fungiert.

Das Lager- und Überbevölkerungsproblem

Außerdem lösen Kriege angeblich das Lagerproblem von zu vielen veralteten (sich stapelnden?) Waffen oder – wie es in der umstrittenen, jedoch immer noch aktuellen Ausgabe von Leonard C. Lewins „Bericht aus Iron Mountain-Ist Frieden sinnvoll und erstrebenswert?“ (Kopp-Verlag 2011) heißt, auch das „Überbevölkerungsproblem“. Denn der Mensch ist laut dem Bericht zur dominierenden Spezies aufgestiegen und hat – so die Autoren − alle seine natürlichen Feinde eliminiert.

Dass die Welt vom Kriegsgeschehen tatsächlich stark profitiert, zeigt die aktuelle Situation in der Ukraine, wohin viele friedliebende Länder nun „freundschaftliche Unterstützung“ leisten, indem sie beispielsweise ausgediente Panzer und moderne Waffen liefern.

Die Rüstungsindustrie als Arbeitgeber & Friedenssicherer

Außerdem arbeiten Hunderttausende Menschen in der Forschung, Entwicklung, Zulieferung und Logistik oder Verwaltung für die Rüstungsindustrie. Weshalb Bedrohungsszenarien wie jetzt während des medial stark vermarkteten Russland-Ukraine-Konfliktes natürlich Öl auf die Angst − der dortige Krieg könnte eskalieren − gießen. Weshalb die Waffenproduktion durch die nun allgegenwärtige Angst vor einem dritten Weltkrieg aufgestockt wird oder werden muss.

Zitat:

„Der Krieg in der Ukraine zeige eindringlich, wie wichtig militärische Stärke ist, um unsere Freiheit in Europa zu schützen, betonte Verteidigungsministerin Christine Lambrecht. Sicherheit habe einen Preis – auch für die Ausrüstung der Bundeswehr. Bereits für den Verteidigungsetat 2022 sollen deshalb mehr als 50 Milliarden Euro veranschlagt werden. Die vorgesehenen 50,3 Milliarden Euro entsprechen einem Plus von 7,3 Prozent gegenüber dem Haushalts-Soll des Jahres 2021.“

Die Angst vor einem dritten Weltkrieg

In der Literatur und in den sozialen Netzwerken häufen sich aufgrund der aktuellen Situation Berichte über einen möglichen dritten Weltkrieg. Tatsächlich kann sich jedoch – nüchtern betrachtet − wohl niemand „wirklich“ einen dritten Weltkrieg leisten. Da, selbst wenn dieser von noch so feindseligen Terroristen oder Kriegstreibern gewollt wäre, klar ist, dass diesen bei dem jetzt bereits zur Verfügung stehenden Waffen- und Atomwaffenarsenal und militärischen Bündnissen niemand überleben würde. Nicht einmal jene, die damit die sogenannte „Weltherrschaft“ anstreben.

Denn letztlich gäbe es nach einem dritten Weltkrieg nichts, worüber man danach noch herrschen könnte, wenn man denn das Ziel einer Weltherrschaft über andere anstreben würde. Was leicht anhand der nüchternen Daten zu den weltweit zur Verfügung stehenden Waffenarsenalen bestätigt werden kann. Daher handeln Menschen, die einen dritten Weltkrieg propagieren, nicht weise, da sie zusätzlich damit ein Klima der Angst nähren, selbst wenn ihre Argumente noch so „wissenschaftlich einleuchtend“ sind. Was nun aber nicht bedeutet, dass wir einfältig voller Glauben, alles würde schon nicht so schlimm werden, leben sollten. Denn die derzeitige Situation birgt auch einige Risiken.

Das Potential für regionale Kriege

Beispielsweise für regionale Kriege (Ukraine, Libyen usw.), Wirtschaftskriege (Sanktionen, Strafzölle etc.) oder Cyberkriege/-angriffe. Womit der neue Trend in der Kriegsführung sichtbar wird. Der letztlich auch mit dem neuesten Hit des Militärs – die KI − geführt werden wird. Worin beispielsweise Algorithmen die Schwachstellen einer „feindlichen“ Infrastruktur und Firewalls von Banksystemen und Wirtschaftsunternehmen aufspüren und diese dann so manipulieren, dass sprichwörtlich ein Land ohne Strom dasteht. Was viel effektiver ist, als mittels Drohnen und Bomben alles zu zerstören. Experten sprechen hier auch von humaner oder unblutiger Kriegsführung. Doch Algorithmen können trotz ihrer Präzision auch irren. Was in einer komplett KI-gesteuerten Welt unzählige Problemzonen kreiert.

Kriegsführung 3.0 − KI-Waffensysteme im Detail

Mit KI-Waffen kommt es also in der Tat zu einer Verschärfung und – wenn autonome Waffensysteme eingesetzt werden − zu einer Unüberschaubarkeit der Kriegsführung. Da diese „Kriege der Zukunft“ immer weniger durch Soldaten in großen Panzern, sondern durch KI-gesteuerte Systeme wie Drohnen, ferngesteuerte vollelektronische Kriegsschiffe, oder unbemannte Mini-Panzer und Fahrzeuge auf allen Ebenen geführt werden.

Zitat www.scinexx.de:

„Was wie Science-Fiction klingt, ist in den Labors und Versuchsanlagen der Militärs bereits Realität. ‚Wir sehen, dass die Aufrüstung in jedem Schauplatz des Krieges stattfindet – in der Luft, im Wasser, unter Wasser und zu Land’, sagt KI-Experte Toby Walsh von der University von New South Wales. ‚In allen diesen Bereichen sind Prototypen von autonomen Waffen in der Entwicklung.’ Experten schätzen, dass weltweit schon gut 380 teilautonome oder vollautonome Waffensysteme existieren oder in Arbeit sind. Mindestens zwölf Staaten sind aktiv an der Entwicklung von Killerdrohnen oder Killerrobotern beteiligt, darunter China, Israel, Russland, Frankreich, Großbritannien und die USA. Viele dieser Systeme werden vorerst teilautonom betrieben, mit einem menschlichen Soldaten als letzter Instanz. Doch die Fähigkeit zum vollautonomen Betrieb ist bereits implementiert.“

Abb.1 SWORDS-Kampfroboter

Abb. 1: SWORDS-Kampfroboter. Bildquelle: gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=65869

Kategorien der KI-Waffensysteme

KI-Waffen können dabei grob in drei Kategorien eingeteilt werden:

  1. KI zur Lagebeurteilung: Datenauswertung und Vorschläge militärischer Gegenstrategien in Sekundenbruchteilen, um Gefahren frühzeitig zu erkennen und gegenzusteuern.
  2. KI zur Steuerung von Waffensystemen: Autonome Waffensysteme, die Ziele selbstständig orten, identifizieren und verfolgen können. Den Feuerbefehl gibt jedoch noch der Mensch. Diese Technologie ist z. B. in der Drohnenkriegsführung seit Jahrzenten in Gebrauch.
  3. KI als vollautonome Waffensysteme: Die ersten beiden Waffensysteme werden hier miteinander verbunden, aber auch der Feuerbefehl wird dem System überlassen. Damit kann diese Künstliche Intelligenz Ziele selbstständig ohne menschliche Einwirkung erkennen und bekämpfen.

Eine stetig wachsende Produktpalette

Der Käufer und Interessent findet hier eine breite, stetig wachsende Palette an Möglichkeiten. Angefangen bei halbautomatischen oder vollautomatischen Waffensystemen, die natürlich im länderübergreifenden Konkurrenzkampf marktschreiend beworben und ständig verbessert oder vervielfältigt werden. Wie:

  • „einfache Selbstschussanlagen“, die schon am Eisernen Vorhang im geteilten Deutschland auf der Ostseite eingesetzt wurden
  • „intelligente“, selbstlenkende Sprengkörper und Munition
  • halb- & vollautomatische Gewehre
  • Panzer
  • Schiffe
  • Flugzeuge
  • intelligente Drohen- oder Flugzeug-Abwehrsysteme
  • U-Boote
  • Aufklärungs-, Kampf- oder Kamikaze-Drohnen, die in allen Größen, für alle Zwecke und „jeden Geldbeutel“ produziert werden.

Abb. 2 Unbemannt auf U-Boot Jagd

Abb. 2: Unbemannt auf U-Boot-Jagd. Bildquelle: https://www.heise.de/imgs/18/1/7/8/8/2/6/6/Sea_Hunter_ACTUV2-b62c8fdf46 006120.png

Die Vorteile von KI-Waffensystemen

KI-Waffensysteme haben für die Anwender viele Vorteile:

Sie kennen keinen moralischen Kompass, Hunger, kein posttraumatisches Belastungs-Syndrom und müssen nicht wie menschliche Söldner bezahlt werden. Sondern tun einfach, was ihnen „aufgetragen“ oder wozu sie „programmiert“ wurden: Analysieren und töten, ohne zu hinterfragen.

Außerdem sind sie:

  • beim Töten und in der gezielten Zerstörung viel schneller und effektiver,
  • können relativ einfach gewartet, gesteuert oder programmiert
  • und auch relativ kostengünstig und billig in beliebig großer Zahl hergestellt werden.
  • Was wiederum den Einsatz von Soldaten und Mitteln schont. Und Kriege „wirtschaftlicher“ und „humaner“ macht. Da mit weniger Kollateralschäden zu rechnen sei und man sogar in zivilen Gebieten anhand von Gesichtserkennung kriminelle Objekte „chirurgisch präzise“ leicht entfernen kann. So zumindest die Vision, die damit den Kriegsschauplatz auch in das zivile Leben bringt. Worüber sich Experten einig sind.

Damit verfügen KI-Waffen über ein größeres, breit gefächertes Einsatzgebiet. Weshalb letztlich der Besitz und Einsatz von KI-Waffensystemen laut Herstellern, Entwicklern oder Anwendern künftig, egal ob virtuell durch Algorithmen oder durch Einsatz von Kampfrobotern und Drohnen, kriegsentscheidend sein wird oder kann.

KI-Waffensysteme im Einsatz

Per Funk fernsteuerbare Waffen wie unbemannte Flugzeuge oder Panzer hatten bereits während des ersten und später auch im zweiten Weltkrieg Einsätze (siehe Abb. 3). Bei diesen Waffen mit relativ geringer Reichweite waren aber immer noch Soldaten nötig, die den Funk und Zieleinsatz koordinierten.

Nach Entwicklung der ersten Marschflugkörper und Aufklärungsdrohnen wie den deutschen „Wunder-Waffen“ V1 und V2 wurde die Kriegsführung zunehmend programmierbarer und Menschen in vielen Bereichen immer überflüssiger. Heutige moderne Drohnen können selbständig große Gebiete auskundschaften, am Himmel kreisen und Ziele ausfindig machen oder sich auch automatisch auf diese Ziele stürzen und vernichten, indem sie sich selbst dabei sprengen. Weshalb diese im Ukrainekrieg aktuell von beiden Seiten eingesetzten Drohnen auch Kamikazedrohnen genannt werden. Tatsächlich findet derzeit eine von Experten und Kritikern mit großem Misstrauen beobachtete Umstrukturierung der KI-Systeme von halbautonomen Waffen zu vollautonomen Waffensystemen statt. Wobei bei letzteren Entwicklungen die KI selbst alles steuert und ohne menschliche Einmischung entscheidet, ob gefeuert wird oder nicht.

Abb. 3 Russlands ferngesteuerte TeletanksTT-Panzer im 2. Weltkrieg

Abb. 3: Russlands ferngesteuerte Teletanks/TT-Panzer im 2. Weltkrieg. Bildquelle: gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=1123011

Risiken & unerwünschte Nebenwirkungen

Problematisch wird es, wenn diese teil- oder vollautonomen Waffensysteme, die Milliarden Steuergelder und Entwicklungskosten verschlingen, nicht „ordentlich“ funktionieren, Freund und Feind nicht richtig unterscheiden und sich sogar gegen die eigenen Truppen (Anwender) richten. Was nicht nur der fantasierte Alptraum jedes KI-Entwicklers, -Anwenders & -Gegners ist, sondern tatsächlich schon geschah. Nachfolgend zwei Beispiele:

Zitat:

„Im Jahr 2003 interpretierte das teilautonome Patriot-Abwehrsystem der US-Streitkräfte im Irak ein Flugzeug der Briten irrtümlich als feindlich und schoss es ab, wenig später geschah das Gleiche mit einem US-Kampfflugzeug. Und auch aktuelle KI-Systeme haben erhebliche Schwierigkeiten, selbst vermeintlich eindeutige Zielobjekte zu erkennen, wie unter anderem ein Experiment am Massachusetts Institute of Technology (MIT) im Jahr 2017 bewies. Die Forscher hatten mittels 3D-Druck eine Schildkrötenskulptur hergestellt, die von einem KI-basierten Erkennungssystem prompt als Waffe interpretiert wurde. Einen gemusterten Baseball wertete die KI als Espresso. ‚Und es gibt noch viele weitere Tests, die zeigen, wie solche Systeme leicht ausgetrickst oder in die Irre geführt werden können’, kommentiert der britische KI-Forscher Noel Sharkey.“

Und im Jahr 2007 erregte der Bericht über eine Fehlfunktion einer vollautomatischen Flugabwehr-Zwillingskanone vom Typ GDF-005/35 mm Flab Kan 63 für öffentliches Aufsehen, als während einer Übung in Südafrika neun südafrikanische Soldaten ums Leben kamen und 14 weitere verletzt wurden. Denn infolge eines Defektes drehte sich ein Geschütz seitwärts und feuerte unkontrolliert auf das umliegende Gebiet.

Abb. 4 Eine vollautomatische Schweizer GDF-005 in Feuerstellung

Abb. 4: Eine vollautomatische Schweizer GDF-005 in Feuerstellung. Bildquelle: von Muraer − eigenes Werk, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3714496

Flashcrashs bei KI-Waffensystemen

Ein anderes Problem sind die hohen Geschwindigkeiten, mit denen Künstliche Intelligenz Daten erfasst und verarbeitet. Wodurch es zu Wahrnehmungsverzerrungen oder fehlender Datensätze der KI und dadurch Fehlinterpretation des Umfeldes/von Zielen kommen kann. Was im zivilen Bereich schon Unfälle im KI-gesteuerten Fahrzeugverkehr verursachte, aber noch größere Konsequenzen bei KI-Waffensystemen zur Folge hätte.

Zitat:

„Das allerdings birgt auch ein hohes Risiko, wie der ehemalige US-Army Ranger und KI-Waffenexperte Paul Scharre in seinem Buch ‚Army of None‘ beschreibt. Er befürchtet, dass es bei autonomen Waffen zu einem ähnlichen Phänomen wie dem ‚Flashcrash‘ an den elektronischen Wertpapierbörsen kommen könnte. Dabei führen die überreagierenden Algorithmen des Hochfrequenzhandels dazu, dass die Kurse kurzzeitig dramatisch einbrechen. ‚Meine Sorge ist, dass man dabei etwas Vergleichbares bekommt – einen ‚Flashwar‘, in dem Algorithmen interagieren und plötzlich beginnen, Roboter aufeinander zu schießen und Amok zu laufen‘, so Scharre.

Ähnlich sieht es der KI-Forscher Noel Sharkey: ‚Stellen Sie sich Schwärme autonomer Panzer und Kampfflieger an einer Grenze vor – und plötzlich feuert einer irrtümlich oder weil er gehackt wurde. Das würde eine Schlacht auslösen, die kein Mensch nachvollziehen oder entwirren könnte. Es wäre innerhalb von Minuten vorüber, würde aber Massenzerstörungen und den Verlust von unzähligen Leben hinterlassen.‘ Der Mensch hätte kaum eine Chance, solche ‚Blitzschlachten‘ zu kontrollieren oder rechtzeitig zu verhindern.“

Missbrauch durch kriminelle Subjekte

Eins der weiteren großen Probleme und um sich greifenden Ängste sowohl der zivilen als auch militärischen KI-Waffenkritiker und -Entwickler sind die nicht zu unterschätzenden Gefahren durch Hackerangriffe oder Terrorismus. Was verheerende Schäden in der Zivilbevölkerung, Wirtschaft und Infrastruktur eines Landes verursachen könnte. Als Gegenmaßnahme entwerfen hochdekorierte Expertengruppen Horror-Szenarien, womit hier als negativer Aspekt der KI-Nutzung gerechnet werden muss, um diesen künftig zu erwartenden Bedrohungen begegnen zu können. Die dabei „denkbaren Schadensfall-Ideen“ dieser Expertengremien reichen hier von:

  • einfachen Putzrobotern, die gehackt und mit Gesichtserkennungssoftware und Sprengstoff versehen, Finanzminister oder Prominente gezielt in die Luft sprengen könnten,
  • zu KI-gesteuerten Hackerangriffen, die neue Sicherheitslücken in Unternehmensnetzwerken suchen und finden,
  • zur Verbreitung von Schad-Software, die Millionen Nutzer erpressen (könnten), um perfekte Phishing-Angriffe zu entwickeln,
  • bis hin zu Szenarien, worin sich Drohnen plötzlich im Besitz von Terroristen befinden.

Was manche Hollywoodstreifen bereits zeigen, wird also real von Experten als Krisenvorsorge geistig durchgespielt, um auf solche Situationen vorbereitet zu sein.

Gegenwind

Diese real vorstellbaren Horrorszenarien verursachen natürlich weltweit massiven Gegenwind. Somit ist die Zahl der Länder, die gegen den Einsatz von vollautonomen Waffen stimmen, größer als jene, die Verbote boykottieren oder durch ihr Veto entsprechende internationale Vereinbarungen sehr zähflüssig gestalten.

Zitat eines Spiegel-Wissenschaft-Beitrages:

„Bislang blockieren unter anderem die USA, Russland, Großbritannien, Australien, Südkorea und Israel die Verhandlungen der Uno über Regeln für den Einsatz der Waffen. Dem gegenüber stehen 28 Staaten, die sich für ein umfassendes Verbot von KI in Waffen ausgesprochen haben − darunter vor allem Länder aus Südamerika und Afrika. Aus Europa ist nur Österreich vertreten. Deutschland und Frankreich setzen sich für einen Verhaltenskodex ein, der vorschreibt, dass alle Waffensysteme menschlicher Kontrolle unterliegen müssen. Ferngesteuerte Drohnen wären demnach erlaubt, vollautonome Waffen nicht.“

Die wachsende Kluft von Befürwortern und Gegnern

Dabei scheint die Kluft zwischen Befürwortern und Gegnern immer größer zu werden. Vor allem, wenn wir den Einsatz von KI in Syrien sahen oder der Ukraine anhand von aktuellen Daten und gelieferten Stückzahlen nachlesen können. Die, wie die Befürworter meinen, den Weltfrieden sichern sollen, obwohl sie für Kriegszwecke produziert werden. Aber nicht alle Entwickler, Erfinder oder Technologiebefürworter machen diese Entwicklung mit.

Zitat:

„Einer der Vorreiter war bereits im Jahr 2014 der kanadische Roboterhersteller Clearpath. Er schrieb in einem offenen Brief: ‚Würde ein Roboter die Moral, Vernunft und das emotionale Verstehen besitzen, um ethisch falschen oder unmenschlichen Befehlen zuwiderzuhandeln? Nein. Sind Computer in absehbarer Zukunft dazu fähig, subjektiv zu entscheiden, ob ein Ziel legitim ist und ob der Gewalteinsatz verhältnismäßig ist? Nein. Könnte diese Technologie dazu führen, dass diejenigen, die sie besitzen und einsetzen, das menschliche Leben weniger wertschätzen? Wir glauben ehrlich gesagt, dass genau das der Fall sein wird.‘ Das Unternehmen ist das erste, dass sich öffentlich weigerte, Roboterwaffen zu produzieren.“

Fazit

Letztlich müssen wir Menschen wohl nun gesamtgesellschaftlich eine Entscheidung treffen, wie weit wir mit KI und insbesondere mit KI-Waffen als neuen Trend des Militärs gehen wollen. Wobei wir aus militärischer Sicht diese Waffensysteme als sicher, handhabbar und zur „Wahrung des Weltfriedens die andere einschüchtert und bedroht“ einstufen können. Oder aus humaner Sicht als mögliche unkontrollierbare existenzielle Bedrohung für alles Leben erkennen. Die, wenn sie außer Kontrolle gerät, innerhalb von Sekunden alles zerstören kann, was wir in Jahrzehnten oder Jahrhunderten geschaffen haben. Womit nachfolgende Generationen − falls es diese dann noch gibt – uns fragen werden: „Warum habt ihr das bei all den mahnenden Beispielen nicht verhindert?“

Quellen

Literatur/Zeitschriften

  • Lewin, Leonard C.: Bericht aus Iron Mountain. Ist Frieden sinnvoll und erstrebenswert? Rottenburg a. N.: Kopp-Verlag 2011

Internet

Gratis: Ihre Checkliste für den EMF-Schutz im Büro

Elektrosmog ist häufig Auslöser für gesundheitliche Beschwerden wie Kopfschmerzen und Konzentrationsstörungen.
Erfahren Sie:

  • was Elektrosmog ist und warum er so gesundheitsschädlich ist.
  • wie Sie in Ihrem Unternehmen EMF-Belastungen minimieren können.
  • einfach & schnell umsetzbare Schutzmaßnahmen, um Ihre Gesundheit & die Ihrer Mitarbeiter zu fördern.

Waveguard – zertifizierte Schutzprodukte vor Elektrosmog

Nehmen Sie Ihren EMF-Schutz selbst in die Hand! Dafür entwickeln wir für Sie exklusive Produkte sowohl für unterwegs als auch für zu Hause oder das Büro. Unsere Qi-Technologie ist in allen Qi-Geräten integriert.

Die Vorteile der Qi-Technologie:

  • moderne Technik wie WLAN, Mobilfunk & Bluetooth kann bedenkenlos genutzt werden
  • deutsche Technologie & Produktion
  • stromlose Nutzung
  • einfache Anwendung
  • kostenlose Regenerierung
  • ca. 2.500 Kunden weltweit pro Jahr vertrauen ihren EMF-Schutz Waveguard an

Sie haben Fragen zu Ihrem individuellen EMF-Schutz? Dann helfen wir Ihnen gerne!

Unser Beitrag hat Ihnen gefallen? Dann lesen Sie in unserem Waveguard-Blog die neuesten Entwicklungen zum Thema Elektrosmog.

Share on facebook
Share on Facebook
Share on twitter
Share on Twitter
Share on linkedin
Share on Linkdin
Share on pinterest
Share on Pinterest
Maik Lindner

Maik Lindner

Maik Lindner, geb. 1968, beschäftigt sich seit 25 Jahren mit alternativen Entwicklungen und Tendenzen in Gesellschaft, Technik, Zukunft und Leben. Oder erforscht philosophische Gedanken zum Menschsein und seinen Potentialen. Er lebt im Großraum München, arbeitet im sozialen Bereich und schreibt Bücher zu verschiedenen Themen. Mehr Informationen unter: https://maik-lindner.jimdosite.com/

Kommentar verfassen

Ihre E-Mail-Adresse wird nicht veröffentlicht.

Jetzt Newsletter abonnieren!

Unser Newsletter informiert Sie über Themen des EMF-Schutzes. Informationen zum Anmeldeverfahren, Versanddienstleister, statistischer Auswertung und Widerruf finden Sie in unseren Datenschutzbestimmungen