Waveguard
Fehlfunktion von KI − wenn künstliche Intelligenz sich irrt

Fehlfunktion von KI wenn künstliche Intelligenz sich irrt

Fehlfunktion von KI − wenn künstliche Intelligenz sich irrt: „Hurra, cool, endlich kommt die KI!“, so jubeln Wirtschaft, Wissenschaft, Politik und Teile der Gesellschaft über die künstliche Intelligenz (KI), die parallel mit den 5G- bis 8G-Mobilfunknetzen und der fortschreitenden Digitalisierung nahezu aller Lebensbereiche immer mehr an Bedeutung gewinnt. Doch das System hat Makel, neigt zu Fehlern und ist insgesamt noch recht anfällig für Fehlfunktionen. Was bei der Energiemenge, die hier auch an Entwicklung, Forschung und Geldmitteln investiert wird, leicht vergessen wird. Diese Makel hätten bei einer flächendeckenden Einführung jedoch verheerende Folgen für das zivile, gesellschaftliche Leben und im Kriegsfall. Was ich im Artikel „KI-Waffen − Spiel mit dem Feuer“ bereits zeigte.

Dieser Beitrag möchte Dir zeigen:

  • wo KI bereits überall zu finden ist.
  • was gerade entwickelt wird.
  • welche Bereiche KI künftig noch übernehmen soll.
  • welche Risiken, Gefahren und mögliche Fehlerquellen damit einhergehen.
  • und welche Ängste Menschen oder sogar KI-Entwickler vor diesen Entwicklungen haben.

Darüber hinaus ist dieser Beitrag eine Einladung:

  • zu reflektieren und sich mit den Entwicklungen kritisch auseinanderzusetzen.
  • Deinen persönlichen Standpunkt oder auch eigene Ängste sachlich in Form eines Kommentars oder Feedbacks kundzutun.

Wie siehst Du, liebe Leserin, lieber Leser, das Thema KI? Was macht Dir Angst oder wo siehst Du Potentiale? Du bist eingeladen, Dir dazu Gedanken zu machen und ein persönliches Feedback zu hinterlassen.

1. Künstliche Intelligenz: Ein Überblick (Stand Juni 2022)

Künstliche Intelligenz, kurz KI genannt, gilt als großer wirtschaftlicher Hoffnungsträger und bildet die Tür zu einer künstlich programmierbaren Welt. Grundsätzlich spaltet sich die Diskussion hierbei in Befürworter und Kritiker. Und mit Blick auf die Zukunft in Gewinner und Verlierer. Wobei die Befürworter natürlich überschwänglich meinen, dass wir alle letztlich (nur) Gewinner sind. Was man durchaus sehr viel ernster nehmen darf, da allgemein bekannt mit der KI und allem, was parallel damit geplant ist oder eingeführt wird, große gesellschaftliche Herausforderungen einhergehen.

Starke und schwache KI

Bei KI unterscheiden Experten in starke und schwache KI. Schwache KI, wie ein Thermostat oder Taschenrechner verfügt nur über begrenzte, festgelegte (programmierte) Intelligenz und kann nur diese eine Sache. Starke KI hingegen lernt selbst durch Aktion und Reaktion dazu. Und agiert nach einem Punktesammelsystem. Wobei es der künstlichen Intelligenz darum geht, das „Spiel“ ständig zu verbessern. Ähnlich dem Belohnungssystems unseres Gehirns.

So sind Forscher immer wieder über ihre Kreationen verblüfft, wenn sie plötzlich eigenständig Dinge lernen, die sie von ihren Schöpfern, den Menschen, nicht beigebracht bekamen. Was im Fachjargon Deep Learning (tiefes, bestärkendes Lernen) mit dem technischen Deep Mind genannt wird.

Zitat Max Tegmark, KI-Forscher:

„Anfangs spielte die KI (Ping-Pong/Breakout – ein Atari-Spiel) furchtbar. Sie ruckelte den Schläger ratlos und anscheinend zufällig hin und her und traf den Ball so gut wie nie. Nach einer Weile sah es so aus, als habe sie die Idee begriffen, dass es eine gute Sache sei, den Schläger in Richtung Ball zu bewegen, obwohl sie ihn immer noch fast jedes Mal verpasste. Doch mit der Spielpraxis holte sie auf, wurde bald besser, als ich es je gewesen war, und beförderte den ball zurück, egal, wie schnell er sich näherte. Und dann fiel mir die Kinnlade runter, denn sie fand diese verblüffende Strategie zur Punktemaximierung heraus. Dabei zielte sie jedes Mal auf die obere linke Ecke, bohrte ein Loch in die Wand, ließ den Ball steckenbleiben und zwischen der Rückseite der Mauer und der Begrenzung dahinter hin und her springen. Das fühlte sich wie eine wirklich intelligente Lösung an. Tatsächlich erzählte mir Demis Hassabis später, dass die Programmierer des Deep-Mind-Teams nicht kannten, bis sie ihn von der KI lernten, die sie selbst konstruiert hatten.“

(Tegmark, Max: LEBEN 3.0 -Mensch sein im Zeitalter Künstlicher Intelligenz. Ullstein-Verlag 2017. S. 127−129)

Wo es KI schon gibt

KI hat heute schon „still und leise“ einige Bereiche erobert und findet bereits zahlreiche Anwendungen:

  • als schwache, starke, zivile oder militärische, teilautonome oder vollautonome KI.
  • als Drohne, Algorithmus, Wärmesensor, Spielzeug, Sex- oder Pflegeroboter.
  • im medizinischen Diagnosebereich, für Pläne zum Aufbruch in das All.
  • zur Spracherkennung, beim autonomen Fahren in der Automobilbranche, bei der Navigation.
  • in vollautomatischen Produktionsanlagen, bei Banken und an Börsen (Robotic Process Automation = RPA).
  • beim Erkennen von Kleidungsstücken oder Gesichtern und Fingerabdrücken (Biosensoren).
  • zur Überprüfung und Generierung von Datensätzen, automatischer Schutz vor Spam oder Hassmails.
  • bei Nachfrageprognosen und in Logistikprozessen, als Sprachassistent (Siri und Co).
  • in der Landwirtschaft, z. B. zur automatischen Bilderkennung von Schädlingen.
  • im Journalismus zur Generierung von Texten.
  • in Kunst und Freizeit.

KI-Entwicklungen

Dabei ist all das erst der Anfang. Denn künftig soll KI letztlich alle Bereiche des Lebens „verbessern“ und automatisieren.

Darunter:

  • die Kriegsführung,
  • Warenproduktion,
  • das komplette gesellschaftliche Leben.

Ja sogar die Natur und Erde selbst soll programmierbarer werden. Als Mittel dienen hier Catome, kleinste Nanoteilchen, heute noch so groß wie Reiskörner, die zukünftig in der Größe von Atomen mit Plus- und Minuspol elektronisch programmier- und steuerbar per Knopfdruck jede beliebige Form annehmen sollen (siehe auch in Kaku, Michio: Die Physik der Zukunft; Unser Leben in 100 Jahren. Rowohlt-Verlag). Womit die menschliche Arbeitskraft größtenteils überflüssig wird. Ansätze und Entwicklungen in diese Richtung sind überall schon erkennbar.

Beispiele für KI

  • Teilautonome Waffen werden für den vollautonomen (möglichen) Einsatz vorbereitet.
  • Die digitale Rechtsberatung soll künftig menschliche Berater (Anwälte, Ärzte, Seelsorger) ersetzen. Wobei Algorithmen automatisch Dokumentenrecherche betreiben, Gesetzestexte und Urteile analysieren, Persönlichkeitsprofile speichern und prüfen und daraus Urteile fällen sollen.
  • In der Landwirtschaft sollen künstliche Kartoffeln (DFKI/nPotato) Echtzeitanalysen während des Ernteprozesses in der Landwirtschaft ermöglichen, was die automatische Anpassung der Erntemaschinen zulässt.
  • Roboter sollen künftig ins All reisen, sich dort selbständig zusammensetzen, reparieren und Städte für unsere Ankunft auf fremden Planeten oder auch hier auf der Erde auf dem Grunde unserer Ozeane und in den Wüsten mittels 3D-Druck, Nanotechnologie usw. bauen.

2. Grenzen der KI

Natürlich hat KI auch (noch) ihre Grenzen. Und wird sie diese zumindest teilweise auch in Zukunft haben. Teilweise deshalb, weil man KI in starke und schwache KI unterscheiden muss. Wie ich auch in einem anderen Beitrag oder entsprechenden Kapiteln meines Buches bereits erklärte. Was wir nochmals kurz zum Verständnis abhandeln wollen.

Ein Putzroboter oder Rasenroboter können zwar automatisch und vom Menschen unabhängig vorprogrammierte Aufgaben erledigen, aber mehr dann auch nicht. Weshalb diese Form der KI auch als schwache KI bezeichnet wird. Da sie auf wenige vorprogrammierte Tätigkeiten begrenzt sind und künftig auch sein werden.

Starke KI lernt also selbst dazu und versucht durch Punktesammeln (Eine Art Belohnungssystem) sich selbst immer mehr zu perfektionieren. Beispiele wie das simple Atarispiel oder Roboter, die selbstständig laufen lernen, faszinieren, verblüffen oder erschrecken hier immer wieder die Wissenschaft. Wie der KI-Entwickler Max Tegmark in seinem Buch „Leben 3.0 − Mensch sein im Zeitalter Künstlicher Intelligenz“ schreibt. Doch von menschlichem Verhalten sind selbst diese Computer trotz kleiner Erfolge noch weit entfernt.

Superintelligenz

In den Bereich der starker KI fällt natürlich auch das ganze Thema von „Superintelligenz“, welches in zahlreichen Sciences-Fiction-Filmen wie Terminator usw. vermarktet wird. Worin einfach ausgedrückt KI den Menschen dahingehend überragt, dass sie eigenständig „denkt“, Dinge verbessert, aber auch – so wie einst der Mensch, Dinge aufgrund dieser Fähigkeiten selbst erschafft.

Worauf die Diskussion, Bedenken und Gedanken vieler Zukunftsforscher basieren, dass eine solche KI möglicherweise den Menschen nicht mehr braucht, womöglich als fehlerhaft erkennt und vielleicht dann sogar durch Besseres ersetzen wird. Doch um sich um Superintelligenz Sorgen zu machen, müssten wir erst einmal eine erschaffen. Und auch hier sind wir über 100 Jahre von der Entwicklung entfernt. Wie der Physiker Michio Kaku in seinem Werk „Die Physik der Zukunft – Unser Leben in 100 Jahren“ schreibt.

2.1. Was KI (noch nicht) kann

Natürlich ist es beachtlich, dass ein Schachcomputer einen menschlichen Schachweltmeister besiegen oder ein fantastisches Gemälde exakt in der Art großer Künstler perfekt malen kann. Was für Schlagzeilen in den Medien sorgt und Gedanken des Konkurrenzkampfes zwischen Mensch und Maschine anheizt. Doch schicken wir diese hochintelligenten Maschinen los, uns einen Kaffee oder kleinen Snack vom Imbisstand zu holen, wird diese jämmerlich versagen. Und somit zeigt KI zwar bereits einige Stärken, aber auch große Mängel.

2.2. Was KI immer vom Menschen unterscheiden wird

Ja, letztlich stellt sich die berechtigte Frage, ob KI überhaupt jemals die feine, geistige und tiefsinnige Kontemplation und Überlegungen eines Menschen, sein Einfühlungsvermögen oder die Fähigkeit – wie heutige Wissenschaftler – 21 Lichtjahre in die Zukunft zu denken oder zu träumen und darin Visionen von der Zukunft haben wird.

2.3. Womit KI wahrscheinlich auch künftig Probleme hat

Denn egal wie perfekt wir Neuron für Neuron des menschlichen Gehirns künstlich kopieren und seine verschiedenen Areale als Steuerungszentrale für physische Reaktionen verstehen oder Träume und Gedanken mittels Maschinen analysieren, um so Bewusstsein zu kartografieren und daraus ein künstliches Gehirn zu erschaffen. Wissenschaftler stehen immer noch am Anfang, wirklich zu verstehen, wie komplex und multidimensional das menschliche Wesen als physich-metaphysische Kombination eigentlich ist.

Lokales und nichtlokales Bewusstsein

So gibt es – bewiesen durch außergewöhnliche Untersuchungen zu Fähigkeiten sogenannter Savants (Superbegabte) − Belege, dass der Mensch viel mehr kann als jeder Computer. Ja sogar womöglich mehr ist als nur Fleisch und Blut. Womit sich die Frage stellt, ob es nicht weise wäre, erst einmal diese Fähigkeiten in uns allen ausreichend zu erforschen und zu aktivieren, bevor wir künstlich am Menschsein durch Implantate versuchen, daran herumzuexperimentieren? Denn vielleicht können wir viele Milliarden Dollar oder Euro und viel Zeit, die hier investiert wird, um uns Menschen durch Technologie zu verbessern und mit kleinen Superfähigkeiten auszustatten, sparen? Da diese Fähigkeiten bereits in unseren Genen, im Erbgut oder Bewusstsein angelegt sind? Wie die russischen Garajew-Studien bereits Ende der 90er-Jahre nachwiesen.

Womit wir aber dann, so wie manche Wissenschaftler wie Dieter Broers, Bruce Lipton usw. auch begreifen würden, dass der Mensch insgesamt über das rein Physische und Messbare weit hinausgeht und Bewusstsein sehr wahrscheinlich nicht nur lokal und körperbezogen ist. Wie viele Physiker und KI-Forscher immer noch irrigerweise meinen. Wodurch das ganze Gebiet der sogenannten Grenzwissenschaften wie Nahtoderfahrungen, außersinnliche Wahrnehmung, Vorahnungen usw. einen ebenso wichtigen Stellenwert erhält. Da diese als Potential mit im menschlichen Bewusstsein schlummern und zu finden sind.

Philosophische Fragen

Wird ein Computer jemals eine menschliche Seele besitzen?

Diese Frage könnte man jetzt auf den metaphysischen und philosophischen Bereich ausdehnen. Wie die Frage, ob der Mensch eine Seele hat und KI künftig auch durch dieses feinstoffliche Energiegebilde, in der alle Erfahrungen aus allen Leben, die wir jemals seit dem sogenannten Anfang hatten, aufgezeichnet sind. Und ob eine KI dann auch Nahtoderfahrungen oder Kontakte zum Jenseits haben wird. Worüber es zahlreiche gut dokumentierte wissenschaftliche Hinweise und Erfahrungsberichte gibt.

Womit uns, wenn wir die Frage mit Nein beantworten würden, offenbar wird, dass Computer, ja sogar Superintelligenz, niemals das zarte verletzliche, bei Kälte frierende und bei Hitze schwitzende Wesen namens Mensch übertreffen wird. Und all die KI-Entwicklungen lediglich kostspielige, mit viel Aufwand betriebene Spielerei sein werden. In die wir jedoch unser kostbares Leben, unsere geistige Evolution und unsere in uns ruhenden schlummernden Fähigkeiten und Potentiale dann legen werden.

Der Verlust unseres geistigen Erbes

Und wenn Technologie, auch wenn sie uns als Potential niemals das Wasser reichen wird, dann jeden Bereich des Lebens beherrscht und übernimmt. Und unsere Ausdrucksfreiheit für geistig bereits angelegte Entwicklungen, Potentiale und Superfähigkeiten einschränkt und untergräbt, indem wir lieber mit ihr als Cyborgs oder durch künstliche Nanopartikel, statt mit unserem natürlichen Potentialen verschmelzen, wie es Bodyhacker bereits tun, machen wir uns nicht nur von ihr abhängig und werden ihr Sklave, sondern verlieren letztlich unser geistiges Erbe, immer mehr aus den Augen.

Dass diese Entwicklung den Menschen durch Technik zu verbessern bereits eingesetzt hat, sehen wir auch durch Technik-Visionäre wie Elon Musk, der mit seinem Gehirnchip dafür wirbt, künftig Sprachen einfach hochzuladen, als sie mühselig zu erlernen. Womit unsere inneren Fähigkeiten es auch ohne Technik zu können, dann verkümmern. Da, wo wir entsprechende Areale unseres Gehirns dann brach liegen lassen.

Das Vergessen unseres Potentials

Und so vergessen wir in einer komplett technokratisierten Gesellschaft völlig, was der Mensch als natürliches Wesen in vollendeter Form (ohne KI) eigentlich sein und werden kann. Kurz: Wir entwickeln uns dann zu einer Art emotionslosen, perfekten, biometrischen Roboter, da wir immer mehr nach außen − zu unbegrenzten Möglichkeiten der Technologie − und immer weniger nach innen − zu unbegrenzten Möglichkeiten des Geistes − greifen. Was bemerkenswerte Menschen wie der Holländer Mirin Dajo demonstrierten. Der sich z.B. von lebensgefährlichen Stichwaffen durchbohren ließ und die Wunden sofort vor den verblüfften Wissenschaftlern durch reine weiterentwickelte Geisteskraft schloss.

Fehlfunktion KI - Das Vergessen unseres Potentials

Bildquelle

Doch verlassen wir nun diese philosophischen Gedankengänge rund um schlafende Potentiale in uns Menschen und kehren wir zum Thema Künstliche Intelligenz und den Problemen, die auftreten, wenn KI versagt, zurück.

3. Mängel & Fehlfunktion von KI (Fallbeispiele)

Allgemein braucht es natürlich zuerst ein flächendeckendes Netz wie 5G oder noch leistungsstärker, damit KI in seiner unglaublichen Vielfalt zum Einsatz kommen kann.  Denn das System braucht Strom und eine möglichst gute Funkverbindung, um den gewünschten Effekt zu erzielen. Und hier ist die Entwicklung noch nicht da, wo KI-Entwickler sie gerne hätten und der Weg zur perfekt KI-gesteuerten Zukunft noch etwas holprig.

3.1 Zivile Beispiele für Fehlfunktion von KI

Fehlerhafte Gesichtserkennung

So urteilte die Zeit Online in einem Beitrag recht kritisch über eine Gesichtserkennungs-KI, die in der Praxis (noch) kein tatsächliches Abbild der Realität erstellte, sondern haufenweise fehlerhafte Daten lieferte:

„Die Situation ist leider aber noch weit schlimmer: Was genau, welche Strukturen diese Systeme „gelernt“ haben, ist oft kaum nachvollziehbar. Man kann testen, ob sich das trainierte System in etwa so verhält, wie man sich das wünscht, aber reicht das? Eine Software von Amazon namens ‚Rekognition‘, die Menschen mit Vorstrafen auf Basis von Polizeifotos erkennen sollte, erkannte fälschlicherweise 28 US-Abgeordnete als Kriminelle, tat das aber mit auffallender Häufigkeit bei Abgeordneten mit schwarzer Hautfarbe. Erkannte Amazons Produkt einfach schwarze Gesichter schlechter? Hatte es ein impliziertes Bias gegen Schwarze? Hatte es ein impliziertes Bias, der weiße Gesichter bevorteilte? Unklar. Das System war bei Amazon durch die technischen Tests gegangen und erst die Kontrolle durch Nichtregierungsorganisationen und Watchdogs brachte das Problem zutage.

Aus soziotechnischer Perspektive ist also der Einsatz von KI-Systemen, insbesondere wenn es um die Leben von Menschen geht, sehr problematisch und schließt sich teilweise sogar aus: Nicht nur lagert man extreme Macht an einfache Automatisierungssysteme aus, man kann diese Systeme sogar nur ungenügend auditieren, um sicherzustellen, dass sie sich korrekt und nicht bezogen auf einzelne Gruppen diskriminierend verhalten. Im Zweifel zeigen sich solche Verfehlungen erst im Betrieb und die Betroffenen müssen neben dem Schaden, der ihnen entsteht, auch noch den Nachweis der Verfehlung des Systems bringen.“

Fehlerhafte Ratenbescheide

Irren ist menschlich, sagen wir umgangssprachlich leicht daher, doch wenn der Computer sich irrt und plötzlich falsche Bankdaten generiert und daraufhin falsche Mahnbescheide herausgesendet werden und Menschen durch eigentlich falsche Zwangsräumungsbescheide ihr Zuhause verlieren, ist es nicht mehr lustig, sondern wird existenziell bedrohlich. Diese negative Erfahrung durften in den USA bereits 400 Menschen praktisch machen, wofür die Bank sich im Nachhinein zwar entschuldigte und den ehemaligen Hausbesitzern eine Entschädigung von (jeweils nur) 20.000 Dollar anbot, aber die Not nicht wirklich linderte. Was verheerende Folgen in künftig durch KI gesteuerte internationale Börsen hätte und ganze Volkswirtschaften in den Ruin treiben könnte.

Wenn der Kuchen mit einem Wischmopp verwechselt wird

Dass das System fehlerhaft ist, zeigen nachfolgend einige Beispiele aus einem Artikel im Tagesspiegel zu dem von den Erfindern beworbenen Microsoft-Programm Captionbot.

Im Artikel es heißt:

‚Ich kann den Inhalt jedes Fotos verstehen und werde versuchen, es so gut zu beschreiben wie ein Mensch“, wirbt der Bilderbot auf seiner Website. Das klappt in vielen Fällen zwar auch ganz gut, doch genauso oft liegt die Künstliche Intelligenz (KI) ziemlich daneben. Lädt man beispielsweise das Foto eines Wischmopps hoch, erklärt der Bot: „Ich bin mir nicht ganz sicher, doch ich denke, das ist ein Kuchen.‘ Schlimmer noch, das Programm lernt offenbar auch kaum dazu. So machten sich viele schon beim Start im Frühjahr 2016 über die Interpretation eines Fotos lustig, auf dem Barack Obama seine Frau Michelle eng umschlungen hält. ‚Ich denke, es ist ein Mann mit Anzug und Krawatte, der auf einem Handy spricht‘, erklärte die Software. Und heute verwechselt das Programm Michelle Obama immer noch mit einem Telefon […]“

„Bei einem anderen Foto glaubt der Captionbot, es wäre eine Person, die auf einem Tisch sitzt. Das ist zwar etwas näher dran als die Konkurrenzintelligenz von Google, aber trotzdem ziemlich daneben. Denn auf dem Foto ist eine farbige Plastikschildkröte zu sehen. Wissenschaftler des Massachusetts Institute of Technology (MIT) haben sie mit einem 3D-Drucker hergestellt, um zu zeigen, wie anfällig Bilderkennungssysteme sind. Die Künstliche Intelligenz von Google hielt die Schildkröte mit einer Wahrscheinlichkeit von 90 Prozent für ein Gewehr. In anderen Fällen des Tests wurde eine Katze mit Guacamole verwechselt und ein Baseball für Espresso gehalten […]“

Der Artikel fährt dann fort:

„Solche Experimente können auch in der Realität gefährliche Folgen haben. Schließlich befürworten auch in Deutschland viele Politiker und Bürger den Einsatz von Videoüberwachung mit intelligenter Bilderkennung. Doch wenn Algorithmen Schildkröten mit Waffen verwechseln, wären fehlerhafte Alarmmeldungen keine Überraschung. Fast noch riskanter sind mögliche Fehler bei selbstfahrenden Autos. Auch hier ist die Bilderkennung zentral. Doch wie schnell die versagen kann, zeigt eine gemeinsame Studie von Wissenschaftlern mehrerer US-Universitäten. Sie haben dafür kleine schwarze und weiße Streifen auf Stoppschilder geklebt. Zum Teil schrieben sie damit die Worte ‚Love‘ oder ‚Hate‘. Obwohl der Stop-Schriftzug selbst noch vollständig erkennbar war, wurden 73 Prozent der Bilder falsch klassifiziert. Ähnliche Fehler könnten durch Graffiti oder mit Stickern beklebte Schilder auch im echten Straßenverkehr passieren.“

Wie viel Chaos können wir uns leisten?

In anderen Bereichen wie der Lebensmittelindustrie, Logistik oder Medizin hätten solche Programmierfehler oder Irrtümer verheerende Folgen, wenn der Roboterarm plötzlich Mehl oder Zucker mit Waschpulver verwechselt, die Paketdrohne zum falschen Zielort fliegt und eine per Algorithmus berechnete Laseroperation sich nur um einen Millimeter irrt. Und doch wird all das in Kauf genommen und diese neue technische Innovation weiterhin mit Milliarden gefördert, unterstützt und in jedem Bereich vorangetrieben. Einer der gefährlichsten und aktuell am meisten geförderten Bereiche ist hierbei die militärische Entwicklung der KI zu Luft, Lande und unter dem Meer.

3.2. Militärische Entwicklungen und Beispiele vonFehlfunktion bei KI

Die Produktpalette des Militärs ist schier unbegrenzt und reicht von unbemannten U-Booten, Schiffen, Drohnen, Fluggeräten und Panzern bis hin zu unsichtbaren „Helfern“, die Schlachtszenarien und Gegenmaßnahmen berechnen, feindliche Stellungen kartografieren oder automatisch Raketenabwehrmaßnahmen initiieren. Denn im Fall eines Krieges zählt jede Sekunde! Und doch kommt es vor, dass militärische KI bei der zu verarbeitenden Datenflut ebenfalls manchmal fehlerhaft funktioniert. Wobei die bekannt gewordenen „tragischen Unfälle“ sicher nur die Spitze des Eisberges darstellen, da der am stärksten boomende militärische KI-Markt im Zeitalter des neuen globalen Wettrüstens sicher keine Skandale brauchen kann. Doch die wenigen bekannt gewordenen Fälle reichen, um das Ausmaß der Bedrohung(en) abzubilden.

Beispiele Fehlfunktion von KI-Waffen

Folgende Beispiele erwähnte ich bereits in meinem Artikel „KI-Waffen – Spiel mit dem Feuer“.

  • April 2008: Die SWORDS-Roboter werden durch das amerikanische Verteidigungsministerium außer Dienst gestellt. Nachdem sich bei mehreren Vorfällen der Waffenarm gedreht hatte, obwohl dies in der jeweiligen Situation nicht vorgesehen war, wurden die Roboter bis auf Weiteres als unsicher eingestuft und der Feldeinsatz abgebrochen. Verletzt wurde bei den Vorfällen niemand.

Fehlfunktion KI - SWORD Roboter

Bildquelle

  • 2007: Eine Fehlfunktion von KI bei einer vollautomatischen Zwillingskanone vom Typ GDF-005/35 mm Flab Kan 63 kostet neun südafrikanischen Soldaten das Leben und fordert 14 Verletzte, als sich bei einer Übung ungewollt angeblich, aufgrund eines Defektes, das Geschütz seitwärts dreht und unkontrolliert in das Umfeld feuert.
  • 2003: Das teilautonome Patriot-Abwehrsystem der US-Streitkräfte interpretiert im Irak ein Flugzeug der Briten irrtümlich als feindlich und schießt es ab. Das Gleiche geschieht wenig später mit einem US-Kampfflugzeug.

Diese Beispiele, von denen man sicher noch mehr findet, zeigen bereits über die Jahre verteilt, dass man KI nicht trauen sollte oder kann. Das Szenario ließe sich sogar bis zur Zeit des Kalten Krieges zurückverfolgen. Als die russische Satellitenüberwachung irrtümlich Reflexionen der Sonne auf Wolkenfeldern als Raketenantrieb feindlicher US-Atomwaffen einstufte und Atomalarm auslöste. Wie der KI-Entwickler Max Tegmark in seinem Buch „Leben 3.0 – Mensch sein im Zeitalter künstlicher Intelligenz“ berichtet.

Dass es nicht zu einem Atomkrieg kam, verdanken wir einem Russischen Befehlshaber, der menschliche Intelligenz einschaltete und sich nicht vorstellen konnte, dass die USA bei einem Angriff nur mit einigen wenigen Raketen feuern würden. Womit er glücklicherweise Recht behielt und wir nur knapp einem 3. Weltkrieg entgingen. Bei vollautonomen Waffen würden solche Entscheidungen auch Maschinen treffen. Was unser aller Untergang sein könnte, wenn KI sich irrt.

Gegenentwicklungen − wo wir KI wieder abschaffen

Interessanterweise findet in einigen Ländern, die mit KI oder Robotern bereits am besten vertraut sind und diese daher bereits weit in der Gesellschaft integriert haben, eine Gegenentwicklung statt. Hier werden Roboter wieder durch Menschen ersetzt. So heißt es in einem Beitrag bei www.derstandard.de unter der Überschrift Fehlfunktionen: Roboter werden reihenweise gefeuert.

„Die erste Euphorie mündet in der Umkehr: Mensch ersetzt Maschine. In Japan und China werden reihenweise Roboter „gefeuert“, weil sie nicht ordentlich arbeiten.“

So ersetzt ein erstes Roboterhotel in Japan dem Artikel zufolge einige seiner künstlichen Mitarbeiter wieder durch Menschen, da sie ihre Aufgaben nicht richtig erfüllten:

„Die Gäste beschwerten sich, dass der virtuelle Assistent ‚Churi‘ ihre Fragen nicht beantwortete. Laut einem Bericht des ‚Wall Street Journal‘ soll ein Hotelgast sogar alle paar Stunden von einem Roboter geweckt worden sein, weil dieser das Schnarchen für Fragen hielt. Das Hotel-Management sah sich daher gezwungen, die Roboter aus dem Verkehr zu ziehen.“

Oder wurde ein Serviceroboter in einer Supermarktkette Margiotta in Edinburgh/Schottland nach nur einer Woche bereits wieder entlassen, da er seiner Aufgabe, die Kunden schnell zu Sonderangeboten zu führen und Fragen zu beantworten, nicht richtig nachkam:

So lieferte er Kunden dubiose Informationsquellen („Danke, Internet“) und legte ein unangemessenes Verhalten an den Tag. Zum Beispiel rief er: „Hallo, wunderhübsch!“ Oder setzte mit seinen Greifarmen zu einem „High Five“ an, was bei der Kundschaft gar nicht gut ankam. Die Folge: Die Kunden machten einen großen Bogen um den Roboter. Auch in Sachen Produktivität blieb der Roboter hinter den Erwartungen zurück. Während die menschlichen Supermarktangestellten in der Fleischwarenabteilung jede Viertelstunde zwölf Kunden ein Häppchen anboten, brachte es Pepper in der gleichen Zeit lediglich auf zwei Kunden.

Müssen wir Angst vor der Zukunft haben?

So stellen sich mit dem Kommen des Zeitalters der Maschinen viele Fragen:

  • Brauchen wir wirklich überall Künstliche Intelligenz?
  • Oder wird der Mensch auch künftig manches sehr viel besser machen?
  • Sollten wir die Milliarden, die wir darin investieren, nicht lieber sinnvoller einsetzen?
  • Und wenn KI durch Aktion und Reaktion endlich so weit ist, wer garantiert dann, dass sie trotzdem tadellos funktioniert und nicht mehr Schaden als Nutzen verursacht?

Ungeachtet dessen schreitet die KI-Euphorie und zumindest die KI-Waffenproduktion voran und sind Industrieländer hier wie besessen, die Oberhoheit zu er- und behalten. Was das Potential für eine Eskalationsspirale in sich birgt. Wie bereits in einem anderen Beitrag erwähnt.

Und während wir diesen Weg nun „learning by doing“ gehen und viele Fragen erst durch die Praxis klären wollen, ist zumindest das Militär bereit, hier einige Kollateralschäden in Kauf zu nehmen. Da ein Ende des Wettrüstens noch lange nicht abzusehen ist.

Quellen

Zeitschriften & Bücher

  • Kaku, Michio: Die Physik der Zukunft; Unser Leben in 100 Jahren, Rohwohlt-Verlag
  • Tegmark, Max: LEBEN 3.0 − Mensch sein im Zeitalter Künstlicher Intelligenz, Ullstein-Verlag 2017

Internet

Gratis: Ihre Checkliste für den EMF-Schutz im Büro

Elektrosmog ist häufig Auslöser für gesundheitliche Beschwerden wie Kopfschmerzen und Konzentrationsstörungen.
Erfahren Sie:

  • was Elektrosmog ist und warum er so gesundheitsschädlich ist.
  • wie Sie in Ihrem Unternehmen EMF-Belastungen minimieren können.
  • einfach & schnell umsetzbare Schutzmaßnahmen, um Ihre Gesundheit & die Ihrer Mitarbeiter zu fördern.

Waveguard – zertifizierte Schutzprodukte vor Elektrosmog

Nehmen Sie Ihren EMF-Schutz selbst in die Hand! Dafür entwickeln wir für Sie exklusive Produkte sowohl für unterwegs als auch für zu Hause oder das Büro. Unsere Qi-Technologie ist in allen Qi-Geräten integriert.

Die Vorteile der Qi-Technologie:

  • moderne Technik wie WLAN, Mobilfunk & Bluetooth kann bedenkenlos genutzt werden
  • deutsche Technologie & Produktion
  • stromlose Nutzung
  • einfache Anwendung
  • kostenlose Regenerierung
  • ca. 2.500 Kunden weltweit pro Jahr vertrauen ihren EMF-Schutz Waveguard an

Sie haben Fragen zu Ihrem individuellen EMF-Schutz? Dann helfen wir Ihnen gerne!

Unser Beitrag hat Ihnen gefallen? Dann lesen Sie in unserem Waveguard-Blog die neuesten Entwicklungen zum Thema Elektrosmog.

Ähnliche Beiträge
Schreiben Sie einen Kommentar

Your email address will not be published.Required fields are marked *

Jetzt Newsletter abonnieren!

Unser Newsletter informiert Sie über Themen des EMF-Schutzes. Informationen zum Anmeldeverfahren, Versanddienstleister, statistischer Auswertung und Widerruf finden Sie in unseren Datenschutzbestimmungen