Content-ID: 053|01 | Autor: Gerd | Stand: 2.6.2021
Wenn Computer töten dürfen
Gebt KI nicht das Kommando
Es ist so weit: 2020 soll in Libyen erstmals eine Drohne Menschen, auf eigene, künstlich herbeigeführte Entscheidung hin, angegriffen haben. Ob diese Schlagzeile tatsächlich stimmt, wird von der UNO gerade untersucht. Dass es längst möglich ist, computer-gesteuerte Maschinen auch mit Tötungsabsicht auf die Menschheit loszulassen, wissen wir hingegen. Auch dass seit Langem danach geforscht wird, wie Gewalt und Repression an künstliche Intelligenzen ausgelagert werden können, lässt sich die Menschheit viel Geld kosten. Zwar geht es nicht immer gleich um Leben oder Tod, wenn von KI die Rede ist. Die Gesellschaft aber hat bereits begonnen zu akzeptieren, dass wesentliche Entscheidungen zu Verteilung, Wohlstand, Chancen und Überleben von Computern getroffen werden. Warum eigentlich?
Stephen Hawking hat sich 2018 in seinem Buch „Kurze Antworten auf große Fragen“ (Deutsch: Klett Cotta Verlag, Stuttgart S. 211f.) auch dieser Frage gewidmet und gefordert, diese Art der Rüstung umgehend zu stoppen. Dabei spielt nicht die Vision, was möglich ist, die entscheidende Rolle. Es ist der Umstand, dass es kein realistisches Szenario für einen guten Ausgang dieser Entwicklung gibt – auch nicht für Stephen Hawking. Egal, wie flexibel und „emotionalisiert“ KI künftig auch programmiert werden kann. Entscheidungen zu Lasten von Menschen brauchen immer mehr Aufmerksamkeit als Rechenmodelle je zu leisten imstande sein werden. Gerade deshalb, weil nie erwiesen wurde, dass Maschinen bessere Entscheidungen treffen als Menschen, höchstens andere, und das schneller.
Autonome Verteilungskämpfe
Umgelegt auf unseren Alltag, sind Teile der zivilen Digitalisierung den autonomen Waffen schon einen Schritt voraus. Das jedoch mit durchaus dramatischen Auswirkungen auf das Wohl der betroffenen Menschen. So wird z.B. in China ein Kamera-Überwachungssystem ausgerollt, in dem in letzter Konsequenz Maschinen über das Schicksal Einzelner entscheiden. Dies wiederum weckt Begehrlichkeiten. So ziemlich alle Staaten, in denen eine Abkehr von den Grundrechten zu bemerken ist, zeigen großes Interesse an dieser Technik. Auch in Österreich wird an einer Verschärfung der Überwachung der Bürger*innen gearbeitet. So wird, trotz massiver Bedenken, eifrig an Vorratsdatenhaltung, Gesichtserkennung oder der Umgehung von Verschlüsselungstechniken etc. gearbeitet. Ziel dabei ist es, möglichst viele Daten in Algorithmen zu bekommen, damit diese autonom Maßnahmen in Gang setzen können. Meist geht es darum, jemanden zu identifizieren, der dem gewünschten Verhaltenstypus widerspricht. In erster Linie sind es politisch unbequeme Menschen, aber auch Minderheiten und gesellschaftlich Abgehängte gehören zunehmend zu den Feindbildern darauf getrimmter künstlicher Intelligenz.
Es ist daher nicht zu weit hergeholt, in vermeintlich neutralen autonomen Systemen eine technische Vorstufe zu digitalem Kriegsgerät zu erkennen. Zwar wird z.B. der AMS-Algorithmus in Österreich nicht selbst schießen oder den Auftrag dazu geben, obwohl er es technisch könnte. Er entscheidet jedoch auf (immer noch) eher einfältige Weise, wer auf dem Arbeitsmarkt willkommen ist und wer nicht. In Zusammenspiel mit der Forderung aus Wirtschaftskreisen, dass Langzeitarbeitslose überproportional an Unterstützung verlieren sollen, entsteht damit eine sehr eindeutige Botschaft. Und diese zielt deutlich auf eine Ausgrenzung wirtschaftlich schwacher Gesellschaftsgruppen ab. In diesem Fall entscheidet künstliche Intelligenz über die Lebens- und Wohnsituation von Menschen, die Würde des Alterns, die Chancen von Kindern, den sozialen Rückhalt, die Gesundheit und ein Mindestmaß an Sorgenfreiheit. Also über Leistungen, die sehr stark mit einem Grundrecht auf ein würdevolles Dasein über die gesamte Lebenszeit hinweg zu tun haben. Der österreichische AMS-Algorithmus steht als „Social-Scoring-System“ deshalb zu Recht auf der Watch-List für „hochriskante KI“ der Europäischen Kommission.
Ich persönlich erachte es als vergleichbar verwerflich, ob mittels Geschossen oder durch den Entzug von Hilfsleistung negativ auf die (Über-)Lebenssituation von Menschen Einfluss genommen wird. Ich erwarte jedoch, dass durch die rasante Entwicklung digitaler Systeme die technische „Qualität“ der Interventionen steigt und die Hemmschwelle vor einem Einsatz rapide sinkt. Deshalb hoffe ich, dass der Tötungsversuch einer autonom agierenden Maschine an einem Menschen einen Weckruf zur stärkeren Disziplinierung von KI darstellt. Es geht nicht darum, eine technische Entwicklung, die viel zum Wohlstand der Menschen beitragen kann, zu drosseln. Es geht darum, strenge Regeln und absolute Grenzen für deren Anwendung festzuschreiben und auch knallhart zu exekutieren. Sonst werden bald alle Menschen einer kleinen Elite der Macht, die sich digitaler Waffen zu bedienen weiß, ausgeliefert sein – auf (Über-)Leben oder Tod.
Salzburg, 06|2021 – Gerd
Hinweise
Gleich vorweggenommen: Künstliche Intelligenz ist nicht per se Teufelszeug und dafür gemacht, die Menschheit in den Untergang zu führen. Daher entspringen die Gedanken zu diesem Beitrag auch nicht dunklen Verschwörungstheorien und Technik-Ängsten. Im Gegenteil! Das Potenzial von KI ist genau das, was die Welt braucht, um die großen Krisen zu bewältigen. Nur mithilfe ausgefeilter Technik sind Klimawandel, Umwelt-Zerstörung, Überbevölkerung, Migration oder Armut zu überwinden. Es soll daher die Forschung und die Entwicklung digitaler Techniken unvermindert vorangetrieben werden. KI kann jedoch in den falschen Händen zur gefährlichen Waffe werden. Und zwar für uns alle. Einzelne Wissenschaftler*innen schätzen (im Extremfall) die Zerstörungskraft von falsch eingesetzter KI größer ein als die der aktuellen Klimakrise. Es ist daher notwendig, die zunehmende Digitalisierung mit strengen Regeln zu begleiten und einen Missbrauch zulasten der Menschheit frühzeitig zu verunmöglichen.
KI = Künstliche Intelligenz
Lese-Tipp
Kurze Antworten auf große Fragen | Stephen Hawking | 2018-2020 Klett Cotta Verlag, Stuttgart
Link-Tipps
Der Anlassfall: https://www.derstandard.at/story/2000127073438/drohne-soll-offenbar-selbststaendig-soldaten-angegriffen-haben »
Killerdrohnen: https://www.heise.de/tp/features/Autonome-Killerdrohnen-kommen-nicht-erst-es-gibt-sie-schon-6057359.html »
AMS-Algorithmus: https://zackzack.at/2021/05/01/diskriminierung-und-fehlende-gesetzeslage-darum-ist-der-ams-algorithmus-gefaehrlich/ »
Hochriskante KI: https://www.derstandard.at/story/2000125884443/regeln-fuer-kuenstliche-intelligenz-ams-algorithmus-auf-dem-eu-pruefstand »
Unbehagen.at | Game Over – Wenn Dich ein Algorithmus abschreibt »