Interview mit Rainer Rehak: „Die Nutzung solcher KI-Systeme muss als Kriegsverbrechen eingestuft werden“
Stichproben hätten gezeigt, dass „Lavender“ in zehn Prozent der Fälle gar keine legitimen Ziele markierte. Selbst bei den Zielen, die sogenannte „legitime Ziele“ waren, genehmigte das israelische Militär, dass für jeden mutmaßlichen Hamas-Kämpfer fünf bis 20 Zivilist:innen getötet werden können.
[…]
Bei „Lavender“ war es manchmal sogar so, dass sie alle aktuellen Ziele, die das System ausgespuckt hatte, angegriffen hatten, aber, salopp gesagt, trotzdem noch Bomben für den Tag übrig hatten. Deshalb sollen sie sich dafür entschieden haben, die sowieso schon geringen Genauigkeitsanforderungen noch weiter herunterzusetzen. Sie haben also an ein paar Parametern gedreht und den Fokus ungenauer gemacht, dann produziert das System weitere Ziele. Diese Möglichkeiten sind ein Beispiel für Skalierungs-Effekte.
Als Mensch würde man vielleicht auf die Karte gucken und zufällig auf Häuser zeigen. Das wäre eindeutig Willkür und ganz furchtbare Kriegspraktik. Wenn es aber eine Maschine macht, bekommt das so eine Art „Goldstaub des Gezielten“. Das stimmt aber nicht und das wissen diejenigen, die es einsetzen, auch genau. Trotzdem benutzen sie es so.
Wenn der eigentliche Kombatant zum “Collateral Damage” wird…
Warum gegen die Verantwortlichen noch kein Prozess läuft ist mit schleierhaft.,
Holy shit, ich mache manchmal Klassifikationsmodelle und es wäre mir im Traum nicht als möglich erschienen dass hier „Kollegen“ den Precision-Recall trade off in Menschenleben quantifizieren. Es sollte nicht nur als Kriegsverbrechen eingestuft werden, sondern sklearn, tensorflow, Python foundation, etc. und alle Cloud-Provider sollten militärische Nutzung von ihren ML-Architekturen untersagen.
Es kann doch nicht sein dass da ein paar Leute sitzen und sagen hmm, also wenn wir die probability threshold jetzt von 0.5 auf 0.4 runtersetzen dann sinkt zwar unsere Precision um 10%, dafür können wir aber den Recall auf 65% erhöhen. Wobei wir hier nicht von fälschlicherweise als Spam klassifizierten Mails sprechen, sondern von Menschenleben. Jeder Prozentpunkt tötet fucking echte Menschen.
Die Nazis haben Massenmord industrialisiert und Israel ist jetzt dabei Massenmord zu automatisieren.
Insofern finde ich hier “Kriegsverbrechen” noch zu mild. Es geht bei den Systemen “Evangelium” “Lavender” und “Where’s Daddy” um Völkermord. Evangelium indem es jede zivile Infrastruktur als Ziel deklariert, Lavender indem es jeden der jemanden kennt der jemanden kennt auf die Abschussliste setzt, und Where’s Daddy indem es statt den militärisch sinnvollsten Zeitpunkt zu wählen, den Zeitpunkt wählt an dem die gesamte Famile mit vernichtet werden kann.
Alle vereint, dass sie absolut unmenschliche, grausame und verabscheuungswürdige Verbrechen für die Täter dadurch erleichtern, dass sie sich auf die “Auswahl” vom System berufen können. Quasi “Ich habe nur Befehle befolgt”, ohne dass am Ende ein Befehlsgeber konkret in die Verantwortung genommen wird.