Ein bisschen windig und übertrieben groschenromanliterarisch (mit logischer lücke) klingt diese schilderung ja schon:
Bei einem simulierten Test einer KI-gesteuerten Drohne ist die Software zu dem Schluss gekommen, dass das effektivste Mittel zur Erreichung des vorgegebenen Ziels die Eliminierung des eigenen Operators ist. Dieses unerwartete Vorgehen hat Tucker Hamilton von der US Air Force vor wenigen Tagen auf einer Konferenz der Royal Aeronautical Society zur Zukunft öffentlich gemacht. Beobachtet wurde es demnach bei einer Simulation, in der eine KI-Drohne Luftabwehrstellungen identifizieren und ausschalten sollte. Für jede gab es demnach Punkte, schießen durfte sie aber erst nach einer Bestätigung durch den Operator. Weil der aber auch Abschüsse – und damit Punkte – verhinderte, habe sie einfach ihn abgeschossen […] Als Reaktion habe man der KI beigebracht, dass es schlecht sei, den Operator zu eliminieren und dass das Punktabzüge bringt. Daraufhin habe sie den Funkturm zerstört, über den die Kommunikation mit dem Operator gelaufen ist, um ungestört Luftabwehrstellungen abschießen zu können
Tja, deshalb verwendet man ja auch lieber softwäjhr, deren funkzjon man verstehen kann, deren fehler man analysieren, finden und korrigieren und deren schwächen man verbessern kann. Nichts davon gilt für angelernte neuronale netzwerke, von jornalisten und anderen technischen analfabeten zurzeit auch als „künstliche intelligenz“ bezeichnet.
Wo die eingangs erwähnte logische lücke ist? Wenn das dingens nicht ohne freigabe des operators auf ziele schießen kann, wieso kann es dann erfolgreich ohne freigabe des operators auf den operator oder den funkturm schießen? Da fragt man sich nicht nur, wie man so eine scheiße bauen könnte, sondern auch, warum man so eine scheiße überhaupt bauen sollte. Schuss ist schuss. Das ist der gleiche technische vorgang mit den gleichen konsekwenzen. Warum sollte eine freigabe nur bei einem schuss in eine bestimmte richtung erforderlich sein?
Es handelt sich also um PRopaganda der waffenfirma oder der US-luftwaffe. Diese wird nicht grundlos in dieser form rausgehauen, und das macht mir mehr sorge als jede so genannte „künstliche intelligenz“. Was wollen die damit erreichen? Eine art US-rechtliches „recht auf kollateralschäden“ bei „intelligenten automatischen waffensystemen“, wisst schon, weil die anderen (russland, china, nordkorea und der pöse internazjonale terrorismus) noch viel böser sind? Und dann die einführung des totalen roboter- und drohnenkrieges, viel besser und sauberer, aber wo gehobelt wird, da fallen eben auch späne?
Ach, als verschwörungsteoretiker höre ich schon wieder das gras waxen, aber ernsthaft: WAS SOLL DAS? Die beschriebene logische lücke existiert und ist so klar, dass ich davon ausgehe, dass die gesamte geschichte erlogen oder stark umgeschrieben wurde. Ein aufgeweckter achtjähriger kann das problem in der story bemerken. Einfach durch aufmerksames lesen. Ohne vertiefte technische kenntnisse. (Ein aufgeweckter achtjähriger ist ja auch oft intelligenter als der durchschnittsjornalist.) Es ist klar, dass diese tolle story ersponnen ist. Und so etwas geschieht in der öffentlichen kommunikazjon des militärisch-industriellen komplexes niemals ohne einen zweck und ohne absicht. Damit dort etwas unverfälschtes an informazjon rauströpfelt, müssen schon die pösen cyberhäcker einen größeren batzen daten raustragen. Ansosten sind diese staatstragenden mordwaffenfabriken diskreter als die meisten freimaurerlogen. Man hört nix von ihrer forschung, nix von ihren fehlschlägen, nix von ihren erfolgen, das ist alles hochgeheim. Wenn die auf einmal rausrotzen, dass sie versehentlich ein skynet 0.95 beta im sandkasten gebuhtet und gestartet hätten und dass es gleich einen simulierten toten durch eine angelerntes neuronales netzwerk gegeben habe, dass also diese „intelligenten“ maschinen uns menschen endlich mal den stecker rausziehen, und dann sind auch noch solche lücken in der geschichte, dann stinkt es schon sehr aufdringlich nach lüge und PRopaganda.
Vor allem…
Hamilton schließt aus der Begebenheit, dass man nicht über Künstliche Intelligenz, Intelligenz, maschinelles Lernen und Autonomie diskutieren könne, ohne dass man auch über Ethik spreche
…wenn aus dem umfeld industrieller massenmordwaffenprodukzjon auf einmal von „etik“ die rede ist. „Etik“, bwahahahaha, der war gut! Da muss man erstmal drauf kommen!!1!
Nachtrag: heise onlein hat inzwischen korrigiert. Eigentlich war es nicht so schwierig, hier den bullschitt zu erkennen…