Digital

Bedrohung wie in “Terminator” – superintelligente KI für Menschen unbeherrschbar

Es klingt wie der Weltuntergang in den Teminator-Filmen. Eine superintelligente Künstliche Intelligenz (KI) des Militärs entdeckt, dass die Menschen die größte Bedrohung für die Roboter sind, und entschließt sich, loszuschlagen, bevor der Mensch beim Computer den Stecker zieht. Forscher der Max-Planck-Gesellschaft sagen nun, dass diese Vision gar nicht so abwegig ist. Denn die Kontrollfähigkeiten der Menschen bleiben gleich, die Möglichkeiten der KI wachsen dagegen stetig.

Die Studie “Superintelligence Cannot be Contained: Lessons from Computability Theory” aus dem “Journal of Artificial Intelligence Research” geht der Frage nach, ob eine KI im Stil von Skynet, also dem Weltbeherrschungsprogramm der “Terminator”-Filme, aufgehalten werden kann, wenn sie beschließt, die Menschheit zu vernichten. Die Antwort: Mit dem heutigen Stand der Technik müssten die Menschen tatenlos zusehen, wie sie ausgelöscht werden.

Schlauer als der Mensch

Die Gefahr liegt weniger darin, dass ein Programm plötzlich Atomraketen abschießt. Das Problem liegt darin, dass heutzutage Programme neue Programme entwickeln, ohne dass der Mensch wirklich versteht, was geschieht. “Eine superintelligente Maschine, die die Welt kontrolliert, klingt wie Science-Fiction”, sagte Studien-Co-Autor Manuel Cebrian, Leiter der Digital Mobilization Group am Zentrum für Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. “Aber es gibt bereits Maschinen, die bestimmte wichtige Aufgaben selbstständig ausführen, ohne dass die Programmierer vollständig verstehen, wie sie es gelernt haben. Es stellt sich daher die Frage, ob dies irgendwann unkontrollierbar und gefährlich für die Menschheit werden könnte.”

Unbegrenzte Fähigkeiten lassen sich nicht eindämmen

Eine superintelligente KI ist eine, die die menschliche Intelligenz übertrifft und sich selbst neue Dinge beibringen kann, die außerhalb der menschlichen Reichweite liegen. Um diese Entwicklung zu verhindern, sind die Forscher der Hypothese nachgegangen, ob eine Art von “Gegen-KI” denkbar ist, die simuliert, wie sich eine Künstliche Intelligenz verhalten würde und so schädliche Antriebe frühzeitig erkennt. Doch schon aus theoretischen Erwägungen heraus halten sie das Problem für nicht lösbar. Eine KI, die außerhalb des menschlichen Denkens operiert, lässt sich letztlich nicht wirksam eindämmen. “Wir argumentieren, dass eine vollständige Eindämmung aufgrund grundlegender Grenzen, die dem Computing selbst inhärent sind, im Prinzip unmöglich ist.”

Die Debatte gewinnt zusätzliche Brisanz, da weltweit immer mehr intelligente autonome Tötungsmaschinen gebaut werden, also Roboter, die mit ihrer KI selbstständig Ziele erkennen, erfassen und bekämpfen können. Heute muss ein Mensch immer noch den Einsatz letaler Mittel freigeben, doch im Grunde benötigt man nur ein Software-Update, um diese Sicherheitsschleife zu umgehen. Die Studie wirft nun auf die Frage auf, was passiert, wenn die KI selbst entscheidet, sich entsprechend zu aktualisieren.

QUELLE

Related Articles

Back to top button