Künstliche Intelligenz: (Un)kontrollierbar

ist kuenstliche Intelligenz kontrollierbar, Foto: AdobeStock/ apopium
Foto: AdobeStock/ apopium

Wäre es grundsätzlich möglich, eine superintelligente Künstliche Intelligenz (KI) zu kontrollieren? Mit dieser Frage beschäftigten sich Computerwissenschaftler und Philosophen in der Studie „Superintelligence cannot be contained: Lessons from Computability Theory“. Dabei nimmt der Studientitel schon die Antwort vorweg: Nein. von Christoph Berger

Zugegeben: Das Szenario ist konstruiert. Und (noch) existiert es nur in der Theorie. Die Wissenschaftler gehen in ihrer Annahme von einer KI aus, deren Intelligenz dem Menschen überlegen ist und die selbstständig alles lernen kann. Zudem ist sie an das Internet angeschlossen und hat Zugriff auf alle Daten der Menschheit: Sie kann alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Würde sich eine solche KI für das „Gute“ einsetzen oder die Menschheit vernichten und die Erde übernehmen? „Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science- Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbstständig erledigen, ohne dass Programmier*innen komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, sagt Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie.

Bisher wurden weltweit zwei Ideen entwickelt, wie sich eine superintelligente KI beherrschen lassen könnte. Entweder werden die der KI zur Verfügung stehenden Ressourcen eingeschränkt. Das würde bedeuten, dass man sie vom Internet und anderen technischen Geräten abschottet, also den Kontakt zur Außenwelt blockiert. Dies hätte allerdings auch zur Folge, dass die Fähigkeiten der KI deutlich geringer wären und sich die großen Probleme der Menschheit nicht lösen lassen. Die zweite Option besteht darin, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen. Zum Beispiel könnten ethische Regeln einprogrammiert werden.

Die an der Studie beteiligten Forscher zeigen jedoch, dass all diese Ideen ihre Grenzen haben. Auch sie versuchten einen theoretischen Algorithmus zu konzipieren, der sicherstellen sollte, dass eine superintelligente KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Eine genaue Analyse dieses Algorithmus zeigte jedoch, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann. „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.

Auf Basis dieser Berechnungen sei es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Hinzu komme, dass möglicherweise nicht einmal erkennbar sei, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lasse sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen, so die Forscher.