Das Terminator-Szenario aus dem gleichnamigen Film von James Cameron ist eine sehr optimistische Variante, sollte eines Tages eine Superintelligenz aus der KI-Forschung hervorgehen, die sich gegen den Menschen wendet. Denn käme es tatsächlich zu einem solchen Konflikt, ist das deutlich wahrscheinlichere Szenario, dass die Superintelligenz aufgrund einer überlegenen Waffe (z.B. aus dem Bereich Nanotechnologie, Biotechnologie) die Menschheit binnen weniger Stunden auslöscht. Ende der Geschichte.

Das Buch „Superintelligenz“ des Philosophen Nick Bostrom an der Universität Oxford führt seine Leserschaft in einer lückenlosen Argumentation zu einem Verständnis eines Szenarios „Superintelligenz“: Wo steht die KI-Forschung heute? Welche Formen von Superintelligenz gibt es? Wie lässt sich Superintelligenz kontrollieren, wenn überhaupt? Wie hoch ist das Risiko, dass eine Superintelligenz gefährlich wird für den Menschen? – Nick Bostrom macht in seinem Buch keinen Hehl daraus, dass er dieses Szenario für außerordentlich problematisch hält.

Bostrom schafft vor allem eine Vorstellung, wie wir uns Superintelligenz überhaupt vorstellen können: Er mahnt, dass man „eine superintelligente KI nicht schlau in dem Sinn nennen sollte, wie es ein wissenschaftliches Genie im Vergleich zu einem Durchschnittsmenschen ist. Es dürfte eher um einen Unterschied von der Art gehen, wie er zwischen einem Durchschnittsmenschen und einem Käfer oder einem Wurm besteht.“ (S. 133) Das erklärt, wieso – wie eingangs beschrieben – das Terminator Szenario (mit grosso modo ausgeglichenen Kräften) extrem unwahrscheinlich ist.

Eine solche Überlegenheit leitet Bostrom einfach nachvollziehbar her. Zunächst sollte man dazu wissen, dass eine KI mit „echter“ Intelligenz (allgemeine Intelligenz des Menschen) etwa dadurch entstehen kann, dass das Gehirn des Menschen erfolgreich emuliert wird, wobei für Neuronen komputationale Modelle verwendet werden. Oder dass ausgehend von einem kleinen Künstlichen Neuronalen Netzwerk der evolutionäre Prozess der Gehirnentwicklung zum Menschengehirn reproduziert werden kann (genannt: Saat-KI).

Gelingt es also, auf dem ein oder anderen Weg ein leistungsfähiges Künstliches Neuronales Netzwerk herzustellen, dann hätte ein solches Gehirn eine ganze Reihe von Vorteilen gegenüber dem biologischen menschlichen Gehirn. Etwa keine Größenbeschränkung: Die Beschränkung von 100 Milliarden Gehirnzellen des menschlichen Gehirns muss nicht zwangsläufig für einen zukünftigen Supercomputer gelten. Weitere Vorteile sind: Biologische Neuronen feuern mit einer Höchstgeschwindigkeit von etwa 200 Hz, der Mikroprozessor in einem normalen Gaming-Computer mit 3 GHz. Und in punkto interne Kommunikationsgeschwindigkeit gilt: Biologische Axone (Übertragungswege) verbreiten Aktionspotential mit Geschwindigkeiten von 120 m/s oder weniger, während elektronische Prozessorkerne optisch mit Lichtgeschwindigkeit (300 000 000 m/s) kommunizieren können.

Die Fragen nach einem Wettrennen um KI zwischen den Staaten, auch die Wahrscheinlichkeit einer staatenübergreifenden Kooperation ist differenziert zu beurteilen – in jedem Fall alles andere als einfach. Dazu ein paar zentrale Gedanken aus dem Buch: „Angesichts der Bedeutung für die nationale Sicherheit würden Regierungen wahrscheinlich versuchen, jedes erfolgversprechende Superintelligenz-Projekt in ihrem Einflussbereich zu verstaatlichen. (…) Sind die globalen Regierungsstrukturen in der Zeit vor einem möglichen Durchbruch stark genug, würden vielversprechende Projekte womöglich auch unter internationale Kontrolle gestellt werden.“ (S. 122)

Insbesondere die internationale Kooperation stellt sich hierbei aber alles andere als einfach dar, und ist bei Weitem kein Selbstläufer. Zum Szenario einer länderübergreifenden Kooperation bei der Entwicklung fortgeschrittener KI formuliert Bostrom: Im Falle einer Kooperation „müsste jedes teilnehme Land befürchten, dass ein anderes die gemeinsam gesammelten Erkenntnisse nutzt, um ein geheimes nationales Projekt voranzutreiben.“ (S. 126) Und selbst unter befreundeten Nationen ist Kooperation herausfordernd, mit Blick auf die Geschichte bemerkt Bostrom: „Auch Großbritannien verschwieg der Sowjetunion seine Erfolge beim Knacken des deutschen Enigma-Codes, teile sie aber – wenn auch unter einigen Schwierigkeiten – mit den Vereinigten Staaten.“ (S. 126)

Abschließend sei noch auf die Prognosen für den „Durchbruch“ in der KI-Entwicklung hingewiesen. Beispiel Gehirnemulation: Bislang sei noch kein einziges Gehirn emuliert worden; und das gilt sogar für ein so kleines Gehirn wie das des Organismus Caenorhabditis elegans, das gerade mal 302 Neuronen hat. Zum Vergleich: Die Fruchtfliege hat ca. 100.000 Neuronen, die Honigbiene etwa 1.000.000 Neuronen.

Wann können wir also damit rechnen, dass die KI-Forschung eine Intelligenz generiert, die auf dem Niveau der menschlichen Intelligenz liegt (hiernach kommt es zur „Intelligenzexplosion“ bzw. dem „Take-Off“). Dazu Bostrom: „Die Expertenmeinungen zur Zukunft der KI gehen weit auseinander. Es besteht überhaupt keine Einigkeit darüber, wohin sich die KI-Forschung entwickelt oder wie lange solche Entwicklungen dauern werden. (…) 10% Wahrscheinlichkeit für HLMI bis 2022, 50% Wahrscheinlichkeit bis 2040 und 90% Wahrscheinlichkeit bis 2075.“ (S. 37)

“Superintelligenz. Szenarien einer kommenden Revolution“ von Nick Bostrom (Suhrkamp Verlag, 370 Seiten, 20 Euro).

Sebastian Zang
Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.