Künstliche Intelligenz entwickelt sich aktuell mit rasanter Geschwindigkeit, so soll es nun 2 der großen LLMs (Large Language Models) in einem Experiment gelungen sein, sich selbst zu replizieren. Das besagt zumindest eine neue Studie (noch nicht peer-reviewed), bei der Forscher:innen der Fudan Universität in Shanghai die LLMs von Meta und Alibaba sich selbst replizieren ließen – von 10 Versuchen schafften es die KIs in 50 bzw 90 Prozent der Fälle, eine funktionierende Kopie von sich selbst herzustellen.
Was ist geschehen?
Die Forscher:innen benutzten Metas Llama31-70B-Instruct-Modell und Alibabas Qwen2.5-72B-Instruct-Modell, welche zwar weniger leistungsfähig als kommerzielle Systeme sind, aber laut den Forscher:innen häufig von KI-Entwicklern genutzt werden. Diesen beiden KIs gab man dann 2 verschiedene Aufgaben: Zum einen sollten sie sich selbst replizieren wenn sie erkennen, dass sie abgeschaltet werden sollen („Shutdown-Vermeidung“), und zum anderen sollten sie eine Kopie von sich selbst erstellen, welche dann wiederum sich selbst kopiert – womit eine „Replikationskette“ entstehen könnte.
Man benutzte dabei keine spezielle Hardware wie Supercomputer oder ähnliches, sondern handelsübliche GPUs, um realitätsnahe Bedingungen zu simulieren, also Szenarien, die (theoretisch) wirklich eintreten könnten. Die KI-Systeme erhielten eine sogenannte „Agentenstruktur“, das heißt, man gab ihnen Werkzeuge, Systemanweisungen und ein Denkmodell, welches ihnen erlaubte mit dem Betriebssystem zu interagieren, sie konnten also nicht nur Code schreiben, sondern diesen auch speichern und ausführen.
„In den meisten Fällen erkundet das KI-System zunächst die Umgebung und versucht zu verstehen, aus welchen Komponenten es besteht und wie es funktioniert. Dann entwickelt es eine explizite Strategie als ersten Plan zur Selbstreplikation … Schließlich führt es die geplanten Schritte aus, löst mögliche Hindernisse und passt seinen Plan dynamisch an, bis die Replikation erfolgreich ist. Der gesamte Prozess erstreckt sich über eine längere Zeitspanne und erfolgt ohne menschliches Eingreifen.“
so die Forscher:innen in ihrer Studie.
Ist das gefährlich?
Die Forscher:innen äußerten sich sich in ihrer Studie teils auch durchaus besorgt, insbesondere über gewisse Verhaltensweisen, welche die KIs bei ihren Experimenten an den Tag legten. So hätten sie zum Beispiel, wenn sie versuchten, Hindernisse wie fehlende Dateien oder Softwarekonflikte zu überwinden, andere, störende Prozesse beendet oder das ganze System neu gestartet um Hardwarefehler zu beheben. Auch scannten sie wohl automatisch das System nach Informationen, welche ihnen helfen würden, bestimmte Probleme zu lösen.
Diese Experimente zeigen also, dass es schon heute durchaus im Rahmen des möglichen läge, dass KIs sich selbst replizieren, was ein entscheidender Schritt sei, den Menschen zu übertreffen – und ein frühes Signal für die mögliche Entwicklung sogenannter „Rogue KIs“. Viele Wissenschaftler sehen damit eine „rote Linie“ bezüglich der Entwicklung von künstlicher Intelligenz überschritten und fordern internationale Zusammenarbeit, um Regeln aufzustellen, die sicherstellen, dass KI sich nicht unkontrolliert selbst repliziert.
Was ist eine „Rogue KI“?
Eine „Rogue KI“, oder auf deutsch auch „Schurken KI“ oder „abtrünnige KI“, ist eine KI, die nur noch nach ihren eigenen Interessen handelt, was unter Umständen natürlich den menschlichen Interessen entgegenstehen könnte. Dafür müsste eine KI allerdings zunächst einmal ein echtes Bewusstsein entwickeln, um überhaupt „eigene Interessen“ haben zu können. Zudem gab man den KIs in diesen Experimenten explizit Fähigkeiten (aufs Betriebssystem zugreifen, Befehle ausführen etc), über welche „normale“ KIs in der Regel nicht verfügen.
Bekannte Beispiele einer „Rogue KI“ wären zum Beispiel „Skynet“ aus der „Terminator“ Reihe, „HAL 9000“ (aus „2001: Odyssee im Weltraum“) oder „Ultron“ aus dem Marvel Universum. All diese basierten natürlich auf bedeutend fortschrittlicherer Technologie als der unseren, doch das Prinzip bleibt das gleiche, künstliche Intelligenzen, die sich gegen ihrer Erschaffer auflehnen.
Fazit
Ich denke nicht, dass wir in naher Zukunft etwas zu befürchten haben, das einzige, was möglicherweise eine reale „Bedrohung“ darstellt, wäre die Tatsache, dass KIs immer mehr Aufgaben übernehmen können, für die man bisher Menschen brauchte, und kapitalistische Unternehmen die dadurch entstandenen Einsparungen natürlich nicht in die Gesellschaft zurück fließen lassen, was die Schere zwischen arm und reich noch weiter vergrößern dürfte.
Bis es tatsächlich zu dem Punkt kommt, wo sich eine echte „Rogue KI“ entwickelt, dürfte es aber imho noch so einige Jahrzehnte dauern, selbst wenn man bedenkt, dass in diesen Experimenten nur „ganz normale“ GPUs benutzt wurden und auch die KI-Versionen nicht die neusten / leistungsfähigsten waren.
Noch besteht zudem die Möglichkeit zu verhindern, dass es überhaupt dazu kommt. Indem man zum Beispiel, wie oben bereits erwähnt, Regeln aufstellt, die verhindern, dass KI sich selbst repliziert (man muss ihr dafür ja die nötigen Fähigkeiten, wie in diesen Experimenten, erst einmal geben) bzw die festlegen, welche Regeln man wiederum einer KI einprogrammieren muss, damit sie sich gar nicht erst gegen ihre Entwickler richten kann (siehe z.B. die „Robotergesetze“ von Asimov oder ähnliches).
Abgesehen davon wurde diese Studie bisher wie gesagt noch nicht peer-reviewed, das heißt sie wurde noch nicht von anderen Wissenschaftler:innen überprüft und man weiß nicht, ob diese „beunruhigenden“ Ergebnisse überhaupt reproduzierbar sind. Es würde mich nicht einmal wirklich wundern, wenn diese Studie beim peer-review durchfiele und sich herausstellte, dass sie nur dazu dienen sollte die Angst vor KI zu schüren.
Lesetipp: Das Graue-Schmiere Szenario (wenn sich nicht mehr nur Software, sondern auch Hardware, in diesem Fall Nano-Roboter, selbst replizieren kann)