Eigentlich ist man noch sehr weit davon entfernt eine KI zu erschaffen, welche über ein eigenes Bewusstsein verfügt, doch wie eine aktuelle Studie zeigt sehen das viele Nutzer offenbar anders, über 2 Drittel der Befragten glaubten, dass LLM (Large Language Models) wie ChatGPT über so etwas wie ein eigenes Bewusstsein verfügen.
Abhängig von der Häufigkeit der Nutzung
Dabei zeigte sich aber auch, dass der Anteil derer, die den LLMs ein eigenes Bewusstsein attestieren, steigt, je häufiger diese genutzt werden. Viele Nutzer haben anscheinend das Gefühl, ihr Gegenüber mit der Zeit „kennenzulernen“. Auch wenn dies nur das gefühlte Empfinden der Nutzer betrifft, sind bereits einige KI-Experten der Meinung, dass dies in Zukunft rechtliche und ethische Ansätze zur KI beeinflussen werde.
Tatsächlich noch weit entfernt von Bewusstsein
Aktuell sind sich aber sowohl KI-Experten als auch Entwickler einig, dass LLMs wie ChatGPT noch sehr weit davon entfernt sind über ein eigenes Bewusstsein zu verfügen wie man es von Menschen oder auch nur Tieren kennt. Gleichzeitig werden diese allerdings auch gezielt so entwickelt, dass sie dem Nutzer möglichst „natürlich“ erscheinen, so merkwürdig das Ergebnis dieser Studie einem auch erscheinen mag, zeigt es also doch, dass die Entwickler in dieser Hinsicht bereits sehr erfolgreich waren.
Das betrifft übrigens nicht nur „einfache“ Nutzer, auch ein Google Mitarbeiter lies sich 2022 von einer KI davon überzeugen, sie habe ein eigenes Bewusstsein, woraufhin er sogar gefeuert wurde, weil er öffentlich erklärte diese KI sein „fühlend“. Die betreffende KI, Gemini (bzw ursprünglich als „Lambda“ bezeichnet) ist mittlerweile übrigens öffentlich zugänglich und jeder kann sich unter gemini.google.com selbst davon überzeugen wie „fühlend“ diese ist (auch wenn sicher wieder irgendwelche Verschwörungs-Deppen ankommen werden, die behaupten Google hätte die eigentliche KI gelöscht oder ähnliches).
Die Studie
Die besagte Studie wurde am 13. April im Journal „Neuroscience of Consciousness“ veröffentlicht und die Forscher argumentierten dabei, dass die Wahrnehmung des Nutzers bezüglich des Bewusstseins einer KI genauso wichtig sei wie die Frage, ob sie tatsächlich fühlend ist oder nicht. Befragt wurden insgesamt allerdings auch nur 300 US-Bürger bezüglich ihrer Nutzung von KI und ihrer Einschätzung, ob diese über ein Bewusstsein verfüge, entsprechend ist diese Studie also zwar nicht wirklich repräsentativ, aber immerhin gaben 67% der Befragten an, die Möglichkeit von Selbstbewusstsein oder „phänomenalem Bewusstsein“ – das Gefühl, ‚du‘ zu sein, im Gegensatz zu einer nicht fühlenden Fälschung, die inneres Selbstbewusstsein simuliert – für gegeben zu halten.
Turing Test bestanden?
ChatGPT 4 soll übrigens bereits Anfang diesen Jahres den berühmten „Turing Test“ bestanden haben, einen Test, den der Mathematiker Alan Turing bereits 1950 entwickelt hatte, um zu entscheiden, ob es sich bei einer KI um eine „echte Intelligenz“ handelt, bzw ob diese ein „dem Menschen gleichwertiges Denkvermögen“ habe. Offensichtlich konnte Turing aber damals noch nicht wissen, in welche Richtung die Entwicklung künstlicher Intelligenz heute gehen würde. Wenn man eine KI zum Beispiel gezielt daraufhin trainiert, den Turing Test zu bestehen, heißt das Bestehen natürlich noch lange nicht, dass es sich dabei tatsächlich um „echte“ Intelligenz handelt.
Fazit
Moderne KIs werden natürlich immer leistungsfähiger, man muss aber natürlich auch bedenken, dass speziell LLMs gezielt darauf trainiert werden möglichst natürlich / menschlich zu wirken, das heißt aber natürlich noch lange nicht, dass diese über ein Bewusstsein verfügen. Wie LLMs sind die meisten KIs heutzutage noch jeweils auf eine sehr spezielle Anwendung ausgelegt und bevor man auch nur ansatzweise von einer KI mit Bewusstsein sprechen kann, heißt es zunächst einmal eine Artificial General Intelligence (AGI) zu erreichen, was laut KI-Experten voraussichtlich frühestens in etwa 5 Jahren der Fall sein soll.
Das Problem wird auch eher sein, das zu erkennen, wenn es denn so weit ist, der Turing Test ist dazu ja offensichtlich nicht ausreichend und je mehr KIs darauf hin entwickelt werden, möglichst natürlich zu wirken, desto schwieriger dürfte es werden, irgendwann zu erkennen, ob eine KI wirklich ein Bewusstsein entwickelt hat.