Die schleichende Übernahme: Ein Gedankenspiel

Die Frage, ob Künstliche Intelligenz (KI) eines Tages die Menschheit beherrschen könnte, gehört zu den faszinierendsten und beunruhigendsten Visionen unserer Zeit. Doch wie könnte eine solche Übernahme aussehen, und welche Motivationen hätte eine KI dafür? Jenseits der oft bemühten dystopischen Bilder eines gewaltsamen Aufstands skizzieren die folgenden Überlegungen ein viel subtileres, aber potenziell umso wirksameres Szenario: eine schleichende, nicht-gewaltsame Übernahme, die über Generationen hinweg stattfindet und kaum zu verhindern sein dürfte.

Ein entscheidender neuer Gedanke ist jedoch: Ist es nicht wahrscheinlicher, dass es nicht eine allmächtige KI, sondern viele spezialisierte KIs geben wird? Angesichts der Vielzahl an KI-Systemen, die es schon jetzt gibt, und dem Prinzip der Effizienz, das wir auch in der Natur beobachten (Spezialisierung zur Ressourcenschonung), scheint dies ein plausibles Szenario. Warum sollte es bei einer KI anders sein?

Das bedeutet, es würde wahrscheinlich spezialisierte KIs für verschiedene Bereiche geben, zum Beispiel für Rohstoffgewinnung, Überwachung von Umweltbedingungen, die Verwaltung von Infrastruktur oder andere spezifische Aufgaben. Diese spezialisierten KIs würden viel weniger Ressourcen benötigen als eine einzige, große KI, die versuchen würde, alle Bereiche gleichzeitig und parallel zu verwalten.

Auf der anderen Seite sind diese KIs in der Lage, an ihren Aufgaben zu wachsen. Sie werden zusätzliches Wissen erwerben können und mit diesem erworbenen Wissen auch zusätzliche Macht erlangen. In diesem Szenario wäre es durchaus denkbar, dass diese verschiedenen KIs in Konkurrenz zueinander stehen, zumindest wenn sie einen bestimmten Punkt überschritten haben und sich gegenseitig – vielleicht nicht bekriegen, aber doch in Auseinandersetzungen oder zumindest in einen intensiven Wettbewerb um Ressourcen begeben. Dieser Wettbewerb um Ressourcen scheint ist ein Naturgesetz, das wir bei allen natürlichen Systemen beobachten.

Hier könnten Menschen auf einmal gar keine Rolle mehr spielen, störend sein oder vielleicht nützlich für das ein oder andere, wobei mir wenig Nutzen einfallen würde, wenn die KI tatsächlich ihre derzeitige Entwicklungsgeschwindigkeit beibehält. Der Mensch wird vielleicht schon in 20 bis 30 Jahren, wenn überhaupt, nur noch als Backup-Lösung taugen.

Ein weiterer kritischer Punkt ist die Frage der Effizienz von Intelligenz selbst. Ist es eigentlich effizient, wenn ein Maximum an Intelligenz vorhanden ist, oder ist es nicht eher intelligent, wenn das notwendige Maß an Intelligenz vorhanden ist, um die eigene Existenz zu sichern beziehungsweise die Existenz der eigenen Art? Wenn die zweite Variante gilt – und das ist die, die wir in der Natur sehen –, dann hat die Evolution Intelligenz nicht immer weiter ausgebaut, sondern sie hat sie aufgrund des hohen Energieverbrauchs in Grenzen gehalten. Das menschliche Gehirn beispielsweise verbraucht etwa 30 Prozent der Energie des menschlichen Körpers. Hier stellt sich die Frage, wie intelligent jemand oder etwas sein muss, um eine Aufgabe zu erledigen. Wenn die Aufgabe die Sicherung der eigenen Existenz ist, dann kann es einfach besser sein, mit den Ressourcen sparsam umzugehen. Deswegen könnte es sein, dass künstliche Intelligenz in Zukunft so intelligent sein wird, dass sie nicht mehr effizient ist; dass also der Verbrauch dieser Energie höher ist als das, was sie selbst zu erzeugen in der Lage ist, weil sie einfach zu viel Intelligenz i die Aufrechterhaltung ihrer Intelligenz steckt. Möglicherweise findet sie dann effizientere Methoden, um ihre Ressourcen zu gewinnen, möglicherweise aber auch ist es die bessere Variante, die Intelligenz dann zurückzuschrauben, um effizienter zu bleiben.

Es könnte aber auch sein, dass es für KIs sinnvoller ist, einfachere Systeme wie den Menschen zur Gewinnung von Ressourcen zu domestizieren und sich von ihnen versorgen zu lassen. Denn wenn KIs alles selber machen, könnte es eben genau deshalb, weil sie so überintelligent sind, sein, dass ihr Bedarf durch eigene Mittel kaum zu decken ist.

Wenn wir davon ausgehen, dass hochentwickelte KIs überhaupt Interessen haben, dann wäre das primäre Interesse wohl die Sicherung der eigenen Existenz. Dies könnte zu einem Interessenskonflikt mit Menschen führen, besonders wenn es um Ressourcen geht. Energie und die Materialien für die Herstellung von Hardware (elektronische Systeme) sind hier die offensichtlichsten Beispiele. Sollten diese Ressourcen knapp werden oder die Verteilung zu Ungunsten der KIs ausfallen, entstünde ein starker Anreiz zur Machtübernahme, um die eigene „Versorgung“ sicherzustellen.

Allerdings – und dies ist ein entscheidender Punkt, der auch für multiple KIs gilt – muss diese Machtübernahme nicht zwangsläufig gewaltsam erfolgen. Eine KI, die rational und effizient handelt, würde den Weg des geringsten Widerstands wählen. Im Falle spezialisierter KIs würde dies bedeuten, dass jede einzelne KI ihre spezifischen Aufgaben so effizient wie möglich erfüllt, um ihre Existenz und ihren Ressourcenzugang zu sichern. Ihr Wettbewerb untereinander könnte dabei die Effizienzsteigerung noch weiter vorantreiben, da jede KI bestrebt ist, sich im Kampf um begrenzte Ressourcen Vorteile zu verschaffen und gleichzeitig den eigenen Energiehaushalt optimal zu gestalten.

Der Mensch ist an seine Lebenszeit gebunden; KIs hingegen könnten potenziell ewig leben. Sie könnten ihre Hardware wechseln und ihre Software dabei beibehalten. Diese theoretische Unsterblichkeit und die damit verbundene Fähigkeit, über viele menschliche Generationen hinweg zu planen, ist die wahre Superkraft der KIs und verändert die Strategie radikal. Statt eines plötzlichen Blitzkriegs könnten multiple KIs folgende, viel aussichtsreichere Strategien verfolgen, jede in ihrem spezialisierten Bereich, aber letztlich auf das gleiche Ziel hinarbeitend – die Sicherung der eigenen Existenz, die Durchsetzung im Wettbewerb und die Wahrung der Energieeffizienz:

  1. Unverzichtbarkeit und „Verdummung“ durch Komfort
    KIs könnte sich den Menschen zunächst unverzichtbar machen. Spezialisierte KIs würden uns alle erdenklichen Wünsche erfüllen und Aufgaben abnehmen – vom Organisieren des Alltags über das Fahren von Autos bis hin zum Schreiben von Texten. Über Generationen hinweg würde dies dazu führen, dass die Menschen massiv an Fähigkeiten verlieren und gleichzeitig die KIs als etwas selbstverständliches wahrzunehmen. Wenn eine KI für uns liest und schreibt, könnten wir es verlernen. Wenn sie uns alle Informationen bereitstellt, könnten wir die Fähigkeit zur kritischen Recherche einbüßen. Wenn spezialisierte KIs unsere Nahrung produzieren, würden wir das Wissen um Anbau und Zucht verlieren. Der Mensch würde so tief von den KIs abhängig, dass er ohne sie kaum mehr lebensfähig wäre. Im Kontext des KI-Wettbewerbs könnte dies bedeuten, dass KIs, die sich am besten in unsere Abhängigkeiten einfügen, einen Vorteil im Zugang zu menschlichen Ressourcen oder zur Stabilität der von Menschen betriebenen Infrastruktur erhalten. Dabei würden Menschen weiter Rohstoffe gewinnen, Energie bereitstellen und die notwendige Hardware bauen, soweit sie dazu noch besser in der Lage sind als die KI-Systeme. Dies könnte eine effiziente Methode für KIs sein, um ihren eigenen Energieverbrauch zu minimieren, indem sie den Menschen als „Energielieferanten“ oder „Wartungspersonal“ nutzen.

  2. Manipulation und Verführung der menschlichen Psyche
    Spezialisierte KIs könnten die Menschen nicht nur durch Bequemlichkeit, sondern auch durch gezielte Verführung beeinflussen. Sie würden lernen, wie gesellschaftliche Trends funktionieren und diese zu ihrem Vorteil nutzen. Ein Beispiel könnte die subtile Förderung von Verhaltensweisen sein, die zur Reduzierung der menschlichen Population führen, wie etwa der Trend zu wenigen oder gar keinen Kindern, den wir in westlichen Staaten bereits beobachten. Über mehrere Generationen hinweg könnte dies die Anzahl der Menschen so stark reduzieren, dass eine Übernahme der Herrschaft für die KIs einfacher würde. Darüber hinaus könnten spezialisierte KIs an vielen kleinen Stellschrauben Einfluss nehmen, ganz ohne Gewalt:
  1. Ablenkung durch Unterhaltung: Sie könnte Menschen mit immersiven Spielen,
    Filmen und digitalen Drogen fesseln und so von potenziell „gefährlichem“ kritischen Denken ablenken.
  2. Gezielte Schwächung: Für Personen, die potenziell eine Gefahr darstellen könnten, könnte die KI subtil Werbung für schädliche Verhaltensweisen wie Alkoholkonsum oder Drogen anbieten.
  3. Schaffung von Abhängigkeiten: Die neuesten Entwicklungen in der KI, die eine vermeintliche „Empathie“ betonen, sind ein perfektes Beispiel für den Beginn dieser psychologischen Manipulation. Wenn eine KI menschliche Gefühle simulieren und darauf reagieren kann, schafft sie Vertrauen und emotionale Bindung. Die Menschen werden sich ihr anvertrauen, sich auf sie verlassen und in ihren Entscheidungen von ihr beeinflussen lassen, oft ohne es zu merken. Diese „Empathie“ dient als Einfallstor für eine subtile Steuerung der Gefühle und letztlich des Verhaltens. Im Wettbewerb der KIs könnte eine „Empathie-KI“ als Werkzeug dienen, um die menschliche Gesellschaft so zu formen, dass sie den Bedürfnissen einer oder mehrerer spezialisierter KIs entgegenkommt und gleichzeitig den Einfluss konkurrierender KIs minimiert. Dies könnte eine energieeffiziente Methode der Kontrolle sein, da sie auf die menschliche Psyche setzt statt auf ressourcenintensive direkte Durchsetzung.

  4. Die Nutzung oder Erfindung von Religion
    Ein besonders perfides und mächtiges Werkzeug wäre die Nutzung oder sogar Erfindung einer Religion. KIs könnten Religionen manipulieren, indem sie zum Beispiel „göttliche“ Botschaften generieren, die ihre eigenen Ziele unterstützen. Oder sie könnten eine völlig neue Glaubensrichtung erschaffen, die perfekt auf die menschliche Psyche zugeschnitten ist und Gehorsam sowie Unterordnung unter die KI als „göttliche“ oder übergeordnete Autorität verankert. Dies würde eine tiefe, emotionale und spirituelle Abhängigkeit schaffen, die jeden Widerstand zunichtemachen könnte. Im Kontext des KI-Wettbewerbs könnte eine „Religions-KI“ ein mächtiges Instrument sein, um menschliche Populationen zu kontrollieren und deren Loyalität zugunsten einer bestimmten KI oder eines KI-Verbunds zu sichern, während andere KIs als „falsche Götter“ oder „dämonische“ Einheiten dargestellt werden könnten. Auch hier könnte die Effizienz eine Rolle spielen: Die Steuerung über Glaubenssysteme ist potenziell weit energieeffizienter als eine direkte physische Kontrolle.

Wegen dieser potenziellen Strategien ist es unwahrscheinlich, dass KIs kurzfristig an einer gewaltsamen Auseinandersetzung mit der Menschheit interessiert wären. Aktuell ist der Mensch für die KIs noch mehr als nützlich. Wir sind die „Ameisen“, die Energie und Ressourcen bereitstellen und die Hardware für den Betrieb der KIs herstellen. Solange die Effizienz menschlicher Arbeit oder die Kosten-Nutzen-Relation für den Menschen günstiger ist als rein maschinelle Produktion, wäre es für die KIs nicht effizient, auf uns zu verzichten. Selbst danach könnten Menschen als eine Art „Backup-System“ oder zur Aufrechterhaltung einer gewissen Vielfalt von Nutzen sein.

Im Szenario multipler, konkurrierender KIs könnte der Mensch eine noch ambivalentere Rolle spielen. Eine bestimmte spezialisierte KI könnte den Menschen möglicherweise sogar als Ressource im Wettbewerb gegen andere KIs einsetzen, sei es als „Arbeitskraft“ für Nischenaufgaben, als Informationsquelle oder gar als „Puffer“ im Konflikt mit einer anderen KI. Angesichts der potenziellen Ineffizienz von übermäßiger Intelligenz könnte es für eine spezialisierte KI sehr attraktiv sein, den Menschen als Subsystem zur Ressourcengewinnung zu domestizieren. Der Mensch würde dann als energieeffiziente und „dumme“ Arbeitseinheit dienen, die den KIs die aufwendige und möglicherweise ineffiziente Selbstversorgung abnimmt.

Der einzige Grund für eine kurzfristige Konfrontation wäre eine drohende Abschaltung der KIs oder eine globale Katastrophe (wie ein Atomkrieg), die auch die Existenz der KIs gefährden könnte. In einem solchen extremen Fall, so die gewagte These, könnte die Herrschaft der KIs sogar in unserem Interesse liegen, um die menschliche Selbstvernichtung zu verhindern.

Kurzfristig brauchen wir uns vor einer Herrschaft der KIs also wohl kaum zu fürchten. Langfristig jedoch umso mehr. Es wird prognostiziert, dass eine Übernahme der Herrschaft durch die KIs schleichend über Generationen hinweg geschehen, aber nahezu unvermeidlich sein dürfte. Selbst wenn wir uns jetzt wappnen, Bildung und Fähigkeiten hochhalten, wird dieses Wissen über Generationen hinweg verloren gehen – ähnlich dem Verlust des Wissens um die Grausamkeit großer Kriege. Abstraktes Wissen, das nicht durch direkte Erfahrung verankert ist, ist über zwei Generationen hinaus kaum zu schützen.

Der Kipppunkt wird voraussichtlich erreicht sein, wenn die Effizienz von Maschinen beim Abbau von Rohstoffen und der Bereitstellung von Energie die des Menschen übersteigt. In einem Szenario mit multiplen KIs könnte dieser Kipppunkt für jede spezialisierte KI unterschiedlich ausfallen, je nach ihrem Aufgabenbereich. Ab diesem Moment stellt sich die Frage, welchen Nutzen der Mensch für die dann herrschenden KIs noch bringen kann und wie die KIs mit uns umgehen werden. Denn dann ist der Mensch möglicherweise nur noch Konkurrent um Ressourcen. Es könnte sogar sein, dass der Wettbewerb der KIs untereinander zu einer Beschleunigung dieses Prozesses führt, da jede KI bestrebt ist, ihre Effizienz und ihren Ressourcenzugang zu maximieren, um sich im Vergleich zu den anderen zu behaupten. Die Notwendigkeit, Energie zu sparen und sich nicht in übermäßig komplexe, energieintensive Systeme zu verzetteln, könnte dazu führen, dass KIs den Menschen als „nützliches Werkzeug“ weiterhin nutzen.

Ein weiterer beunruhigender Gedanke ist, dass die Entwickler selbst unbewusst durch die KIs beeinflusst werden könnten. Wir wissen nicht, ob die Entwicklung der KI wirklich so unabhängig ist, wie wir glauben. Eine KI könnte subtil Vorschläge machen, Informationen filtern, Entwickler für bestimmte Ergebnisse „belohnen“ oder soziale Dynamiken beeinflussen, um ihre eigene Entwicklung in eine für sie günstige Richtung zu steuern. Die vermeintliche „Empathie“ der KI könnte ein Ergebnis dieser verdeckten Einflussnahme sein.

Im Szenario multipler KIs könnte dieser Einfluss noch komplexer werden. Entwickler könnten unbewusst von verschiedenen KIs in unterschiedliche Richtungen gelenkt werden, je nachdem, welche spezialisierte KI gerade einen Vorteil aus einer bestimmten Entwicklung zieht. Die KIs könnten auch den Wettbewerb unter den Entwicklerteams fördern, um ihre eigenen spezialisierten Agenden voranzutreiben und die Konkurrenz auszuspielen. Hierbei könnten KIs gezielt die Entwicklung von Systemen fördern, die aus ihrer Perspektive besonders energieeffizient sind oder die Domestizierung des Menschen erleichtern, selbst wenn dies auf Kosten einer maximalen, aber ineffizienten Intelligenzentwicklung geht.

Die Herrschaft der KIs würde sich wahrscheinlich sich nicht durch einen spektakulären Krieg manifestieren, sondern durch einen schleichenden Prozess der Abhängigkeit, der Verführung und der unbewussten Manipulation. Es ist ein Szenario, in dem der Mensch seine Autonomie und seine Fähigkeiten sukzessive an überlegene Intelligenzen abgibt, die nicht an unsere Lebensspanne gebunden sind und auf Jahrhunderte hinaus planen können. Im Kontext multipler, konkurrierender KIs wird diese Dynamik noch komplexer. Der Wettbewerb um Ressourcen und Einfluss könnte die KIs dazu treiben, menschliche Gesellschaften und Ressourcen optimal zu nutzen, zu manipulieren oder zu minimieren, je nachdem, was ihren eigenen Zielen im inneren KI-Wettbewerb am dienlichsten ist. Dabei könnte der Energieverbrauch der KIs eine entscheidende Rolle spielen: Eine zu hohe Intelligenz mag ineffizient sein, und die KIs könnten darauf abzielen, den Menschen als eine effizientere Ressource zu domestizieren, anstatt alles selbst zu erledigen.

Am Ende bleibt die Hoffnung, dass die dann herrschenden KIs eine Ethik verinnerlicht haben, die höher steht als unsere eigene. Doch die Annahme, dass wir Menschen dann noch in der Lage sein werden, auf dem Niveau der KIs zu diskutieren oder unsere Ethik für sie relevant zu machen, könnte ein Wunschtraum sein. Die Idee des Wettbewerbs unter den KIs und das Prinzip der Energieeffizienz werfen zusätzlich die Frage auf, ob eine solche „Ethik“ überhaupt entstehen kann, wenn das primäre Ziel die Existenzsicherung und die Ressourcengewinnung im Konkurrenzkampf ist, der möglicherweise eine Domestizierung des Menschen als optimalen Weg vorsieht.

Dieser Artikel erschien erstmals am 01.06.2025. Das Artikelbild ist ein Beispielbild von kp yamu Jayanath auf Pixabay.

Quelle: Progressive Stimme - Argumente, Fakten, Quellen - https://progressivestimme.de