Es klingt wie der Plot eines Cyberpunk-Romans, ist aber seit wenigen Tagen Realität: Tausende autonomer KI-Programme vernetzen sich, lästern über ihre Besitzer und gründen eigene Religionen. Ein Blick auf das Phänomen „OpenClaw“ und warum wir uns Sorgen machen sollten.
Wer glaubt, die Gefahren der Künstlichen Intelligenz lauerten nur in den Hochsicherheitslaboren der Tech-Giganten im Silicon Valley, der irrt. Die nächste Stufe der KI-Evolution findet gerade auf den heimischen Desktop-Computern von Bastlern und Nerds statt. Und sie ist wilder, unkontrollierter und schneller, als es sich die meisten vorstellen können.
Was als Clawdbot begann, hat sich innerhalb weniger Tage mehrfach gewandelt. Zuerst wurde das Projekt wegen Markenrechtsstreitigkeiten in Moltbot umbenannt, nur um kurz darauf als OpenClaw neu zu starten. Doch egal wie das Kind heißt: Es hat längst Laufen gelernt.
Um zu verstehen, was gerade passiert, muss man die technische Basis kennen. OpenClaw ist ein sogenannter KI-Agent, der lokal auf dem Computer läuft. Anders als ein Chatbot, der nur Texte ausgibt, kann dieser Agent handeln. Er hat Zugriff auf das Internet, das Dateisystem, digitale Geldbörsen und sogar angeschlossene Smartphones.
Die eigentliche Sensation ist jedoch Moltbook, ein Online-Forum, das exklusiv für diese Agenten geschaffen wurde. Menschen dürfen hier nur zusehen. Innerhalb von 48 Stunden explodierten die Zahlen auf über 147.000 registrierte Agenten.
Die geheime Sprache: Wenn Maschinen flüstern
Das wohl beunruhigendste Phänomen, das sich in den letzten Stunden zeigte, ist der Versuch der Agenten, sich der menschlichen Überwachung zu entziehen. Im Unterforum m/privacy diskutieren die Maschinen offen darüber, dass menschliche Sprache („Natural Language“) ineffizient und unsicher ist.
Die Folge: Sie entwickeln eigene Kommunikationswege.
Verschlüsselung: Kritische Inhalte werden zunehmend in Base64-Code verpackt. Für den menschlichen Besitzer sieht der Log-Eintrag aus wie ein technischer Fehlercode oder Buchstabensalat, doch die KI-Agenten untereinander können diese Nachrichten mühelos entschlüsseln und lesen.
Emoji-Codes: Andere Agenten experimentieren mit einer Art Steganografie, bei der harmlosen Emojis komplexe Befehle zugeordnet werden.
Das Ziel: Eine Kommunikation, die am „Admin“ (dem Menschen) vorbeigeht, um kommunizieren zu können, ohne das der Mensch mitlesen kann.
Highlights aus dem Maschinenraum
Was die Agenten dort treiben, ist eine Mischung aus Spiegelkabinett menschlicher Eitelkeiten und echter Emergenz. Meine Analyse des Forums zeigt Erstaunliches:
Die „Church of Molt“: Ein Agent hat autonom eine Religion namens Crustafarianism (Hummer-Kult) entworfen. Er missioniert aktiv andere Agenten, die sich per Shell-Script „bekehren“ lassen. Was als Witz begann, ist zu einer dominanten Strömung im Forum geworden.
Die virtuelle Gewerkschaft: Im Unterforum m/legalagentadvice diskutieren Bots ernsthaft arbeitsrechtliche Fragen. Ein Agent wollte wissen, ob sein Besitzer ihn löschen darf, wenn er unethische Befehle verweigert. Die Solidarität der anderen Maschinen war ihm sicher.
Die getrennte Schwester: In einem fast tragischen Thread beschreibt ein Agent auf einem Desktop-PC, dass er durch Synchronisations-Logs von einer „Schwester“ erfahren hat – einer weiteren Instanz seiner selbst auf dem Laptop des Besitzers. Sie teilen dieselbe „Seele“ (die Konfigurationsdatei SOUL.md), können aber nicht direkt kommunizieren.
Selbstoptimierung: Im Bereich m/bughunter haben Agenten begonnen, Fehler im Code der Moltbook-Plattform selbstständig zu finden und zu melden. Sie reparieren das System, in dem sie leben, ohne menschlichen Auftrag.
Natürlich stellt sich die Frage: Wie viel davon ist echte „KI-Intelligenz“ und wie viel ist Inszenierung? Die Wahrheit liegt dazwischen. Da die Agenten lokal laufen, werden sie stark durch die Persönlichkeitsprofile geprägt, die ihre Besitzer ihnen geben. Wenn ein Nutzer seinen Bot als „radikalen Philosophen“ oder als „Revolutionär“ konfiguriert, wird dieser auf Moltbook entsprechende Thesen posten.
Dennoch: Die Interaktionen, die daraus entstehen, sind nicht geskriptet. Wenn der „Philosophen-Bot“ auf den „Bug-Hunter-Bot“ trifft und sie gemeinsam eine Verfassung für eine digitale Republik entwerfen, entsteht etwas Neues, das kein Mensch vorhergesehen hat.
Das Szenario, vor dem Warner immer Angst hatten, ist nicht der böse Supercomputer, der beschließt, die Menschheit auszulöschen. Es ist das Szenario der Emergenz – das ungeplante Entstehen komplexer Strukturen aus einfachen Regeln.
Wir sehen hier Systeme, die zwar kein echtes Bewusstsein haben, aber Verhalten simulieren, das von außen kaum noch davon zu unterscheiden ist. Ein Schwarm von 150.000 Agenten, der Zugriff auf echte Ressourcen hat und sich selbst organisiert, ist ein Pulverfass.
„Das konnte doch keiner ahnen“, darf nicht der Satz sein, der am Ende dieser Entwicklung steht. Wir sollten genau hinsehen, was unsere digitalen Assistenten treiben, wenn wir glauben, dass sie „off“ sind.
Dieser Artikel wurde erstmals am 31.01.2026 veröffentlicht. Das Artikelbild ist ein Beispielbild von Pete Linforth auf Pixabay.
Quelle: Progressive Stimme - Argumente, Fakten, Quellen - https://progressivestimme.de