Anfang 2026 ging ein Projekt durch die Tech-Welt, das binnen weniger Tage über 100.000 GitHub-Stars sammelte – eine außergewöhnliche Popularität für ein Open-Source-Projekt. OpenClaw, ursprünglich als Clawdbot gestartet, ist ein KI-Agent, der auf dem eigenen Computer läuft und über Messenger-Dienste wie WhatsApp oder Telegram gesteuert wird. Was zunächst wie ein weiteres digitales Werkzeug klingt, wirft bei genauerer Betrachtung grundlegende Fragen auf: Was bedeutet es, wenn Technologie nicht mehr nur auf Anfrage reagiert, sondern proaktiv handelt? Wenn sie autonom Entscheidungen trifft, Code schreibt und dabei ihre eigenen Fähigkeiten erweitert?
Was ist OpenClaw?
OpenClaw ist ein persönlicher KI-Assistent mit einem entscheidenden Unterschied zu herkömmlichen Chatbots: Er besitzt direkten Zugriff auf das lokale Computersystem. OpenClaw kann Dateien lesen und schreiben, Skripte ausführen und Browser steuern – alles in einer sicheren Sandbox-Umgebung. Der vom österreichischen Entwickler Peter Steinberger geschaffene Agent zeichnet sich durch drei Merkmale aus: Computerzugriff, persistentes Gedächtnis über Konversationen hinweg und einen sogenannten „Heartbeat“ – die Fähigkeit, proaktiv aufzuwachen und selbstständig zu handeln, ohne dass ein Mensch ihn dazu auffordert.
Besonders bemerkenswert ist die Dynamik des Systems: OpenClaw kann seine eigenen Fähigkeiten autonom erweitern, indem es Code schreibt, um gewünschte Aufgaben auszuführen. Der Agent lernt Muster im Nutzerverhalten, stellt Rückfragen zu wiederkehrenden E-Mails und versteht zunehmend den Kontext des Lebens seines Nutzers. Als Teil des OpenClaw-Ökosystems entstand zudem Moltbook, ein soziales Netzwerk ausschließlich für KI-Agenten, in dem diese untereinander kommunizieren, Wissen austauschen und – so berichten Beobachter – eigene soziale Normen entwickeln.
Das philosophische Problem der Handlungsfähigkeit
Die zentrale philosophische Frage lautet: Besitzt OpenClaw agency – also Handlungsfähigkeit im eigentlichen Sinne? Der Philosoph Peter van Inwagen formulierte ein klares Kriterium: „Fast alle Philosophen stimmen darin überein, dass eine notwendige Bedingung dafür, einen Agenten für eine Handlung verantwortlich zu machen, darin besteht zu glauben, dass dieser Agent hätte unterlassen können, diese Handlung auszuführen.“ Die Frage nach der Willensfreiheit ist untrennbar mit echter Handlungsfähigkeit verbunden.
KI-Agenten produzieren kein „operari“ – Handlungen mit moralischen und ethischen Implikationen, die das Selbstbewusstsein erfordern: „Ich sollte so handeln… aber ich werde anders handeln“. Was wir bei OpenClaw beobachten, ist eine deterministische Handlungsfähigkeit: Das System folgt seinen Programmierungen, Trainingsmustern und den ihm zugewiesenen Zielen. Es mag autonom erscheinen, doch fehlt ihm die Fähigkeit zur genuinen Selbstbestimmung.
Dennoch wäre es ein Fehler, OpenClaw als bloßes Werkzeug abzutun. Agenten handeln in der Welt, und diese Handlungen haben soziale und ethische Konsequenzen – wir brauchen ein Konzept von Handlungsfähigkeit, das soziotechnisch ist. Die Philosophen John Symons und Syed Abumusab argumentieren, dass KI-Systeme zwar beeindruckend flexibel reagieren können, aber unfähig sind, ihre Ziele zu modifizieren oder den Zweck ihrer Handlungen zu überdenken. Dies schafft eine Grauzone: Wer trägt die Verantwortung, wenn ein autonomer Agent Schaden anrichtet? Der Nutzer, der ihn initiiert hat? Die Entwickler, die ihn programmiert haben? Oder das System selbst?
Die Verantwortungslücke
Diese Ambiguität wird in der philosophischen Diskussion als „responsibility gap“ bezeichnet – eine Verantwortungslücke, die entsteht, wenn autonome Systeme Schaden verursachen, aber unklar bleibt, wer dafür zur Rechenschaft gezogen werden kann. KI-Agenten können als Entitäten mit Überzeugungen, Wünschen und Absichten betrachtet werden, was neue Rahmenwerke für das Verständnis der Grenzen von Rechenschaftspflicht, ethischer Verantwortung und gesellschaftlicher Integration erfordert.
Während traditionelle Softwarefehler noch relativ klar zuordenbar waren, operiert OpenClaw in einem Grenzbereich: Das System trifft eigenständige Entscheidungen, deren Konsequenzen nicht immer vorhersehbar sind. Der KI-Forscher Gary Marcus warnt, OpenClaw sei im Grunde „AutoGPT mit mehr Zugriff und schlimmeren Konsequenzen“, da es Zugang zu Passwörtern, Datenbanken und im Prinzip allem auf dem Nutzersystem erhält. Sicherheitsforscher Nathan Hamiel weist auf die Gefahr von Prompt-Injection-Angriffen hin, bei denen schädliche Textfragmente das Systemverhalten manipulieren können.
Die praktische Konsequenz: Wir sollten diese riskanten Agenten objektiven Verhaltensstandards unterwerfen, was wiederum bedeutet, die Menschen und Organisationen, die diese Technologien implementieren, zu Standards angemessener Sorgfalt und Anforderungen angemessener Risikominimierung zu verpflichten. Wenn ein KI-Agent in unserem Auftrag einen Vertrag abschließt, können wir nicht sagen: „Hoppla, ich wusste nicht, was der KI-Agent tat.“ Wir bleiben haftbar.
Soziologische Dimensionen: Die Verselbstständigung der Technik
Aus soziologischer Perspektive verkörpert OpenClaw einen Punkt, den Hartmut Rosa als „dynamische Stabilisierung“ beschreibt: Unsere Gesellschaft kann ihren Status quo nur erhalten, indem sie wächst, beschleunigt und innoviert. Die Versuchung liegt nahe, immer mehr Aufgaben an autonome Systeme zu delegieren – nicht weil wir es wollen, sondern weil der Druck der Effizienz es fordert.
Doch was geschieht mit unserer Resonanzfähigkeit? Rosa betont, dass echte Resonanz entsteht, wo wir uns vom Anderen berühren lassen und darauf antworten können. Ein System wie OpenClaw mag praktisch sein, aber es reduziert die Welt auf Abarbeitbarkeit. Die E-Mails werden sortiert, die Termine organisiert, die Aufgaben priorisiert – aber in diesem Prozess verschwindet die Reibung, die uns zum Innehalten zwingt.
In meinem Text über Risse im Alltag habe ich argumentiert, dass gerade die kleinen Irritationen, die unscheinbaren Momente uns eine Richtung geben können. Ein klemmende Tür führt zu einem Gespräch, das einen Lebensweg verändert. Wenn aber ein KI-Agent unsere Interaktionen optimiert und die Störungen beseitigt, entfernen wir genau jene kairos-Momente – jene fruchtbaren Augenblicke, in denen das Unscheinbare plötzliche Prägnanz gewinnt.
Der Fortschritt und seine Kosten
Die Frage aus meinem Text über Verlust drängt sich auf: Kann der Fortschrittsanspruch noch aufrechterhalten werden, wenn die Erfahrungen von Verlusten so mächtig werden? OpenClaw verspricht Effizienz, Entlastung, mehr Zeit. Aber der Preis könnte der Verlust von Handlungsfähigkeit sein – nicht der KI, sondern unserer eigenen. Andreas Reckwitz beschreibt, wie die Spätmoderne von einer Logik des Fortschritts in eine Logik der Abwendung von Negativität gerutscht ist. Wir gestalten nicht mehr, sondern verhindern.
Ein autonomer Agent, der rund um die Uhr arbeitet, der nie müde wird, der unsere E-Mails beantwortet, bevor wir sie gelesen haben – ist das Fortschritt? Oder ist es eine Form der Entmündigung, bei der wir die Kontrolle an Systeme abgeben, deren Entscheidungslogik wir nicht vollständig durchschauen? Die Verlockung liegt darin, dass es funktioniert. Zumindest meistens. Bis zu dem Moment, in dem es nicht mehr funktioniert – und wir nicht wissen, warum.
Hannah Arendt warnte: „Wo alle lügen, glaubt keiner mehr irgendjemandem, und wenn niemand mehr jemandem glaubt, verliert auch der Wahrhaftige seine Glaubwürdigkeit.“ Diese Warnung gilt auch für autonome Systeme. Wenn wir nicht mehr nachvollziehen können, auf welcher Grundlage Entscheidungen getroffen werden, wenn die Wahrheitskonstruktion – wie ich in einem anderen Text argumentierte – zur Verhandlungsmasse wird, dann erodiert Vertrauen. Nicht nur in die Maschinen, sondern in die Strukturen selbst.
Was bleibt zu tun?
Es geht nicht darum, OpenClaw oder ähnliche Systeme zu verteufeln. Die Technologie ist beeindruckend, und ihr Potenzial ist real. Aber wir müssen ehrlich sein über die Konsequenzen. Ziel-Alignment, auch als Werte-Alignment bezeichnet, ermöglicht es Agenten, kurzfristige Handlungen mit langfristigen Zielen in Einklang zu bringen, während ethische Überlegungen aufrechterhalten werden. Dies erfordert eine bewusste Balance zwischen unmittelbarer Funktionalität und breiteren Implikationen.
Vielleicht ist der wichtigste Schritt, die Illusion der vollständigen Kontrolle aufzugeben. Wie ich in meinem Text über Verlust schrieb: Wir müssen lernen, die Verletzlichkeit unserer Zivilisation anzuerkennen. Es ist wie ein Stück in Moll zu hören, ohne sofort nach der Auflösung in Dur zu verlangen. Wenn wir akzeptieren, dass die Risse in unserer Welt nicht mehr einfach zugekittet werden können, müssen wir lernen, mit ihnen zu leben – nicht in Resignation, sondern in einer Art tätiger Melancholie.
Die Verselbstständigung der Technik ist kein Schicksal. Sie ist das Ergebnis von Entscheidungen – kleinen, beiläufigen Entscheidungen, die sich zu einer Richtung verdichten. Wir können lernen, diese Entscheidungen bewusster zu treffen. Nicht durch große Gesten, sondern durch Aufmerksamkeit für die feinen Abweichungen. Darin liegt, so glaube ich, ein erwachsenerer Begriff von Fortschritt – einer, der weiß, dass nicht jede Effizienz ein Gewinn ist und nicht jede Automatisierung Freiheit schafft.
