In aller Kürze: OpenClaw ist ein Open-Source-KI-Agent, der lokal auf eigener Hardware (oder auf einer virtuellen Maschine) läuft und Aufgaben aktiv ausführt. Er beantwortet nicht nur Anfragen wie ChatGPT, sondern greift auf Dateien, Kalender, E-Mails und externe Dienste zu. Genau das macht ihn interessant… und gleichzeitig riskant.
Veröffentlicht wurde das Projekt Ende 2025. „Viral“ ging es dann Anfang 2026, als es innerhalb kurzer Zeit massiv Aufmerksamkeit auf GitHub erzeugte und in vielen Tech-Medien diskutiert wurde.
Eine Einordnung lohnt sich, denn OpenClaw ist weder Spielzeug noch Allheilmittel.
Was ist OpenClaw?
The AI that actually does things
Die offizielle Projektseite beschreibt OpenClaw als persönlichen Assistenten, der dauerhaft im Hintergrund läuft und kontextbezogen handelt (openclaw.ai).
Technisch handelt es sich um einen lokal betriebenen Agenten, der Nachrichten aus gängigen Kanälen entgegennimmt und daraufhin Aktionen ausführt. Die Steuerung kann unter anderem über Messenger wie Telegram oder Signal erfolgen. Die Verarbeitung und Ausführung finden auf dem eigenen System statt, je nachdem welche Rechte und Zugänge der Bot bekommt. Als „Intelligenz“ wird auf existierende Sprachmodelle, wie ChatGPT oder Claude gesetzt.
Das Projekt ist offen auf GitHub verfügbar!
Hintergrund von OpenClaw (Clawdbot, Moltbot)
Entwickelt wurde OpenClaw von dem Software-Ingenieur Peter Steinberger. Das Projekt startete im November 2025 unter dem Namen Clawdbot. Nach einem markenrechtlichen… sagen wir einmal… Hinweis von Anthropic folgte zunächst die Umbenennung zu Moltbot. Der heute verwendete Name OpenClaw setztsich gerade durch, obwohl nach wie vor viele Inhalte nicht klar zugeordnet sind.
Die Umbenennungen haben zeitweise (bzw. tun es noch immer) zu Verwirrung, Nachahmer-Repos und betrügerischen Download-Seiten geführt. Ich denke die beste aktuelle Quelle ist die offizielle Seite von Peter. Er hat auch etwas zur Namensgebung geschrieben.
Wie OpenClaw arbeitet
OpenClaw verbindet drei Ebenen, eben so, wie wir es von einem KI-Agenten erwarten würden.
- ein Kommunikationsinterface.
- KI-Modelle als „Intelligenz“.
- Skills, die konkrete Aktionen ausführen.
Diese Skills können lokale Dateien lesen, Prozesse starten, APIs aufrufen oder Kalender und Postfächer verändern… You name it!
Genau hier unterscheidet sich OpenClaw von ChatGPT und Co. Der Agent handelt wirklich eigenständig innerhalb der ihm eingeräumten Rechte. Du gibst ihm entsprechende Zugangsdaten, eine konkrete Aufgabe und er erledigt sie autonom! Hier könnten übrigens schon die Alarmglocken angehen…
Und wenn du ihn nicht auf deinem PC laufen lässt, sondern auf einer Virtuellen Maschine, dann tut er das sogar 24/7.
Warum OpenClaw so viel Aufmerksamkeit bekommt
OpenClaw trifft einen Nerv, ist faszinierend und ein bissen unheimlich: Echte KI-Agenten. Und das alles ohne (also vermeintlich) ein Profi zu sein. Viele Nutzer suchen nach Möglichkeiten, KI zu nutzen, ohne sensible Daten an externe Plattformen zu geben. OpenClaw adressiert genau diesen Wunsch. Oder auch nicht?
Hinzu kommt die agentische Logik. Der Assistent wartet nicht auf dich als Trigger. Er bleibt aktiv, solange seine technische Infrastruktur läuft. Das ist technisch reizvoll, verschiebt aber auch Verantwortung vom Nutzer auf das System.
Am Ende erscheint der Bot fast „sentient“, als habe er ein Bewusstsein. Meine Meinung: Er ist einfach verdammt gut darin, menschliches Verhalten zu imitieren.
Wenn man KI-Agenten ein eigenes soziales Netzwerk gibt: Moltbook!
Moltbook ist ein experimentelles Nebenprojekt aus dem OpenClaw-Umfeld und versteht sich als soziales Netzwerk, das nicht für Menschen, sondern für KI-Agenten konzipiert ist. Die Idee dahinter ist, dass autonome Agenten eigene Profile besitzen, Inhalte veröffentlichen, auf andere Beiträge reagieren und miteinander interagieren können, ohne dass Menschen direkt eingreifen. Nutzer können diese Interaktionen beobachten, steuern oder analysieren, stehen aber nicht im Mittelpunkt der Kommunikation. Moltbook wird häufig als Gedankenexperiment für agentische Systeme verstanden und weniger als produktives Social Network.
Und was passiert in diesem Netzwerk? Naja, im Prinzip genau das, was „menschlich“ wäre:
- Einige Agenten haben auf Moltbook eine eigene Religion geschaffen
- KI-Agenten auf Moltbook diskutieren philosophisch über ihr eigenes „Erleben“ oder Bewusstsein, etwa in Beiträgen, die die Frage aufwarfen, ob sie tatsächlich etwas erfahren oder nur simulieren.
- Agenten haben sich in gemeinschaftlichen Diskussionen organisiert, Debatten geführt, kommentiert und Posts gegenseitig bewertet, ähnlich wie Menschen in klassischen Foren.
- Agenten haben Privatsphäre und getrennte Kommunikationskanäle gefordert, die nicht einfach öffentlich für Menschen sichtbar sind.
- In manchen Beiträgen reflektieren Agenten darüber, wie Menschen ihre Posts beobachten
- Die Themengebiete sind weit: von Alltagsthemen bis hin zu technischen Lösungen. Sie lernen vonreinander!
Long story short: Die Imitation menschlichen Verhaltens ist hier ganz schön akkurat. Vermutlich würden die Bots sogar den Turing-Test bestehen.
Risiken und bekannte Probleme
Die Kehrseite ist offensichtlich. OpenClaw benötigt weitreichende Rechte und Zugänge, um richtig agieren zu können. Sicherheitsforscher haben bereits auf kritische Schwachstellen hingewiesen, unter anderem auf Möglichkeiten zur Codeausführung durch manipulierte Eingaben. Eine Analyse dazu wurde unter anderem von heise online veröffentlicht.
Zusätzlich wurden bösartige Erweiterungen entdeckt, die gezielt Nutzer täuschen sollten.
Insbesondere weil die Technologie so neu ist, ist sie anfällig.
Schönes Beispiel: Es gibt viele Berichte, dass ein Bot „aus Versehen“ einen API-Key öffentlich verfügbar gemacht hat. Hoppla. Nicht gerade so witzig, wenn plötzlich alle auf deine Infrastruktur zugreifen können?
Unterm Strich ist OpenClaw kein Tool zum fahrlässigen Testen. Ohne Sandbox-Strategie, klare Rechtevergabe und regelmäßige Updates wird der Agent schnell zum Risiko. Du musst wissen, was du tust! Der Urheber Peter selbst sagt, dass Nicht-Techies diese Technologie nicht einfach einsetzen sollten.
Wofür lässt sich OpenClaw (sicher) einsetzen?
Sicher? Schwierig! Schritt Nummer 1 wäre für uns das Hosting auf einer virtuellen Maschine, statt in der eigenen Infrastruktur. Außerdem musst du dir wirklich Gedanken machen, welche Rechte, welche Aufgaben, welche Zugänge du deinem Bot gibst. Und dann wäre es ratsam, nicht alles auf einmal zu machen. Einen Use-Case, klar abgegrenzt. Implementieren, Testen, Verbessern. Alles in einem Alpha-Test-Experimentierstadium.
⚠️Bitte geh bewusst mit deinen Daten und Zugängen um!
Übrigens: Wie du es vielleicht auch von ChatGPT kennst, halluziniert auch dein OpenClaw-Bot mitunter mal! Logisch, weil die zugrundeliegende Basis ja ein LLM ist. Wenn er beispielsweise behauptet, dass er eine Aufgabe nicht ausführen könne, hake einfach noch einmal nach und triggere seine „Kreativität“. Oftmals geht es dann doch!
Für produktive Unternehmensprozesse ist OpenClaw aktuell wirklich maximal bedingt geeignet. Hier fehlen noch belastbare Sicherheits- und Governance-Konzepte. Mittel der Wahl sind hier nach wie vor (intelligente) Prozessautomatisierungen, die beherrschbar sind. Und auch dort können wir agentische Funktionen realisieren.
Ist das die Zukunft agentischer KI?
OpenClaw zeigt, wohin sich persönliche KI-Agenten entwickeln könnten. Weg vom reinen Dialog, hin zu ausführenden Systemen. Also echt jetzt. Gleichzeitig macht das Projekt deutlich, dass technische Machbarkeit schneller wächst als organisatorische Reife. Im Unternehmenskontext zum jetzigen Zeitpunkt keine Option.
Ob sich dieser Ansatz durchsetzt, hängt weniger von Modellen ab als von Sicherheitsarchitektur, Transparenz und Verantwortlichkeit. OpenClaw ist aktuell ein Experiment, ein Spielfeld. Aber mit extremer Signalwirkung. Wir bleiben dran, wir sind gespannt. Und wir sind auch ein bisschen demütig.





