Newsfeed / OpenClaw: Warum Agentic Engineering schlecht programmiert schlägt
Lex Fridman Podcast·February 11, 2026

OpenClaw: Warum Agentic Engineering schlecht programmiert schlägt

Peter Steinberger erklärt, wie OpenClaw 180.000 GitHub Stars erreichte und warum diszipliniertierte Agent-Zusammenarbeit bessere Software erzeugt als lockeres Programmiergefühl.

OpenClaw: Warum Agentic Engineering schlecht programmiert schlägt

Wie Peter Steinberger den viralsten KI-Agent auf GitHub baute

Peter Steinberger — der österreichische Entwickler, der PSPDFKit baute (verwendet auf einer Milliarde Geräte) — tritt dem Lex Fridman Podcast bei, um über OpenClaw zu sprechen, den Open-Source-KI-Agent, früher bekannt als Claudebot und Moltbot. Nach dem viralen Erfolg mit über 180.000 GitHub Stars ist OpenClaw zur Referenz dafür geworden, was autonome KI-Agenten tatsächlich erreichen können, wenn ihnen vollständiger Systemzugriff gewährt wird.

Zu Agentic Engineering vs. lockeres Programmieren: "I actually think vibe coding is a slur. I always tell people I do agentic engineering and then maybe after 3:00 a.m. I switch to vibe coding and then I have regrets on the next day." (Ich denke, dass lockeres Programmieren ein verächtlicher Ausdruck ist. Ich sage den Leuten immer, dass ich Agentic Engineering betreibe, und dann schalte ich nach 3 Uhr nachts vielleicht auf lockeres Programmieren um und habe dann am nächsten Tag Reue.) Steinberger zieht eine klare Grenze zwischen disziplinierter Agent-Zusammenarbeit und dem lockeren „einfach anfragen und hoffen"-Ansatz. Agentic Engineering bedeutet, Context Windows zu verstehen, Codebases für Agents zu strukturieren und rigoros Feedback-Schleifen zu pflegen.

Zur selbstmodifizierenden Software: "I made the agent very aware — it knows what its source code is. It understands how it sits and runs in its own harness. It knows where documentation is. It knows which model it runs. It understands its own system." (Ich habe den Agenten sehr bewusst gemacht — er kennt seinen eigenen Quellcode. Er versteht, wie er in seinem eigenen System sitzt und läuft. Er weiß, wo die Dokumentation ist. Er weiß, welches Modell er ausführt. Er versteht sein eigenes System.) Das ist vielleicht der radikalste Teil von OpenClaw: Der Agent kann seine eigene Codebasis ändern. Wenn dem Benutzer etwas nicht gefällt, schreibt der Agent sich selbst um. Dies verschiebt KI von Werkzeug zu Mitarbeiter.

Zur Empathie für KI-Agenten: "You have to almost consider how Codex or Claude sees your codebase. They start a new session and know nothing about your project. You got to help those agents a little bit and keep in mind their limitations." (Du musst fast berücksichtigen, wie Codex oder Claude deinen Quellcode sieht. Sie starten eine neue Sitzung und wissen nichts über dein Projekt. Du musst diesen Agenten ein wenig helfen und ihre Grenzen berücksichtigen.) Steinberger definiert Entwicklerfähigkeit als Empathie neu — das Verständnis für die Perspektive des Agenten, sein begrenztes Context Window und die Strukturierung von Code, damit Agenten ihn effizient navigieren können.

Zum Loslassen der Kontrolle: "A lot of people who struggle try to push their way on too hard. I'm not building the code base to be perfect for me — I want to build a code base that is very easy for an agent to navigate." (Viele Menschen, die kämpfen, versuchen zu hart zu drücken. Ich baue die Codebasis nicht so, dass sie perfekt für mich ist — ich will eine Codebasis bauen, die für einen Agenten sehr leicht zu navigieren ist.) Dies ist ein Paradigmenwechsel: Code-Optimierung für KI-Lesbarkeit statt menschlicher Vorlieben. Kämpfe nicht gegen die Namen, die das Modell wählt, denn „es ist höchstwahrscheinlich in den Gewichten der Name, der am offensichtlichsten ist."

Zu Agenten vs. Team-Management: Steinberger zieht eine direkte Parallele zwischen der Verwaltung von KI-Agenten und der Leitung von Engineering-Teams — du akzeptierst, dass Mitarbeiter Code nicht genau so schreiben werden, wie du es würdest, aber sie treiben das Projekt voran. Die gleiche Disziplin gilt für Agent-Zusammenarbeit: Architektur festlegen, Feedback-Schleifen definieren, dann dem Prozess vertrauen.

6 Wichtige Erkenntnisse zum Arbeiten mit KI-Agenten

  • Agentic Engineering ist eine Disziplin — Es erfordert das Verständnis von Context Windows, die Strukturierung von Projekten für die Agent-Navigation und die Aufrechterhaltung von Verifikationsschleifen
  • Selbstmodifizierende Software ist da — OpenClaw kann seinen eigenen Quellcode, Dokumentation und Konfiguration basierend auf Benutzer-Feedback ändern
  • Sprachorientierte Entwicklung — Steinberger spricht Anfragen aus, statt sie zu schreiben, und nennt seine Hände „zu wertvoll zum Schreiben jetzt"
  • Agenten benötigen Empathie, keine Mikromanagement — Strukturiere deine Codebasis so, dass Agenten sie verstehen können; kämpfe nicht gegen ihre Benennungskonventionen
  • Die menschliche Rolle wird Geschmack und Vision — Steinberger argumentiert, dass du Stil, Liebe und den menschlichen Touch in Software nicht automatisieren kannst
  • Arbeit mit Agenten spiegelt Team-Management — Akzeptiere unvollkommene Ausführung im Austausch für Geschwindigkeit und Skalierbarkeit

Was OpenClaw für KI-gestützte Organisationen bedeutet

Steinbergers Weg vom PSPDFKit-Gründer zum KI-Agent-Pionier illustriert einen breiteren Trend: Die Entwickler, die mit KI-Agenten erfolgreich sind, sind nicht die besten Programmierer — sie sind die besten Architekten und Kommunikatoren. OpenClaws viraler Erfolg (180K+ Stars in Tagen) signalisiert massive Nachfrage nach Agenten, die über Chat hinaus in autonome Arbeit gehen. Die Schlüsseleinsicht: Behandle KI-Agenten wie Junior-Ingenieure mit außergewöhnlicher Geschwindigkeit, nicht wie magische Orakel, die keine Anleitung brauchen.

Related