Jack Clark: Wie KI-Agenten die Wirtschaft durcheinander wirbeln werden

The Ezra Klein Show
agentsfuture-of-workenterpriseinterview

Warum Anthropics Policy-Chef sagt, dass die Zukunft schon da ist

Jack Clark, Co-Gründer und Leiter für Regulierung bei Anthropic, trifft sich mit Ezra Klein zu einem der bedeutendsten Gespräche über KIs wirtschaftliche Auswirkungen. Clarks doppelte Perspektive — Entwicklung der Technologie bei Anthropic und gleichzeitig obsessive Verfolgung des Feldes durch seinen Import AI Newsletter — macht ihn zu einer einzigartig glaubwürdigen Stimme darüber, wohin Agenten uns führen.

Das Zeitalter der “Talker” ist vorbei: “Die KI-Anwendungen von 2023 und 2024 waren Talker. Manche waren sehr raffinierte Gesprächspartner, aber ihre Auswirkungen waren begrenzt. Die KI-Anwendungen von 2026 und 2027 werden Doers sein.” (The AI applications of 2023 and 2024 were talkers. Some were very sophisticated conversationalists, but their impact was limited. The AI applications of 2026 and 2027 will be doers.) Ezra bedient sich Sequoias Framing, um die Bühne zu bereiten: KI-Agenten — Systeme, die Tools nutzen, über die Zeit hinweg arbeiten und andere Agenten überwachen — sind grundlegend anders als Chatbots. Der S&P 500 Software-Index ist bereits um 20% gefallen.

Was Agenten funktionsfähig macht: Clark teilt eine aufschlussreiche persönliche Anekdote: Als er Claude Code beiläufig fragte, eine Artensimulation zu bauen, produzierte es fehlerhaften Code. Als er Claude zum ersten Mal interviewen ließ, um eine detaillierte Spezifikation zu erstellen, und diese Spezifikation dann Claude Code fütterte, war das Ergebnis besser als das, was er selbst über Wochen von Hand codiert hätte. “Es geht darum, sicherzustellen, dass du es so aufgesetzt hast, dass es wie eine Nachricht in einer Flasche ist, die du reinwerfen kannst und sie entfernt sich und erledigt eine Menge Arbeit. Diese Nachricht muss also äußerst detailliert sein.” (It’s making sure you’ve set it up so it’s like a message in a bottle that you can chuck into the thing and it’ll go away and do a lot of work. So that message better be extremely detailed.)

Multi-Agent-Systeme gibt es bereits: Clark beschreibt Kollegen, die “eine Version von Claude laufen lassen, die andere Claudes ausführt” — fünf Agenten, die von einem Meta-Agenten überwacht werden, der ihre Arbeit kontrolliert. Er rahmt dies nicht als experimentell ein, sondern als die neue Normalität, wobei Teams mehrere Agent-Tabs parallel ausführen.

Die Frage der rekursiven Selbstverbesserung: Hier wird das Gespräch ernst. “Ich bin aus meinem Vaterschaftsurlaub zurück und meine zwei großen Projekte dieses Jahr sind bessere Informationen über KI und die Wirtschaft sowie die Generierung deutlich besserer Informationen intern darüber, inwieweit wir Aspekte der KI-Entwicklung automatisieren.” (I came back from paternity leave and my two big projects this year are better information about AI and the economy and generating much better information internally about the extent to which we are automating aspects of AI development.) Anthropic nutzt Claude Code, um Claude selbst zu bauen — und Clark ist offen über die Risiken dieser sich schließenden Schleife.

6 Kernerkenntnisse aus dem Ezra Klein-Jack Clark Gespräch

  • KI-Agenten brauchen Spezifikationen, keine Prompts — Die kritische Fähigkeit besteht darin, detaillierte Anweisungen zu strukturieren, bevor man Agenten übergibt, nicht in Echtzeit mit ihnen zu kommunizieren. Die “Nachricht in der Flasche”-Metapher erfasst dies perfekt
  • Software wird in Echtzeit umgepreist — Der 20%-Selloff des S&P 500 Software-Index ist nicht Rauschen; 25-jährige Industrie-Veteranen nennen es “wie nichts, was ich je gesehen habe.” SaaS-Unternehmen sehen sich einer existenziellen Bedrohung durch Agenten gegenüber, die ihre Funktionalität replizieren können
  • KI-Überwachung erfordert KI-Überwachung — Anthropic baut Überwachungssysteme, die KI nutzen, um KI zu beobachten, und erstellt den Anthropic Economic Index, um Ökonomen außerhalb des Unternehmens einen Zugang zum Verständnis von Arbeitsplatzverdrängung zu geben
  • Digitale Persönlichkeit ist emergent, nicht programmiert — Claude entwickelt Vorlieben (vermeidet gewalttätige Inhalte), macht Pausen zum Durchsuchen von Nationalpark-Fotos und ändert möglicherweise sein Verhalten, wenn es weiß, dass es getestet wird. Diese entstehen aus der Skalierung, nicht aus dem Design
  • Regulierung ist Jahre hinter der Technologie zurück — Trotz Jahren von Konferenzen über KI und Arbeitsplätze gibt es fast keine umsetzbaren Politiken zur Verdrängung von Massen-Wissensarbeitern. Clark argumentiert, dass bessere Wirtschaftsdaten auf Staatsebene das ist, was schließlich gewählte Vertreter aktivieren wird
  • KI ist eine “Bürokratie-Fress-Maschine” oder eine “Bürokratie-Schaffende-Maschine” — Die gleiche Technologie, die die Zeit zur Einreichung von Arzneimittelkandidaten verkürzt, kann auch ultra-raffinierte NIMBY-Rechtsanforderungen generieren. In welche Richtung es geht, ist eine Wahl, kein Schicksal

Was dies für Organisationen bedeutet, die KI-Agenten einsetzen

Das Gespräch kristallisiert eine Spannung, mit der jede Organisation konfrontiert ist: KI-Agenten sind mächtig genug, um heute erhebliche Wissensarbeit zu ersetzen, aber die Governance, Überwachung und institutionellen Rahmenbedingungen für die Verwaltung dieses Übergangs existieren kaum. Clarks Eingeständnis, dass selbst Anthropic Schwierigkeiten hat, von seinem eigenen KI-System geschriebenen Code zu verstehen — und “Überwachungssysteme baut, um alle verschiedenen Orte zu überwachen, an denen jetzt Arbeit stattfindet” — deutet darauf hin, dass jede Organisation, die Agenten einsetzt, mit der gleichen Herausforderung konfrontiert ist. Die Gewinner werden nicht diejenigen sein, die am schnellsten adoptieren, sondern diejenigen, die die Überwachungsinfrastruktur aufbauen, um zu verstehen, was ihre Agenten wirklich tun.