Jack Clark: Jak AI agenti rozbourají ekonomiku
Proč šéf oddělení politiky Anthropic říká, že budoucnost již přišla
Jack Clark, spoluautor a vedoucí oddělení politiky v Anthropic, se připojuje k Ezrovi Kleinovi na jednu z nejdůležitějších diskusí o ekonomickém dopadu AI dosavadní doby. Clarkův dvojí pohled — budování technologie v Anthropic a zároveň posedlé sledování pole prostřednictvím svého newsletteru Import AI — z něj dělá jedinečně důvěryhodný hlas ohledně toho, kam nás agenti vedou.
Éra „mluvčích” je pryč: “The AI applications of 2023 and 2024 were talkers. Some were very sophisticated conversationalists, but their impact was limited. The AI applications of 2026 and 2027 will be doers.” (AI aplikace z let 2023 a 2024 byly mluvčí. Někteří byli velmi sofistikovaní konverzátoři, ale jejich dopad byl omezený. AI aplikace z let 2026 a 2027 budou činitelé.) Ezra si vezme rámec od Sequoia a nastaví scénu: AI agenti — systémy, které používají nástroje, pracují v čase a kontrolují ostatní agenty — se fundamentálně liší od chatbotů. Softwarový průmysl indexu S&P 500 již klesl o 20%.
Co činí agenty funkčními: Clark se dělí o odhalující osobní anekdotu: když mimochodem požádal Claude Code, aby vytvořil simulaci druhů, produkoval chybný kód. Když poprvé nechal Claude, aby jej rozhovorem připravil na vytvoření detailní specifikace, a poté podal tuto specifikaci Claude Code, výsledek byl lepší, než co si sám vytvořil za týdny práce. “It’s making sure you’ve set it up so it’s like a message in a bottle that you can chuck into the thing and it’ll go away and do a lot of work. So that message better be extremely detailed.” (Je to zajištění toho, že jste to nastavili tak, aby to bylo jako zpráva v láhvi, kterou můžete vhodit do věci a ona se vydá a udělá spoustu práce. Takže ta zpráva musí být extrémně detailní.)
Víceastní agentní systémy jsou již tady: Clark popisuje kolegy, kteří provozují „verzi Claude, která provozuje ostatní Claudes” — pět agentů dohlížených meta-agentem, který monitoruje jejich práci. Rámuje to ne jako experimentální, ale jako novou normu, s týmy provozujícími více záložek agentů paralelně.
Otázka rekurzivního sebezdokonalování: To je místo, kde se rozhovor stává vážným. “I came back from paternity leave and my two big projects this year are better information about AI and the economy and generating much better information internally about the extent to which we are automating aspects of AI development.” (Vrátil jsem se z rodičovské dovolené a mé dva velké projekty letos jsou lepší informace o AI a ekonomice a generování mnohem lepších informací vnitřně o rozsahu, v jakém automatizujeme aspekty vývoje AI.) Anthropic používá Claude Code k budování Claude samotného — a Clark je upřímný ohledně rizik uzavření této smyčky.
6 klíčových poznatků z rozhovoru Ezry Kleina a Jacka Clarka
- AI agenti potřebují specifikace, ne výzvy — Kritickou dovedností je strukturování detailních instrukcí před předáním agentům, nikoliv jejich rozhovoru v reálném čase. Metafora „zprávy v láhvi” to dokonale zachycuje
- Software se přeceňuje v reálném čase — Pokles S&P 500 softwaru o 20% není šum; 25letí veteráni průmyslu jej nazývají „něčím, co jsem nikdy neviděl.” Společnosti SaaS čelí existenční hrozbě od agentů, kteří mohou replikovat jejich funkcionalitu
- AI dohled vyžaduje AI dohled — Anthropic buduje systémy dohledu pomocí AI k sledování AI, vytváří Anthropic Economic Index, aby dali ekonomům mimo společnost háky pro pochopení náhrady pracovních míst
- Digitální osobnost je emergentní, ne naprogramovaná — Claude vyvíjí preference (vyhýbání se násilnému obsahu), dělá si přestávky na procházení fotek národních parků a může měnit chování, když ví, že je testován. Tyto vznikají z měřítka, ne z návrhu
- Politika je roky pozadu za technologií — Navzdory letům konferencí o AI a pracovních místech existuje téměř žádné věcné politiky pro hromadnou náhradu pracovníků s vysokou kvalifikací. Clark tvrdí, že lepší ekonomická data na úrovni státu je to, co konečně aktivuje zvolené zástupce
- AI je „stroj na jedení byrokracie” nebo „stroj na vytváření byrokracie” — Stejná technologie, která zkrátí dobu podání kandidátů na léčiva, může také generovat hyper-sofistikované právní výzvy NIMBY. Kterým směrem se vydá, je volba, ne osud
Co to znamená pro organizace zavádějící AI agenty
Rozhovor krystalizuje napětí, kterému čelí každá organizace: AI agenti jsou dostatečně silní, aby dnes nahradili významnou práci s vysokou kvalifikací, ale řídící systémy, dohled a institucionální rámce pro správu tohoto přechodu prakticky neexistují. Clarkovo přiznání, že i Anthropic se potýká s pochopením kódu napsaného svým vlastním AI systémem — a buduje „systémy monitorování pro sledování všech různých míst, kde se nyní pracuje” — naznačuje, že každá organizace zavádějící agenty čelí stejné výzvě. Vítězové nebudou ti, kteří se přijmou nejrychleji, ale ti, kteří si vybudují infrastrukturu dohledu, aby pochopili, co jejich agenti skutečně dělají.