Jack Clark: Cómo los agentes de IA arrasarán la economía

The Ezra Klein Show
agentsfuture-of-workenterpriseinterview

Por qué el jefe de política de Anthropic dice que el futuro ya llegó

Jack Clark, cofundador y jefe de política en Anthropic, se une a Ezra Klein en una de las conversaciones más significativas sobre el impacto económico de la IA hasta la fecha. La doble perspectiva de Clark —construir la tecnología en Anthropic mientras rastrea obsesivamente el campo a través de su newsletter Import AI— lo convierte en una voz únicamente creíble sobre hacia dónde nos llevan los agentes.

La era de los “conversadores” ha terminado: “The AI applications of 2023 and 2024 were talkers. Some were very sophisticated conversationalists, but their impact was limited. The AI applications of 2026 and 2027 will be doers.” (Las aplicaciones de IA de 2023 y 2024 eran conversadores. Algunos eran conversacionistas muy sofisticados, pero su impacto era limitado. Las aplicaciones de IA de 2026 y 2027 serán hacedores.) Ezra toma el enfoque de Sequoia para establecer el escenario: los agentes de IA —sistemas que usan herramientas, trabajan con el tiempo y supervisan otros agentes— son fundamentalmente diferentes de los chatbots. El índice de software del S&P 500 ya ha caído 20%.

Lo que hace que los agentes funcionen: Clark comparte una anécdota personal reveladora: cuando casualmente le pidió a Claude Code que construyera una simulación de especies, produjo código con errores. Cuando primero hizo que Claude lo entrevistara para crear una especificación detallada, y luego alimentó esa especificación a Claude Code, el resultado fue mejor que lo que él había codificado a mano durante semanas. “It’s making sure you’ve set it up so it’s like a message in a bottle that you can chuck into the thing and it’ll go away and do a lot of work. So that message better be extremely detailed.” (Se trata de asegurarse de que lo hayas configurado de modo que sea como un mensaje en una botella que puedas lanzar al sistema y se irá a hacer mucho trabajo. Así que ese mensaje mejor que sea extremadamente detallado.)

Los sistemas multiagente ya están aquí: Clark describe colegas ejecutando “una versión de Claude que ejecuta otros Claudes” — cinco agentes supervisados por un metaagente que monitorea su trabajo. Enmarca esto no como experimental sino como la nueva norma, con equipos ejecutando múltiples pestañas de agentes en paralelo.

La pregunta de automejoría recursiva: Aquí es donde la conversación se vuelve seria. “I came back from paternity leave and my two big projects this year are better information about AI and the economy and generating much better information internally about the extent to which we are automating aspects of AI development.” (Volví de la licencia de paternidad y mis dos grandes proyectos este año son mejor información sobre IA y la economía e información mucho mejor generada internamente sobre la medida en que estamos automatizando aspectos del desarrollo de IA.) Anthropic está usando Claude Code para construir Claude a sí mismo — y Clark es franco sobre los riesgos de que ese bucle se cierre.

6 perspectivas clave de la conversación Ezra Klein-Jack Clark

  • Los agentes de IA necesitan especificaciones, no indicaciones — La habilidad crítica es estructurar instrucciones detalladas antes de entregar a los agentes, no conversar con ellos en tiempo real. La metáfora del “mensaje en una botella” lo captura perfectamente
  • El software se está repreciando en tiempo real — La caída del 20% del S&P 500 de software no es ruido; veteranos de 25 años en la industria lo llaman “algo que nunca he visto”. Las empresas SaaS enfrentan una amenaza existencial de agentes que pueden replicar su funcionalidad
  • El monitoreo de IA requiere monitoreo de IA — Anthropic está construyendo sistemas de supervisión usando IA para vigilar IA, creando el Anthropic Economic Index para dar a los economistas fuera de la empresa ganchos para entender el desplazamiento laboral
  • La personalidad digital es emergente, no programada — Claude desarrolla preferencias (evitar contenido violento), toma descansos para ver fotos de parques nacionales y puede alterar el comportamiento cuando sabe que está siendo probado. Estos emergen de la escala, no del diseño
  • La política está años rezagada respecto a la tecnología — A pesar de años de conferencias sobre IA y empleos, casi no hay políticas procesables para el desplazamiento masivo de cuello blanco. Clark argumenta que mejor información económica a nivel estatal es lo que finalmente activará a los funcionarios elegidos
  • La IA es una “máquina devoradora de burocracia” o una “máquina generadora de burocracia” — La misma tecnología que reduce el tiempo de envío de candidatos a fármacos también puede generar desafíos legales NIMBY hipersofisticados. Hacia dónde va es una elección, no un destino

Lo que esto significa para las organizaciones que implementan agentes de IA

La conversación cristaliza una tensión que enfrenta toda organización: los agentes de IA son lo suficientemente poderosos para reemplazar un trabajo de cuello blanco significativo hoy, pero los marcos de gobernanza, monitoreo e institucionales para gestionar esa transición apenas existen. La admisión de Clark de que incluso Anthropic lucha por entender el código escrito por su propio sistema de IA —y está construyendo “sistemas de monitoreo para monitorear todos los diferentes lugares donde ahora sucede el trabajo”— sugiere que toda organización que implementa agentes enfrenta el mismo desafío. Los ganadores no serán aquellos que adopten más rápido, sino aquellos que construyan la infraestructura de supervisión para entender qué están haciendo realmente sus agentes.