Luis Garicano

Luis Garicano

Professor of Public Policy at London School of Economics

Economista de LSE y ex miembro del Parlamento Europeo que estudia cómo la IA interrumpe las escaleras de formación profesional y las jerarquías de conocimiento.

economicsfuture-of-workknowledge-workenterprise

Acerca de Luis Garicano

Luis Garicano es Profesor Titular de Políticas Públicas en la London School of Economics, especializado en economía organizacional, jerarquías de conocimiento y la economía de la IA. Su investigación sobre cómo las empresas organizan el trabajo del conocimiento—y cómo la IA interrumpe esas estructuras—se ha vuelto cada vez más relevante a medida que los modelos de lenguaje remodelan los servicios profesionales.

Antes de regresar a LSE en 2023, Garicano sirvió como Miembro del Parlamento Europeo (2019-2022), donde fue vicepresidente del Grupo Renew Europe supervisando asuntos económicos. Esta experiencia política le da una perspectiva única sobre el panorama regulatorio para la IA, particularmente en relación con el impacto de la EU AI Act y GDPR en la competitividad europea.

El trabajo académico de Garicano abarca la University of Chicago Booth School of Business (donde fue Profesor Titular de Economía y Estrategia) y la London School of Economics. Su investigación sobre jerarquías de conocimiento y relaciones maestro-aprendiz ha ganado nueva urgencia a medida que la IA amenaza con eliminar la lógica económica de los roles profesionales junior.

Aspectos Destacados de la Carrera

  • London School of Economics (2023-presente): Profesor Titular de Políticas Públicas
  • European Parliament (2019-2022): MEP, Vicepresidente de Renew Europe para Asuntos Económicos
  • University of Chicago Booth (2004-2014): Profesor de Economía y Estrategia
  • Centre for Economic Policy Research: Research Fellow

Posiciones Notables

Sobre el Problema de la Escalera de Formación

La contribución más distintiva de Garicano a la economía de la IA es identificar cómo la IA amenaza los pipelines de desarrollo profesional. En el trabajo de conocimiento tradicional, los juniors intercambian “trabajo rutinario” (revisión de contratos, investigación básica, diapositivas de PowerPoint) por mentoría de expertos. La IA devalúa esta moneda:

“El aprendiz está pagando no en dólares, está pagando en tareas serviles… Si la IA puede hacer la investigación básica en McKinsey, puede hacer la revisión de contratos en Cravath, entonces ¿cómo pagas por tu formación?”

Esto crea un potencial fallo de mercado donde el conocimiento tácito—la experiencia que solo puede transferirse a través de mentoría directa—deja de transmitirse por completo.

Sobre la Regulación Europea de IA

Con su experiencia en el Parlamento Europeo, Garicano ofrece una visión crítica de los enfoques regulatorios de la UE:

“Cada cosa te dice que el GDPR ha sido malo para los negocios de la UE y ahora estamos agregando la EU AI Act. Parte del riesgo es que intentas controlar la tecnología y terminas sin tecnología.”

Es escéptico de los intentos de “dirigir” el desarrollo tecnológico, señalando la imposibilidad de teoría de juegos de la coordinación entre actores competidores.

Sobre los Umbrales de Supervisión

Garicano introduce el concepto de “umbral de supervisión”—el punto en el cual la IA se vuelve lo suficientemente autónoma como para que la supervisión humana ya no sea necesaria. Por debajo de este umbral, la IA aumenta la productividad humana pero permanece limitada por la atención humana. Por encima de él, la IA se convierte en un sustituto:

“En el momento en que la IA se vuelve autónoma, creo que ahí obtienes un salto, un salto discreto.”

Citas Clave

  • “Mientras la IA necesite tu supervisión porque comete muchos errores, entonces el cuello de botella es el humano.” (sobre autonomía de IA)
  • “Necesitas ser más inteligente que la IA para poder corregir la IA.” (sobre requisitos de supervisión)
  • “¿Quién es ‘nosotros’ aquí? ¿Es China, es EE.UU.? ¿Son las empresas? ¿Son los trabajadores?” (sobre coordinación regulatoria)
  • “Un muy buen programador de IA con mucha IA puede tener un apalancamiento enorme y puede alcanzar un tamaño de mercado muy grande.” (sobre efectos superestrella)

Lectura Relacionada

  • AI Agents - Los sistemas autónomos que cruzan el umbral de supervisión de Garicano
  • Enterprise AI - Donde los efectos de la escalera de formación son más visibles
  • Human-in-the-Loop - El modelo de supervisión que Garicano analiza

Video Mentions

Video thumbnail

Training ladder collapse

Garicano explica el problema de la escalera de formación—cómo la IA devalúa el trabajo rutinario que los juniors hacen a cambio de mentoría, potencialmente rompiendo los pipelines de desarrollo profesional.

Video thumbnail

Seniority-based technological change

Cita investigación de agosto de 2025 mostrando declive sistemático en la contratación de juniors en ocupaciones expuestas a IA: 'Ves que el empleo junior realmente cae. Y la forma en que cae es a través de la contratación.'

Video thumbnail

AI autonomy thresholds

Sobre el umbral de supervisión: 'Mientras la IA necesite tu supervisión porque comete muchos errores, entonces el cuello de botella es el humano.'

Related People