Luis Garicano

Luis Garicano

Professor of Public Policy at London School of Economics

Économiste de LSE et ancien membre du Parlement européen étudiant comment l'IA perturbe les échelles de formation professionnelle et les hiérarchies de connaissances.

economicsfuture-of-workknowledge-workenterprise

À propos de Luis Garicano

Luis Garicano est professeur titulaire de politique publique à la London School of Economics, spécialisé en économie organisationnelle, hiérarchies de connaissances et économie de l’IA. Sa recherche sur la façon dont les entreprises organisent le travail de connaissance—et comment l’IA perturbe ces structures—est devenue de plus en plus pertinente alors que les modèles de langage remodèlent les services professionnels.

Avant de retourner à LSE en 2023, Garicano a servi comme membre du Parlement européen (2019-2022), où il était vice-président du groupe Renew Europe supervisant les affaires économiques. Cette expérience politique lui donne une perspective unique sur le paysage réglementaire de l’IA, particulièrement concernant l’AI Act de l’UE et l’impact du RGPD sur la compétitivité européenne.

Le travail académique de Garicano couvre la University of Chicago Booth School of Business (où il était professeur titulaire d’économie et de stratégie) et la London School of Economics. Sa recherche sur les hiérarchies de connaissances et les relations maître-apprenti a gagné en urgence alors que l’IA menace d’éliminer la logique économique des rôles professionnels juniors.

Faits saillants de carrière

  • London School of Economics (2023-présent) : Professeur titulaire de politique publique
  • Parlement européen (2019-2022) : Député européen, vice-président de Renew Europe pour les affaires économiques
  • University of Chicago Booth (2004-2014) : Professeur d’économie et de stratégie
  • Centre for Economic Policy Research : Chercheur associé

Positions notables

Sur le problème de l’échelle de formation

La contribution la plus distinctive de Garicano à l’économie de l’IA est d’identifier comment l’IA menace les pipelines de développement professionnel. Dans le travail de connaissance traditionnel, les juniors échangent du « travail ingrat » (révision de contrats, recherche de base, diapositives PowerPoint) contre du mentorat d’experts. L’IA dévalorise cette monnaie :

« L’apprenti ne paie pas en dollars, il paie en tâches subalternes… Si l’IA peut faire la recherche de base chez McKinsey, peut faire la révision de contrats chez Cravath, alors comment payez-vous pour votre formation ? »

Cela crée une défaillance de marché potentielle où les connaissances tacites—l’expertise qui ne peut être transférée que par mentorat direct—cessent d’être transmises entièrement.

Sur la régulation européenne de l’IA

Avec son expérience du Parlement européen, Garicano offre une vision critique des approches réglementaires de l’UE :

« Chaque chose vous dit que le RGPD a été mauvais pour les affaires de l’UE et maintenant nous ajoutons l’AI Act de l’UE. Une partie du risque est que vous essayez de contrôler la technologie et vous vous retrouvez sans technologie. »

Il est sceptique des tentatives de « diriger » le développement technologique, notant l’impossibilité théorique du jeu de coordination entre acteurs concurrents.

Sur les seuils de supervision

Garicano introduit le concept de « seuil de supervision »—le point auquel l’IA devient suffisamment autonome pour que la supervision humaine ne soit plus nécessaire. En dessous de ce seuil, l’IA augmente la productivité humaine mais reste limitée par l’attention humaine. Au-dessus, l’IA devient un substitut :

« Au moment où l’IA devient autonome, je pense que là vous obtenez un saut, un saut discret. »

Citations clés

  • « Tant que l’IA a besoin de votre supervision parce qu’elle fait beaucoup d’erreurs, alors le goulot d’étranglement est l’humain. » (sur l’autonomie de l’IA)
  • « Vous devez être plus intelligent que l’IA pour être capable de corriger l’IA. » (sur les exigences de supervision)
  • « Qui est ‘nous’ ici ? Est-ce la Chine, sont-ce les États-Unis ? Est-ce les entreprises ? Est-ce les travailleurs ? » (sur la coordination réglementaire)
  • « Un très bon programmeur IA avec beaucoup d’IA peut avoir un effet de levier énorme et peut atteindre une très grande taille de marché. » (sur les effets superstars)

Lectures connexes

  • AI Agents - Les systèmes autonomes qui franchissent le seuil de supervision de Garicano
  • Enterprise AI - Où les effets de l’échelle de formation sont les plus visibles
  • Human-in-the-Loop - Le modèle de supervision que Garicano analyse

Video Mentions

Video thumbnail

Effondrement de l'échelle de formation

Garicano explique le problème de l'échelle de formation—comment l'IA dévalorise le travail ingrat que les juniors font en échange de mentorat, brisant potentiellement les pipelines de développement professionnel.

Video thumbnail

Changement technologique basé sur l'ancienneté

Cite une recherche d'août 2025 montrant un déclin systématique du recrutement de juniors dans les professions exposées à l'IA : 'Vous voyez l'emploi junior vraiment chuter. Et la façon dont il chute, c'est par le recrutement.'

Video thumbnail

Seuils d'autonomie de l'IA

Sur le seuil de supervision : 'Tant que l'IA a besoin de votre supervision parce qu'elle fait beaucoup d'erreurs, alors le goulot d'étranglement est l'humain.'

Related People