
Luis Garicano
Professor of Public Policy at London School of Economics
LSEのエコノミストであり、元欧州議会議員。AIが専門職のトレーニングラダーと知識階層をどのように破壊するかを研究している。
Luis Garicanoについて
ルイス・ガリカーノは、London School of Economicsの公共政策の正教授であり、組織経済学、知識階層、AIの経済学を専門としています。企業が知識労働をどのように組織化するか、そしてAIがそれらの構造をどのように破壊するかについての彼の研究は、言語モデルが専門サービスを再構築するにつれて、ますます重要になってきています。
2023年にLSEに戻る前、ガリカーノは欧州議会議員(2019-2022年)を務め、経済問題を監督するRenew Europe Groupの副代表でした。この政治的経験により、彼はAIの規制環境、特にEU AI法とGDPRがヨーロッパの競争力に与える影響について、ユニークな視点を持っています。
ガリカーノの学術研究は、University of Chicago Booth School of Business(経済学と戦略の正教授)とLondon School of Economicsにまたがります。知識階層と師弟関係に関する彼の研究は、AIがジュニア専門職の経済論理を排除する脅威となっているため、新たな緊急性を帯びています。
経歴のハイライト
- London School of Economics (2023年-現在):公共政策の正教授
- European Parliament (2019-2022年):欧州議会議員、経済問題担当Renew Europe副代表
- University of Chicago Booth (2004-2014年):経済学と戦略の教授
- Centre for Economic Policy Research:研究フェロー
注目すべき見解
トレーニングラダー問題について
ガリカーノのAI経済学への最も特徴的な貢献は、AIが専門職の育成パイプラインをどのように脅かすかを特定したことです。従来の知識労働では、ジュニアは「雑務」(契約レビュー、基礎研究、PowerPointスライド)を専門家からのメンターシップと交換します。AIはこの通貨を切り下げます:
“The apprentice is paying not in dollars, it’s paying in menial tasks… If the AI can do the basic research at McKenzie, can do the contract review at Cravath, then how do you pay for your training?”(見習いはドルで支払っているのではなく、単純作業で支払っている…AIがMcKinseyで基礎研究を行い、Cravathで契約レビューを行えるなら、どうやってトレーニングの対価を支払うのか?)
これは、直接的なメンターシップを通じてのみ伝達できる暗黙知が完全に伝達されなくなる潜在的な市場の失敗を生み出します。
ヨーロッパのAI規制について
欧州議会での経験を持つガリカーノは、EUの規制アプローチに批判的な見解を提供しています:
“Every single thing tells you the GDPR has been bad for EU business and now we’re adding the EU AI Act. Part of the risk is you try to control the technology and you end up without technology.”(すべてがGDPRがEUビジネスに悪影響を与えたことを示しており、今度はEU AI法を追加している。リスクの一部は、技術を制御しようとして、結局技術なしで終わることだ)
彼は技術開発を「方向づける」試みに懐疑的であり、競合する行為者間の調整のゲーム理論的不可能性を指摘しています。
監督閾値について
ガリカーノは「監督閾値」という概念を導入しています。これは、AIが人間の監督が不要になるほど十分に自律的になるポイントです。この閾値を下回ると、AIは人間の生産性を拡張しますが、人間の注意力によってボトルネックとなります。これを上回ると、AIは代替となります:
“The moment the AI becomes autonomous, I think there you get a jump, a discrete jump.”(AIが自律的になった瞬間、ジャンプ、離散的なジャンプが起こると思う)
主要な引用
- “As long as the AI needs your supervision because it makes lots of mistakes, then the bottleneck is the human.”(AIが多くのミスを犯すために監督が必要である限り、ボトルネックは人間である)(AI自律性について)
- “You need to be smarter than AI in order to be able to correct the AI.”(AIを修正できるようにするには、AIよりも賢くなければならない)(監督要件について)
- “Who is ‘we’ here? Is it China, is the US? Is it firms? Is it workers?”(ここでの「私たち」とは誰か?中国か、米国か?企業か?労働者か?)(規制調整について)
- “A very good AI programmer with lots of AI can have enormous leverage and can reach very large market size.”(多くのAIを使いこなす非常に優秀なAIプログラマーは、莫大なレバレッジを持ち、非常に大きな市場規模に到達できる)(スーパースター効果について)
関連資料
- AI Agents - ガリカーノの監督閾値を超える自律システム
- Enterprise AI - トレーニングラダー効果が最も顕著な領域
- Human-in-the-Loop - ガリカーノが分析する監督モデル