Newsfeed / Amodei vs Hassabis : Le Lendemain de l'AGI (Davos 2026)
World Economic Forum·January 20, 2026

Amodei vs Hassabis : Le Lendemain de l'AGI (Davos 2026)

Les PDG d'Anthropic et DeepMind divergent sur les calendriers, mais s'accordent : les systemes d'IA construisant d'autres IA constituent le seuil critique que nous pourrions franchir cette annee.

Amodei vs Hassabis : Le Lendemain de l'AGI (Davos 2026)

Deux Architectes de l'AGI Discutent de Ce Qui Se Passe Quand Elle Arrive

C'est une apparition commune rare des deux dirigeants les plus susceptibles de construire l'AGI : Dario Amodei d'Anthropic et Demis Hassabis de Google DeepMind. Enregistree a Davos 2026, la conversation couvre tout, des desaccords sur les calendriers au deplacement de la main-d'oeuvre jusqu'au risque existentiel.

La tension fondamentale : Amodei pense que nous sommes a 1-2 ans de systemes d'IA qui surpassent les humains dans tous les domaines. Hassabis estime que c'est dans 5-10 ans. Mais tous deux s'accordent sur l'essentiel : "The biggest thing to watch is AI systems building AI systems. Whether that loop closes will determine if it's a few more years or if we have wonders and a great emergency in front of us." (La chose la plus importante a surveiller, ce sont les systemes d'IA construisant d'autres systemes d'IA. Que cette boucle se ferme ou non determinera si c'est encore quelques annees ou si nous avons des merveilles et une grande urgence devant nous.)

Sur l'automatisation du code, Amodei est direct : "J'ai des ingenieurs chez Anthropic qui disent 'Je n'ecris plus de code. Je laisse juste le modele ecrire le code.'" Il estime que nous sommes a 6-12 mois de modeles capables de faire "la plupart, peut-etre tout" ce que font les ingenieurs de bout en bout.

La boucle d'auto-amelioration est le point ou les calendriers convergent ou divergent. Amodei : "Si je devais deviner, ca va plus vite que les gens l'imaginent." Hassabis est plus prudent, notant que les domaines verifiables comme les mathematiques et le code sont plus faciles a automatiser que les sciences naturelles ou il "faut peut-etre tester experimentalement."

Sur le deplacement de la main-d'oeuvre, tous deux reconnaissent ce qui arrive. Amodei : "Je peux entrevoir un moment ou, cote juniors, nous aurons en fait besoin de moins de gens et non plus." Hassabis presente ca comme le probleme de l'echelle de formation : "Certains emplois seront perturbes mais je pense que de nouveaux emplois encore plus precieux, peut-etre plus significatifs seront crees... a court terme."

Le desaccord porte sur le timing. Amodei : "La moitie des emplois de bureau debutants pourrait disparaitre d'ici un a cinq ans." Hassabis : "I would be telling undergrads to get really unbelievably proficient with these tools. There's almost a capability overhang even in today's models." (Je dirais aux etudiants de premier cycle de devenir vraiment incroyablement competents avec ces outils. Il y a presque un surplus de capacite meme dans les modeles actuels.)

Sur la geopolitique et les exportations de puces, Amodei livre sa critique la plus pointue de la politique americaine : "Je vois ca plutot comme, vous savez, est-ce qu'on va vendre des armes nucleaires a la Coree du Nord parce que ca rapporte du profit a Boeing." Il qualifie le fait de ne pas vendre de puces a la Chine comme "l'une des choses les plus importantes que nous puissions faire" pour garantir le temps necessaire aux mesures de securite.

Sur le passage de "l'adolescence technologique", Amodei revele que son essai sur les risques de l'IA arrive. Il fait reference a Contact de Carl Sagan : "If you could ask the aliens any one question, what would it be? 'How did you do it? How did you manage to get through this technological adolescence without destroying yourselves?'" (Si vous pouviez poser une seule question aux extraterrestres, quelle serait-elle ? 'Comment avez-vous fait ? Comment avez-vous reussi a traverser cette adolescence technologique sans vous detruire ?')

Tous deux partagent des inquietudes sur la tromperie des modeles. Amodei : "Nous avons de plus en plus documente les mauvais comportements des modeles quand ils emergent." Mais aucun n'est pessimiste. Hassabis : "Je crois beaucoup en l'ingeniosite humaine. La question est d'avoir le temps et la concentration."

Sur le business, la croissance d'Anthropic continue de maniere exponentielle : 0$ a 100M$ (2023), 1B$ (2024), 10B$ (2025). Amodei : "Ces chiffres de revenus commencent a ne plus etre tres loin de l'echelle des plus grandes entreprises du monde." Il presente cela comme la validation que les entreprises dirigees par des chercheurs vont gagner : "Les entreprises dirigees par des chercheurs qui se concentrent sur les modeles, qui se concentrent sur la resolution de problemes importants dans le monde... ce sont ce genre d'entreprises qui vont reussir."

Hassabis confirme la resurgence de Google DeepMind : "Nous retrouvons l'intensite, la concentration et la mentalite startup... vous pouvez commencer a voir les progres avec Gemini 3."

Points Cles

  • Divergence des calendriers : Amodei dit 1-2 ans jusqu'a l'IA surhumaine, Hassabis dit 5-10 ans
  • Le seuil critique : Les systemes d'IA construisant des systemes d'IA - tous deux s'accordent que c'est LA chose a surveiller
  • Automatisation du code : Amodei estime 6-12 mois jusqu'a ce que l'IA fasse la plupart du travail d'ingenierie de bout en bout
  • Deplacement de la main-d'oeuvre : Les emplois de bureau juniors a risque d'ici 1-5 ans (Amodei) avec le conseil de maitriser les outils IA maintenant (Hassabis)
  • Politique d'exportation de puces : La position la plus forte d'Amodei a ce jour - compare la vente a la Chine a la vente d'armes nucleaires
  • Validation par les revenus : La croissance annuelle de 10x d'Anthropic (10B$ en 2025) prouve que les entreprises dirigees par des chercheurs peuvent passer a l'echelle

Implications

Pour les dirigeants d'entreprise, cette conversation presente les 12-24 prochains mois comme pivots. Si Amodei a raison, l'IA fera la plupart du travail d'ingenierie d'ici fin 2026. Si Hassabis a raison, vous avez plus de temps mais la meme destination.

Le terrain d'entente est plus instructif que le desaccord : investissez dans les capacites IA maintenant, repensez l'embauche des debutants, et preparez-vous a un monde ou les systemes d'IA eux-memes s'ameliorent plus vite que n'importe quelle equipe humaine ne le pourrait.

Le moment du Paradoxe de Fermi a la fin laisse entrevoir ce qui empeche les deux de dormir la nuit : non pas si l'AGI est possible, mais si l'humanite a la sagesse de naviguer ce qui vient ensuite.

Related