Demis Hassabis sur les modèles du monde, les pièces manquantes de l'AGI, et pourquoi Genie change tout
Le PDG de Google DeepMind explique pourquoi les modèles du monde sont essentiels pour l'AGI, le problème de l'intelligence irrégulière, et comment les agents Genie apprenant dans des mondes simulés pourraient débloquer la robotique.
Perspective
Voici Demis Hassabis sur son terrain de prédilection - le podcast Google DeepMind avec Hannah Fry - parlant de l'état actuel de l'IA par rapport à ce qui est nécessaire pour l'AGI. La conversation est d'une technicité et d'une honnêteté rafraîchissantes sur les limitations actuelles.
Le cadrage de « l'intelligence irrégulière » est essentiel pour comprendre pourquoi nous n'avons pas encore d'AGI. Les modèles actuels peuvent remporter des médailles d'or aux Olympiades internationales de mathématiques tout en échouant à des énigmes logiques basiques. Ils peuvent analyser de la philosophie complexe mais peinent à jouer aux échecs de manière cohérente. Hassabis ne traite pas cela comme un bug mineur - c'est une lacune architecturale fondamentale. « On s'attendrait à ce qu'un système AGI soit cohérent sur toute la ligne. »
Les modèles du monde sont la passion de longue date d'Hassabis, et cette interview explique pourquoi il pense qu'ils sont essentiels. Les modèles de langage comprennent plus le monde que les linguistes ne l'avaient prévu - « le langage est plus riche qu'on ne le pensait » - mais la dynamique spatiale, la physique intuitive et l'expérience sensori-motrice ne peuvent pas être capturées dans du texte. Pour la robotique et les assistants vraiment universels, il faut des systèmes qui comprennent la cause et l'effet dans l'espace physique.
La boucle Genie + Simma est le véritable titre ici. Ils déploient des agents AI (Simma) dans des mondes générés par AI (Genie) et les laissent interagir. « Les deux AI interagissent en quelque sorte dans l'esprit l'une de l'autre. » Cela crée des environnements d'entraînement potentiellement infinis où Genie génère tous les scénarios dont Simma a besoin pour apprendre. C'est une solution élégante au problème des données d'entraînement pour l'IA incarnée.
Sur les hallucinations, Hassabis fait une remarque subtile mais importante : le problème n'est pas que les modèles sont incertains, c'est qu'ils ne savent pas qu'ils sont incertains. AlphaFold produit des scores de confiance ; les LLM ne le font souvent pas. Les meilleurs modèles « en savent plus sur ce qu'ils savent » et peuvent faire l'introspection de leur incertitude. La solution nécessite d'utiliser des étapes de réflexion pour vérifier deux fois les résultats - des systèmes qui « s'arrêtent, font une pause et revoient ce qu'ils étaient sur le point de dire. »
Le débat sur la mise à l'échelle obtient un traitement nuancé. DeepMind n'a pas atteint de mur - Gemini 3 montre des améliorations significatives - mais les rendements ne sont plus exponentiels. « Il y a beaucoup de place entre exponentiel et asymptotique. » Sa formule : 50 % de mise à l'échelle, 50 % d'innovation. Les deux sont nécessaires pour l'AGI.
Points clés
- L'intelligence irrégulière est la barrière centrale de l'AGI - Les modèles excellent dans les tâches de niveau doctoral tout en échouant en logique de lycée ; la cohérence entre domaines est manquante
- Les modèles du monde sont essentiels pour l'IA incarnée - La dynamique spatiale, la physique intuitive et l'expérience sensori-motrice ne peuvent pas être apprises du texte seul
- Genie + Simma créent des boucles d'entraînement infinies - Les agents AI dans des mondes générés par AI pourraient résoudre le problème des données pour la robotique
- Les hallucinations découlent de la méta-ignorance - Les modèles ne savent pas ce qu'ils ne savent pas ; besoin de scores de confiance comme AlphaFold
- La mise à l'échelle n'est pas morte, juste pas exponentielle - DeepMind opère sur 50 % de mise à l'échelle, 50 % d'innovation ; les deux nécessaires pour l'AGI
- La fusion est un problème de nœud racine - Partenariat avec Commonwealth Fusion pour accélérer l'énergie propre via le confinement du plasma assisté par AI
- L'apprentissage en ligne est toujours manquant - Les modèles actuels ne continuent pas à apprendre après le déploiement ; c'est une lacune critique
- Des benchmarks de physique nécessaires pour les modèles du monde - Les vidéos générées semblent réalistes mais ne sont pas assez précises physiquement pour la robotique
Vue d'ensemble
L'IA actuelle est « irrégulière » - brillante pour des tâches étroites, peu fiable entre domaines. Le chemin vers l'AGI nécessite probablement des modèles du monde qui comprennent la physique et la causalité, pas seulement les motifs linguistiques. Le pari de DeepMind : entraîner des agents dans des mondes générés par AI jusqu'à ce qu'ils développent une intuition sur le fonctionnement de la réalité.


