Demis Hassabis de Google DeepMind avec Mike Allen d'Axios
Perspective
Voici Demis Hassabis à son plus franc - 400 jours après son Nobel, réfléchissant sur ce que cette plateforme permet et où l’IA se dirige réellement. Pas de battage médiatique, juste une évaluation clinique de quelqu’un qui construit vers l’AGI depuis des décennies.
La méthode scientifique comme avantage compétitif est le fil conducteur de tout. Hassabis distingue DeepMind non pas par les ressources (bien que Google en ait) mais par la rigueur : “Nous combinons la recherche de classe mondiale avec l’ingénierie de classe mondiale avec l’infrastructure de classe mondiale. Vous avez besoin des trois pour être à la frontière.”
Ce n’est pas un positionnement vide. Interrogé sur le pivot vers les LLM de 2017-2018, il est rafraîchissant d’honnêteté : il était agnostique quant à l’approche. Ils avaient Chinchilla, Sparrow, des systèmes RL de style AlphaZero, et des architectures inspirées des neurosciences, tous fonctionnant en parallèle. Quand la mise à l’échelle a commencé à montrer des résultats, ils ont déplacé les ressources de manière pragmatique. “Si vous êtes un vrai scientifique, vous ne pouvez pas être trop dogmatique sur une idée que vous avez.”
L’échéancier AGI est précis : 5-10 ans, mais avec une barre haute. Sa définition nécessite “toutes les capacités cognitives que nous avons”, y compris l’invention et la créativité. Les modèles actuels sont des “intelligences irrégulières” - niveau doctorat dans certains domaines, défectueux dans d’autres. La vraie AGI signifie une cohérence globale plus des capacités qui n’existent pas encore : apprentissage continu, apprentissage en ligne, planification à long terme.
Il estime qu‘“une ou deux percées supplémentaires de niveau transformer” sont encore nécessaires au-delà de la mise à l’échelle. Pas d’innovation incrémentale - des avancées fondamentales.
L’aperçu multimodal est sous-estimé. Hassabis dit que la chose la plus étonnante qui reçoit trop peu d’attention est la compréhension vidéo. Il a testé Gemini sur Fight Club, posant des questions sur la signification d’un personnage retirant son anneau avant un combat - et a obtenu “un point philosophique très intéressant” sur le fait de laisser symboliquement la vie quotidienne derrière soi. C’est une compréhension conceptuelle du récit visuel, pas de la correspondance de motifs.
Sur le risque catastrophique, il est mesuré : P(doom) est “non nulle” mais il rejette les pourcentages précis comme “absurdités car personne ne sait.” Ce à quoi il s’engage : si c’est non nul, “vous devez consacrer des ressources et une attention significatives à cela.”
L’angle capitaliste est intéressant - il soutient que les clients d’entreprise exigeant des garanties récompenseront naturellement les fournisseurs responsables. Un modèle qui déraille perd des affaires. Si cette structure d’incitations tient pour des systèmes de niveau AGI est une question ouverte qu’il n’aborde pas pleinement.
Sur la course avec la Chine : l’avance est “des mois, pas des années.” Les laboratoires chinois n’ont pas montré d’innovation algorithmique au-delà de la frontière, mais ils excellent à suivre rapidement. L’écart se resserre.
Points clés
- AGI : 5-10 ans - Nécessite toutes les capacités cognitives humaines, y compris l’invention ; les modèles actuels sont des “intelligences irrégulières”
- 1-2 percées encore nécessaires - La mise à l’échelle seule n’y arrivera probablement pas ; attend des avancées de niveau transformer
- Le multimodal est sous-estimé - La compréhension vidéo montre une saisie conceptuelle du récit, pas seulement de la reconnaissance de motifs
- La méthode scientifique est l’avantage - L’approche pragmatique a permis à DeepMind de pivoter quand la mise à l’échelle a montré des résultats
- P(doom) est non nulle - Refuse de quantifier mais consacre des ressources significatives à la sécurité
- Avance sur la Chine : des mois, pas des années - Ils suivent bien rapidement mais n’ont pas montré d’innovation algorithmique de frontière
- La plateforme Nobel compte - Ouvre des portes pour le plaidoyer sur le développement responsable de l’IA
- Les agents arrivent mais peu fiables - D’ici un an, proche de déléguer des tâches complètes ; vision d’assistant universel
Vue d’ensemble
Un lauréat du prix Nobel estime l’AGI dans 5-10 ans mais dit que 1-2 percées de niveau transformer sont encore nécessaires. Les modèles actuels sont des “intelligences irrégulières” - niveau doctorat dans certains domaines, défectueux dans d’autres. Le chemin nécessite une cohérence entre les domaines plus des capacités qui n’existent pas encore : apprentissage continu, apprentissage en ligne, planification à long terme.