Demis Hassabis en Modelos del Mundo, Las Piezas Faltantes de la AGI, y Por Qué Genie Lo Cambia Todo
El CEO de Google DeepMind analiza por qué los modelos del mundo son esenciales para la AGI, el problema de la inteligencia dentada, y cómo los agentes Genie que aprenden en mundos simulados podrían desbloquear la robótica.
Perspectiva
Este es Demis Hassabis en su terreno - el podcast de Google DeepMind con Hannah Fry - hablando sobre dónde está realmente la IA versus dónde necesita estar para la AGI. La conversación es refrescantemente técnica y honesta sobre las limitaciones actuales.
El enfoque de la "inteligencia dentada" es clave para entender por qué aún no tenemos AGI. Los modelos actuales pueden ganar medallas de oro en la Olimpiada Internacional de Matemáticas mientras fallan en acertijos lógicos básicos. Pueden analizar filosofía compleja pero luchan con el juego de ajedrez consistente. Hassabis no trata esto como un error menor - es una brecha arquitectónica fundamental. "Esperarías que un sistema AGI fuera consistente en todos los aspectos."
Los modelos del mundo son la pasión más duradera de Hassabis, y esta entrevista explica por qué cree que son esenciales. Los modelos de lenguaje entienden más sobre el mundo de lo que los lingüistas esperaban - "el lenguaje es más rico de lo que pensábamos" - pero las dinámicas espaciales, la física intuitiva, y la experiencia sensomotora no pueden ser capturadas en texto. Para robótica y asistentes verdaderamente universales, necesitas sistemas que entiendan la causa y el efecto en el espacio físico.
El bucle Genie + Simma es la verdadera noticia aquí. Están lanzando agentes de IA (Simma) a mundos generados por IA (Genie) y dejándolos interactuar. "Los dos sistemas de IA interactúan de cierta manera en las mentes uno del otro." Esto crea potencialmente entornos de entrenamiento infinitos donde Genie genera cualquier escenario que Simma necesite aprender. Es una solución elegante al problema de datos de entrenamiento para la IA encarnada.
Sobre las alucinaciones, Hassabis hace un punto sutil pero importante: el problema no es que los modelos sean inciertos, es que no saben que son inciertos. AlphaFold genera puntuaciones de confianza; los LLMs a menudo no lo hacen. Los modelos mejores "saben más sobre lo que saben" y pueden introspeccionar su incertidumbre. La solución requiere usar pasos de pensamiento para verificar doble las salidas - sistemas que "se detienen, hacen una pausa, y revisan lo que estaban a punto de decir."
El debate sobre escalamiento recibe un tratamiento matizado. DeepMind no ha chocado con una pared - Gemini 3 muestra mejoras significativas - pero los retornos ya no son exponenciales. "Hay mucho espacio entre exponencial y asintótico." Su fórmula: 50% escalamiento, 50% innovación. Ambos son requeridos para AGI.
Conclusiones Clave
- La inteligencia dentada es la barrera central de la AGI - Los modelos sobresalen en tareas a nivel de PhD mientras fallan en lógica de escuela secundaria; falta consistencia entre dominios
- Los modelos del mundo son esenciales para la IA encarnada - Las dinámicas espaciales, la física intuitiva, y la experiencia sensomotora no pueden aprenderse solo de texto
- Genie + Simma crea bucles de entrenamiento infinitos - Los agentes de IA en mundos generados por IA podrían resolver el problema de datos para robótica
- Las alucinaciones provienen de la meta-ignorancia - Los modelos no saben lo que no saben; necesitan puntuaciones de confianza como AlphaFold
- El escalamiento no está muerto, solo no es exponencial - DeepMind opera con 50% escalamiento, 50% innovación; ambos son necesarios para AGI
- La fusión es un problema de nodo raíz - Asociación con Commonwealth Fusion para acelerar energía limpia a través de IA asistida en contención de plasma
- El aprendizaje en línea sigue siendo un problema - Los modelos actuales no continúan aprendiendo después del despliegue; esta es una brecha crítica
- Se necesitan puntos de referencia de física para modelos del mundo - Los videos generados se ven realistas pero no son suficientemente precisos en física para robótica
Cuadro General
La IA actual es "dentada" - brillante en tareas estrechas, poco confiable entre dominios. El camino hacia la AGI probablemente requiere modelos del mundo que entiendan la física y la causalidad, no solo patrones de lenguaje. La apuesta de DeepMind: entrena agentes en mundos generados por IA hasta que desarrollen intuición sobre cómo funciona la realidad.


