Demis Hassabis de Google DeepMind con Mike Allen de Axios
Perspectiva
Este es Demis Hassabis en su forma más sincera - 400 días después del Nobel, reflexionando sobre lo que esa plataforma le permite y hacia dónde se dirige realmente la IA. Sin exageraciones, solo evaluación clínica de alguien que ha estado trabajando hacia AGI durante décadas.
El método científico como ventaja competitiva es el hilo conductor que atraviesa todo. Hassabis distingue a DeepMind no por recursos (aunque Google tiene muchos) sino por rigor: “Combinamos investigación de clase mundial con ingeniería de clase mundial con infraestructura de clase mundial. Necesitas que los tres estén en la frontera.”
Esto no es solo posicionamiento vacío. Cuando se le pregunta sobre el pivote de 2017-2018 hacia LLMs, es refrescantemente honesto: era agnóstico respecto al enfoque. Tenían Chinchilla, Sparrow, sistemas de RL estilo AlphaZero, y arquitecturas inspiradas en neurociencia todos funcionando en paralelo. Cuando el escalado comenzó a mostrar resultados, desplazaron recursos pragmáticamente. “Si eres un verdadero científico, no puedes ser demasiado dogmático sobre alguna idea que tengas.”
El cronograma de AGI es específico: 5-10 años, pero con un estándar alto. Su definición requiere “todas las capacidades cognitivas que tenemos” incluyendo invención y creatividad. Los modelos actuales son “inteligencias irregulares” - nivel de doctorado en algunas áreas, deficientes en otras. El verdadero AGI significa consistencia en todos los aspectos más capacidades que aún no existen: aprendizaje continuo, aprendizaje en línea, planificación a largo plazo.
Estima que “uno o dos avances más a nivel de transformer” siguen siendo necesarios más allá del escalado. No innovación incremental - avances fundamentales.
La perspectiva multimodal está subestimada. Hassabis dice que lo más asombroso que recibe muy poca atención es la comprensión de video. Probó Gemini en Fight Club, preguntando sobre el significado de un personaje quitándose su anillo antes de una pelea - y obtuvo “un punto filosófico muy interesante” sobre dejar simbólicamente la vida cotidiana atrás. Eso es comprensión conceptual de narrativa visual, no solo reconocimiento de patrones.
Sobre el riesgo catastrófico, es medido: P(desastre) es “distinto de cero” pero rechaza porcentajes precisos como “sinsentido porque nadie sabe”. Lo que sí se compromete: si es distinto de cero, “debes dedicar recursos y atención significativos a eso.”
El ángulo del capitalismo es interesante - argumenta que los clientes empresariales que exigen garantías recompensarán naturalmente a los proveedores responsables. Un modelo que se descontrola pierde negocios. Si esa estructura de incentivos se sostiene para sistemas de nivel AGI es una pregunta abierta que no aborda completamente.
Sobre la carrera con China: la ventaja es “meses, no años.” Los laboratorios chinos no han mostrado innovación algorítmica más allá de la frontera, pero son excelentes en seguimiento rápido. La brecha se está cerrando.
Puntos Clave
- AGI: 5-10 años - Requiere todas las capacidades cognitivas humanas incluyendo invención; los modelos actuales son “inteligencias irregulares”
- 1-2 avances aún necesarios - El escalado por sí solo probablemente no sea suficiente; espera avances a nivel de transformer
- Multimodal está subestimado - La comprensión de video muestra comprensión conceptual de narrativa, no solo reconocimiento de patrones
- El método científico es la ventaja - El enfoque pragmático permitió a DeepMind pivotar cuando el escalado mostró resultados
- P(desastre) es distinto de cero - Se niega a cuantificar pero dedica recursos significativos a seguridad
- Ventaja sobre China: meses, no años - Hacen seguimiento rápido bien pero no han mostrado innovación algorítmica en la frontera
- La plataforma del Nobel importa - Abre puertas para defender el desarrollo responsable de IA
- Los Agents vienen pero no son confiables - Dentro de un año, cerca de delegar tareas completas; visión de asistente universal
Panorama General
Un premio Nobel estima AGI en 5-10 años pero dice que 1-2 avances a nivel de transformer siguen siendo necesarios. Los modelos actuales son “inteligencias irregulares” - nivel de doctorado en algunas áreas, deficientes en otras. El camino requiere consistencia en todos los dominios más capacidades que aún no existen: aprendizaje continuo, aprendizaje en línea, planificación a largo plazo.