Dentro de Gemini 3: Cómo 200 Investigadores Construyen IA de Frontera

The MAD Podcast
researchinterviewgeminienterprise

Cómo DeepMind Organiza el Desarrollo de Modelos de Frontera

Sebastian Bourjou lidera el pre-entrenamiento en Gemini 3 en Google DeepMind—su primer podcast. Con experiencia abarcando Gopher, Chinchilla y Retro, ofrece una visibilidad rara de cómo se organiza realmente la investigación de IA de frontera. La entrevista con Matt Turk cubre todo desde decisiones de arquitectura hasta qué significa “gusto investigativo” en la práctica.

Sobre construir sistemas, no modelos: “We’re not really building a model anymore. I think we’re really building a system at this point. People have sometimes this view that we’re just training a neural network architecture and that’s it. But it’s really the entire system around the network.” (Ya no estamos construyendo un modelo realmente. Creo que estamos construyendo un sistema a estas alturas. A veces la gente tiene esta visión de que solo estamos entrenando una arquitectura de red neuronal y eso es todo. Pero realmente es todo el sistema alrededor de la red.) Esto reenmarca lo que significa “entrenamiento”—es infraestructura, coordinación, evaluación e integración, no solo la red neuronal.

Sobre el gusto investigativo: “Being allergic to complexity… we have a certain budget of complexity we can use and a certain amount of research risk we can accumulate before things go bad. Often times we don’t necessarily want to use the best performance version of a research idea, but we’d rather trade off some performance for a slightly lower complexity version.” (Ser alérgico a la complejidad… tenemos un cierto presupuesto de complejidad que podemos usar y una cierta cantidad de riesgo de investigación que podemos acumular antes de que las cosas salgan mal. Muchas veces no necesariamente queremos usar la mejor versión de rendimiento de una idea de investigación, sino que preferiríamos intercambiar algo de rendimiento por una versión ligeramente menos compleja.) La idea contraintuitiva: lo más simple gana sobre lo óptimo porque permite más progreso futuro.

Sobre la mejor prueba del modelo: “The amount of time people spend using the model to make themselves more productive internally is increasing over time. Every new generation of models, it’s pretty clear the model can do new things and help us in our research.” (La cantidad de tiempo que la gente pasa usando el modelo para hacerse más productivos internamente está aumentando con el tiempo. Cada nueva generación de modelos, es bastante claro que el modelo puede hacer cosas nuevas y ayudarnos en nuestra investigación.) El uso interno—investigadores usando sus propios modelos para investigación—es la verdadera evaluación más allá de los benchmarks.

Sobre la escala del equipo: “It’s a fairly large team at this point. Maybe 150-200 people work on a day-to-day on the pre-training side between data, model, infrastructure, evals.” (Es un equipo bastante grande a estas alturas. Quizás 150-200 personas trabajan día a día en el lado del pre-entrenamiento entre datos, modelo, infraestructura, evaluaciones.) Esta es la escala requerida para hacer progreso en modelos de frontera—y coordinar a tanta gente es “realmente bastante complicado.”

Sobre IA para investigación de IA: “Especially in the next year with more agentic workflows being enabled… that should be able to really accelerate our work. A lot of the day-to-day work is running experiments, babysitting experiments, analyzing data, collecting results. The interesting part is forming hypotheses and designing new experiments.” (Especialmente en el próximo año con más flujos de trabajo agénticos siendo habilitados… eso debería poder acelerar realmente nuestro trabajo. Mucho del trabajo diario es ejecutar experimentos, supervisar experimentos, analizar datos, recolectar resultados. La parte interesante es formar hipótesis y diseñar nuevos experimentos.) El meta-loop: usar IA para acelerar la investigación de IA automatizando las partes mecánicas.

5 Ideas de Bourjou sobre Investigación de IA a Escala

  • Sistemas sobre modelos - Gemini 3 no es solo una red neuronal; es infraestructura, pipelines de datos, evaluación y trabajo de integración que colectivamente es más importante que la arquitectura
  • 150-200 personas coordinan en pre-entrenamiento - La escala del desarrollo de modelos de frontera requiere coordinación masiva, y obtener progreso de todos importa más que unos pocos avanzando rápido
  • Gusto investigativo = evitar complejidad - Los mejores investigadores no persiguen soluciones óptimas; persiguen soluciones lo suficientemente simples para permitir progreso futuro
  • El uso interno es la verdadera evaluación - Más allá de los benchmarks, la verdadera prueba es si los investigadores mismos son más productivos con cada nueva generación de modelo
  • Los flujos de trabajo agénticos aceleran la investigación - DeepMind espera que la IA automatice la ejecución y análisis de experimentos, liberando a los investigadores para la formación de hipótesis

Qué Significa Esto para Organizaciones de IA

La perspectiva de Bourjou reenmarca lo que realmente significa construir IA en la frontera: es un problema de integración de sistemas que requiere más de 150 personas, donde el gusto investigativo significa evitar activamente la complejidad, y donde los modelos mismos cada vez más aceleran su propio desarrollo. Para organizaciones pensando en capacidades de IA, la implicación es clara—incluso los laboratorios de IA más sofisticados ven esto como trabajo de infraestructura y coordinación, no entrenamiento mágico de modelos.