Estado de la IA en 2026: Ninguna empresa dominara sola
Sebastian Raschka y Nathan Lambert se unen a Lex Fridman para analizar el panorama de la IA — desde las leyes de escalamiento y los modelos abiertos chinos hasta los agentes de programacion y el camino hacia la AGI.
Por que ninguna empresa dominara la IA en 2026
El episodio 490 de Lex Fridman reune a dos de las voces mas respetadas de la comunidad de ML: Sebastian Raschka, autor de Build a Large Language Model from Scratch y Build a Reasoning Model from Scratch, y Nathan Lambert, lider de post-entrenamiento en el Allen Institute for AI (AI2) y autor del libro de referencia sobre RLHF. Grabado en enero de 2026, es un extenso recorrido tecnico de tres horas sobre donde se encuentra realmente la IA — detras de los ciclos de hype.
Sobre la carrera de la IA entre EE.UU. y China: "I don't think nowadays in 2026 that there will be any company who has access to a technology that no other company has access to. Researchers are frequently changing jobs, changing labs, they rotate." (No creo que en 2026 haya alguna empresa que tenga acceso a una tecnologia a la que ninguna otra empresa tenga acceso. Los investigadores cambian frecuentemente de trabajo, de laboratorio, rotan.) Sebastian Raschka argumenta que el verdadero diferenciador no son las ideas — es el presupuesto y el hardware. Nathan Lambert agrega que empresas chinas como Zhipu AI, MiniMax y Kimi Moonshot han superado a DeepSeek en algunas areas, utilizando las propias tecnicas publicadas por DeepSeek. El movimiento de modelos abiertos desde China es una jugada estrategica para lograr influencia global, no un acto de caridad.
Sobre el momento de Opus 4.5: "The hype over Anthropic's Claude Opus 4.5 model has been absolutely insane... culturally Anthropic is known for betting very hard on code, which is the Claude Code thing that's working out for them right now." (El hype sobre el modelo Claude Opus 4.5 de Anthropic ha sido absolutamente descomunal... culturalmente Anthropic es conocida por apostar muy fuerte por el codigo, que es lo de Claude Code que les esta funcionando ahora mismo.) Nathan ve el enfoque de Anthropic en el codigo como una ventaja cultural, senalando que la empresa se presenta como "la menos caotica" de los grandes laboratorios. Mientras tanto, Gemini 3 de Google fue tecnicamente impresionante pero perdio la narrativa — un tema recurrente donde el entusiasmo organico de la comunidad importa mas que el marketing.
Sobre las leyes de escalamiento y el pre-entrenamiento: Nathan cuestiona la narrativa de que "el pre-entrenamiento esta muerto". "I still think most of the compute is going in at pre-training because you can still make a model better... in a few years that'll saturate and the RL compute will just go longer." (Sigo pensando que la mayor parte del computo se destina al pre-entrenamiento porque aun puedes mejorar un modelo... en unos anos eso se saturara y el computo de RL simplemente se extendera mas.) La discusion revela una perspectiva matizada: las mejoras en pre-entrenamiento no se han estancado, pero el aprendizaje por refuerzo es donde vendran las proximas ganancias de capacidad. Esperan que lleguen suscripciones de $2,000 en 2026 a medida que los modelos ofrezcan capacidades mas avanzadas.
Sobre como los investigadores de IA realmente usan la IA: La conversacion se vuelve refrescantemente honesta sobre el uso personal de la IA. Sebastian usa el modo rapido de ChatGPT para consultas rapidas y el modo Pro para revisiones exhaustivas de documentos. Nathan usa exclusivamente modelos de razonamiento, ejecutando cinco consultas Pro simultaneamente para buscar papers. Para programar, ambos usan Claude — Sebastian a traves del plugin Codex en VS Code, Lex a traves de Claude Code para "programar con ingles". Nathan usa Gemini para explicaciones rapidas y Grok para encontrar publicaciones de IA en Twitter. Todos usan multiples modelos.
Sobre los agentes y el problema de la interfaz: "The problem is for arbitrary tasks, you still have to specify what you want your LLM to do. What is the environment? How do you specify? You can say what the end goal is, but even getting it to that point — how do you as a user guide the model?" (El problema es que para tareas arbitrarias, todavia tienes que especificar lo que quieres que haga tu LLM. Cual es el entorno? Como lo especificas? Puedes decir cual es el objetivo final, pero incluso llegar a ese punto — como guias al modelo como usuario?) Sebastian plantea el desafio fundamental para los agentes autonomos: la especificacion es dificil. El paradigma actual de agentes funciona para el codigo porque el entorno esta bien definido, pero los agentes de proposito general enfrentan un problema de interfaz que puede tardar anos en resolverse.
Sobre los modelos abiertos y las politicas publicas: Nathan describe como lidera el esfuerzo de post-entrenamiento TULU en AI2, uno de los pocos pipelines de entrenamiento completamente abiertos en EE.UU. Senala una brecha critica: mientras los laboratorios chinos inundan el mercado con modelos abiertos, los esfuerzos de modelos abiertos en EE.UU. enfrentan consolidacion. La adopcion del codigo abierto en el Plan de Accion de IA de la Casa Blanca de 2025 es alentadora, pero traducir las politicas en financiamiento sostenido sigue siendo el desafio.
7 conclusiones clave sobre el estado de la IA en 2026
- No hay un escenario donde un solo actor gane todo — Las ideas fluyen libremente entre los laboratorios; el factor diferenciador es el presupuesto de computo y el hardware, no las tecnicas propietarias
- La estrategia de modelos abiertos de China esta funcionando — DeepSeek inicio un movimiento, pero Zhipu AI, MiniMax y Kimi Moonshot ahora lanzan modelos igualmente competitivos como una estrategia deliberada de influencia global
- El pre-entrenamiento no esta muerto — La mayor parte del computo aun se destina al pre-entrenamiento, pero el post-entrenamiento con aprendizaje por refuerzo es donde vendran los proximos grandes saltos de capacidad
- El uso de multiples modelos es la norma — Incluso los investigadores mas destacados usan 3-4 modelos diferentes para distintas tareas, lo que sugiere que ningun modelo domina todos los casos de uso
- El codigo es la aplicacion estrella para los agentes — La apuesta de Anthropic por Claude Code esta dando frutos porque la programacion proporciona un entorno bien definido; los agentes de proposito general aun enfrentan desafios fundamentales de especificacion
- Las suscripciones de IA de $2,000 estan por llegar — El salto de los planes de $200 a los de $2,000 ocurrira en 2026, impulsado por modelos que ofrecen capacidades mediblemente superiores para uso profesional
- La IA de codigo abierto necesita financiamiento sostenible — EE.UU. tiene un fuerte apoyo politico para la IA abierta, pero carece de las estructuras de incentivos respaldadas por el gobierno que hacen posibles los lanzamientos de modelos abiertos chinos
Lo que esto significa para las organizaciones que construyen con IA
El panorama que emerge de esta conversacion es el de una rapida comoditizacion en la capa de modelos. Si ninguna empresa puede mantener una ventaja tecnologica, el valor se desplaza hacia como se usa la IA — las aplicaciones, los flujos de trabajo y las integraciones. Las organizaciones no deberian apostar por un unico proveedor de modelos. Los investigadores que construyen estos sistemas usan multiples modelos a diario, cambiando segun la tarea y la calidad. Ese futuro multi-modelo no es una fase temporal; es la nueva normalidad. La verdadera ventaja competitiva reside en construir flujos de trabajo impulsados por agentes que aprovechen el mejor modelo para cada tarea especifica.


