Yann LeCun

Yann LeCun

Chief AI Scientist at Meta

Ganador del Premio Turing. Científico Jefe de IA de Meta. Pionero de redes neuronales convolucionales. Ahora apostando por modelos del mundo sobre LLMs.

researchmetapioneerworld-models

Acerca de Yann LeCun

Yann LeCun es el Científico Jefe de IA en Meta y ganador del Premio Turing (2018, con Geoffrey Hinton y Yoshua Bengio). Fue pionero de las redes neuronales convolucionales en los años 1980-90 y ahora es uno de los escépticos más vocales de la IA sobre enfoques solo LLM hacia AGI.

Hitos de Carrera

  • Meta (2013-presente): Científico Jefe de IA, VP de Investigación de IA
  • AMI (2025): Cofundador de startup Advanced Machine Intelligence
  • Premio Turing (2018): Con Hinton y Bengio por aprendizaje profundo
  • NYU (2003-presente): Profesor Silver de Ciencias de la Computación
  • Bell Labs (1988-2002): Inventó redes neuronales convolucionales

Posiciones Notables

Sobre LLMs Siendo Insuficientes

La tesis contraria de LeCun:

“You cannot get to human-level AI through text alone. Training an LLM requires 30 trillion tokens - effectively all internet text. That same 10^14 bytes represents just 15,000 hours of video - 30 minutes of YouTube uploads.”

“No puedes llegar a IA de nivel humano solo a través de texto. Entrenar un LLM requiere 30 billones de tokens - efectivamente todo el texto de internet. Esos mismos 10^14 bytes representan solo 15,000 horas de video - 30 minutos de cargas de YouTube.”

Sobre Modelos del Mundo (JEPA)

Su enfoque alternativo:

“JEPA predicts in abstract representation space, not pixel space - eliminates unpredictable details while preserving structure for planning.”

“JEPA predice en espacio de representación abstracta, no espacio de píxeles - elimina detalles impredecibles mientras preserva estructura para planificación.”

Sobre Investigación Abierta

“You cannot call it research unless you publish - internal hype creates delusion. Scientists need external validation.”

“No puedes llamarlo investigación a menos que publiques - el hype interno crea delirio. Los científicos necesitan validación externa.”

Citas Clave

  • “Los LLMs no pueden llevarnos a IA de nivel humano.”
  • “Modelos del mundo entrenados en video, no texto.”
  • “No puedes llamarlo investigación a menos que publiques.”

Lectura Relacionada

  • World Models - El camino de LeCun hacia AGI
  • JEPA - Arquitectura Predictiva de Embedding Conjunto

Video Mentions

Video thumbnail

Eficiencia de datos de visión vs texto

No puedes llegar a IA de nivel humano solo a través de texto. Entrenar un LLM requiere 30 billones de tokens - todo el texto de internet. Esos mismos datos son solo 15,000 horas de video - 30 minutos de cargas de YouTube.

Video thumbnail

Filosofía de investigación abierta

AMI publicará abiertamente porque no puedes llamarlo investigación a menos que publiques - el hype interno crea delirio.

Video thumbnail

Arquitectura Predictiva de Embedding Conjunto

JEPA predice en espacio de representación abstracta, no espacio de píxeles - elimina detalles impredecibles mientras preserva estructura.