Ilya Sutskever

Ilya Sutskever

Co-founder at Safe Superintelligence Inc.

Cofundador de Safe Superintelligence Inc. Ex Científico Jefe de OpenAI y co-inventor de AlexNet. Una de las figuras fundadoras del aprendizaje profundo.

researchopenaisafetydeep-learning

Acerca de Ilya Sutskever

Ilya Sutskever es cofundador de Safe Superintelligence Inc. (SSI), enfocado en construir IA superinteligente segura. Anteriormente fue cofundador y Científico Jefe en OpenAI, donde lideró investigación desde 2015-2024. Es uno de los co-inventores de AlexNet, el avance que lanzó la revolución del aprendizaje profundo.

Hitos de Carrera

  • Safe Superintelligence Inc. (2024-presente): Cofundador
  • OpenAI (2015-2024): Cofundador y Científico Jefe
  • Google Brain (2013-2015): Científico de Investigación
  • AlexNet (2012): Co-inventor con Geoffrey Hinton y Alex Krizhevsky
  • PhD bajo Geoffrey Hinton: University of Toronto

Posiciones Notables

Sobre el Fin de la Era de Escalamiento

Sutskever cree que el escalamiento puro ha llegado a su fin:

“Is the belief really that if you just 100x the scale everything would be transformed? I don’t think that’s true.”

“¿Es realmente la creencia de que si solo 100x la escala todo sería transformado? No creo que eso sea cierto.”

Sobre Rendimiento de Eval vs Realidad

“Models are much more like the first student - technically brilliant but lacking the ‘it factor’ that makes for actual capability.”

“Los modelos son mucho más como el primer estudiante - técnicamente brillante pero careciendo del ‘factor’ que hace la capacidad real.”

Sobre el Ciclo de Investigación

Enmarca la historia de IA como eras oscilantes:

“2012-2020 was research, 2020-2025 was scaling, and now we’re returning to research.”

“2012-2020 fue investigación, 2020-2025 fue escalamiento, y ahora estamos regresando a la investigación.”

Citas Clave

  • “El verdadero hackeo de recompensa son investigadores humanos demasiado enfocados en evals.”
  • “Los modelos generalizan dramáticamente peor que las personas - es súper obvio.”
  • “Las funciones de valor podrían cortocircuitar el problema de esperar-hasta-completar.”

Lectura Relacionada

Video Mentions

Video thumbnail

Brecha entre eval y capacidad real

Los modelos son como estudiantes de competencia hiperespecializados - 'practicaron 10,000 horas para programación competitiva pero carecen del factor que hace la capacidad real.'

Video thumbnail

Fin de la era de escalamiento

¿Es realmente la creencia de que si solo 100x la escala todo sería transformado? No creo que eso sea cierto. Estamos de vuelta en la era de la investigación.

Video thumbnail

Limitaciones de entrenamiento RL

El verdadero hackeo de recompensa son los investigadores humanos que están demasiado enfocados en evals.