Sam Altman: Intelligence Will Be a Utility Like Water

DRM News
enterprisefuture-of-workinterviewagentsbusiness

Por qué la estrategia “inundar el mundo” de Sam Altman lo cambia todo

Sam Altman se reunió con Larry Fink (CEO de BlackRock y miembro de la junta de OpenAI) en el AI Infrastructure Forum en una conversación que fue mucho más allá del ciclo habitual de hype sobre IA. Dos afirmaciones destacaron: una reducción de costos de 1000x en razonamiento de IA en aproximadamente 16 meses, y una predicción de que más de la capacidad cognitiva del mundo estará dentro de los centros de datos que fuera de ellos para finales de 2028.

Sobre cruzar el umbral hacia la utilidad económica: “At some point in the last few months, we really have crossed a threshold into major economic utility of these models. My job shifted from doing direct technical work to managing a team of agents doing this work.” (En algún momento de los últimos meses, realmente hemos cruzado un umbral hacia una utilidad económica importante de estos modelos. Mi trabajo pasó de hacer trabajo técnico directo a gestionar un equipo de agentes que hace ese trabajo.) Altman describe la trayectoria actual de capacidades: la IA ya puede manejar tareas de varias horas. Pronto serán varios días, luego varias semanas. Después de eso, los sistemas de IA estarán “conectados a tu vida, a tu empresa, pensando y trabajando de forma proactiva todo el tiempo” — como confiar en un empleado senior.

Sobre las startups que ya no quieren empleados: El cambio mental es concreto. Las startups ya no hablan de cuántos empleados necesitan — preguntan cuánta capacidad de cómputo pueden reservar. “¿Puedo hacer un acuerdo en la nube? ¿Puedo obtener esta cantidad de tokens?” Las empresas más grandes están siguiendo el mismo camino: los equipos de ingeniería están duplicando o triplicando lo que planean lanzar este año. Eso nunca había ocurrido antes.

Sobre la AGI que pierde su significado: Altman dice que la palabra “ha dejado de tener mucho significado.” En su lugar, ofrece dos umbrales más útiles: (1) cuando exista más capacidad cognitiva dentro de los centros de datos que fuera de ellos — “quizás a finales de 2028” — y (2) cuando los CEOs, presidentes y premios Nobel no puedan hacer su trabajo sin un uso intensivo de IA. El primero es un cambio de realidad física. El segundo es un cambio de realidad en los flujos de trabajo.

Sobre la reducción de costos de 1000x: “From our first reasoning model O1 to GPT-5.4, to get the same answer to a hard problem has been a reduction in cost of about 1000x.” (Desde nuestro primer modelo de razonamiento O1 hasta GPT-5.4, obtener la misma respuesta a un problema difícil ha supuesto una reducción de costos de aproximadamente 1000x.) En aproximadamente 16 meses. Esto no es solo una mejora de modelos — ingenieros de kernel, ingenieros de energía y diseñadores de centros de datos contribuyeron simultáneamente a ganancias de eficiencia.

Sobre la inteligencia como utilidad: El principio rector más importante de OpenAI es inundar el mundo de inteligencia — “demasiado barata para medirla”, tomando prestada la frase de la promesa incumplida de la energía nuclear. “We see a future where intelligence is a utility like electricity or water and people buy it from us on a meter and use it for whatever they want.” (Vemos un futuro en el que la inteligencia es una utilidad como la electricidad o el agua, y la gente nos la compra por contador y la usa para lo que quiera.) La alternativa — restricciones de capacidad que generan precios altos — significa que la IA “va a manos de los ricos” o los gobiernos toman decisiones de planificación centralizada que “casi siempre salen mal.”

Sobre la ronda de $110B y los chips personalizados: La ronda de financiación es 4 veces mayor que la IPO récord de Aramco. OpenAI está desarrollando un chip especializado solo para inferencia — no el más rápido, sino el más barato por vatio. La apuesta: en un mundo con restricciones energéticas y una demanda masiva de agentes, la eficiencia por vatio importa más que la velocidad bruta.

Sobre las startups de cero personas en India: El uso de Codex en India se multiplicó por 10 en meses. Los fundadores indios le dijeron a Altman que están construyendo “startups de cero personas” — un prompt que escribe software, gestiona el soporte al cliente y hace trabajo legal mientras el fundador se va de vacaciones. Las empresas indias bloquearon agresivamente capacidad de cómputo, y se negaron a dejar salir a Altman de la sala sin firmar acuerdos.

Sobre gestionar la abundancia frente a la escasez: “For centuries, maybe millennia, we have learned a lot about how to structure society to manage scarcity. Almost none of that helps us as we have to quickly learn towards managing abundance.” (Durante siglos, quizás milenios, hemos aprendido mucho sobre cómo estructurar la sociedad para gestionar la escasez. Casi nada de eso nos ayuda cuando debemos aprender rápidamente a gestionar la abundancia.) Altman reconoce una posible paradoja: la calidad de vida sube mientras el PIB baja en un mundo deflacionario donde la capacidad cognitiva vive en los centros de datos.

6 conclusiones clave de Altman en el AI1F

  • Reducción de costos de 1000x de O1 a GPT-5.4 en ~16 meses — y aún en una etapa temprana de la curva de eficiencia
  • Más capacidad cognitiva en centros de datos que fuera de ellos para finales de 2028 — la predicción más concreta de Altman relacionada con la AGI
  • Las startups quieren cómputo, no empleados — el cambio mental ya está completo en las nuevas empresas; las grandes las siguen
  • Inteligencia como utilidad — el principio rector de OpenAI es hacer la inteligencia tan barata que no valga la pena medirla, como la electricidad o el agua
  • Chip de inferencia personalizado para finales de 2026 — optimizado para el menor costo por vatio, no para la mayor velocidad, orientado a las cargas de trabajo de agentes
  • IA democrática — las decisiones tecnológicas de esta magnitud pertenecen a la sociedad a través de procesos democráticos, no a las empresas

Qué significa esto para las organizaciones que construyen con IA

La reducción de costos de 1000x en 16 meses es el dato que debería replantear cada conversación sobre presupuesto de IA. Si esa trayectoria continúa — y Altman dice que “todavía estamos muy al principio” — entonces la economía de desplegar agentes de IA a escala cambia de manera fundamental cada trimestre. Las organizaciones que esperan “el momento adecuado” para adoptar agentes de IA están optimizando contra un objetivo móvil que se aleja de ellas cada vez más rápido. La pregunta no es si la IA será lo suficientemente barata como para desplegarse en todas partes — sino si tu organización tendrá los flujos de trabajo, los datos y los procesos listos cuando lo sea.