Sam Altman: Intelligence Will Be a Utility Like Water

DRM News
enterprisefuture-of-workinterviewagentsbusiness

Pourquoi la stratégie “inonder le monde” de Sam Altman change tout

Sam Altman s’est entretenu avec Larry Fink (PDG de BlackRock et membre du conseil d’OpenAI) lors de l’AI Infrastructure Forum, dans une conversation qui est allée bien au-delà du cycle habituel de battage médiatique autour de l’IA. Deux affirmations ont retenu l’attention : une réduction des coûts de 1000x pour le raisonnement IA en environ 16 mois, et une prédiction selon laquelle la majorité de la capacité cognitive mondiale sera hébergée dans des datacenters plutôt qu’à l’extérieur d’ici fin 2028.

Sur le franchissement du seuil de l’utilité économique : “At some point in the last few months, we really have crossed a threshold into major economic utility of these models. My job shifted from doing direct technical work to managing a team of agents doing this work.” (Au cours des derniers mois, nous avons vraiment franchi un seuil vers une utilité économique majeure de ces modèles. Mon rôle a évolué du travail technique direct vers la gestion d’une équipe d’agents qui effectuent ce travail.) Altman décrit la trajectoire actuelle des capacités : l’IA peut désormais gérer des tâches de plusieurs heures. Bientôt, ce sera plusieurs jours, puis plusieurs semaines. Ensuite, les systèmes d’IA seront “connectés à votre vie, à votre entreprise, en train de réfléchir et de travailler de manière proactive en permanence” — comme faire confiance à un employé senior.

Sur les startups qui ne veulent plus d’employés : Le changement de mentalité est concret. Les startups ne parlent plus du nombre d’employés dont elles ont besoin — elles demandent combien de puissance de calcul elles peuvent réserver. “Puis-je conclure un accord cloud ? Puis-je obtenir autant de tokens ?” Les grandes entreprises suivent le mouvement : les organisations d’ingénierie doublent ou triplent ce qu’elles prévoient de livrer cette année. Cela ne s’était jamais produit auparavant.

Sur la perte de sens du terme AGI : Altman dit que le mot “a cessé d’avoir beaucoup de sens.” Il propose plutôt deux seuils plus utiles : (1) lorsque plus de capacité cognitive existera dans les datacenters qu’à l’extérieur — “peut-être fin 2028” — et (2) lorsque les PDG, les présidents et les lauréats du prix Nobel ne pourront plus exercer leurs fonctions sans une utilisation intensive de l’IA. Le premier est un changement de réalité physique. Le second est un changement de réalité dans les méthodes de travail.

Sur la réduction des coûts de 1000x : “From our first reasoning model O1 to GPT-5.4, to get the same answer to a hard problem has been a reduction in cost of about 1000x.” (De notre premier modèle de raisonnement O1 à GPT-5.4, obtenir la même réponse à un problème complexe représente une réduction de coût d’environ 1000x.) En environ 16 mois. Il ne s’agit pas seulement d’amélioration des modèles — les ingénieurs en optimisation de noyaux, en énergie et en conception de datacenters ont tous contribué simultanément à des gains d’efficacité.

Sur l’intelligence comme service public : Le principe directeur fondamental d’OpenAI est d’inonder le monde d’intelligence — “trop bon marché pour être mesuré”, empruntant l’expression à la promesse non tenue de l’énergie nucléaire. “We see a future where intelligence is a utility like electricity or water and people buy it from us on a meter and use it for whatever they want.” (Nous envisageons un avenir où l’intelligence est un service public comme l’électricité ou l’eau, que les gens nous achètent au compteur et utilisent comme bon leur semble.) L’alternative — des contraintes de capacité entraînant des prix élevés — signifie que l’IA “va aux personnes riches” ou que les gouvernements prennent des décisions de planification centrale qui “se passent presque toujours mal.”

Sur la levée de fonds de 110 milliards de dollars et les puces personnalisées : Ce tour de financement est 4 fois plus important que l’IPO record d’Aramco. OpenAI développe une puce spécialisée dédiée à l’inférence uniquement — pas la plus rapide, mais la moins chère par watt. Le pari : dans un monde contraint par l’énergie avec une demande massive en agents, l’efficacité par watt compte plus que la vitesse brute.

Sur les startups “zéro employé” en Inde : L’utilisation de Codex en Inde a été multipliée par 10 en quelques mois. Des fondateurs indiens ont confié à Altman qu’ils construisent des “startups zéro personne” — une invite qui écrit du logiciel, gère le support client et traite les questions juridiques pendant que le fondateur part en vacances. Les entreprises indiennes ont agressivement verrouillé leur capacité de calcul, refusant de laisser Altman quitter la salle sans signer des contrats.

Sur la gestion de l’abondance plutôt que de la rareté : “For centuries, maybe millennia, we have learned a lot about how to structure society to manage scarcity. Almost none of that helps us as we have to quickly learn towards managing abundance.” (Pendant des siècles, voire des millénaires, nous avons appris énormément sur la façon de structurer la société pour gérer la rareté. Presque rien de tout cela ne nous aide alors que nous devons rapidement apprendre à gérer l’abondance.) Altman reconnaît un paradoxe possible : la qualité de vie augmente tandis que le PIB baisse dans un monde déflationniste où la capacité cognitive réside dans les datacenters.

6 enseignements clés d’Altman à l’AI1F

  • Réduction des coûts de 1000x de O1 à GPT-5.4 en ~16 mois — et nous n’en sommes qu’au début de la courbe d’efficacité
  • Plus de capacité cognitive dans les datacenters qu’à l’extérieur d’ici fin 2028 — la prédiction la plus concrète d’Altman proche de l’AGI
  • Les startups veulent de la puissance de calcul, pas des employés — le changement de mentalité est déjà accompli pour les nouvelles entreprises, les grandes suivent
  • L’intelligence comme service public — le principe directeur d’OpenAI est de rendre l’intelligence trop bon marché pour être mesurée, comme l’électricité ou l’eau
  • Puce d’inférence personnalisée d’ici fin 2026 — optimisée pour le coût le plus bas par watt, pas la vitesse, ciblant les charges de travail des agents
  • IA démocratique — les décisions technologiques de cette ampleur appartiennent à la société via des processus démocratiques, pas aux entreprises

Ce que cela signifie pour les organisations qui construisent avec l’IA

La réduction des coûts de 1000x en 16 mois est le chiffre qui devrait transformer chaque discussion budgétaire autour de l’IA. Si cette trajectoire se poursuit — et Altman affirme qu’ils sont “encore si loin au début” — alors les économies du déploiement d’agents IA à grande échelle deviennent fondamentalement différentes chaque trimestre. Les organisations qui attendent “le bon moment” pour adopter les agents IA s’optimisent contre une cible mobile qui s’éloigne d’elles en accélérant. La question n’est pas de savoir si l’IA sera assez bon marché pour être déployée partout — c’est de savoir si votre organisation aura les flux de travail, les données et les processus prêts lorsque ce sera le cas.