Newsfeed / Marc Andreessen : L'IA est plus grande qu'Internet - Voici pourquoi l'economie fonctionnera
a]z·January 6, 2025

Marc Andreessen : L'IA est plus grande qu'Internet - Voici pourquoi l'economie fonctionnera

Le co-fondateur d'a16z explique pourquoi les revenus de l'IA croissent plus vite que toutes les vagues technologiques de l'histoire, pourquoi les tokens deviendront radicalement moins chers, et pourquoi les petits modeles rattrapant les grands modeles est l'avenir.

Marc Andreessen : L'IA est plus grande qu'Internet - Voici pourquoi l'economie fonctionnera

Perspective

Marc Andreessen accorde rarement des AMAs approfondis sur l'economie de l'IA. Cette session est essentielle pour quiconque construit ou investit dans des entreprises d'IA. Sa these centrale : nous sommes a trois ans d'une revolution de 80 ans qui a finalement tenu les promesses des reseaux de neurones, et l'economie sous-jacente - malgre les couts eleves actuels - est sur le point de s'ameliorer considerablement. La croissance des revenus qu'il observe est sans precedent, et la deflation des couts des tokens est plus rapide que la loi de Moore.

Sur l'ampleur du changement : "This is the biggest technological revolution of my life. The comps on this are things like the microprocessor and the steam engine and electricity... the wheel." (C'est la plus grande revolution technologique de ma vie. Les comparaisons incluent le microprocesseur, la machine a vapeur, l'electricite... la roue.) Andreessen soutient que ce n'est pas simplement une autre vague technologique - c'est un changement fondamental dans la facon dont l'intelligence est deployee dans l'economie.

Sur le succes du jour au lendemain apres 80 ans : "The first neural network paper was published in 1943. There's an interview with Makulla on YouTube from like 1946—him in his beach house, not wearing a shirt, talking about computers built on the model of a human brain. That was the path not taken." (Le premier article sur les reseaux de neurones a ete publie en 1943. Il y a une interview de Makulla sur YouTube vers 1946 - lui dans sa maison de plage, sans chemise, parlant d'ordinateurs construits sur le modele d'un cerveau humain. C'etait le chemin non emprunte.) Le moment ChatGPT n'etait pas une invention - c'etait la cristallisation de 80 ans de recherche dormante.

Sur les preferences revelees : "If you run a survey of what American voters think about AI, they're all in a total panic. 'Oh my god, it's going to kill all the jobs.' If you watch the revealed preferences, they're all using AI." (Si vous faites un sondage sur ce que les electeurs americains pensent de l'IA, ils sont tous en panique totale. 'Mon dieu, ca va tuer tous les emplois.' Si vous observez les preferences revelees, ils utilisent tous l'IA.) L'ecart entre ce que les gens disent et ce qu'ils font raconte la vraie histoire de l'adoption.

Sur la velocite des revenus : "This new wave of AI companies is growing revenue—actual customer revenue, actual demand translated through to dollars showing up in bank accounts—at an absolutely unprecedented takeoff rate." (Cette nouvelle vague d'entreprises d'IA fait croitre ses revenus - de vrais revenus clients, une vraie demande traduite en dollars apparaissant sur les comptes bancaires - a un rythme de decollage absolument sans precedent.) Et surtout, les entreprises facturent des abonnements de 200-300$/mois pour l'IA grand public - des prix plus eleves que le SaaS n'a jamais atteints.

Sur la deflation des couts : "The price of AI is falling much faster than Moore's law. All of the inputs into AI on a per-unit basis, the costs are collapsing." (Le prix de l'IA baisse beaucoup plus vite que la loi de Moore. Tous les intrants de l'IA par unite, les couts s'effondrent.) Cette hyperdeflation stimule une demande elastique - des tokens moins chers signifient exponentiellement plus d'utilisation.

Sur les petits modeles rattrapant les grands : "There's this Chinese company that produces Kimmy—a reasoning model that basically replicates GPT-5 capabilities. It either runs on one MacBook or two MacBooks. That's another Tuesday, another huge advance." (Il y a cette entreprise chinoise qui produit Kimmy - un modele de raisonnement qui replique essentiellement les capacites de GPT-5. Il fonctionne sur un ou deux MacBooks. C'est un autre mardi, une autre enorme avancee.) Le schema : les capacites de pointe se reduisent pour fonctionner localement en 6 a 12 mois.

Sur la surabondance de puces a venir : "If you look at the entire history of the chip industry, shortages become gluts. Nvidia fully deserves the profits they're generating, but they're now so valuable it's the bat signal of all time to the rest of the chip industry." (Si vous regardez toute l'histoire de l'industrie des puces, les penuries deviennent des surabondances. Nvidia merite pleinement les profits qu'ils generent, mais ils ont maintenant tellement de valeur que c'est le bat-signal ultime pour le reste de l'industrie des puces.) AMD, les puces personnalisees des hyperscalers, les puces chinoises - tout le monde arrive. Les puces IA seront bon marche et abondantes dans 5 ans.

Points cles

  • Plus grand qu'Internet - L'IA se deploie sur la vague porteuse d'Internet ; vous pouvez telecharger l'IA mais vous ne pouviez pas telecharger l'electricite ou la plomberie interieure
  • 3 ans dans une revolution de 80 ans - La theorie des reseaux de neurones existait depuis 1943 ; ChatGPT etait une cristallisation, pas une invention
  • Croissance des revenus sans precedent - Les entreprises d'IA croissent plus vite que toutes les vagues qu'Andreessen a vues ; les abonnements grand public a 200-300$/mois fonctionnent
  • Les tokens deviendront radicalement moins chers - Deflation des couts plus rapide que la loi de Moore ; la demande elastique signifie que moins cher entraine plus d'utilisation
  • Les petits modeles rattrapent les grands - Les capacites de pointe se reduisent a l'echelle d'un ordinateur portable en 6-12 mois (voir : Kimmy repliquant GPT-5)
  • Surabondance de puces a venir - AMD, les hyperscalers et la Chine construisent tous ; les profits de Nvidia sont le "bat-signal" pour concourir

Vue d'ensemble

Le cadre d'Andreessen est eclairant : la question n'est pas de savoir si l'economie de l'IA fonctionne - c'est de savoir si vous comprenez le calendrier. Les couts eleves d'aujourd'hui sont temporaires ; les prix des tokens sont en hyperdeflation. La vraie perspicacite est structurelle : l'IA refletera probablement l'industrie informatique avec un petit nombre de "modeles divins" dans les centres de donnees plus une cascade de modeles plus petits fonctionnant partout, y compris les systemes embarques. Pour les organisations adoptant l'IA, l'implication est claire : les capacites sont reelles, les revenus sont reels, et les couts sont sur le point de s'effondrer. Le debat sur la question de savoir s'il s'agit d'une bulle manque l'essentiel - la question est de se positionner pour un marche qui en est encore a sa premiere manche.

Related