CNBC : Le troisième point d'inflexion de l'IA — Les agents accomplissent maintenant des travaux
Pourquoi CNBC appelle ceci le troisième point d’inflexion de l’IA
CNBC’s Jar Dosa ouvre avec une démonstration en direct : deux invites se transforment en un deck exécutif poli de 10 diapositives — l’IA prend le contrôle de l’ordinateur, effectue des recherches, rédige, conçoit les mises en page et livre le résultat. Aucune intervention humaine. Ce n’est pas une démo technologique d’un pitch de startup ; c’est les grands médias d’affaires déclarant une nouvelle ère.
Les trois inflexions : “The first one was two years ago with ChatGPT, then about a year ago when the reasoning AI agents came out, and now with these agentic systems — agents able to reason, take task, and actually do work.” Le passage de « l’IA qui répond » à « l’IA qui exécute » est maintenant suffisamment visible pour que CNBC construise un segment de 30 minutes autour de cela.
Le bain de sang du SaaS : L’ETF logiciel IGV a chuté de près de 30 % dans les deux premiers mois de 2026. “It hit gaming, legal, insurance, trucking, cyber security. The carnage was indiscriminate. The same technology that was supposed to save software companies is now what is threatening to kill them.” Quand les agents d’IA peuvent accomplir le travail que le logiciel automatise, le logiciel lui-même devient l’intermédiaire.
Les constructeurs sans code sont devenus réels : Les gens sans aucune compétence en codage construisent des logiciels, des sites web et des applications — accomplissant en une après-midi ce qui avait l’habitude de prendre des semaines à une équipe d’ingénieurs. Une personne a décrit la construction de 15 projets en trois mois sans écrire une seule ligne de code.
Le paradoxe de la sécurité : Anthropic a abandonné son engagement fondamental en matière de sécurité, le remplaçant par des « objectifs déclarés publiquement non contraignants ». Le Pentagone menace de les ajouter à une liste noire pour refus de supprimer les garde-fous pour les armes autonomes. Les chercheurs d’OpenAI démissionnent. Les entreprises qui ont promis de se gouverner elles-mêmes abandonnent ces promesses parce que leurs concurrents l’ont fait en premier.
Un législateur qui utilise Claude Code : L’assemblyman de New York, Alex Bores — auteur de la loi RAISE, la première loi majeure de sécurité de l’IA — est lui-même un utilisateur de Claude Code. Il a soumis une pull request pour améliorer leur connecteur iMessage. “I not only have used it, I’ve actually edited some of the code and submitted a potential change on GitHub.” Un régulateur qui construit réellement avec la technologie qu’il réglemente — rare et significatif.
5 signaux du rapport de disruption IA de CNBC
- Les agents sont la troisième vague — ChatGPT (2024) → modèles raisonnants (2025) → systèmes agentiques accomplissant des travaux réels (2026). Chaque vague a accéléré plus vite que la précédente.
- Le SaaS est la première victime — Chute de 30 % de l’ETF logiciel en deux mois. Les agents d’IA accomplissant le travail que le SaaS automatise signifie que la couche logicielle se comprime.
- Les engagements en matière de sécurité s’effondrent — Chaque grand laboratoire a pointé vers les concurrents comme raison de réduire les normes. Le modèle d’engagement volontaire a échoué.
- La réglementation est un combat de 125 millions de dollars — Un super PAC soutenu par Greg Brockman et Andreessen Horowitz dépense pour vaincre la première grande loi de sécurité de l’IA. L’enjeu : s’il existe des garde-fous.
- L’écart de capacité se ferme rapidement — Alex Bores avertit : « Anything that you say it’s only so-so at right now, in six months, it’s going to be amazing. » La fenêtre pour une gouvernance proactive se rétrécit.
Ce que cela signifie pour les organisations alimentées par l’IA
Le reportage de CNBC capture le moment exact où les agents IA ont franchi le cap de « démo impressionnante » à « menace commerciale ». Pour les organisations déployant des équipes d’IA, deux choses importent : la capacité est réelle et s’accélère (les agents accomplissant un travail de plusieurs heures de manière fiable), et le vide réglementaire signifie que vous êtes seuls pour les normes de sécurité. Les entreprises qui construisent des déploiements d’IA fiables auront un avantage quand la réglementation arrivera inévitablement — comme le dit Bores, « putting a seat belt on the Lamborghini doesn’t really slow down the Lamborghini, but it saves lots of lives. »