Newsfeed / Etat de l'IA en 2026 : aucun acteur ne raflera tout
Lex Fridman Podcast·January 31, 2026

Etat de l'IA en 2026 : aucun acteur ne raflera tout

Sebastian Raschka et Nathan Lambert rejoignent Lex Fridman pour dissequer le paysage de l'IA -- des lois de mise a l'echelle aux modeles chinois open-weight, en passant par les agents de code et la route vers l'AGI.

Etat de l'IA en 2026 : aucun acteur ne raflera tout

Pourquoi aucune entreprise ne dominera l'IA en 2026

Le 490e episode de Lex Fridman reunit deux des voix les plus respectees de la communaute ML : Sebastian Raschka, auteur de Build a Large Language Model from Scratch et Build a Reasoning Model from Scratch, et Nathan Lambert, responsable du post-training a l'Allen Institute for AI (AI2) et auteur du livre de reference sur le RLHF. Enregistre en janvier 2026, c'est une exploration technique de trois heures sur l'etat reel de l'IA -- au-dela des cycles de hype.

Sur la course a l'IA entre les Etats-Unis et la Chine : "I don't think nowadays in 2026 that there will be any company who has access to a technology that no other company has access to. Researchers are frequently changing jobs, changing labs, they rotate." (Je ne pense pas qu'en 2026, une entreprise puisse avoir acces a une technologie inaccessible aux autres. Les chercheurs changent frequemment d'emploi, de labo, ils tournent.) Sebastian Raschka soutient que le vrai facteur de differenciation n'est pas les idees -- c'est le budget et le materiel. Nathan Lambert ajoute que des entreprises chinoises comme Zhipu AI, MiniMax et Kimi Moonshot ont depasse DeepSeek dans certains domaines, en utilisant les techniques publiees par DeepSeek lui-meme. Le mouvement open-weight chinois est un jeu strategique pour l'influence mondiale, pas de la charite.

Sur le moment Opus 4.5 : "The hype over Anthropic's Claude Opus 4.5 model has been absolutely insane... culturally Anthropic is known for betting very hard on code, which is the Claude Code thing that's working out for them right now." (L'engouement autour du modele Claude Opus 4.5 d'Anthropic a ete absolument dement... culturellement, Anthropic est connu pour miser tres fort sur le code, ce qui fonctionne avec Claude Code en ce moment.) Nathan voit dans la focalisation d'Anthropic sur le code un avantage culturel, notant que l'entreprise se presente comme "la moins chaotique" des grands laboratoires. Pendant ce temps, Gemini 3 de Google etait techniquement impressionnant mais a perdu la bataille du narratif -- un schema recurrent ou l'enthousiasme organique de la communaute compte plus que le marketing.

Sur les lois de mise a l'echelle et le pre-entrainement : Nathan remet en question le discours selon lequel "le pre-entrainement est mort". "I still think most of the compute is going in at pre-training because you can still make a model better... in a few years that'll saturate and the RL compute will just go longer." (Je pense encore que la majeure partie du calcul va dans le pre-entrainement parce qu'on peut encore ameliorer un modele... dans quelques annees, cela saturera et le calcul RL durera simplement plus longtemps.) La discussion revele une vision nuancee : les ameliorations du pre-entrainement n'ont pas atteint un plateau, mais l'apprentissage par renforcement est la source de la prochaine vague de gains de capacite. Ils prevoient l'arrivee d'abonnements a 2 000 $ en 2026, a mesure que les modeles offrent des capacites plus pointues.

Sur la facon dont les chercheurs en IA utilisent reellement l'IA : La conversation devient rafraichissante d'honnetete sur l'usage personnel de l'IA. Sebastian utilise le mode rapide de ChatGPT pour les recherches rapides et le mode Pro pour des revues approfondies de documents. Nathan utilise exclusivement les modeles de raisonnement, lancant cinq requetes Pro simultanement pour la recherche d'articles. Pour le code, les deux utilisent Claude -- Sebastian via le plugin Codex dans VS Code, Lex via Claude Code pour "programmer en anglais". Nathan utilise Gemini pour les explications rapides et Grok pour trouver des posts AI sur Twitter. Tout le monde utilise plusieurs modeles.

Sur les agents et le probleme de l'interface : "The problem is for arbitrary tasks, you still have to specify what you want your LLM to do. What is the environment? How do you specify? You can say what the end goal is, but even getting it to that point — how do you as a user guide the model?" (Le probleme, c'est que pour des taches arbitraires, il faut encore specifier ce que vous voulez que votre LLM fasse. Quel est l'environnement ? Comment le specifier ? Vous pouvez dire quel est l'objectif final, mais meme pour y arriver -- comment, en tant qu'utilisateur, guidez-vous le modele ?) Sebastian souleve le defi fondamental des agents autonomes : la specification est difficile. Le paradigme actuel des agents fonctionne pour le code parce que l'environnement est bien defini, mais les agents generalistes font face a un probleme d'interface qui pourrait prendre des annees a resoudre.

Sur les modeles open-weight et les politiques publiques : Nathan decrit sa direction de l'effort de post-training TULU a AI2, l'un des rares pipelines d'entrainement entierement ouverts aux Etats-Unis. Il note un ecart critique : alors que les laboratoires chinois inondent le marche de modeles ouverts, les efforts open-weight americains font face a une consolidation. L'adoption du plan d'action IA 2025 de la Maison Blanche en faveur de l'open source est encourageante, mais traduire la politique en financement durable reste le defi.

7 points cles sur l'etat de l'IA en 2026

  • Pas de scenario ou le gagnant rafle tout -- Les idees circulent librement entre les laboratoires ; le facteur de differenciation est le budget de calcul et le materiel, pas les techniques proprietaires
  • La strategie open-weight de la Chine fonctionne -- DeepSeek a lance un mouvement, mais Zhipu AI, MiniMax et Kimi Moonshot publient desormais des modeles tout aussi competitifs, dans une strategie deliberee d'influence mondiale
  • Le pre-entrainement n'est pas mort -- La majeure partie du calcul va encore dans le pre-entrainement, mais le post-training par apprentissage par renforcement est la source des prochains grands sauts de capacite
  • L'usage multi-modeles est la norme -- Meme les meilleurs chercheurs utilisent 3 a 4 modeles differents pour differentes taches, ce qui suggere qu'aucun modele unique ne domine tous les cas d'usage
  • Le code est l'application phare des agents -- Le pari d'Anthropic sur Claude Code porte ses fruits parce que le codage fournit un environnement bien defini ; les agents generalistes font encore face a des defis fondamentaux de specification
  • Les abonnements IA a 2 000 $ arrivent -- Le passage des paliers a 200 $ a 2 000 $ se produira en 2026, porte par des modeles offrant des capacites mesurables superieures pour un usage professionnel
  • L'IA open source a besoin d'un financement durable -- Les Etats-Unis ont un fort soutien politique pour l'IA ouverte mais manquent des structures d'incitation soutenues par le gouvernement qui rendent possibles les publications open-weight chinoises

Ce que cela signifie pour les organisations qui construisent avec l'IA

Le tableau qui emerge de cette conversation est celui d'une commoditisation rapide au niveau de la couche modele. Si aucune entreprise ne peut maintenir un avantage technologique, la valeur se deplace vers la facon dont vous utilisez l'IA -- les applications, les workflows et les integrations. Les organisations ne devraient pas miser sur un seul fournisseur de modeles. Les chercheurs qui construisent ces systemes utilisent eux-memes plusieurs modeles quotidiennement, changeant selon la tache et la qualite. Cet avenir multi-modeles n'est pas une phase temporaire ; c'est la nouvelle norme. Le veritable avantage concurrentiel reside dans la construction de workflows propulses par des agents qui exploitent le meilleur modele pour chaque tache specifique.

Related