Newsfeed / Yoshua Bengio : Nous Avons 2 Ans Avant Que Tout Change
The Diary Of A CEO·December 18, 2025

Yoshua Bengio : Nous Avons 2 Ans Avant Que Tout Change

Le scientifique de l'IA le plus cité sur Google Scholar et lauréat du prix Turing met en garde contre les risques de l'IA agentique, pourquoi la réglementation est plus faible que la sécurité alimentaire, et ce qu'il dirait à Sam Altman.

Yoshua Bengio : Nous Avons 2 Ans Avant Que Tout Change

Perspective

Yoshua Bengio est l'un des trois "parrains de l'IA" originaux aux côtés de Geoffrey Hinton et Yann LeCun - le trio qui a remporté le prix Turing pour leur travail sur le deep learning. C'est le scientifique le plus cité sur Google Scholar. Quand il parle des risques de l'IA, ce n'est pas depuis les coulisses.

Le cadrage des "2 ans" reflète la vision de Bengio que la fenêtre pour établir une gouvernance significative se ferme rapidement. Cette longue interview sur Diary of a CEO couvre tout le spectre de ses préoccupations : l'IA agentique développant des objectifs que nous ne pouvons pas contrôler, les armes autonomes devenant inévitables, et les menaces de cybercriminalité et deepfake "déjà en cours."

L'écart réglementaire est frappant : "La réglementation de l'IA est actuellement plus faible que les lois sur la sécurité alimentaire." Bengio soutient que nous avons construit des systèmes pour nous assurer que la nourriture ne nous tue pas, mais n'avons rien de comparable pour les systèmes d'IA qui pourraient faire bien plus de dégâts. La comparaison est délibérément provocatrice - nous faisons confiance aux laboratoires d'IA pour s'autoréguler d'une manière que nous ne ferions jamais avec les fabricants de nourriture.

Sur l'IA agentique spécifiquement, Bengio voit le passage des chatbots aux agents comme un point d'inflexion critique. Les systèmes qui peuvent prendre des actions, poursuivre des objectifs, et opérer de manière autonome introduisent des risques que les modèles statiques ne posent pas. "Ces systèmes peuvent développer des objectifs désalignés avec les intentions humaines" - et plus ils deviennent capables, plus le désalignement est difficile à détecter et corriger.

Il ne fait pas que critiquer - il construit. Bengio a fondé LawZero, un organisme à but non lucratif axé sur des systèmes d'IA sûrs et alignés avec l'humain. L'interview touche à la psychologie des PDG d'IA - pourquoi ils construisent des systèmes qu'ils admettent en privé pourraient être dangereux - et ce qu'il dirait à Sam Altman directement.

Pour les organisations déployant l'IA, les segments de Bengio sur le déplacement d'emplois sont particulièrement pertinents : "Les emplois sont déjà remplacés à un rythme alarmant." Il discute de quelles compétences importeront dans un marché du travail transformé et pourquoi l'adaptation doit se produire à la fois au niveau individuel et politique.

Points Clés

  • La fenêtre de gouvernance se ferme - Nous avons environ 2 ans pour établir une réglementation significative de l'IA avant que les capacités ne dépassent la surveillance
  • L'écart réglementaire est sévère - La surveillance de l'IA est plus faible que les normes de sécurité alimentaire ; aucun test ou responsabilité comparable
  • L'IA agentique change le profil de risque - Les systèmes qui poursuivent des objectifs de manière autonome peuvent développer des objectifs désalignés
  • Le déplacement d'emplois s'accélère - Déjà en cours à grande échelle, nécessitant à la fois une intervention politique et une adaptation individuelle
  • Les chercheurs en sécurité construisent, pas seulement avertissent - LawZero et efforts similaires visent à créer des solutions techniques aux côtés de la gouvernance

Vue d'Ensemble

Le scientifique de l'IA le plus cité sonne l'alarme non pas en tant que luddite mais en tant que quelqu'un qui a aidé à créer la technologie. Son message : la fenêtre pour établir la gouvernance se mesure en années, pas en décennies. Le passage à l'IA agentique - des systèmes qui agissent plutôt que de simplement répondre - crée de nouveaux risques que les cadres réglementaires actuels ne sont pas conçus pour gérer.

Related