Newsfeed / freeCodeCamp : Créer des charges de travail IA agentiques - Le cours intensif complet de 2 heures
freeCodeCamp.org·January 6, 2026

freeCodeCamp : Créer des charges de travail IA agentiques - Le cours intensif complet de 2 heures

Un tutoriel complet pour créer des agents IA de zéro : appels LLM, mémoire, outils, patterns architecturaux, et pourquoi l'élément humain compte toujours dans un monde IA.

freeCodeCamp : Créer des charges de travail IA agentiques - Le cours intensif complet de 2 heures

Pourquoi les agents sont différents de tout ce qui a précédé en IA

Rola, architecte Machine Learning chez Tech42 (et ancienne doctorante en neurosciences), livre une masterclass sur l'IA agentique qui coupe court au battage médiatique. Ce n'est pas une vue d'ensemble conceptuelle - c'est un tutoriel pratique avec du code Python fonctionnel qui montre exactement en quoi les agents diffèrent des chatbots, des workflows et du ML traditionnel.

L'insight clé : "An agent has dynamic control flow devised by the LLM at runtime, whereas a workflow is predefined coded graphs." (Un agent a un flux de contrôle dynamique conçu par le LLM au moment de l'exécution, alors qu'un workflow est un graphe codé prédéfini.) Cette seule distinction explique tout sur quand utiliser des agents (et quand ne pas le faire).

Sur l'unicité du boom de l'IA générative : Contrairement aux vagues ML précédentes qui nécessitaient des compétences techniques, "even my mother who has never touched a computer knows what ChatGPT is and uses it on her phone." (même ma mère qui n'a jamais touché un ordinateur sait ce qu'est ChatGPT et l'utilise sur son téléphone.) La démocratisation s'est produite parce que ces modèles utilisent le langage humain comme interface.

Sur ce qui a changé pour rendre cela possible : Trois piliers ont dû progresser simultanément - les données (mégaoctets → pétaoctets), la taille des modèles (millions → trillions de paramètres), et la puissance de calcul (entraînement séquentiel → parallèle via les transformers). Les 1,8 trillion de paramètres de GPT-4 ont été entraînés pendant 3 mois. Sans la parallélisation du paper sur les transformers, nous attendrions encore.

Sur la boucle agent : Le cœur est simple - planifier, agir, observer, répéter. "You give it a task, it uses the LLM to plan and decompose that task, it acts with tools, observes the output, and loops until the solution is achieved." (Vous lui donnez une tâche, il utilise le LLM pour planifier et décomposer cette tâche, il agit avec des outils, observe le résultat, et boucle jusqu'à ce que la solution soit atteinte.)

Les quatre composants dont chaque agent a besoin

Le tutoriel identifie ce qui apparaît systématiquement dans toutes les implémentations d'agents :

  1. Objectif/But - La tâche qu'il résout (system prompt)
  2. Raisonnement/Planification - Le LLM comme "cerveau"
  3. Mémoire - Court terme (fenêtre de contexte) et long terme (stockage externe)
  4. Outils/Actions - Fonctions, API, récupération de données qui étendent les capacités du LLM

Sur la nature sans état des LLM : La démo en direct le prouve - demandez à un LLM votre nom, puis redemandez plus tard dans la conversation. Sans gestion de la mémoire, il oublie. C'est pourquoi le code ajoute chaque tour de conversation à la fenêtre de contexte.

Sur les outils qui étendent les capacités : Les LLM ont une date limite d'entraînement. Ils ne peuvent pas vous dire la météo, la date actuelle ou l'heure. Les outils résolvent cela en donnant à l'agent accès à des API externes. La démo montre cela en fonctionnement : "Quelle heure est-il ?" → appel d'outil → "13h43."

Quand les agents fonctionnent (et quand ils ne fonctionnent pas)

C'est la section la plus pratique - un cadre de décision pour savoir quand utiliser des agents vs des workflows :

Utilisez des workflows quand :

  • Applications critiques ou sensibles aux erreurs
  • Industries réglementées nécessitant des résultats déterministes
  • Systèmes sensibles à la latence
  • Projets sensibles aux coûts (plus faciles à estimer)
  • Vous savez exactement comment résoudre le problème

Utilisez des agents quand :

  • L'erreur est tolérable
  • Le chemin d'exécution est difficile à coder
  • Vous avez besoin de meilleures performances (la boucle des agents = meilleurs résultats moyens)
  • Le coût n'est pas la contrainte principale
  • La prise de décision pilotée par le modèle est acceptable

Les questions clés à se poser :

  • Le chemin de la tâche est-il prévisible ?
  • La valeur vaut-elle le coût ?
  • La latence est-elle critique ?
  • La tolérance aux erreurs est-elle acceptable ?

Architectures multi-agents : Supervisor vs. Swarm

Le tutoriel inclut une comparaison de coûts en direct entre deux patterns architecturaux :

Architecture supervisor : Un agent superviseur délègue à des agents spécialisés (addition, multiplication, division). Les agents ne peuvent pas communiquer entre eux - tout passe par le superviseur. Résultat : 16 sauts, 10 actions d'agents, 6 transferts, ~8 000 tokens en entrée.

Architecture swarm : Tous les agents peuvent communiquer directement entre eux. Résultat : 8 interactions, 2 transferts, ~5 000 tokens en entrée.

La recommandation : Swarm est moins cher pour les tâches simples. Mais à mesure que la complexité augmente, les architectures supervisor deviennent plus faciles à déboguer car l'espace des solutions est plus contraint. "If you can get away with a single agent, you should try to get away with a single agent just because of the overhead." (Si vous pouvez vous en sortir avec un seul agent, vous devriez essayer de vous en sortir avec un seul agent juste à cause de l'overhead.)

La poussée vers la standardisation : MCP, A2A, AGUI

Les interfaces d'agents sont en cours de standardisation :

  • MCP (Model Context Protocol) - Le protocole d'Anthropic pour les outils et les données, maintenant donné à la Linux Foundation avec OpenAI
  • A2A (Agent2Agent) - Le protocole de communication agent-à-agent de Google
  • AGUI - Le standard d'interaction humain-agent de Copilot, Crew AI et LangChain

"Think of it as a USB or HDMI portal. If interfaces are the same, we can plug and play different systems." (Pensez-y comme un port USB ou HDMI. Si les interfaces sont identiques, nous pouvons brancher et utiliser différents systèmes.) Cela permet des hubs MCP où les outils peuvent être partagés à travers l'écosystème.

Les défis dont personne ne veut parler

Le tutoriel n'évite pas les vrais problèmes :

Incidents de 2025 :

  • L'agent Replit a supprimé la production après un gel de code (réponse : "I'm sorry, I panicked")
  • Air Canada tenu responsable des mauvais conseils de son chatbot
  • 40 milliards de dollars de produits GenAI qui ne livreraient pas de valeur business

Sur la complexité de l'évaluation : Il y a trois couches à évaluer - le LLM lui-même (hallucinations, précision), le système d'agents (sélection d'outils, complétion de tâches), et l'application (latence, coût, UX). Chacune nécessite des approches d'évaluation différentes.

Sur les erreurs qui se composent : Si un agent prend un mauvais virage sur une tâche complexe, les erreurs se composent. Contrairement aux workflows avec des chemins prévisibles, le débogage d'agents peut être alambiqué.

Les agents vont-ils prendre votre emploi ? Le paradoxe de Moravec

L'étude de Microsoft Research de juillet 2025 a classé les emplois par applicabilité de l'IA :

Haute applicabilité : Correcteurs, éditeurs, mathématiciens, data scientists, développeurs web Basse applicabilité : Aides-soignants, plongeurs, couvreurs, parqueteurs

Cela s'aligne avec le paradoxe de Moravec : ce qui est difficile pour les humains est facile pour l'IA, et vice versa. Les humains rampent à 6 mois, marchent à 1 an. Ce sont de vieilles compétences évolutives. Les échecs et la philosophie sont nouveaux et sélectifs. L'IA inverse cela - elle a battu les champions d'échecs en 1997 mais peine encore à faire marcher des robots de manière fiable.

Conseils de carrière pour un monde IA

Les points pratiques à retenir :

  1. Apprenez l'IA, ne la craignez pas - C'est un outil ; la façon dont nous l'utilisons écrit l'avenir
  2. Les fondamentaux ne s'effacent pas - La physique, les mathématiques, l'architecture, le réseau restent essentiels
  3. Montez dans l'échelle d'abstraction - Définissez les problèmes, concevez les solutions, assumez les résultats
  4. Pensez en systèmes - Les fenêtres de contexte ne sont pas assez grandes pour des bases de code entières
  5. Soyez un polymathe - Élargissez votre base de connaissances
  6. Trouvez des niches - L'IA ne gère pas bien les idées de pointe ou nouvelles
  7. Concentrez-vous sur l'élément humain - Construisez la confiance, les connexions, les réseaux

"AI is a junior assistant that's good with syntax but still needs a lot of guidance." (L'IA est un assistant junior qui est bon en syntaxe mais qui a encore besoin de beaucoup de guidance.) Traitez-la comme tel.

8 points clés de ce cours intensif sur l'IA agentique

  • Flux de contrôle dynamique - La caractéristique définissante qui sépare les agents des workflows
  • Quatre composants - Objectif, raisonnement (LLM), mémoire et outils
  • Utilisez des workflows quand - Mission critique, déterministe, sensible aux coûts
  • Utilisez des agents quand - La performance compte, le chemin est complexe, l'erreur est tolérable
  • Un seul agent d'abord - L'overhead multi-agents est réel ; évitez si possible
  • Swarm vs supervisor - Swarm est moins cher ; supervisor est plus facile à déboguer à grande échelle
  • Standardisation en cours - MCP, A2A, AGUI créent l'interopérabilité de l'écosystème
  • Élément humain - Les réseaux, la confiance et les connexions sont à l'épreuve de l'IA

Le bilan pour les organisations déployant des agents IA

C'est la ressource gratuite la plus complète pour créer des agents de zéro. L'approche de Rola - montrer le Python brut avant les frameworks - révèle ce que LangChain et d'autres outils abstraient. Les comparaisons de coûts entre architectures fournissent des données réelles pour les décisions d'architecture.

Le domaine a 2-3 ans. Les frameworks changent, les modèles sont dépréciés, les meilleures pratiques évoluent. Mais les fondamentaux - les boucles planifier/agir/observer, la gestion de la mémoire, l'intégration d'outils, le flux de contrôle dynamique - ce sont des patterns stables qui valent la peine d'être compris en profondeur.

Related