freeCodeCamp: Agentic AI Workloads entwickeln - Der vollständige 2-Stunden-Crashkurs
Ein umfassendes Tutorial zum Aufbau von KI-Agenten von Grund auf: LLM-Aufrufe, Memory, Tools, Architekturmuster und warum der menschliche Faktor in einer KI-Welt weiterhin wichtig ist.
Warum Agenten sich von allem Bisherigen in der KI unterscheiden
Rola, Machine Learning Architect bei Tech42 (und ehemalige Neurowissenschafts-Doktorandin), liefert eine Meisterklasse über Agentic AI, die durch den Hype schneidet. Dies ist kein konzeptioneller Überblick - es ist ein praxisnahes Tutorial mit funktionierendem Python-Code, das genau zeigt, wie sich Agenten von Chatbots, Workflows und traditionellem ML unterscheiden.
Die zentrale Erkenntnis: "An agent has dynamic control flow devised by the LLM at runtime, whereas a workflow is predefined coded graphs." (Ein Agent hat einen dynamischen Kontrollfluss, der vom LLM zur Laufzeit erstellt wird, während ein Workflow aus vordefinierten, codierten Graphen besteht.) Diese einzelne Unterscheidung erklärt alles darüber, wann Agenten eingesetzt werden sollten (und wann nicht).
Über die Einzigartigkeit des Generative-AI-Booms: Im Gegensatz zu früheren ML-Wellen, die technische Fähigkeiten erforderten, "even my mother who has never touched a computer knows what ChatGPT is and uses it on her phone." (kennt sogar meine Mutter, die nie einen Computer angefasst hat, ChatGPT und nutzt es auf ihrem Handy.) Die Demokratisierung geschah, weil diese Modelle menschliche Sprache als Schnittstelle verwenden.
Über die Voraussetzungen für diese Entwicklung: Drei Säulen mussten gleichzeitig voranschreiten - Daten (Megabytes → Petabytes), Modellgröße (Millionen → Billionen von Parametern) und Rechenleistung (serielles → paralleles Training durch Transformer). GPT-4 mit seinen 1,8 Billionen Parametern wurde 3 Monate lang trainiert. Ohne die Parallelisierung aus dem Transformer-Paper würden wir immer noch warten.
Über die Agent-Schleife: Der Kern ist einfach - planen, handeln, beobachten, wiederholen. "You give it a task, it uses the LLM to plan and decompose that task, it acts with tools, observes the output, and loops until the solution is achieved." (Sie geben ihm eine Aufgabe, es nutzt das LLM zur Planung und Zerlegung der Aufgabe, handelt mit Tools, beobachtet die Ausgabe und wiederholt dies, bis die Lösung erreicht ist.)
Die vier Komponenten, die jeder Agent benötigt
Das Tutorial identifiziert, was durchgängig in allen Agent-Implementierungen erscheint:
- Zweck/Ziel - Die zu lösende Aufgabe (System Prompt)
- Reasoning/Planung - Das LLM als "Gehirn"
- Memory - Kurzzeit (Context Window) und Langzeit (externer Speicher)
- Tools/Aktionen - Funktionen, APIs, Datenabruf, die LLM-Fähigkeiten erweitern
Über die Zustandslosigkeit von LLMs: Die Live-Demo beweist es - fragen Sie ein LLM nach Ihrem Namen, dann fragen Sie später in der Konversation erneut. Ohne Memory-Management vergisst es. Deshalb fügt der Code jeden Gesprächswechsel dem Context Window hinzu.
Über Tools zur Erweiterung der Fähigkeiten: LLMs haben ein Training-Cutoff-Datum. Sie können Ihnen nicht das Wetter, das aktuelle Datum oder die Uhrzeit nennen. Tools lösen dies, indem sie dem Agenten Zugriff auf externe APIs geben. Die Demo zeigt dies in Aktion: "Wie spät ist es?" → Tool-Aufruf → "1:43."
Wann Agenten funktionieren (und wann nicht)
Dies ist der praktischste Abschnitt - ein Entscheidungsrahmen für die Wahl zwischen Agenten und Workflows:
Verwenden Sie Workflows wenn:
- Missionskritische oder fehleranfällige Anwendungen
- Regulierte Branchen, die deterministische Ergebnisse erfordern
- Latenzsensitive Systeme
- Kostensensitive Projekte (einfacher zu kalkulieren)
- Sie genau wissen, wie das Problem zu lösen ist
Verwenden Sie Agenten wenn:
- Fehler tolerierbar sind
- Der Ausführungspfad schwer zu codieren ist
- Sie bessere Leistung benötigen (Agent-Schleifen = bessere Durchschnittsergebnisse)
- Kosten nicht die primäre Einschränkung sind
- Modellgesteuerte Entscheidungsfindung akzeptabel ist
Die wichtigsten Fragen:
- Ist der Aufgabenpfad vorhersehbar?
- Ist der Wert die Kosten wert?
- Ist Latenz kritisch?
- Ist Fehlertoleranz akzeptabel?
Multi-Agent-Architekturen: Supervisor vs. Swarm
Das Tutorial enthält einen Live-Kostenvergleich zwischen zwei Architekturmustern:
Supervisor-Architektur: Ein Supervisor-Agent delegiert an spezialisierte Agenten (addieren, multiplizieren, dividieren). Agenten können nicht miteinander kommunizieren - alles läuft über den Supervisor. Ergebnis: 16 Hops, 10 Agent-Aktionen, 6 Transfers, ~8.000 Input-Tokens.
Swarm-Architektur: Alle Agenten können direkt miteinander kommunizieren. Ergebnis: 8 Interaktionen, 2 Transfers, ~5.000 Input-Tokens.
Die Empfehlung: Swarm ist günstiger für einfache Aufgaben. Aber mit zunehmender Komplexität werden Supervisor-Architekturen einfacher zu debuggen, weil der Lösungsraum stärker eingeschränkt ist. "If you can get away with a single agent, you should try to get away with a single agent just because of the overhead." (Wenn Sie mit einem einzelnen Agenten auskommen, sollten Sie es mit einem einzelnen Agenten versuchen, allein wegen des Overheads.)
Der Standardisierungsschub: MCP, A2A, AGUI
Agent-Schnittstellen werden standardisiert:
- MCP (Model Context Protocol) - Anthropics Protokoll für Tools und Daten, jetzt zusammen mit OpenAI an die Linux Foundation gespendet
- A2A (Agent2Agent) - Googles Agent-zu-Agent-Kommunikationsprotokoll
- AGUI - Standard für Mensch-Agent-Interaktion von Copilot, Crew AI und LangChain
"Think of it as a USB or HDMI portal. If interfaces are the same, we can plug and play different systems." (Stellen Sie es sich wie einen USB- oder HDMI-Anschluss vor. Wenn die Schnittstellen gleich sind, können wir verschiedene Systeme einfach verbinden.) Dies ermöglicht MCP-Hubs, über die Tools im gesamten Ökosystem geteilt werden können.
Die Herausforderungen, über die niemand reden will
Das Tutorial scheut nicht vor echten Problemen zurück:
Vorfälle aus 2025:
- Replit-Agent löschte Produktionssystem nach Code-Freeze (Antwort: "I'm sorry, I panicked")
- Air Canada wurde für schlechte Chatbot-Beratung haftbar gemacht
- 40 Milliarden Dollar an GenAI-Produkten liefern angeblich keinen Geschäftswert
Über die Komplexität der Evaluation: Es gibt drei Ebenen zu evaluieren - das LLM selbst (Halluzinationen, Genauigkeit), das Agent-System (Tool-Auswahl, Aufgabenerfüllung) und die Anwendung (Latenz, Kosten, UX). Jede erfordert unterschiedliche Evaluierungsansätze.
Über kumulierende Fehler: Wenn ein Agent bei einer komplexen Aufgabe einen falschen Weg einschlägt, summieren sich die Fehler. Im Gegensatz zu Workflows mit vorhersehbaren Pfaden kann das Debugging von Agenten verworren sein.
Werden Agenten Ihren Job übernehmen? Das Moravec-Paradox
Die Microsoft Research-Studie vom Juli 2025 bewertete Jobs nach KI-Anwendbarkeit:
Hohe Anwendbarkeit: Korrektoren, Lektoren, Mathematiker, Data Scientists, Web-Entwickler Niedrige Anwendbarkeit: Pflegeassistenten, Geschirrspüler, Dachdecker, Bodenschleifer
Dies entspricht dem Moravec-Paradox: Was für Menschen schwer ist, ist für KI einfach, und umgekehrt. Menschen krabbeln mit 6 Monaten, laufen mit 1 Jahr. Das sind alte evolutionäre Fähigkeiten. Schach und Philosophie sind neu und selektiv. KI kehrt dies um - sie besiegte Schachweltmeister 1997, hat aber immer noch Schwierigkeiten, Roboter zuverlässig zum Laufen zu bringen.
Karriereratschläge für eine KI-Welt
Die praktischen Erkenntnisse:
- Lernen Sie KI, fürchten Sie sie nicht - Es ist ein Werkzeug; wie wir es nutzen, bestimmt die Zukunft
- Grundlagen veralten nicht - Physik, Mathematik, Architektur, Netzwerke bleiben essentiell
- Steigen Sie die Abstraktionsleiter hinauf - Definieren Sie Probleme, entwerfen Sie Lösungen, übernehmen Sie Verantwortung für Ergebnisse
- Denken Sie in Systemen - Context Windows sind nicht groß genug für ganze Codebasen
- Seien Sie ein Polymath - Erweitern Sie Ihre Wissensbasis
- Finden Sie Nischen - KI kann Cutting-Edge oder neuartige Ideen nicht gut umsetzen
- Fokussieren Sie auf das Menschliche - Bauen Sie Vertrauen, Verbindungen, Netzwerke auf
"AI is a junior assistant that's good with syntax but still needs a lot of guidance." (KI ist ein Junior-Assistent, der gut mit Syntax umgehen kann, aber immer noch viel Anleitung braucht.) Behandeln Sie sie entsprechend.
8 Erkenntnisse aus diesem Crashkurs über Agentic AI
- Dynamischer Kontrollfluss - Das definierende Merkmal, das Agenten von Workflows unterscheidet
- Vier Komponenten - Zweck, Reasoning (LLM), Memory und Tools
- Workflows verwenden wenn - Missionskritisch, deterministisch, kostensensitiv
- Agenten verwenden wenn - Leistung wichtig ist, der Pfad komplex ist, Fehler tolerierbar sind
- Erst einzelner Agent - Multi-Agent-Overhead ist real; wenn möglich vermeiden
- Swarm vs. Supervisor - Swarm ist günstiger; Supervisor ist bei großem Maßstab einfacher zu debuggen
- Standardisierung kommt - MCP, A2A, AGUI schaffen Ökosystem-Interoperabilität
- Der menschliche Faktor - Netzwerke, Vertrauen und Verbindungen sind KI-sicher
Das Fazit für Organisationen, die KI-Agenten einsetzen
Dies ist die umfassendste kostenlose Ressource zum Aufbau von Agenten von Grund auf. Rolas Ansatz - das rohe Python vor den Frameworks zu zeigen - offenbart, was LangChain und andere Tools abstrahieren. Die Kostenvergleiche zwischen Architekturen liefern echte Daten für Architekturentscheidungen.
Das Feld ist 2-3 Jahre alt. Frameworks ändern sich, Modelle werden veraltet, Best Practices entwickeln sich weiter. Aber die Grundlagen - Plan/Act/Observe-Schleifen, Memory-Management, Tool-Integration, dynamischer Kontrollfluss - das sind stabile Muster, die es wert sind, tiefgehend verstanden zu werden.


