
Sebastian Raschka
Staff Research Engineer
Über Sebastian Raschka
Sebastian Raschka ist Staff Research Engineer bei Lightning AI und einer der einflussreichsten Pädagogen in der Machine-Learning-Community. Er ist Autor mehrerer weit verbreiteter Lehrbücher, darunter Build a Large Language Model from Scratch und Build a Reasoning Model from Scratch — Bücher, die die Philosophie verkörpern, dass der beste Weg, KI zu verstehen, darin besteht, sie selbst zu implementieren.
Zuvor war er Assistant Professor für Statistik an der University of Wisconsin–Madison (2018–2023). Raschka verließ die Wissenschaft, um sich Vollzeit auf LLM-Forschung und -Entwicklung bei Lightning AI zu konzentrieren. Seine Arbeit überbrückt die Kluft zwischen Spitzenforschung und praktischer Umsetzung und macht komplexe Themen durch codegestützte Erklärungen zugänglich.
Sein Newsletter Ahead of AI und seine YouTube-Kurse haben ihn zu einer unverzichtbaren Ressource für Praktiker gemacht, die verstehen wollen, wie LLMs auf Implementierungsebene tatsächlich funktionieren.
Karriere-Highlights
- Staff Research Engineer bei Lightning AI (2022–heute)
- Ehemaliger Assistant Professor für Statistik, University of Wisconsin–Madison (2018–2023)
- Autor von Build a Large Language Model from Scratch (Bestseller)
- Autor von Build a Reasoning Model from Scratch
- Autor von Machine Learning with PyTorch and Scikit-Learn
- Gründer des Ahead of AI-Newsletters und Bildungskurse
- 10+ Jahre Erfahrung in KI-Forschung und Engineering
Bemerkenswerte Positionen
Zum KI-Wettbewerb 2026
Raschka argumentiert gegen die Winner-Takes-All-Erzählung in der KI und betont, dass Ideen nicht mehr proprietär sind, weil Forscher zwischen Unternehmen und Labs wechseln. Der wahre Wettbewerbsvorteil ist Rechenbudget und Hardware-Zugang, nicht geheime Techniken.
Zur Interface-Herausforderung bei Agents
Benennt das grundlegende Spezifikationsproblem für autonome Agents: Selbst wenn ein LLM Aufgaben ausführen kann — wie kommunizieren Nutzer komplexe Ziele in unstrukturierten Umgebungen? Coding funktioniert, weil die Umgebung klar definiert ist, aber allgemeine Agents stehen vor einem viel schwierigeren Interface-Design-Problem.
Zur KI-Tool-Nutzung
Beschreibt einen pragmatischen Multi-Modell-Ansatz: ChatGPTs schnellen Modus für schnelle Anfragen, Pro-Modus für gründliche Dokumentenprüfung und Gemini für Long-Context-Aufgaben wie das Finden von Nadeln in großen Dokumenten. Nutzt das Codex VS Code-Plugin für Coding-Unterstützung und behält dabei die Kontrolle über den Prozess.
Wichtige Zitate
- "I don't think nowadays in 2026 that there will be any company who has access to a technology that no other company has access to. Researchers are frequently changing jobs, changing labs, they rotate." (Ich glaube nicht, dass es 2026 noch ein Unternehmen geben wird, das Zugang zu einer Technologie hat, die kein anderes Unternehmen auch hat. Forscher wechseln ständig Jobs, wechseln Labs, sie rotieren.) — über KI-Wettbewerb
- "The problem is for arbitrary tasks, you still have to specify what you want your LLM to do. What is the environment? How do you specify?" (Das Problem ist: Bei beliebigen Aufgaben muss man immer noch spezifizieren, was das LLM tun soll. Was ist die Umgebung? Wie spezifiziert man?) — über Agents
- "I use it until it breaks and then I explore other options." (Ich nutze es, bis es nicht mehr funktioniert, und erkunde dann andere Optionen.) — über Modellwechsel
Weiterführende Lektüre
- Scaling Laws - Zentrales Thema in seiner Analyse des KI-Fortschritts
- AI Agents - Diskutiert die Spezifikations-Herausforderung
- Pre-training - Erklärt die anhaltende Bedeutung von Pre-Training-Rechenleistung
