Newsfeed / State of AI 2026: Kein Winner-Takes-All
Lex Fridman Podcast·January 31, 2026

State of AI 2026: Kein Winner-Takes-All

Sebastian Raschka und Nathan Lambert sprechen mit Lex Fridman über die KI-Landschaft — von Scaling Laws und chinesischen Open-Weight-Modellen bis hin zu Coding Agents und dem Weg zur AGI.

State of AI 2026: Kein Winner-Takes-All

Warum kein einzelnes Unternehmen KI im Jahr 2026 dominieren wird

Lex Fridmans 490. Episode bringt zwei der angesehensten Stimmen der ML-Community zusammen: Sebastian Raschka, Autor von Build a Large Language Model from Scratch und Build a Reasoning Model from Scratch, und Nathan Lambert, Post-Training-Leiter am Allen Institute for AI (AI2) und Autor des maßgeblichen Buchs über RLHF. Aufgenommen im Januar 2026, ist es eine weitreichende dreistündige technische Tour durch den tatsächlichen Stand der KI — jenseits der Hype-Zyklen.

Zum KI-Wettlauf zwischen den USA und China: "I don't think nowadays in 2026 that there will be any company who has access to a technology that no other company has access to. Researchers are frequently changing jobs, changing labs, they rotate." (Ich glaube nicht, dass es 2026 noch ein Unternehmen geben wird, das Zugang zu einer Technologie hat, die kein anderes Unternehmen auch hat. Forscher wechseln ständig Jobs, wechseln Labs, sie rotieren.) Sebastian Raschka argumentiert, dass der wahre Differenzierungsfaktor nicht Ideen sind — sondern Budget und Hardware. Nathan Lambert ergänzt, dass chinesische Unternehmen wie Zhipu AI, MiniMax und Kimi Moonshot DeepSeek in einigen Bereichen überholt haben, indem sie DeepSeeks eigene veröffentlichte Techniken nutzen. Die Open-Weight-Bewegung aus China ist ein strategischer Zug für globalen Einfluss, keine Wohltätigkeit.

Zum Opus 4.5-Moment: "The hype over Anthropic's Claude Opus 4.5 model has been absolutely insane... culturally Anthropic is known for betting very hard on code, which is the Claude Code thing that's working out for them right now." (Der Hype um Anthropics Claude Opus 4.5-Modell war absolut wahnsinnig... kulturell ist Anthropic dafür bekannt, massiv auf Code zu setzen, was die Claude Code-Sache ist, die gerade für sie aufgeht.) Nathan sieht Anthropics Fokus auf Code als kulturellen Vorteil und merkt an, dass das Unternehmen sich als "das am wenigsten chaotische" der großen Labs präsentiert. Unterdessen war Googles Gemini 3 technisch beeindruckend, verlor aber die Narrative — ein wiederkehrendes Thema, bei dem organische Community-Begeisterung mehr zählt als Marketing.

Zu Scaling Laws und Pre-Training: Nathan widerspricht der Erzählung, dass "Pre-Training tot ist". "I still think most of the compute is going in at pre-training because you can still make a model better... in a few years that'll saturate and the RL compute will just go longer." (Ich denke immer noch, dass der Großteil der Rechenleistung ins Pre-Training fließt, weil man ein Modell immer noch besser machen kann... in ein paar Jahren wird das gesättigt sein und die RL-Rechenleistung wird einfach länger laufen.) Die Diskussion zeigt ein nuanciertes Bild: Verbesserungen im Pre-Training sind nicht an einem Plateau angekommen, aber Reinforcement Learning ist der Bereich, aus dem die nächste Welle an Leistungssprüngen kommen wird. Sie erwarten, dass 2026 Abonnements für 2.000 Dollar erscheinen werden, da Modelle mehr Spitzenleistung bieten.

Wie KI-Forscher tatsächlich KI nutzen: Das Gespräch wird erfrischend ehrlich über die persönliche KI-Nutzung. Sebastian nutzt ChatGPTs schnellen Modus für schnelle Anfragen und den Pro-Modus für gründliche Dokumentenprüfungen. Nathan nutzt ausschließlich Thinking-Modelle und führt fünf Pro-Anfragen gleichzeitig für Paper-Recherchen durch. Zum Programmieren nutzen beide Claude — Sebastian über das Codex-Plugin in VS Code, Lex über Claude Code zum "Programmieren mit Englisch". Nathan nutzt Gemini für schnelle Erklärungen und Grok zum Finden von KI-Twitter-Posts. Jeder nutzt mehrere Modelle.

Zu Agents und dem Interface-Problem: "The problem is for arbitrary tasks, you still have to specify what you want your LLM to do. What is the environment? How do you specify? You can say what the end goal is, but even getting it to that point — how do you as a user guide the model?" (Das Problem ist: Bei beliebigen Aufgaben muss man immer noch spezifizieren, was das LLM tun soll. Was ist die Umgebung? Wie spezifiziert man? Man kann das Endziel nennen, aber selbst bis dahin — wie leitet man als Nutzer das Modell an?) Sebastian benennt die grundlegende Herausforderung für autonome Agents: Spezifikation ist schwierig. Das aktuelle Agent-Paradigma funktioniert für Code, weil die Umgebung klar definiert ist, aber allgemeine Agents stehen vor einem Interface-Problem, dessen Lösung Jahre dauern könnte.

Zu Open-Weight-Modellen und Politik: Nathan beschreibt seine Leitung des TÜLU Post-Training-Projekts bei AI2, einer der wenigen vollständig offenen Training-Pipelines in den USA. Er weist auf eine kritische Lücke hin: Während chinesische Labs den Markt mit offenen Modellen überschwemmen, stehen US-amerikanische Open-Weight-Bemühungen vor einer Konsolidierung. Die Unterstützung von Open Source im AI Action Plan des Weißen Hauses 2025 ist ermutigend, aber die Umsetzung von Politik in nachhaltige Finanzierung bleibt die Herausforderung.

7 zentrale Erkenntnisse zum Stand der KI 2026

  • Kein Winner-Takes-All-Szenario — Ideen fließen frei zwischen Labs; der entscheidende Faktor ist Rechenbudget und Hardware, nicht proprietäre Techniken
  • Chinas Open-Weight-Strategie funktioniert — DeepSeek hat eine Bewegung ausgelöst, aber Zhipu AI, MiniMax und Kimi Moonshot veröffentlichen nun ebenso wettbewerbsfähige Modelle als bewusste Strategie für globalen Einfluss
  • Pre-Training ist nicht tot — Der Großteil der Rechenleistung fließt noch ins Pre-Training, aber Reinforcement Learning im Post-Training ist der Bereich, aus dem die nächsten großen Leistungssprünge kommen werden
  • Multi-Modell-Nutzung ist die Norm — Selbst Top-Forscher nutzen 3-4 verschiedene Modelle für verschiedene Aufgaben, was darauf hindeutet, dass kein einzelnes Modell alle Anwendungsfälle dominiert
  • Code ist die Killer-App für Agents — Anthropics Wette auf Claude Code zahlt sich aus, weil Coding eine klar definierte Umgebung bietet; allgemeine Agents stehen noch vor fundamentalen Spezifikations-Herausforderungen
  • 2.000-Dollar-KI-Abonnements kommen — Der Sprung von 200- auf 2.000-Dollar-Stufen wird 2026 stattfinden, getrieben von Modellen, die messbar mehr Leistung für den professionellen Einsatz bieten
  • Open-Source-KI braucht nachhaltige Finanzierung — Die USA haben starke politische Unterstützung für offene KI, aber es fehlen die staatlich gestützten Anreizstrukturen, die chinesische Open-Weight-Veröffentlichungen ermöglichen

Was das für Organisationen bedeutet, die mit KI bauen

Das Bild, das aus diesem Gespräch entsteht, ist eines der schnellen Kommodifizierung auf der Modell-Ebene. Wenn kein Unternehmen einen Technologie-Burggraben aufrechterhalten kann, verschiebt sich der Wert darauf, wie man KI einsetzt — die Anwendungen, Workflows und Integrationen. Organisationen sollten nicht auf einen einzelnen Modellanbieter setzen. Die Forscher, die diese Systeme bauen, nutzen selbst täglich mehrere Modelle und wechseln je nach Aufgabe und Qualität. Diese Multi-Modell-Zukunft ist keine vorübergehende Phase; sie ist die neue Normalität. Der wahre Wettbewerbsvorteil liegt darin, Agent-gesteuerte Workflows aufzubauen, die jeweils das beste Modell für jede spezifische Aufgabe nutzen.

Related