Sam Altman: Intelligenz wird ein Versorgungsgut wie Wasser
Warum Sam Altmans „Die Welt fluten”-Strategie alles verändert
Sam Altman sprach mit Larry Fink (BlackRock-CEO und OpenAI-Vorstandsmitglied) beim AI Infrastructure Forum — ein Gespräch, das weit über den üblichen KI-Hype hinausging. Zwei Aussagen stachen heraus: eine 1000-fache Kostensenkung beim KI-Denken in rund 16 Monaten und die Prognose, dass bis Ende 2028 mehr kognitive Kapazität der Welt in Rechenzentren stecken wird als außerhalb davon.
Zur Überschreitung der Schwelle wirtschaftlichen Nutzens: “At some point in the last few months, we really have crossed a threshold into major economic utility of these models. My job shifted from doing direct technical work to managing a team of agents doing this work.” (Irgendwann in den letzten Monaten haben wir wirklich eine Schwelle zum erheblichen wirtschaftlichen Nutzen dieser Modelle überschritten. Meine Aufgabe hat sich gewandelt — von direkter technischer Arbeit hin zur Führung eines Teams von Agenten, das diese Arbeit erledigt.) Altman beschreibt die aktuelle Leistungsentwicklung: KI kann heute mehrstündige Aufgaben bewältigen. Bald werden es mehrtägige sein, dann mehrwöchige. Danach werden KI-Systeme „mit deinem Leben, deinem Unternehmen verbunden sein, proaktiv denken und durchgehend arbeiten” — ähnlich wie man einem erfahrenen Mitarbeiter vertraut.
Dazu, dass Startups keine Mitarbeiter mehr wollen: Der mentale Wandel ist greifbar. Startups reden nicht mehr darüber, wie viele Mitarbeiter sie brauchen — sie fragen, wie viel Rechenkapazität sie reservieren können. „Kann ich einen Cloud-Vertrag abschließen? Kann ich so viele Tokens bekommen?” Größere Unternehmen folgen: Engineering-Abteilungen verdoppeln oder verdreifachen, was sie dieses Jahr ausliefern wollen. Das hat es noch nie gegeben.
Dazu, dass AGI seine Bedeutung verliert: Altman sagt, das Wort „hat aufgehört, viel Bedeutung zu haben.” Stattdessen bietet er zwei nützlichere Schwellenwerte an: (1) wenn in Rechenzentren mehr kognitive Kapazität existiert als außerhalb — „vielleicht Ende 2028” — und (2) wenn CEOs, Präsidenten und Nobelpreisträger ihren Job ohne intensiven KI-Einsatz nicht mehr erledigen können. Das erste ist ein physischer Realitätswandel. Das zweite ein Wandel in der Arbeitsrealität.
Zur 1000-fachen Kostensenkung: “From our first reasoning model O1 to GPT-5.4, to get the same answer to a hard problem has been a reduction in cost of about 1000x.” (Von unserem ersten Reasoning-Modell O1 bis GPT-5.4 betrug die Kostensenkung, um dieselbe Antwort auf ein schwieriges Problem zu erhalten, etwa das 1000-fache.) In rund 16 Monaten. Das ist nicht nur Modellverbesserung — Kernel-Ingenieure, Strom-Ingenieure und Rechenzentrum-Designer haben gleichzeitig Effizienzgewinne erzielt.
Zur Intelligenz als Versorgungsgut: OpenAIs oberstes Leitprinzip ist es, die Welt mit Intelligenz zu überschwemmen — „zu günstig, um sie zu messen”, in Anlehnung an das unerfüllte Versprechen der Kernenergie. “We see a future where intelligence is a utility like electricity or water and people buy it from us on a meter and use it for whatever they want.” (Wir sehen eine Zukunft, in der Intelligenz ein Versorgungsgut wie Strom oder Wasser ist und die Menschen es nach Verbrauch bei uns kaufen und für alles verwenden, was sie wollen.) Die Alternative — Kapazitätsengpässe treiben die Preise hoch — bedeutet, dass KI „zu reichen Menschen geht” oder Regierungen zentrale Planungsentscheidungen treffen, die „fast immer schlecht ausgehen.”
Zur 110-Milliarden-Dollar-Runde und den Custom-Chips: Die Finanzierungsrunde ist 4-mal größer als Aramcos Rekord-IPO. OpenAI baut einen spezialisierten Chip für reine Inferenz — nicht der schnellste, aber der günstigste pro Watt. Die Wette: In einer energiebeschränkten Welt mit massiver Agenten-Nachfrage zählt Effizienz pro Watt mehr als rohe Geschwindigkeit.
Zu Indiens Null-Personen-Startups: Die Codex-Nutzung in Indien hat sich in wenigen Monaten verzehnfacht. Indische Gründer erzählten Altman, sie bauten „Null-Personen-Startups” — ein Prompt, der Software schreibt, Kundensupport übernimmt und Rechtsarbeit erledigt, während der Gründer in den Urlaub fährt. Indische Unternehmen sicherten sich aggressiv Rechenkapazitäten und ließen Altman nicht aus dem Raum, ohne Verträge zu unterzeichnen.
Zum Umgang mit Überfluss statt Knappheit: “For centuries, maybe millennia, we have learned a lot about how to structure society to manage scarcity. Almost none of that helps us as we have to quickly learn towards managing abundance.” (Über Jahrhunderte, vielleicht Jahrtausende, haben wir viel darüber gelernt, wie man die Gesellschaft so gestaltet, dass sie mit Knappheit umgeht. Fast nichts davon hilft uns, wenn wir schnell lernen müssen, mit Überfluss umzugehen.) Altman räumt ein mögliches Paradox ein: Die Lebensqualität steigt, während das BIP in einer deflationären Welt sinkt, in der kognitive Kapazität in Rechenzentren lebt.
6 wichtige Erkenntnisse von Altman beim AI1F
- 1000-fache Kostensenkung von O1 zu GPT-5.4 in ~16 Monaten — und noch früh in der Effizienzkurve
- Mehr kognitive Kapazität in Rechenzentren als außerhalb bis Ende 2028 — Altmans konkreteste AGI-nahe Prognose
- Startups wollen Rechenkapazität, keine Mitarbeiter — der mentale Wandel ist bei neuen Unternehmen bereits vollzogen, große Unternehmen folgen
- Intelligenz als Versorgungsgut — OpenAIs Leitprinzip ist es, Intelligenz zu günstig zu machen, um sie zu messen, wie Strom oder Wasser
- Custom-Inferenzchip bis Ende 2026 — optimiert auf den günstigsten Preis pro Watt, nicht auf Geschwindigkeit, ausgerichtet auf Agenten-Workloads
- Demokratische KI — technologische Entscheidungen dieser Tragweite gehören der Gesellschaft durch demokratische Prozesse, nicht Unternehmen
Was das für Organisationen bedeutet, die mit KI bauen
Die 1000-fache Kostensenkung in 16 Monaten ist die Zahl, die jedes Gespräch über KI-Budgets neu gestalten sollte. Wenn sich diese Entwicklung fortsetzt — und Altman sagt, sie stecken „noch so früh darin” — verändern sich die wirtschaftlichen Rahmenbedingungen für den flächendeckenden Einsatz von KI-Agenten vierteljährlich von Grund auf. Organisationen, die auf den „richtigen Zeitpunkt” für die Einführung von KI-Agenten warten, optimieren gegen ein bewegtes Ziel, das sich mit zunehmender Geschwindigkeit von ihnen entfernt. Die Frage ist nicht, ob KI günstig genug sein wird, um sie überall einzusetzen — sondern ob Ihre Organisation die nötigen Workflows, Daten und Prozesse bereit haben wird, wenn es so weit ist.