Wie Bloomberg AI Coding Tools an 9.000 Entwickler ausrollt
Perspektive
So sieht AI Coding in echtem Enterprise-Maßstab aus - nicht ein Startup mit 50 Entwicklern, sondern Bloomberg mit 9.000 Entwicklern, einer der größten JavaScript-Codebasen der Welt und Hunderten von Millionen Zeilen Production Code. Die Erkenntnisse hier sind hart erkämpft und pragmatisch.
Die Produktivitätsgewinne durch AI Coding sinken schnell jenseits von Greenfield-Projekten. Bloombergs Umfragen zeigten klare Vorteile für Proof of Concepts, Test-Generierung und einmalige Scripts. Aber sobald man in ihre bestehende Codebase eintaucht - wo die Systemkomplexität “mindestens polynomial” mit den Codezeilen wächst - sanken die Messwerte schnell. Dies deckt sich mit dem, was viele Unternehmen feststellen: AI Coding ist großartig für neuen Code, schwieriger für die Weiterentwicklung von Legacy-Systemen.
Die echten Erfolge kommen von Arbeit, die Entwickler nicht machen wollen. Bloomberg richtete ihre AI Coding Strategie auf Wartung aus: Security Patches, Migrationen, Dependency-Upgrades - die “stupide Arbeit”, um die sich niemand reißt. Ihre “Uplift Agents” scannen die Codebase, identifizieren wo Patches passen und generieren PRs mit Erklärungen. Hier skaliert AI: nicht indem sie Entwickler ersetzt, sondern indem sie die mühsame Compliance-Arbeit automatisiert, die niemand gerne macht.
Der Paved Path ist genauso wichtig wie die Tools. Wenn 9.000 Entwickler alle AI Tooling bauen wollen, folgt Chaos. Bloomberg baute ein Gateway für Model-Experimente, ein MCP Directory damit Teams existierende Server entdecken bevor sie Duplikate bauen, und eine PaaS für die Bereitstellung von MCP Servern mit Auth/Security. Das Leitprinzip: “Mache das Richtige extrem einfach, mache das Falsche lächerlich schwer.”
Die Adoption ist nicht einheitlich über Rollen hinweg. ICs adoptieren schneller als Engineering Manager. Bloombergs Reaktion: Leadership Workshops, damit Manager ihre Teams tatsächlich bei AI Tooling anleiten können. Und neue Mitarbeiter lernen AI Coding im Onboarding und werden dann zu Change Agents wenn sie in Teams kommen - “Warum machen wir es nicht so?”
Key Takeaways
- AI Coding Gewinne sinken jenseits von Greenfield - Proof of Concepts und Tests sind einfache Erfolge; Legacy Code ist schwieriger
- Wartung anvisieren, nicht Entwicklung - Security Patches, Migrationen und Upgrades sind wo AI am besten skaliert
- Neues Metrik-Problem: Time-to-Merge stieg - AI generiert PRs schneller, aber Code Review wird zum Bottleneck
- Einen Paved Path bauen - Gateway für Models, MCP Directory für Discovery, PaaS für Deployment
- Demos einfach machen, Production kontrolliert - Teams frei experimentieren lassen, aber Quality Gates für Production verlangen
- Neue Mitarbeiter in AI-first Workflows schulen - Sie werden zu Change Agents die “so haben wir es immer gemacht” hinterfragen
- Leadership braucht auch Upskilling - ICs adoptieren schneller; Manager brauchen Workshops um AI-enabled Teams zu führen
- AI verändert die Kostenfunktion - Trade-off-Entscheidungen verschieben sich; manche Arbeit wird billiger, manche teurer
Big Picture
Im Enterprise-Maßstab (9.000 Entwickler, Hunderte Millionen Zeilen) kommen AI Coding Erfolge von Wartungsarbeit - Security Patches, Migrationen, Upgrades - nicht von Greenfield Development. Die eigentliche Erkenntnis: Die stupide Compliance-Arbeit anvisieren, die niemand machen will. Code Review wird zum neuen Bottleneck.