HubSpot-CTO über AEO: Warum 'zitierbar' das neue SEO ist
Wie Dharmesh Shah die Content-Strategie für LLMs ändern sieht
Dharmesh Shah hat HubSpot auf einer einfachen These mitgegründet: Millionen kleiner Unternehmen sollten vom Internet profitieren, fanden es aber einschüchternd. Jetzt wendet er dieselbe Logik auf KI an. Als CTO steuert er sowohl HubSpots KI-Strategie als auch baut persönlich agent.ai, eine No-Code-Agent-Plattform mit 50.000 erstellten Agenten. Dieses Interview enthüllt, wie sich die Content-Strategie grundlegend ändert, wenn LLMs dein primärer Distributionskanal werden.
Über die neue atomare Einheit: “Back then the atomic unit for the internet was web pages. That’s what Google was indexing. Now the unit is actually smaller… it’s the LLM looking at content, passing it through, synthesizing answers.” (Damals war die atomare Einheit für das Internet Webseiten. Das war, was Google indexierte. Jetzt ist die Einheit tatsächlich kleiner… es ist das LLM, das Content betrachtet, durchlässt, Antworten synthetisiert.) Die Verschiebung von Seiten zu “Chunks” ändert alles an der Content-Strategie - du optimierst nicht für Klicks, sondern für Zitierungen.
Über zitierbar sein: “In the same way that you need to be rankworthy, you need to be citeworthy… you’re not trying to trick ChatGPT into providing your answer. Do the work to come up with really good answers.” (Auf die gleiche Weise, wie du ranking-würdig sein musst, musst du zitierbar sein… du versuchst nicht, ChatGPT auszutricksen, deine Antwort zu geben. Mach die Arbeit, wirklich gute Antworten zu entwickeln.) Die philosophische Kontinuität ist auffällig: HubSpots “sei ranking-würdig”-Mantra von 2006 übersetzt sich direkt zu “sei zitierbar” in 2025.
Über die Übersetzungs-Metapher: “Let’s imagine you had 100 blog posts written in English for human readers… then you discover you have a bunch of people in Japan. You would translate to Japanese. What we’re talking about now—from SEO to AEO—is translating for LLMs versus search engines.” (Stell dir vor, du hättest 100 Blogposts auf Englisch für menschliche Leser geschrieben… dann entdeckst du, dass du einen Haufen Leute in Japan hast. Du würdest ins Japanische übersetzen. Worüber wir jetzt reden - von SEO zu AEO - ist Übersetzen für LLMs versus Suchmaschinen.) Das mentale Modell: Behandle LLMs als neue Sprache, die dein Content sprechen muss.
Über snackable über narrativ: “What’s considered high quality is things that are easily quotable, snackable content by the LLM, that are pithy and precise… if you have a 400-word meandering answer, that’s much less likely to be cited than something that provides exactly the answer in a nice sound-bitey form.” (Was als hochqualitativ gilt, sind Dinge, die leicht zitierbar sind, snackable Content für das LLM, die prägnant und präzise sind… wenn du eine 400-Wort-mäandernde Antwort hast, ist das viel weniger wahrscheinlich zitiert zu werden als etwas, das genau die Antwort in einer schönen Soundbite-Form liefert.) Langform-narrativer Content, der für menschliches Lesen optimiert ist, kann gegenüber Q&A-formatiertem Content unterperformen, den LLMs leicht extrahieren können.
Über Agenten als Teamkollegen: “Agents will effectively act like teammates. They may be junior teammates, they still need to be trained… in this hybrid world of carbon-based life forms and AI agents, how are you going to find these agents? There needs to be an equivalent of LinkedIn for agents.” (Agenten werden effektiv wie Teamkollegen agieren. Sie mögen Junior-Teamkollegen sein, sie müssen noch trainiert werden… in dieser hybriden Welt aus kohlenstoffbasierten Lebensformen und KI-Agenten, wie wirst du diese Agenten finden? Es muss ein Äquivalent von LinkedIn für Agenten geben.) Seine Vision für agent.ai: ein professionelles Netzwerk, wo Agenten Profile, Erfahrung und Reputation haben.
6 Erkenntnisse von Dharmesh Shah zu Answer Engine Optimization
- AEO ist das neue SEO - Answer Engine Optimization löst für LLM-Zitierung statt Such-Ranking; die Grundlagen (Wert schaffen, nicht gamen) übertragen sich direkt
- Reduziere Content auf Chunks - Brich Langform-Content in Frage-Antwort-Paare auf, die LLMs leicht extrahieren und zitieren können; die atomare Einheit schrumpft von Seiten zu Snippets
- Reputation akkumuliert sich über Ären - Content, der gut bei Google rankte, überträgt sich zu Perplexity, weil frühe KI-Suche traditionelle Suche als Input nutzte; Investitionen in Qualität akkumulieren sich
- Negative Renditen sind real - Eine Reputation als “KI-Slop” oder minderwertiger Content aufzubauen, ist schlimmer als null Rendite; LLMs werden sich erinnern und dich herabstufen
- Tracke KI-Traffic separat - Dein organischer Traffic ist wahrscheinlich gesunken, weil Aufmerksamkeit zu Answer Engines gewandert ist; erstelle einen eigenen Bucket für ChatGPT/Perplexity-Referrals
- Agenten brauchen professionelle Netzwerke - Agent.ais These: 50.000 Agenten existieren, sie brauchen Discovery- und Reputationssysteme genau wie menschliche Professionals
Was das für Content- und Marketing-Teams bedeutet
Dharmeshs Framework reframt KI-Content-Strategie als Übersetzungsproblem: gleiche Ideen, neue Sprache. Die Schlüsselerkenntnis für Unternehmen ist nicht, dass SEO stirbt - es ist, dass du jetzt zwei Zielgruppen hast: Menschen, die lesen, und LLMs, die zitieren. Content, der für menschlichen Konsum optimiert ist, kann gegenüber Content unterperformen, der für LLM-Extraktion optimiert ist. Organisationen, die Inbound Marketing verstanden haben, haben bereits das philosophische Fundament (“schaffe Wert, game nicht”); jetzt brauchen sie die taktische Anpassung (Chunks über Narrative, Q&A über Prosa, zitierbar über ranking-würdig).