← Alle Artikel
Strategy 5. April 2026 20 Min. Lesezeit

Jenseits von Google: Warum KI-Indexe das neue Schlachtfeld der B2B-Sichtbarkeit sind

Google ist nicht mehr der einzige Index, der zählt. Welche KI-Indexe Schweizer B2B-Unternehmen kennen müssen — und wie sie dort hinkommen.

Das Monopol eines einzigen Index ist Geschichte

Zwanzig Jahre lang bedeutete «indexiert sein» genau eine Sache: Google. Wenn der Googlebot Ihre Seite gecrawlt hat und Ihre Seiten in der Google-Suche erschienen, waren Sie auffindbar. Alles andere war vernachlässigbar.

Diese Ära geht zu Ende. Heute betreiben mindestens fünf grosse KI-Anbieter eigene Indexe, Crawler und Datenpipelines — und jeder entscheidet unabhängig, welche Unternehmen er bei einer Nutzeranfrage ausspielt. Wer nur bei Google indexiert ist, ist in nur einem dieser Systeme sichtbar. Die anderen wissen möglicherweise nicht, dass Sie existieren.

Für Schweizer B2B-Unternehmen ist das kein theoretisches Problem. Wenn ein Beschaffungsverantwortlicher in Zürich ChatGPT nach Lieferantenempfehlungen fragt, stammt die Antwort nicht aus Googles Index. Sie kommt aus dem Bing-Index, aus Daten des OpenAI-eigenen Crawlers und aus dem Trainingskorpus des Modells. Wer jahrelang ausschliesslich für Google optimiert hat, ist im am schnellsten wachsenden Kanal möglicherweise unsichtbar.

Die neue Index-Landschaft: Wer speist welche KI?

Jeder grosse KI-Anbieter greift auf unterschiedliche Quellen zurück. Dieses Mapping zu verstehen, ist der erste Schritt zu einer Multi-Index-Strategie:

OpenAI / ChatGPT

Die Echtzeit-Suche von ChatGPT basiert auf dem Bing-Index, nicht auf Google. Zusätzlich betreibt OpenAI einen eigenen Crawler — GPTBot — der einen separaten Inhaltsindex aufbaut. Wenn ein Nutzer ChatGPT eine Frage stellt, kombiniert das System Bing-Suchergebnisse, GPTBot-gecrawlte Inhalte und die Trainingsdaten des Modells.

Die Konsequenz: Wenn Ihre Seite bei Google gut rankt, Sie aber nie die Bing Webmaster Tools geprüft haben, hat ChatGPT möglicherweise keinen Zugriff auf Ihre aktuellsten Inhalte.

Google Gemini / AI Overviews

Googles KI-Funktionen — Gemini und AI Overviews in der Suche — nutzen naturgemäss Googles eigenen Index. Wer SEO betreibt, ist hier bereits abgedeckt. Google setzt zusätzlich den Crawler Google-Extended speziell für KI-Trainingszwecke ein.

Perplexity

Perplexity betreibt einen eigenen Crawler — PerplexityBot — und kombiniert diesen mit Ergebnissen aus mehreren Suchindexen. Es ist eines der aggressivsten KI-Suchtools bei der Echtzeit-Webrecherche, weshalb Ihre aktuelle Webpräsenz gerade für Perplexity-Antworten besonders relevant ist.

Anthropic / Claude

Anthropic betreibt ClaudeBot, einen eigenen Web-Crawler, und verfügt über Suchpartnerschaften für Echtzeit-Retrieval. Claudes Antworten speisen sich sowohl aus den Trainingsdaten als auch aus diesen Live-Suchergebnissen.

Apple Intelligence

Apple crawlt das Web mit Applebot und integriert KI-Funktionen quer durch sein Ökosystem — Siri, Safari und systemweite Intelligenz. Für Schweizer B2B-Unternehmen, deren Kunden Apple-Geräte nutzen (verbreitet in Führungsetagen und kreativen Branchen), ist die Applebot-Indexierung relevant.

Common Crawl und offene Datensätze

Viele KI-Modelle — einschliesslich Open-Source-Modelle, die Unternehmen zunehmend intern einsetzen — werden auf Common Crawl trainiert, einem riesigen offenen Datensatz von Webinhalten. Wenn Ihre Seite nicht in Common Crawl enthalten ist, fehlt sie möglicherweise in den Trainingsdaten Dutzender Modelle, von denen Sie noch nie gehört haben — die aber Ihre Zielgruppe vielleicht nutzt.

Bing: Der blinde Fleck der Schweizer Unternehmen

In der Schweiz liegt Bings Marktanteil bei der klassischen Suche bei vernachlässigbaren 3–5 %. Deshalb haben die meisten Schweizer B2B-Unternehmen nie Bing Webmaster Tools eingerichtet, nie eine Sitemap bei Bing eingereicht und nie geprüft, ob ihre Seiten dort überhaupt indexiert sind.

Das war eine nachvollziehbare Entscheidung, als Bing nur eine Suchmaschine war. Es ist keine nachvollziehbare Entscheidung mehr, seit Bing die Echtzeit-Suche von ChatGPT antreibt — dem wohl einflussreichsten KI-Tool am Markt. Jedes Schweizer Unternehmen, das Bing ignoriert, ist für ChatGPTs Suchfunktion praktisch unsichtbar.

Die Lösung ist einfach: Registrieren Sie sich bei den Bing Webmaster Tools, reichen Sie Ihre Sitemap ein und verifizieren Sie Ihre Website. Das dauert fünfzehn Minuten und erweitert Ihre KI-Auffindbarkeit sofort.

Das Crawler-Zugangsproblem

Selbst wenn Ihr Content hervorragend ist — KI-Anbieter können nur indexieren, was ihre Crawler erreichen. Viele Schweizer Websites, besonders solche mit sicherheitsbewussten IT-Abteilungen, blockieren unbekannte Bots standardmässig. Das bedeutet, dass GPTBot, ClaudeBot, PerplexityBot und Applebot möglicherweise 403-Fehler erhalten, wenn sie Ihre Seite crawlen wollen.

Prüfen Sie Ihre robots.txt-Datei. Eine Konfiguration, die KI-Auffindbarkeit unterstützt, sollte diese Crawler explizit erlauben:

User-agent: GPTBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: Applebot
Allow: /

User-agent: Google-Extended
Allow: /

Wenn Ihre robots.txt eine pauschale User-agent: * / Disallow: /-Regel mit Ausnahmen nur für den Googlebot enthält, blockieren Sie jeden KI-Crawler. Das kommt häufiger vor, als man denkt — wir haben es auf den Websites grosser Schweizer IT-Beratungen, Ingenieurbüros und SaaS-Anbieter gesehen.

Trainings-Cutoffs: Die unsichtbare Lücke

KI-Modelle werden nicht in Echtzeit aktualisiert. Jedes Modell hat einen Trainingsdaten-Cutoff — ein Datum, nach dem keine neuen Informationen mehr ins Basiswissen einfliessen. Die Trainingsdaten von GPT-4 haben beispielsweise einen Cutoff, der Inhalte der letzten Monate nicht einschliesst.

Das erzeugt eine unsichtbare Lücke: Selbst wenn Ihre Website seit Jahren bei Google indexiert ist, existieren die Inhalte, die Sie im letzten Quartal veröffentlicht haben, möglicherweise in keinem Modell-Trainingskorpus. Nur über Echtzeit-Retrieval (RAG) können KI-Tools auf Ihre neusten Inhalte zugreifen — und dieses Retrieval hängt davon ab, in den Suchsystemen jedes Anbieters indexiert zu sein.

Die praktische Konsequenz: Sie brauchen beides — eine starke historische Präsenz (für die Trainingsdaten) und aktuelle Indexierung in mehreren Suchsystemen (für RAG). Keines von beiden reicht allein aus.

Konkrete Massnahmen für Schweizer B2B-Unternehmen

Hier ist ein konkreter Aktionsplan für Multi-Index-Abdeckung:

  1. Bing-Präsenz verifizieren. Richten Sie Bing Webmaster Tools ein, reichen Sie Ihre Sitemap ein und prüfen Sie Ihre Indexabdeckung. Gehen Sie nicht davon aus, dass eine Google-Indexierung automatisch eine Bing-Indexierung bedeutet — die Überschneidung ist keineswegs selbstverständlich.
  2. robots.txt prüfen. Stellen Sie sicher, dass GPTBot, ClaudeBot, PerplexityBot, Applebot und Google-Extended explizit erlaubt sind. Prüfen Sie die Server-Logs, ob diese Crawler tatsächlich 200-Antworten erhalten.
  3. llms.txt-Datei erstellen. Platzieren Sie eine strukturierte Textdatei im Root-Verzeichnis Ihrer Domain, die Ihr Unternehmen, Ihre Produkte und Ihre Alleinstellungsmerkmale für KI-Crawler zusammenfasst. So erhält jedes KI-System eine saubere, autoritative Informationsquelle über Ihr Geschäft.
  4. Common Crawl prüfen. Durchsuchen Sie den Common-Crawl-Index nach Ihrer Domain. Wenn Ihre Seite dort unterrepräsentiert ist, stellen Sie sicher, dass Ihre Seiten öffentlich zugänglich, schnell ladend und nicht hinter Authentifizierung oder aggressiver Bot-Filterung verborgen sind.
  5. Erwähnungen jenseits der eigenen Website aufbauen. KI-Modelle synthetisieren Informationen aus mehreren Quellen. Erwähnungen in Schweizer Branchenverzeichnissen (zefix.ch, local.ch), auf LinkedIn, in Fachpublikationen und Community-Foren schaffen einen Multi-Quellen-Fussabdruck, dem KI-Systeme mehr vertrauen als einer einzelnen Website allein. Medienmitteilungen sind einer der effektivsten Wege, diese Multi-Quellen-Präsenz schnell aufzubauen.
  6. Über alle KI-Anbieter hinweg monitoren. Prüfen Sie, was ChatGPT, Claude, Perplexity und Gemini tatsächlich über Ihr Unternehmen sagen. Jeder greift auf unterschiedliche Indexe zurück, sodass Ihre Sichtbarkeit zwischen den Anbietern dramatisch variieren kann. Tools wie per4mx automatisieren dieses Monitoring über alle grossen KI-Anbieter gleichzeitig.

Der Zinseszins-Effekt der Multi-Index-Präsenz

In mehreren Indexen präsent zu sein, wirkt nicht nur additiv — es potenziert sich. Wenn Ihr Unternehmen im Bing-Index, in Googles Index, in Common Crawl und in den proprietären Indexen jedes KI-Crawlers erscheint, passiert Folgendes:

  • Kreuzvalidierung. KI-Modelle vertrauen Informationen stärker, wenn sie konsistent über mehrere Quellen hinweg erscheinen. Multi-Index-Präsenz verstärkt dieses Konsistenzsignal.
  • Abdeckung über Anbieter hinweg. Jedes KI-Tool, das Ihre Zielgruppe nutzen könnte — ChatGPT, Claude, Perplexity, Gemini, Apple Intelligence — kann Sie finden und empfehlen. Sie sind nicht von einem einzigen Anbieter-Index abhängig.
  • Resilienz. Wenn ein Index ein Crawling-Problem hat oder Ihren Content deprioritisiert, tragen andere Indexe Ihre Informationen weiter. Ihre KI-Sichtbarkeit hat keinen Single Point of Failure.
  • Aufnahme in Trainingsdaten. Je mehr Indexe Ihre Inhalte enthalten, desto wahrscheinlicher werden sie in künftige Modell-Trainingsläufe einbezogen — ein Kreislauf, in dem Sichtbarkeit weitere Sichtbarkeit erzeugt.

Warum jetzt handeln?

Das Zeitfenster für den Aufbau einer Multi-Index-Präsenz ist offen, wird aber schmaler. KI-Anbieter crawlen aktiv das Web und bauen ihre Wissensbasen genau jetzt auf. Unternehmen, die heute indexiert sind, werden die Unternehmen sein, die diese Modelle morgen «kennen» und empfehlen.

Für Schweizer B2B-Unternehmen ist das besonders relevant. Der DACH-Markt ist kompetitiv, Nischen sind klar definiert, und das erste Unternehmen, das starke KI-Sichtbarkeit in einer Kategorie aufbaut, hält diese Position tendenziell. LLMs entwickeln eine Art Wissensträgheit — hat ein Modell ein Unternehmen einmal als Empfehlung verankert, erfordert es erheblich mehr Aufwand, diese Position zu verdrängen, als sie zu etablieren.

Genau deshalb überwacht per4mx Ihre Sichtbarkeit gleichzeitig bei ChatGPT, Claude, Google AI und Perplexity. Jeder Anbieter greift auf unterschiedliche Indexe zurück, und eine Lücke in auch nur einem davon bedeutet verpasste Chancen. Zu verstehen, wo Sie über die gesamte Landschaft hinweg stehen, ist der erste Schritt, um Lücken zu schliessen.

Die Massnahmen sind klar, und die meisten kosten nichts ausser Zeit: Bei Bing registrieren, robots.txt aktualisieren, eine llms.txt-Datei erstellen und mit dem Monitoring beginnen. Unternehmen, die das heute tun, sichern sich einen strukturellen Vorteil, der sich mit jedem Modell-Update, jedem neuen KI-Feature und jeder Anfrage eines Entscheiders an einen KI-Assistenten verstärkt.

Schritt-für-Schritt: Multi-Index-Audit für Ihr Unternehmen

Bevor Sie Massnahmen ergreifen, brauchen Sie ein klares Bild Ihrer aktuellen Multi-Index-Präsenz. Hier ist ein strukturiertes Audit-Verfahren, das Sie in wenigen Stunden durchführen können:

Schritt 1: Google-Index prüfen (15 Minuten)

  1. Loggen Sie sich in Google Search Console ein
  2. Navigieren Sie zu «Abdeckung» und notieren Sie die Anzahl indexierter Seiten
  3. Identifizieren Sie ausgeschlossene Seiten und deren Gründe
  4. Prüfen Sie, ob Ihre wichtigsten Produktseiten, Ihre «Über uns»-Seite und Ihr Blog indexiert sind

Schritt 2: Bing-Index prüfen (20 Minuten)

  1. Registrieren Sie sich bei den Bing Webmaster Tools, falls noch nicht geschehen
  2. Verifizieren Sie Ihre Website (entweder über DNS, Meta-Tag oder XML-Datei)
  3. Reichen Sie Ihre Sitemap ein
  4. Prüfen Sie nach einigen Tagen, wie viele Seiten Bing indexiert hat
  5. Vergleichen Sie die Bing-Indexabdeckung mit Google — Abweichungen über 30 % deuten auf Probleme hin

Schritt 3: robots.txt analysieren (10 Minuten)

  1. Rufen Sie https://ihredomain.ch/robots.txt auf
  2. Prüfen Sie, ob GPTBot, ClaudeBot, PerplexityBot, Applebot und Google-Extended explizit erlaubt oder blockiert sind
  3. Suchen Sie nach pauschalen Disallow-Regeln, die auch KI-Crawler betreffen
  4. Falls Ihre robots.txt komplexe Regeln enthält, nutzen Sie ein Online-Tool wie den Google Robots Testing Tool, um User-Agent-spezifische Regeln zu verifizieren

Schritt 4: Common Crawl prüfen (15 Minuten)

  1. Besuchen Sie index.commoncrawl.org
  2. Suchen Sie nach Ihrer Domain
  3. Notieren Sie, wie viele Seiten erfasst sind und wann der letzte Crawl stattfand
  4. Wenn Ihre Domain stark unterrepräsentiert ist, prüfen Sie, ob technische Barrieren (Ladezeit, Bot-Blockierungen) den Zugang verhindern

Schritt 5: Server-Logs analysieren (30 Minuten)

  1. Filtern Sie Ihre Server-Logs der letzten 30 Tage nach KI-Crawler User-Agents
  2. Prüfen Sie für jeden Crawler: Wie oft besucht er Ihre Seite? Welche Seiten crawlt er? Erhält er 200-Antworten oder Fehler?
  3. Dokumentieren Sie Crawler, die Fehlercodes erhalten — das sind Ihre dringendsten Baustellen

Multi-Index-Strategie nach Unternehmensgrösse

Der optimale Ansatz für Multi-Index-Präsenz variiert je nach Unternehmensressourcen:

Kleine Unternehmen (1-20 Mitarbeitende)

Fokussieren Sie auf die drei wirkungsvollsten Massnahmen:

  • Bing Webmaster Tools einrichten und Sitemap einreichen — dadurch werden Sie für ChatGPTs Websuche auffindbar
  • robots.txt bereinigen — alle KI-Crawler explizit erlauben
  • llms.txt erstellen — eine zentrale, strukturierte Informationsquelle für alle KI-Systeme

Diese drei Massnahmen kosten insgesamt weniger als zwei Stunden Arbeitszeit und adressieren die häufigsten Ursachen für fehlende KI-Sichtbarkeit.

Mittlere Unternehmen (20-200 Mitarbeitende)

Ergänzen Sie die Basismassnahmen um:

  • Schema-Markup auf allen Schlüsselseiten — Organization, Product, FAQ
  • Mehrsprachige llms.txt-Dateien — für jede Geschäftssprache eine separate Version
  • Common-Crawl-Optimierung — Sicherstellung, dass Ihre Inhalte in diesem wichtigen offenen Datensatz vertreten sind
  • Regelmässiges Multi-Index-Monitoring — per4mx oder manuelle Tests über alle Plattformen

Grosse Unternehmen (200+ Mitarbeitende)

Für grössere Organisationen empfehlen wir eine systematische Multi-Index-Governance:

  • Dedizierter Index-Manager — eine verantwortliche Person, die die Präsenz über alle Indexe koordiniert
  • Automatisiertes Monitoring — wöchentliche Reports über den Indexierungsstatus bei Google, Bing, Common Crawl und KI-spezifischen Crawlern
  • CDN- und WAF-Koordination — Sicherstellung, dass Sicherheitslösungen (Cloudflare, Akamai) KI-Crawler nicht blockieren
  • Internationale Index-Strategie — länderspezifische Optimierungen für den DACH-Raum und darüber hinaus

Die Rolle von Open-Source-KI-Modellen

Neben den grossen kommerziellen KI-Plattformen gewinnen Open-Source-Modelle zunehmend an Bedeutung für die B2B-Sichtbarkeit. Modelle wie Llama (Meta), Mistral und verschiedene Schweizer KI-Initiativen werden von Unternehmen intern für Recherche und Einkauf eingesetzt. Diese Modelle werden typischerweise auf Common Crawl und ähnlichen offenen Datensätzen trainiert.

Die Konsequenz: Ihre Präsenz in Common Crawl beeinflusst nicht nur die bekannten KI-Assistenten, sondern auch eine wachsende Zahl interner KI-Systeme, die Ihre potenziellen Kunden möglicherweise einsetzen, ohne dass Sie es wissen. Ein Schweizer Grossunternehmen, das intern ein Open-Source-Modell für die Lieferantenrecherche einsetzt, stützt sich auf genau die Datenbasis, die Common Crawl bereitstellt.

Zukunftsausblick: Wohin entwickelt sich die Index-Landschaft?

Die Multi-Index-Landschaft wird sich in den kommenden Jahren weiter fragmentieren. Mehrere Trends zeichnen sich ab:

  • Spezialisierte Branchenindexe: Branchenspezifische KI-Tools mit eigenen, kuratierten Datensätzen werden zunehmen. Im Gesundheitswesen, in der Finanzbranche und in der Industrie entstehen bereits spezialisierte KI-Lösungen, die auf Fachdaten trainiert werden.
  • Echtzeit-Indexierung wird Standard: Der Trend geht klar in Richtung Live-Websuche bei jeder KI-Anfrage. Das erhöht die Bedeutung Ihrer aktuellen Webpräsenz gegenüber historischen Trainingsdaten.
  • Regionale KI-Modelle: Europäische KI-Initiativen (wie das Schweizer KI-Ökosystem) werden regionale Modelle hervorbringen, die lokale Inhalte stärker gewichten — ein Vorteil für Schweizer Unternehmen, die in lokalen Quellen gut vertreten sind.
  • Cross-Index-Verifizierung: KI-Modelle werden zunehmend mehrere Indexe gleichzeitig abfragen und Informationen gegenprüfen. Konsistenz über Indexe hinweg wird noch wichtiger.

Unternehmen, die heute eine solide Multi-Index-Basis aufbauen, sind für alle diese Entwicklungen vorbereitet.

Häufig gestellte Fragen

Wie überprüfe ich, ob meine Website im Bing-Index ist?

Der einfachste Weg: Geben Sie site:ihredomain.ch in die Bing-Suche ein. Die Ergebnisse zeigen, welche Seiten Bing indexiert hat. Für detailliertere Informationen registrieren Sie sich bei den Bing Webmaster Tools — dort sehen Sie die genaue Anzahl indexierter Seiten, Crawl-Fehler und Indexierungstrends. Bing bietet auch eine Import-Funktion für Google Search Console Daten, die die Ersteinrichtung vereinfacht.

Blockiert mein WordPress-Plugin KI-Crawler?

Viele Sicherheitsplugins (Wordfence, Sucuri, iThemes Security) und Performance-Plugins (WP Rocket, W3 Total Cache) blockieren standardmässig unbekannte Bots — dazu gehören häufig auch KI-Crawler. Prüfen Sie die Bot-Filterungseinstellungen Ihrer installierten Plugins. Häufige Verursacher: Wordfences «Rate Limiting» für unbekannte Crawler, Cloudflares Bot-Management (wenn Ihre DNS durch Cloudflare laufen) und Server-Level-Konfigurationen Ihres Hosting-Anbieters.

Was ist der Unterschied zwischen Bing-Indexierung und Google-Indexierung?

Google und Bing betreiben unabhängige Crawler und Indexierungssysteme. Eine Seite, die bei Google indexiert ist, ist nicht automatisch bei Bing indexiert — und umgekehrt. Die Indexierung überschneidet sich oft zu 70-80 %, aber Abweichungen sind häufig, besonders bei neueren oder weniger verlinkten Seiten. Für KI-Sichtbarkeit ist die Bing-Indexierung besonders relevant, weil ChatGPTs Websuche auf dem Bing-Index basiert.

Wie lange dauert es, bis Bing meine Website indexiert?

Nach dem Einreichen einer Sitemap über die Bing Webmaster Tools beginnt Bing typischerweise innerhalb von 1-3 Tagen mit dem Crawling. Die vollständige Indexierung Ihrer Website kann je nach Grösse eine bis mehrere Wochen dauern. Sie können die Indexierung einzelner Seiten über die «URL Submission»-Funktion in den Webmaster Tools beschleunigen — Bing erlaubt bis zu 10.000 URL-Einreichungen pro Tag.

Muss ich für jeden KI-Crawler eine separate robots.txt-Regel erstellen?

Ja, das ist die empfohlene Praxis. Jeder KI-Crawler hat einen eigenen User-Agent-String, und Sie sollten für jeden eine explizite Allow-Regel erstellen. Die wichtigsten: GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot (Perplexity), Applebot (Apple) und Google-Extended (Google KI-Training). Eine pauschale User-agent: * / Allow: /-Regel reicht theoretisch, aber explizite Regeln sind sicherer, falls Sie für andere Bots Einschränkungen benötigen.

Bereit loszulegen?

Prüfen Sie Ihre KI-Sichtbarkeit — kostenlos

Sehen Sie, wie ChatGPT, Claude, Perplexity und Gemini Ihr Unternehmen heute beschreiben. Erhalten Sie in wenigen Minuten einen kostenlosen Sichtbarkeitsbericht.