Google ist nicht mehr der einzige Index, der zählt. Welche KI-Indexe Schweizer B2B-Unternehmen kennen müssen — und wie sie dort hinkommen.
Zwanzig Jahre lang bedeutete «indexiert sein» genau eine Sache: Google. Wenn der Googlebot Ihre Seite gecrawlt hat und Ihre Seiten in der Google-Suche erschienen, waren Sie auffindbar. Alles andere war vernachlässigbar.
Diese Ära geht zu Ende. Heute betreiben mindestens fünf grosse KI-Anbieter eigene Indexe, Crawler und Datenpipelines — und jeder entscheidet unabhängig, welche Unternehmen er bei einer Nutzeranfrage ausspielt. Wer nur bei Google indexiert ist, ist in nur einem dieser Systeme sichtbar. Die anderen wissen möglicherweise nicht, dass Sie existieren.
Für Schweizer B2B-Unternehmen ist das kein theoretisches Problem. Wenn ein Beschaffungsverantwortlicher in Zürich ChatGPT nach Lieferantenempfehlungen fragt, stammt die Antwort nicht aus Googles Index. Sie kommt aus dem Bing-Index, aus Daten des OpenAI-eigenen Crawlers und aus dem Trainingskorpus des Modells. Wer jahrelang ausschliesslich für Google optimiert hat, ist im am schnellsten wachsenden Kanal möglicherweise unsichtbar.
Jeder grosse KI-Anbieter greift auf unterschiedliche Quellen zurück. Dieses Mapping zu verstehen, ist der erste Schritt zu einer Multi-Index-Strategie:
Die Echtzeit-Suche von ChatGPT basiert auf dem Bing-Index, nicht auf Google. Zusätzlich betreibt OpenAI einen eigenen Crawler — GPTBot — der einen separaten Inhaltsindex aufbaut. Wenn ein Nutzer ChatGPT eine Frage stellt, kombiniert das System Bing-Suchergebnisse, GPTBot-gecrawlte Inhalte und die Trainingsdaten des Modells.
Die Konsequenz: Wenn Ihre Seite bei Google gut rankt, Sie aber nie die Bing Webmaster Tools geprüft haben, hat ChatGPT möglicherweise keinen Zugriff auf Ihre aktuellsten Inhalte.
Googles KI-Funktionen — Gemini und AI Overviews in der Suche — nutzen naturgemäss Googles eigenen Index. Wer SEO betreibt, ist hier bereits abgedeckt. Google setzt zusätzlich den Crawler Google-Extended speziell für KI-Trainingszwecke ein.
Perplexity betreibt einen eigenen Crawler — PerplexityBot — und kombiniert diesen mit Ergebnissen aus mehreren Suchindexen. Es ist eines der aggressivsten KI-Suchtools bei der Echtzeit-Webrecherche, weshalb Ihre aktuelle Webpräsenz gerade für Perplexity-Antworten besonders relevant ist.
Anthropic betreibt ClaudeBot, einen eigenen Web-Crawler, und verfügt über Suchpartnerschaften für Echtzeit-Retrieval. Claudes Antworten speisen sich sowohl aus den Trainingsdaten als auch aus diesen Live-Suchergebnissen.
Apple crawlt das Web mit Applebot und integriert KI-Funktionen quer durch sein Ökosystem — Siri, Safari und systemweite Intelligenz. Für Schweizer B2B-Unternehmen, deren Kunden Apple-Geräte nutzen (verbreitet in Führungsetagen und kreativen Branchen), ist die Applebot-Indexierung relevant.
Viele KI-Modelle — einschliesslich Open-Source-Modelle, die Unternehmen zunehmend intern einsetzen — werden auf Common Crawl trainiert, einem riesigen offenen Datensatz von Webinhalten. Wenn Ihre Seite nicht in Common Crawl enthalten ist, fehlt sie möglicherweise in den Trainingsdaten Dutzender Modelle, von denen Sie noch nie gehört haben — die aber Ihre Zielgruppe vielleicht nutzt.
In der Schweiz liegt Bings Marktanteil bei der klassischen Suche bei vernachlässigbaren 3–5 %. Deshalb haben die meisten Schweizer B2B-Unternehmen nie Bing Webmaster Tools eingerichtet, nie eine Sitemap bei Bing eingereicht und nie geprüft, ob ihre Seiten dort überhaupt indexiert sind.
Das war eine nachvollziehbare Entscheidung, als Bing nur eine Suchmaschine war. Es ist keine nachvollziehbare Entscheidung mehr, seit Bing die Echtzeit-Suche von ChatGPT antreibt — dem wohl einflussreichsten KI-Tool am Markt. Jedes Schweizer Unternehmen, das Bing ignoriert, ist für ChatGPTs Suchfunktion praktisch unsichtbar.
Die Lösung ist einfach: Registrieren Sie sich bei den Bing Webmaster Tools, reichen Sie Ihre Sitemap ein und verifizieren Sie Ihre Website. Das dauert fünfzehn Minuten und erweitert Ihre KI-Auffindbarkeit sofort.
Selbst wenn Ihr Content hervorragend ist — KI-Anbieter können nur indexieren, was ihre Crawler erreichen. Viele Schweizer Websites, besonders solche mit sicherheitsbewussten IT-Abteilungen, blockieren unbekannte Bots standardmässig. Das bedeutet, dass GPTBot, ClaudeBot, PerplexityBot und Applebot möglicherweise 403-Fehler erhalten, wenn sie Ihre Seite crawlen wollen.
Prüfen Sie Ihre robots.txt-Datei. Eine Konfiguration, die KI-Auffindbarkeit unterstützt, sollte diese Crawler explizit erlauben:
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Applebot
Allow: /
User-agent: Google-Extended
Allow: /
Wenn Ihre robots.txt eine pauschale User-agent: * / Disallow: /-Regel mit Ausnahmen nur für den Googlebot enthält, blockieren Sie jeden KI-Crawler. Das kommt häufiger vor, als man denkt — wir haben es auf den Websites grosser Schweizer IT-Beratungen, Ingenieurbüros und SaaS-Anbieter gesehen.
KI-Modelle werden nicht in Echtzeit aktualisiert. Jedes Modell hat einen Trainingsdaten-Cutoff — ein Datum, nach dem keine neuen Informationen mehr ins Basiswissen einfliessen. Die Trainingsdaten von GPT-4 haben beispielsweise einen Cutoff, der Inhalte der letzten Monate nicht einschliesst.
Das erzeugt eine unsichtbare Lücke: Selbst wenn Ihre Website seit Jahren bei Google indexiert ist, existieren die Inhalte, die Sie im letzten Quartal veröffentlicht haben, möglicherweise in keinem Modell-Trainingskorpus. Nur über Echtzeit-Retrieval (RAG) können KI-Tools auf Ihre neusten Inhalte zugreifen — und dieses Retrieval hängt davon ab, in den Suchsystemen jedes Anbieters indexiert zu sein.
Die praktische Konsequenz: Sie brauchen beides — eine starke historische Präsenz (für die Trainingsdaten) und aktuelle Indexierung in mehreren Suchsystemen (für RAG). Keines von beiden reicht allein aus.
Hier ist ein konkreter Aktionsplan für Multi-Index-Abdeckung:
In mehreren Indexen präsent zu sein, wirkt nicht nur additiv — es potenziert sich. Wenn Ihr Unternehmen im Bing-Index, in Googles Index, in Common Crawl und in den proprietären Indexen jedes KI-Crawlers erscheint, passiert Folgendes:
Das Zeitfenster für den Aufbau einer Multi-Index-Präsenz ist offen, wird aber schmaler. KI-Anbieter crawlen aktiv das Web und bauen ihre Wissensbasen genau jetzt auf. Unternehmen, die heute indexiert sind, werden die Unternehmen sein, die diese Modelle morgen «kennen» und empfehlen.
Für Schweizer B2B-Unternehmen ist das besonders relevant. Der DACH-Markt ist kompetitiv, Nischen sind klar definiert, und das erste Unternehmen, das starke KI-Sichtbarkeit in einer Kategorie aufbaut, hält diese Position tendenziell. LLMs entwickeln eine Art Wissensträgheit — hat ein Modell ein Unternehmen einmal als Empfehlung verankert, erfordert es erheblich mehr Aufwand, diese Position zu verdrängen, als sie zu etablieren.
Genau deshalb überwacht per4mx Ihre Sichtbarkeit gleichzeitig bei ChatGPT, Claude, Google AI und Perplexity. Jeder Anbieter greift auf unterschiedliche Indexe zurück, und eine Lücke in auch nur einem davon bedeutet verpasste Chancen. Zu verstehen, wo Sie über die gesamte Landschaft hinweg stehen, ist der erste Schritt, um Lücken zu schliessen.
Die Massnahmen sind klar, und die meisten kosten nichts ausser Zeit: Bei Bing registrieren, robots.txt aktualisieren, eine llms.txt-Datei erstellen und mit dem Monitoring beginnen. Unternehmen, die das heute tun, sichern sich einen strukturellen Vorteil, der sich mit jedem Modell-Update, jedem neuen KI-Feature und jeder Anfrage eines Entscheiders an einen KI-Assistenten verstärkt.
Bevor Sie Massnahmen ergreifen, brauchen Sie ein klares Bild Ihrer aktuellen Multi-Index-Präsenz. Hier ist ein strukturiertes Audit-Verfahren, das Sie in wenigen Stunden durchführen können:
https://ihredomain.ch/robots.txt aufDisallow-Regeln, die auch KI-Crawler betreffenDer optimale Ansatz für Multi-Index-Präsenz variiert je nach Unternehmensressourcen:
Fokussieren Sie auf die drei wirkungsvollsten Massnahmen:
Diese drei Massnahmen kosten insgesamt weniger als zwei Stunden Arbeitszeit und adressieren die häufigsten Ursachen für fehlende KI-Sichtbarkeit.
Ergänzen Sie die Basismassnahmen um:
Für grössere Organisationen empfehlen wir eine systematische Multi-Index-Governance:
Neben den grossen kommerziellen KI-Plattformen gewinnen Open-Source-Modelle zunehmend an Bedeutung für die B2B-Sichtbarkeit. Modelle wie Llama (Meta), Mistral und verschiedene Schweizer KI-Initiativen werden von Unternehmen intern für Recherche und Einkauf eingesetzt. Diese Modelle werden typischerweise auf Common Crawl und ähnlichen offenen Datensätzen trainiert.
Die Konsequenz: Ihre Präsenz in Common Crawl beeinflusst nicht nur die bekannten KI-Assistenten, sondern auch eine wachsende Zahl interner KI-Systeme, die Ihre potenziellen Kunden möglicherweise einsetzen, ohne dass Sie es wissen. Ein Schweizer Grossunternehmen, das intern ein Open-Source-Modell für die Lieferantenrecherche einsetzt, stützt sich auf genau die Datenbasis, die Common Crawl bereitstellt.
Die Multi-Index-Landschaft wird sich in den kommenden Jahren weiter fragmentieren. Mehrere Trends zeichnen sich ab:
Unternehmen, die heute eine solide Multi-Index-Basis aufbauen, sind für alle diese Entwicklungen vorbereitet.
Der einfachste Weg: Geben Sie site:ihredomain.ch in die Bing-Suche ein. Die Ergebnisse zeigen, welche Seiten Bing indexiert hat. Für detailliertere Informationen registrieren Sie sich bei den Bing Webmaster Tools — dort sehen Sie die genaue Anzahl indexierter Seiten, Crawl-Fehler und Indexierungstrends. Bing bietet auch eine Import-Funktion für Google Search Console Daten, die die Ersteinrichtung vereinfacht.
Viele Sicherheitsplugins (Wordfence, Sucuri, iThemes Security) und Performance-Plugins (WP Rocket, W3 Total Cache) blockieren standardmässig unbekannte Bots — dazu gehören häufig auch KI-Crawler. Prüfen Sie die Bot-Filterungseinstellungen Ihrer installierten Plugins. Häufige Verursacher: Wordfences «Rate Limiting» für unbekannte Crawler, Cloudflares Bot-Management (wenn Ihre DNS durch Cloudflare laufen) und Server-Level-Konfigurationen Ihres Hosting-Anbieters.
Google und Bing betreiben unabhängige Crawler und Indexierungssysteme. Eine Seite, die bei Google indexiert ist, ist nicht automatisch bei Bing indexiert — und umgekehrt. Die Indexierung überschneidet sich oft zu 70-80 %, aber Abweichungen sind häufig, besonders bei neueren oder weniger verlinkten Seiten. Für KI-Sichtbarkeit ist die Bing-Indexierung besonders relevant, weil ChatGPTs Websuche auf dem Bing-Index basiert.
Nach dem Einreichen einer Sitemap über die Bing Webmaster Tools beginnt Bing typischerweise innerhalb von 1-3 Tagen mit dem Crawling. Die vollständige Indexierung Ihrer Website kann je nach Grösse eine bis mehrere Wochen dauern. Sie können die Indexierung einzelner Seiten über die «URL Submission»-Funktion in den Webmaster Tools beschleunigen — Bing erlaubt bis zu 10.000 URL-Einreichungen pro Tag.
Ja, das ist die empfohlene Praxis. Jeder KI-Crawler hat einen eigenen User-Agent-String, und Sie sollten für jeden eine explizite Allow-Regel erstellen. Die wichtigsten: GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot (Perplexity), Applebot (Apple) und Google-Extended (Google KI-Training). Eine pauschale User-agent: * / Allow: /-Regel reicht theoretisch, aber explizite Regeln sind sicherer, falls Sie für andere Bots Einschränkungen benötigen.
Bereit loszulegen?
Sehen Sie, wie ChatGPT, Claude, Perplexity und Gemini Ihr Unternehmen heute beschreiben. Erhalten Sie in wenigen Minuten einen kostenlosen Sichtbarkeitsbericht.