Die meisten KI-Sichtbarkeits-Tools befragen Basismodelle ohne aktivierte Websuche. Für Unternehmen ausserhalb der USA — insbesondere im DACH-Raum — liefern sie Zahlen, die aktiv in die Irre führen.
Öffnen Sie eine beliebige KI-Sichtbarkeitsplattform, und Sie sehen Dashboards voller Citation-Counts, Erwähnungsscores und Share-of-Voice-Werte. Es wirkt rigoros, fühlt sich nach Daten an. Für viele Unternehmen — vor allem ausserhalb der USA — misst es etwas, das die Welt ihrer Kunden kaum widerspiegelt.
Das Kernproblem ist einfach: Die meisten KI-Sichtbarkeits-Tools befragen grosse Sprachmodelle in ihrer Basisform, ohne aktivierte Websuche. Sie zählen, wie oft Ihre Marke in Antworten aus gefrorenen Trainingsdaten auftaucht, nennen das "KI-Sichtbarkeit" und berechnen Ihnen eine monatliche Gebühr dafür. Dieser Ansatz hat drei kritische Schwächen, die sich gegenseitig verstärken — und Unternehmen ausserhalb der USA am stärksten treffen.
Jedes grosse Sprachmodell hat einen Trainings-Cutoff. Die Daten, aus denen das Modell gelernt hat, wurden Monate — manchmal über ein Jahr — vor Ihrer ersten Anfrage gesammelt, bereinigt und eingearbeitet. Wenn ein KI-Sichtbarkeits-Tool Anfragen an ein Basismodell ohne Suche sendet, fragt es: "Was wusste dieses Modell zum Zeitpunkt seiner Trainingsdaten?" — nicht: "Was würde ein echter Käufer heute finden?"
Haben Sie letzten Monat eine überzeugende Fallstudie veröffentlicht, letztes Quartal Ihre Website neu gestaltet oder letzte Woche eine wichtige Pressemeldung erhalten? Nichts davon existiert in einer Basismodell-Abfrage. Ein Tool, das Basismodell-Antworten misst, meldet Sie als unsichtbar — obwohl Sie in der Praxis heute in jeder KI-generierten Antwort an echte Käufer prominent erscheinen könnten.
Das ist bedeutsam, weil Content-Aktualität eines der wirkungsvollsten Hebel in der Generative Engine Optimisation darstellt. Den Einfluss aktueller Arbeit können Sie nicht messen, wenn Ihr Messinstrument aktuelle Arbeit ignoriert.
Die Trainingskorpora der grossen Sprachmodelle gewichten englischsprachige, US-amerikanische Inhalte stark. Das ist keine bewusst eingeführte Verzerrung — es spiegelt schlicht wider, wo das Inhaltsvolumen des Internets historisch konzentriert war. Die praktische Konsequenz für ein Schweizer oder deutsches B2B-Unternehmen ist deutlich: Ihr Unternehmen hat möglicherweise so gut wie keine Präsenz in den Basismodell-Trainingsdaten — nicht weil Sie in Ihrem Markt unbekannt sind, sondern weil das Modell Sie nie "gesehen" hat.
Eine Basismodell-Abfrage nach "besten ERP-Anbietern für die Schweizer Fertigung" wird Unternehmen mit grossem englischsprachigem Fussabdruck zeigen — unabhängig von deren tatsächlicher Marktpräsenz in der Schweiz. Eine suchgestützte Abfrage derselben Frage zieht aus Schweizer Unternehmensverzeichnissen, deutschsprachigen Fachpublikationen und Ihrer eigenen Website — eine völlig andere Informationslandschaft.
Wenn ein KI-Sichtbarkeits-Tool einem Basler Softwareunternehmen eine Citation-Rate von 3 % meldet, lautet die ehrliche Interpretation: "3 % in gefrorenen, US-gewichteten Trainingsdaten." Die Zahl, die tatsächlich zählt — wie häufig Sie erscheinen, wenn ein Schweizer Einkaufsleiter dieselbe Frage mit Echtzeit-Suche an einen KI-Assistenten stellt — wird gar nicht gemessen.
Deshalb ist es grundlegend, zu verstehen, wie KI-Suche tatsächlich funktioniert — insbesondere wann Modelle Live-Daten abrufen versus Trainingsdaten abrufen — bevor man KI-Sichtbarkeitsmetriken interpretiert.
Überlegen Sie, wie Ihre tatsächlichen Käufer KI-Tools heute nutzen. ChatGPT hat standardmässig die Websuche aktiviert. Perplexity war schon immer auf Echtzeit-Retrieval ausgelegt. Googles KI-Modus zieht aus dem Live-Index. Microsoft Copilot integriert Bing-Suche durchgängig. Das Szenario, in dem ein Käufer eine KI-Frage stellt und eine Antwort erhält, die ausschliesslich auf Trainingsdaten basiert — ohne Suche, ohne Retrieval, ohne frischen Content — wird immer seltener.
Indem sie Basismodelle abfragen, messen KI-Sichtbarkeits-Tools eine Nutzungserfahrung, die an Relevanz verliert. Sie sagen Ihnen, wie sichtbar Sie in einem Modus sind, dem immer weniger echte Käufer begegnen.
Für ein Schweizer B2B-Unternehmen ist diese Unterscheidung nicht akademisch. Ihre Käufer fragen ChatGPT: "Welche CRM-Anbieter eignen sich für Schweizer KMU?" oder "Was sind die besten Schweizer Industriesensoren?" — und erhalten Antworten aus Live-Suchergebnissen. Ihre Website, Ihre aktuellen Artikel, Ihre Einträge in Schweizer Unternehmensverzeichnissen — das sind die Signale, die zählen. Ein Tool, das diese ignoriert, misst nicht Ihre KI-Sichtbarkeit. Es misst Ihre KI-Geschichte.
Es gibt einen strukturellen Grund, warum so viele Tools standardmässig Basismodell-Abfragen verwenden: Kosten. Eine suchgestützte Abfrage — eine, die das KI-Modell anweist, vor der Antwort das Web zu durchsuchen — kostet ungefähr 100 bis 150 Mal mehr als eine Basismodell-Abfrage. Bei diesem Kostenverhältnis kann ein Tool, das CHF 79 pro Monat verlangt, schlicht keine suchgestützten Abfragen in dem Volumen ausführen, das statistisch aussagekräftige Daten über Hunderte von Keywords und mehrere KI-Modelle hinweg erfordert.
So hat sich die Branche still und leise auf Basismodell-Abfragen geeinigt. Die Dashboards sehen gleich aus. Die Berichte wirken glaubwürdig. Die Methodik-Fussnote ist vergraben — wenn sie überhaupt erscheint. Das Ergebnis ist eine Generation von KI-Sichtbarkeitsprodukten, die auf Wirtschaftlichkeit und äussere Wirkung optimiert sind, nicht auf Genauigkeit.
Das ist keine Kritik an einem einzelnen Unternehmen — es ist ein strukturelles Anreizproblem. Wenn der wirtschaftlich tragfähige Messansatz vom methodisch korrekten abweicht, belohnt der Marktdruck tendenziell den günstigeren. Dieses Muster zu kennen, hilft Ihnen, bessere Fragen zu stellen, wenn Sie ein KI-Sichtbarkeits-Tool evaluieren.
Für Unternehmen in der Schweiz, Deutschland und Österreich ist Basismodell-Messung aus einem sich verstärkenden Bündel von Gründen besonders unzuverlässig:
Die praktische Konsequenz: Ein Schweizer Unternehmen, das in starke deutschsprachige Inhalte, lokale Verzeichniseinträge und eine gut strukturierte Website investiert hat, unterschätzt seine tatsächliche KI-Sichtbarkeit möglicherweise dramatisch — weil das messende Tool nie die Suche aktiviert. Umgekehrt kann ein Unternehmen, das auf Basis guter Basismodell-Scores zufrieden ist, durch aufgeblähte Zahlen in falscher Sicherheit gewiegt werden. Keines der beiden Ergebnisse dient Ihrer Strategie.
Bevor Sie einen Citation-Count oder Sichtbarkeitsscore für bare Münze nehmen, stellen Sie dem Tool-Anbieter vier Fragen:
Diese Fragen sind kein Fallstrick. Sie sind die Grundlage methodischer Sorgfalt in einer jungen und noch reifenden Messkategorie. Die Tools, die sie klar beantworten, verdienen mehr Vertrauen.
Der richtige Ansatz — aufwändiger und kostspieliger, aber der einzige, der die Realität widerspiegelt — nutzt suchgestützte Abfragen, testet in der Sprache des Käufers, simuliert die Lokalität des Käufers und zeigt den tatsächlichen Antworttext neben jeder aggregierten Bewertung.
Das bedeutet: Anfragen über ChatGPT mit aktiver Websuche ausführen. Deutsche Anfragen für deutschsprachige Märkte senden, Schweiz-gezielte Anfragen für Schweizer Käufer. Aufzeichnen, was die KI tatsächlich gesagt hat, nicht nur ob Ihre Marke erschien. Und das konsequent über die Zeit tun, weil sich KI-Sichtbarkeit Woche für Woche verändert, wenn Modelle aktualisiert werden, Wettbewerber publizieren und Suchindizes sich erneuern.
Für DACH-Unternehmen im Besonderen zeichnet diese Methodik häufig ein anderes Bild als Basismodell-Messung. Unternehmen, die KI als Kanal abgeschrieben hatten, wo sie strukturell benachteiligt seien, entdecken oft eine bedeutsame Präsenz in Echtzeit-suchgestützten Antworten. Unternehmen, die sich aufgrund guter Basismodell-Scores sicher fühlten, stellen manchmal fest, dass ihre Echtzeit-Sichtbarkeit weit dünner ist. In jedem Fall sind die Erkenntnisse handlungsleitend.
Wer verstehen möchte, ob Content-Investitionen Käufer erreichen, die KI-Tools verwenden, kommt an echten suchgestützten KI-Antworten nicht vorbei. Basismodell-Scores erzählen von der Vergangenheit. Suchgestützte Scores erzählen von heute.
Um die methodische Qualität eines KI-Sichtbarkeitstools systematisch zu bewerten, empfehlen wir folgendes Fünf-Dimensionen-Framework:
| Dimension | Korrekte Messung | Unzureichende Messung |
|---|---|---|
| Suchmodus | Suchgestützte Abfragen (RAG aktiviert) | Nur Basismodell-Abfragen |
| Sprache | In der Sprache der Zielgruppe (DE/FR/IT) | Nur Englisch |
| Lokalität | Schweiz-spezifische Anfragen | Global-neutrale Anfragen |
| Transparenz | Tatsächliche Antwort-Texte sichtbar | Nur aggregierte Scores |
| Aktualität | Wöchentliche oder häufigere Messung | Einmalige oder monatliche Messung |
Ein Tool, das in allen fünf Dimensionen korrekt misst, liefert ein Bild, das die tatsächliche Käufererfahrung widerspiegelt. Ein Tool, das in drei oder mehr Dimensionen unzureichend misst, liefert Daten, die für DACH-Unternehmen aktiv irreführend sein können.
Ein Basler Medizintechnik-Unternehmen nutzte ein internationales KI-Sichtbarkeitstool und erhielt einen Citation-Score von 2 %. Die Interpretation: «KI-Sichtbarkeit ist für uns kein relevanter Kanal.» Das Unternehmen stoppte alle GEO-Investitionen.
Eine Nachprüfung mit suchgestützten Abfragen auf Deutsch ergab ein völlig anderes Bild: Bei der Frage «Welche Schweizer Firmen bieten CE-zertifizierte Medizinprodukte für die Orthopädie?» erschien das Unternehmen bei Perplexity als dritte Empfehlung und bei ChatGPT (mit Websuche) auf Position zwei. Der Citation-Score von 2 % spiegelte die US-gewichteten Basismodell-Trainingsdaten wider — nicht die tatsächliche Sichtbarkeit für Schweizer Einkäufer.
Die Lektion: Hätte das Unternehmen auf Basis der falschen Messung entschieden, hätte es einen Kanal aufgegeben, in dem es bereits stark positioniert war.
Ein Zürcher Managed-Service-Provider erhielt von einem Basismodell-Tool einen Citation-Score von 15 % — deutlich über dem Branchendurchschnitt. Das Team war zufrieden und investierte nicht weiter in GEO.
Die Nachprüfung zeigte: Der Score stammte aus englischsprachigen Basismodell-Abfragen, bei denen das Unternehmen dank einer alten englischen Pressemitteilung gelegentlich erwähnt wurde. Bei deutschsprachigen, suchgestützten Anfragen — den Anfragen, die Schweizer Einkäufer tatsächlich stellen — war das Unternehmen unsichtbar. Der hohe Score erzeugte falsche Sicherheit.
Eine Genfer Managementberatung testete ihre Sichtbarkeit nur auf Englisch und erhielt solide Ergebnisse. Auf Französisch — der Sprache, in der ihre Westschweizer Kunden KI-Tools befragen — war die Firma völlig unsichtbar. Das Tool bot keine französischsprachige Testfähigkeit, und die Firma realisierte die Lücke erst, als ein Kunde erwähnte, er habe «bei ChatGPT nach Beratungsfirmen gesucht und Sie nicht gefunden».
Prüfen Sie Ihr aktuelles KI-Sichtbarkeitsmonitoring mit diesem Schnelltest:
Dieser Fünf-Minuten-Test offenbart häufig erhebliche Diskrepanzen zwischen Tool-Dashboards und Realität. Jede festgestellte Diskrepanz ist ein Signal, die Methodik Ihres Tools zu hinterfragen.
Suchgestützte KI-Abfragen kosten 100- bis 150-mal mehr als Basismodell-Abfragen. Das hat direkte Auswirkungen auf die Preisgestaltung von Tools, die korrekt messen. Ein Tool, das 100 Prompts wöchentlich über sieben KI-Plattformen mit aktivierter Websuche testet, verursacht signifikante API-Kosten.
Deshalb sind Tools, die korrekt messen, typischerweise teurer als Basismodell-Tools. Die relevante Frage ist nicht «Was kostet das Tool?», sondern «Was kostet die falsche Entscheidung, die ich auf Basis falscher Daten treffe?»
Für ein Schweizer B2B-Unternehmen mit einem durchschnittlichen Auftragsvolumen von CHF 50.000 ist ein einziger verpasster Lead — ein Einkäufer, der ChatGPT fragte und Ihren Wettbewerber statt Sie empfohlen bekam — teurer als ein Jahr Monitoring mit dem besten verfügbaren Tool. Die Investition in korrekte Messung ist keine Frage des Budgets, sondern der Geschäftslogik.
Die Branche der KI-Sichtbarkeitstools ist jung und entwickelt sich schnell. Mehrere Trends zeichnen sich ab:
Die Frage "Wie sichtbar bin ich in KI?" ist nur aussagekräftig, wenn sie präzisiert: sichtbar für wen, in welcher Sprache, an welchem Ort, auf welcher Plattform, zu welchem Zeitpunkt. Ein KI-Sichtbarkeits-Tool, das nicht alle fünf Dimensionen beantwortet, liefert Ihnen eine unvollständige Antwort — und für Unternehmen ausserhalb der USA ist das üblicherweise der am wenigsten relevante Teil der Antwort.
Messen Sie, was Ihre Käufer tatsächlich erleben. Das heisst: suchgestützte Abfragen, in ihrer Sprache, mit Simulation ihres Standorts, mit Anzeige der tatsächlichen Antwort. Alles andere ist ein Näherungswert für etwas, das so kaum noch existiert.
Fragen Sie direkt beim Anbieter: «Nutzt Ihr Monitoring Websuche / Browsing-Modus oder Basismodelle?» Wenn die Antwort unklar ist, machen Sie den Selbsttest: Vergleichen Sie eine Antwort aus dem Tool mit einer manuellen ChatGPT-Anfrage (mit aktivierter Websuche) für denselben Prompt. Wenn die Ergebnisse stark abweichen — das Tool zeigt alte Informationen, die manuelle Anfrage aktuelle — nutzt das Tool wahrscheinlich Basismodell-Abfragen.
Nicht komplett, aber ihre Aussagekraft ist begrenzt. Basismodell-Daten zeigen, ob Ihr Unternehmen im «Langzeitgedächtnis» der KI präsent ist — nützlich als Hintergrund-Indikator. Aber sie messen nicht, was echte Käufer erleben, und sie sind für DACH-Unternehmen systematisch verzerrt. Basismodell-Daten als einzige Entscheidungsgrundlage zu nutzen, ist riskant. Als Ergänzung zu suchgestützten Daten liefern sie zusätzlichen Kontext.
KI-Modelle mit aktivierter Websuche passen ihre Suchergebnisse an den erkannten Standort des Nutzers an — ähnlich wie Google lokalisierte Suchergebnisse liefert. Eine Anfrage aus der Schweiz liefert mehr Schweizer Quellen als dieselbe Anfrage aus den USA. Für Ihr Monitoring bedeutet das: Ein Tool, das aus einem US-Rechenzentrum testet, simuliert eine andere Erfahrung als ein Schweizer Einkäufer, der von Zürich aus fragt. Die Standortsimulation ist kein Nice-to-have — sie ist methodische Notwendigkeit.
Widersprüchliche Daten sind häufig und oft erklärbar. Prüfen Sie zuerst die Methodik: Nutzen beide Tools denselben Abfragemodus (Basismodell vs. suchgestützt), dieselbe Sprache und denselben Standort? Wenn nicht, erklären sich die Unterschiede durch die Methodik. Wenn die Methodik identisch ist und die Ergebnisse dennoch abweichen, vertrauen Sie dem Tool, das Ihnen die tatsächlichen Antwort-Texte zeigt — dort können Sie die Ergebnisse manuell verifizieren.
Bereit loszulegen?
Sehen Sie, wie ChatGPT, Claude, Perplexity und Gemini Ihr Unternehmen heute beschreiben. Erhalten Sie in wenigen Minuten einen kostenlosen Sichtbarkeitsbericht.