Dieser Post ist aus 2015 und soll noch mal daran erinnern das es Sinn macht darüber nachzudenken woher die Daten von externen Tools eigentlich kommen, und wie valide sie sind.
Seit geraumer Zeit werden die Ergebnisse der „SERP-Crawler“ immer ungenauer. Neben der allgemeinen Weiterentwicklung und einer sehr starken auf den User individualisierten SERP hat sich Google wohl auch gedacht das man den Tool-Anbietern das Leben ja mal schwer machen könnte.
Statt einfach kein SERP-Ergebnis auf eine Bot-Anfrage zu liefern ist es noch viel lustiger Unsinn zu liefern. Lasst die doofen Bots mal rätseln was da los ist.
Als Kunde von diversen SERP-Datenbanken ist man da schon weit weniger im Bilde wie valide die Daten denn nun sind. Klar, bei einem One-Pager mit einem Keyword-Pool von 20 kann man das noch mal eben selbst im Auge behalten, aber was machen große Seiten? Oder was passiert wenn man viele Seiten hat? Das könne euch nur die Anbieter sagen, oder ihr validiert es selber in sehr mühsamer Kleinarbeit jede Woche selbst, neben viel Geduld und Man-Power braucht das aber auch einiges an Planung für die jeweiligen Tests.
Ich hab mich entschlossen keine SERP-Crawler Daten mehr in unsere Reports einzubinden. Warum? Weil das Ranking ja nicht das eigentliche Ziel der Seite ist, sondern nur ein Untergeordnetes Ziel eines SEO.
Was ist aber wichtig?
User-Daten, Usability Daten, und allem voran: Umsatz und dem übergeordnet der Gewinn. Den kann man nämlich auch auf Quellen, Seiten, Kampagnen und Klick-Pfade runter brechen. 😉
SEO ist ja nur ein Teil des Marketing-Mix und sollte alles andere unterstützen. Dabei sollte die Zuordnung von Boni und das eigene Ego zu Hause bleiben.
Zusätzlich kann man in den Webmastertools bei größeren Seiten für jedes Verzeichnis eine Property anlegen und die Daten über die API in eine eigene Datenbank ziehen und historisch speichern. Das müllt zwar ziemlich rum, hilft aber bei der Analyse der SERP vor, während und nach einem Relaunch.