Skip to content

Qualität oder Quantität?

Heute wird es mal wieder Zeit etwas über das Openseodata Projekt vom guten Fabian zu schreiben. Wie ich schon in mehreren Beiträgen geschrieben habe finde ich die Idee an sich Klasse, glaube jedoch nicht an den Erfolg.
Heute möchte ich mir mal etwas genauer das vom Seoprogrammierer zur Verfügung gestellte Keywordset anschauen.

Das Keywordset

Fabian hat versprochen, dass es die von ihm gesammelten Daten schon bald komplett zum download gibt. Damit man schon einen kleinen Vorgeschmack erhält hat er schon vorab ein kleines Keywordset zur Verfügung gestellt.
Ich habe es mir natürlich direkt angeschaut und komme nun endlich dazu euch die Ergebnisse zu präsentieren.
Nun ein paar Fakten

  • 9584 Keywords
  • 7412 Keywords mit einem CPC von 0,05 Cent
  • 2523 Keywords mit 0 globalen Suchen
  • 6323 Keywords mit weniger als 1000 globalen Suchen

Die Daten wurden mit den folgenden 4 Befehlen ermittelt (cygwin oder direkt im *NIX nutzbar)

tail *.csv -n +2 | wc -l

 tail *.csv -n +2 | grep '"0.05"&' | wc -l

tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | sort | uniq | sort -nr | grep "^0;" | wc -l

tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | sort | uniq | sort -nr | grep -Eo "^[[:digit:]]{1,3};"
| wc -l

Einige werden diese Zahlen jetzt schockieren – andere werden sich denken : na und?
Damit wir eine gleiche Basis haben für die weitere Analyse nun ein paar Sätze dazu.
Sollte in Adwords ein Keyword nicht gebucht werden oder keine Konkurrenz existieren wird der CPC immer mit 0,05 Cent angegeben.
Dass Datensätze mit 0 globalen Suchen absolut irrelevant sind, sollte jedem klar sein und dass selbst Nischen brauchen eine bestimmte Zahl an Suchen, damit man auch entsprechend Traffic kommt sollte auch logisch sein. Den Schnitt bei 1000 mache ich, weil nicht jeder, der die Suche durchführt auch klickt und zum anderen weil ja auch scheinbar genügend Seotools diese Keywords abfragen – aus diesem Grund denke ich, dass der natürliche Traffic einiges geringer ist. Im übrigen denke ich sowieso, dass locker 20 bis 30% der Suchanfragen von SEOs oder anderen Bots kommen.
Wie wir sehen sind das zwar eine Menge Daten die irgendwie jedoch für Traffic absolut nutzlos sind – da werde Abfragen auf nichtige Keywords gemacht die im günstigsten Fall für den Linkaufbau genutzt werden können.

Hier mal noch eine andere Statistik aus dem Keywordset als Rohdaten :

    1 13600000
    1 11100000
    4 7480000
    1 6120000
    7 5000000
    4 3350000
    8 2740000
   10 2240000
    4 1830000
   10 1500000
   16 1220000
    4 1000000
   15 823000
   12 673000
   11 550000
   12 450000
   22 368000
   16 301000
   23 246000
   31 201000
   41 165000
   34 135000
   33 110000
   38 90500
   44 74000
   40 60500
   65 49500
   67 40500
   64 33100
   77 27100
   90 22200
   86 18100
   93 14800
  104 12100
  142 9900
  145 8100
  162 6600
  182 5400
  221 4400
  235 3600
  247 2900
  279 2400
  265 1900
  135 1600
   67 1300
   93 1000
  104 880
  116 720
  112 590
  117 480
  123 390
  138 320
  150 260
  152 210
  183 170
  194 140
  202 110
  246 91
  262 73
  278 58
  268 46
  243 36
  266 28
  264 22
  221 16
  161 12
 2523 0

Die erste Zahl gibt die Anzahl der Vorkommen an und die zweite Zahl das Suchvolumen. Jeder der sich schonmal selbst mit dem Keywordtool auseinander gesetzt hat, weiß dass Google nur Grob die Anzahl der Suchen ausspuckt und teilweise auch komische Keywords vorschlägt – übrigends ähnlich wie beim Google Suggest, wenn man dort mal die Vorschläge mit dem Suchvolumen vergleicht bekommt man gerade bei longtails den größten Mist angezeigt – beide Möglichkeiten dürfen nur begrenzt eine Vorlage für ein Keywordset sein.
Ihr wollt ein Beispiel haben? Das könnt ihr gerne haben. Wir suchen unsmal alle Keywords mit einem Suchvolumen von 1000 raus.

tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | grep "^1000;"

Dabei finden wir ein paar sinnvolle Keywords wie Urlaub in Berlin oder schülerjobs ab 16, aber eben auch Keywords wie Hobbynutten Berlin.

Fazit

Auch wenn Fabian wirklich hinterher ist und zum Beispiel die num=100 gleich in seine TODO Liste aufgenommen hat bin ich immer noch nicht vom Tool, dessen Erfolg und dessen Nutzen überzeugt. Neben den Toolanbietern, die sich natürlich gegen eine kostenfreie Version ihrer Tools wehren – man erkenne die parallelen von der Bild zur Tagesschau App, gibt es wahrscheinlich noch ein paar mehr Skeptiker da draußen.
Ich glaube, dass sein heute veröffentliches Interview beim SEO Trainee zudem nicht unbedingt förderlich gewirkt hat. Ich selber kenne Fabian nicht und weiß nicht wie zynisch er ist, aber ein Satz wie

Fabian: Ok, mein Epik: openSEOdata definiert die elementare Keyword-Basis, nach der sich alle richten, die Formel für einen einheitlichen Sichtbarkeitsindex und einer Standardstruktur für Datenspeicherung – definiert durch die Community

finde ich irgendwie Grenzwertig. Auch die öffentliche Nennung von Scraping und Datenspeicherung von Denic Daten und sogar Weitergabe, alles Aktionen die ausdrücklich verboten sind, könnten teuere Mahngebühren mit sich ziehen.

Ich bin unentschlossen ob ich solche Aussagen als jugendlichen Leichtsinn bezeichnen soll. Ich finde es total toll, dass es laut Fabians Aussage bald zu einem Treffen mit Entwicklern zu dem Projekt gibt und auch Firmen ein Interesse bekunden, aber man muss aufpassen, dass der Erstkontakt nicht der Letztkontakt wird – denn viele Firmen interessieren sich oft für die Technik und Art der Abfragen und kopieren das dann.

Ich möchte auch in diesem Beitrag das Tool nicht schlecht reden, sondern Anregungen geben und manchmal ist Reden Silber und Schweigen Gold!

Interessante Artikel

Kommentare

Ein Kommentar

  1. Lisa Huber Februar 20, 2011

    Da kann ich ja auch gleich Sistrix benutzen oder? :)
    lg
    Lisa

Kommentiere den Artikel

Required

Required

Optional