Qualität oder Quantität?
Heute wird es mal wieder Zeit etwas über das Openseodata Projekt vom guten Fabian zu schreiben. Wie ich schon in mehreren Beiträgen geschrieben habe finde ich die Idee an sich Klasse, glaube jedoch nicht an den Erfolg.
Heute möchte ich mir mal etwas genauer das vom Seoprogrammierer zur Verfügung gestellte Keywordset anschauen.
Das Keywordset
Fabian hat versprochen, dass es die von ihm gesammelten Daten schon bald komplett zum download gibt. Damit man schon einen kleinen Vorgeschmack erhält hat er schon vorab ein kleines Keywordset zur Verfügung gestellt.
Ich habe es mir natürlich direkt angeschaut und komme nun endlich dazu euch die Ergebnisse zu präsentieren.
Nun ein paar Fakten
- 9584 Keywords
- 7412 Keywords mit einem CPC von 0,05 Cent
- 2523 Keywords mit 0 globalen Suchen
- 6323 Keywords mit weniger als 1000 globalen Suchen
Die Daten wurden mit den folgenden 4 Befehlen ermittelt (cygwin oder direkt im *NIX nutzbar)
tail *.csv -n +2 | wc -l tail *.csv -n +2 | grep '"0.05"&' | wc -l tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | sort | uniq | sort -nr | grep "^0;" | wc -l tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | sort | uniq | sort -nr | grep -Eo "^[[:digit:]]{1,3};" | wc -l
Einige werden diese Zahlen jetzt schockieren – andere werden sich denken : na und?
Damit wir eine gleiche Basis haben für die weitere Analyse nun ein paar Sätze dazu.
Sollte in Adwords ein Keyword nicht gebucht werden oder keine Konkurrenz existieren wird der CPC immer mit 0,05 Cent angegeben.
Dass Datensätze mit 0 globalen Suchen absolut irrelevant sind, sollte jedem klar sein und dass selbst Nischen brauchen eine bestimmte Zahl an Suchen, damit man auch entsprechend Traffic kommt sollte auch logisch sein. Den Schnitt bei 1000 mache ich, weil nicht jeder, der die Suche durchführt auch klickt und zum anderen weil ja auch scheinbar genügend Seotools diese Keywords abfragen – aus diesem Grund denke ich, dass der natürliche Traffic einiges geringer ist. Im übrigen denke ich sowieso, dass locker 20 bis 30% der Suchanfragen von SEOs oder anderen Bots kommen.
Wie wir sehen sind das zwar eine Menge Daten die irgendwie jedoch für Traffic absolut nutzlos sind – da werde Abfragen auf nichtige Keywords gemacht die im günstigsten Fall für den Linkaufbau genutzt werden können.
Hier mal noch eine andere Statistik aus dem Keywordset als Rohdaten :
1 13600000 1 11100000 4 7480000 1 6120000 7 5000000 4 3350000 8 2740000 10 2240000 4 1830000 10 1500000 16 1220000 4 1000000 15 823000 12 673000 11 550000 12 450000 22 368000 16 301000 23 246000 31 201000 41 165000 34 135000 33 110000 38 90500 44 74000 40 60500 65 49500 67 40500 64 33100 77 27100 90 22200 86 18100 93 14800 104 12100 142 9900 145 8100 162 6600 182 5400 221 4400 235 3600 247 2900 279 2400 265 1900 135 1600 67 1300 93 1000 104 880 116 720 112 590 117 480 123 390 138 320 150 260 152 210 183 170 194 140 202 110 246 91 262 73 278 58 268 46 243 36 266 28 264 22 221 16 161 12 2523 0
Die erste Zahl gibt die Anzahl der Vorkommen an und die zweite Zahl das Suchvolumen. Jeder der sich schonmal selbst mit dem Keywordtool auseinander gesetzt hat, weiß dass Google nur Grob die Anzahl der Suchen ausspuckt und teilweise auch komische Keywords vorschlägt – übrigends ähnlich wie beim Google Suggest, wenn man dort mal die Vorschläge mit dem Suchvolumen vergleicht bekommt man gerade bei longtails den größten Mist angezeigt – beide Möglichkeiten dürfen nur begrenzt eine Vorlage für ein Keywordset sein.
Ihr wollt ein Beispiel haben? Das könnt ihr gerne haben. Wir suchen unsmal alle Keywords mit einem Suchvolumen von 1000 raus.
tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | grep "^1000;"
Dabei finden wir ein paar sinnvolle Keywords wie Urlaub in Berlin oder schülerjobs ab 16, aber eben auch Keywords wie Hobbynutten Berlin.
Fazit
Auch wenn Fabian wirklich hinterher ist und zum Beispiel die num=100 gleich in seine TODO Liste aufgenommen hat bin ich immer noch nicht vom Tool, dessen Erfolg und dessen Nutzen überzeugt. Neben den Toolanbietern, die sich natürlich gegen eine kostenfreie Version ihrer Tools wehren – man erkenne die parallelen von der Bild zur Tagesschau App, gibt es wahrscheinlich noch ein paar mehr Skeptiker da draußen.
Ich glaube, dass sein heute veröffentliches Interview beim SEO Trainee zudem nicht unbedingt förderlich gewirkt hat. Ich selber kenne Fabian nicht und weiß nicht wie zynisch er ist, aber ein Satz wie
Fabian: Ok, mein Epik: openSEOdata definiert die elementare Keyword-Basis, nach der sich alle richten, die Formel für einen einheitlichen Sichtbarkeitsindex und einer Standardstruktur für Datenspeicherung – definiert durch die Community
finde ich irgendwie Grenzwertig. Auch die öffentliche Nennung von Scraping und Datenspeicherung von Denic Daten und sogar Weitergabe, alles Aktionen die ausdrücklich verboten sind, könnten teuere Mahngebühren mit sich ziehen.
Ich bin unentschlossen ob ich solche Aussagen als jugendlichen Leichtsinn bezeichnen soll. Ich finde es total toll, dass es laut Fabians Aussage bald zu einem Treffen mit Entwicklern zu dem Projekt gibt und auch Firmen ein Interesse bekunden, aber man muss aufpassen, dass der Erstkontakt nicht der Letztkontakt wird – denn viele Firmen interessieren sich oft für die Technik und Art der Abfragen und kopieren das dann.
Ich möchte auch in diesem Beitrag das Tool nicht schlecht reden, sondern Anregungen geben und manchmal ist Reden Silber und Schweigen Gold!
Kommentare
Ein Kommentar
Da kann ich ja auch gleich Sistrix benutzen oder? :)
lg
Lisa