Qualität oder Quantität?
Heute wird es mal wieder Zeit etwas über das Openseodata Projekt vom guten Fabian zu schreiben. Wie ich schon in mehreren Beiträgen geschrieben habe finde ich die Idee an sich Klasse, glaube jedoch nicht an den Erfolg.
Heute möchte ich mir mal etwas genauer das vom Seoprogrammierer zur Verfügung gestellte Keywordset anschauen.
Das Keywordset
Fabian hat versprochen, dass es die von ihm gesammelten Daten schon bald komplett zum download gibt. Damit man schon einen kleinen Vorgeschmack erhält hat er schon vorab ein kleines Keywordset zur Verfügung gestellt.
Ich habe es mir natürlich direkt angeschaut und komme nun endlich dazu euch die Ergebnisse zu präsentieren.
Nun ein paar Fakten
- 9584 Keywords
- 7412 Keywords mit einem CPC von 0,05 Cent
- 2523 Keywords mit 0 globalen Suchen
- 6323 Keywords mit weniger als 1000 globalen Suchen
Die Daten wurden mit den folgenden 4 Befehlen ermittelt (cygwin oder direkt im *NIX nutzbar)
tail *.csv -n +2 | wc -l
tail *.csv -n +2 | grep '"0.05"&' | wc -l
tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | sort | uniq | sort -nr | grep "^0;" | wc -l
tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | sort | uniq | sort -nr | grep -Eo "^[[:digit:]]{1,3};"
| wc -l
Einige werden diese Zahlen jetzt schockieren – andere werden sich denken : na und?
Damit wir eine gleiche Basis haben für die weitere Analyse nun ein paar Sätze dazu.
Sollte in Adwords ein Keyword nicht gebucht werden oder keine Konkurrenz existieren wird der CPC immer mit 0,05 Cent angegeben.
Dass Datensätze mit 0 globalen Suchen absolut irrelevant sind, sollte jedem klar sein und dass selbst Nischen brauchen eine bestimmte Zahl an Suchen, damit man auch entsprechend Traffic kommt sollte auch logisch sein. Den Schnitt bei 1000 mache ich, weil nicht jeder, der die Suche durchführt auch klickt und zum anderen weil ja auch scheinbar genügend Seotools diese Keywords abfragen – aus diesem Grund denke ich, dass der natürliche Traffic einiges geringer ist. Im übrigen denke ich sowieso, dass locker 20 bis 30% der Suchanfragen von SEOs oder anderen Bots kommen.
Wie wir sehen sind das zwar eine Menge Daten die irgendwie jedoch für Traffic absolut nutzlos sind – da werde Abfragen auf nichtige Keywords gemacht die im günstigsten Fall für den Linkaufbau genutzt werden können.
Hier mal noch eine andere Statistik aus dem Keywordset als Rohdaten :
1 13600000
1 11100000
4 7480000
1 6120000
7 5000000
4 3350000
8 2740000
10 2240000
4 1830000
10 1500000
16 1220000
4 1000000
15 823000
12 673000
11 550000
12 450000
22 368000
16 301000
23 246000
31 201000
41 165000
34 135000
33 110000
38 90500
44 74000
40 60500
65 49500
67 40500
64 33100
77 27100
90 22200
86 18100
93 14800
104 12100
142 9900
145 8100
162 6600
182 5400
221 4400
235 3600
247 2900
279 2400
265 1900
135 1600
67 1300
93 1000
104 880
116 720
112 590
117 480
123 390
138 320
150 260
152 210
183 170
194 140
202 110
246 91
262 73
278 58
268 46
243 36
266 28
264 22
221 16
161 12
2523 0
Die erste Zahl gibt die Anzahl der Vorkommen an und die zweite Zahl das Suchvolumen. Jeder der sich schonmal selbst mit dem Keywordtool auseinander gesetzt hat, weiß dass Google nur Grob die Anzahl der Suchen ausspuckt und teilweise auch komische Keywords vorschlägt – übrigends ähnlich wie beim Google Suggest, wenn man dort mal die Vorschläge mit dem Suchvolumen vergleicht bekommt man gerade bei longtails den größten Mist angezeigt – beide Möglichkeiten dürfen nur begrenzt eine Vorlage für ein Keywordset sein.
Ihr wollt ein Beispiel haben? Das könnt ihr gerne haben. Wir suchen unsmal alle Keywords mit einem Suchvolumen von 1000 raus.
tail *.csv -n +2 | sed -e 's/"//g' | awk -F ";" '{print $5";"$1}' | grep "^1000;"
Dabei finden wir ein paar sinnvolle Keywords wie Urlaub in Berlin oder schülerjobs ab 16, aber eben auch Keywords wie Hobbynutten Berlin.
Fazit
Auch wenn Fabian wirklich hinterher ist und zum Beispiel die num=100 gleich in seine TODO Liste aufgenommen hat bin ich immer noch nicht vom Tool, dessen Erfolg und dessen Nutzen überzeugt. Neben den Toolanbietern, die sich natürlich gegen eine kostenfreie Version ihrer Tools wehren – man erkenne die parallelen von der Bild zur Tagesschau App, gibt es wahrscheinlich noch ein paar mehr Skeptiker da draußen.
Ich glaube, dass sein heute veröffentliches Interview beim SEO Trainee zudem nicht unbedingt förderlich gewirkt hat. Ich selber kenne Fabian nicht und weiß nicht wie zynisch er ist, aber ein Satz wie
Fabian: Ok, mein Epik: openSEOdata definiert die elementare Keyword-Basis, nach der sich alle richten, die Formel für einen einheitlichen Sichtbarkeitsindex und einer Standardstruktur für Datenspeicherung – definiert durch die Community
finde ich irgendwie Grenzwertig. Auch die öffentliche Nennung von Scraping und Datenspeicherung von Denic Daten und sogar Weitergabe, alles Aktionen die ausdrücklich verboten sind, könnten teuere Mahngebühren mit sich ziehen.
Ich bin unentschlossen ob ich solche Aussagen als jugendlichen Leichtsinn bezeichnen soll. Ich finde es total toll, dass es laut Fabians Aussage bald zu einem Treffen mit Entwicklern zu dem Projekt gibt und auch Firmen ein Interesse bekunden, aber man muss aufpassen, dass der Erstkontakt nicht der Letztkontakt wird – denn viele Firmen interessieren sich oft für die Technik und Art der Abfragen und kopieren das dann.
Ich möchte auch in diesem Beitrag das Tool nicht schlecht reden, sondern Anregungen geben und manchmal ist Reden Silber und Schweigen Gold!
Kommentare
Ein Kommentar






Da kann ich ja auch gleich Sistrix benutzen oder? :)
lg
Lisa