Nachdem im November 2008 bei meiner besucherstärksten Website CheatsCorner die Besucherzahlen um knapp 35% zurückgingen, habe ich mich intensiver mit einigen Fragestellungen rund um das Thema SEO-Suchmaschinenoptimierung beschäftigt. Denn Hintergrund für den Besucherückgang war ein Absturz in den SERPs beim wichtigsten Keyword Cheats von Platz 10 im Juli und August 2008 auf Platz 34 im November 2008. Und da rund 80% der Besucher über Suchmaschinen auf diese Website gelangen und mit 96% hieran Google den grössten Anteil hat, habe ich mir vor Maßnahmen der On-Page-Optimierung gesprüft.
Als ich mir die SERPs genauer angeschaut habe, ist mir aufgefallen, dass einzelne Wettbewerbsseiten häufiger als zweimal bei Google erschienen. Üblicherweise zeigt Google einen Link, max zwei Links, einer Domain bei den Suchergebnissen an, wobei der zweite Link immer optisch eingerückt ist. Damit will Google wohl ein Spamming der Suchergebnisse vermeiden. Wenn es aber Subdomains zu einer bereits angezeigten Domain gibt – also subdomain.domain.de anstelle www.domain.de, dann können von dieser ebenfalls max. 2 Links in den SERPs auftauchen.
Somit stellte sich mir die Frage, ob Subdomains nun besser sind als Unterordner?
Bisher habe mittels mod-rewrite die Linkstruktur in Forum von Unterordnern dargestellt, damit die Keywords auch in der URL vorkommen und es sich somit um suchmaschinenfreundlichere URL handelt. Hintergrund hierfür war auch, dass damit der Trust der Domain auch möglichst stark weiterverebt wird, bei einer Subdomain nach meiner Kenntnislage geringer ausfällt. Wenn dies aber dazu führt, dass andere Website aufgrund der Subdomains viel häufiger in den SERPs auftauschen ist das natürlich kontraporduktiv!
In den letzten Wochen habe ich mir die Entwicklung mal genauer angeschaut und dabei festgestellt, dass Google hierbei restriktiver verfährt. Dies würde zu einem Blogbeitrag von Matt Cutts mit dem Titel subdomains and subdirectories passen, der dazu folgendes sagte:
For several years Google has used something called “host crowding,” which means that Google will show up to two results from each hostname/subdomain of a domain name. That approach works very well to show 1-2 results from a subdomain, but we did hear complaints that for some types of searches (e.g. esoteric or long-tail searches), Google could return a search page with lots of results all from one domain. In the last few weeks we changed our algorithms to make that less likely to happen
Somit sollte sich der Anteil der Subdomains eher rückläufig entwickeln, was seit Anfang Januar bei den Subdomains, die ich beobachtet habe, auch in kleinen Schritten passiert ist. Das werde ich bei Google weiter beobachten. Wie sieht das nun aber bei anderen Suchmaschinen aus?
Bei Yahoo.de finden sich ebenfalls Subdomains zusätzlich zur Hauptdomain wieder. Da ich aber beim Haupt-Keyword eine bessere Platzierung in den SERPs habe (aktuell Platz 11 ggü. Platz 22-25 bei Google) und kaum Besucher über Yahoo zu mir kommen, macht es aktuell leider wenig Sinn, Yahoo genauer zu beobachten.
Interessanter ist das schon live.com. Von dort bekomme ich zwar noch weniger Besucher, aber hier sind 29 der ersten 30 Positionen in den SERPs von einer Website inkl. der Subdomains belegt, lediglich auf Platz 18 taucht einen andere Seite auf. Hier dominiert die Subdomain eindeutig gegenüber dem Unterordner.
Fazit:
Ich glaube weiterhin, dass man eine Verzeichnisstruktur mit Unterordnern immer dann vorziehen sollte, wenn man nicht einen komplett anderen Themenbereich mit deutlich abgegrenztem Content und ggf. auch anderem Layout anbieten will und hierfür keine eigene Domain genutzt werden kann oder soll. Denn dann handelt es sich wirklich um eine komplett andere Website und diese sollte mind. per Subdomain separiert werden.
In allen anderen Fällen wird sich meiner Einschätzung nach auf Dauer die Unterordner-Struktur als der bessere Weg erweisen. Einerseits dürfte der Linkaufbau deutlich einfacher sein und andererseits läuft man nicht in Gefahr, dass die Suchmaschinen, insbesondere Google, eine zu häufie Nutzung von Subdomains als Spam bewerten (wenn Content und Dateistruktur auch noch sehr ähnlich sind) und man in den SEPRs nach hinten geschoben wird. Das live.com das aktuell anders sieht, muss man leider aufgrund der Bedeutung dieser Suchmaschine vernachlässigen.
Ich werde die SERPs-Entwicklungen in den kommenden Wochen weiter beobachten und bin gespannt, ob sich ab meinen Einschätzungen was ändern wird.