SEO-Beratung und deren Preis

Kauft man seine Lebensmittel lieber beim Discounter oder geht man zum Einzelhändler? Bucht man seinen Urlaub lieber online und günstig im Internet oder lässt man sich im Reisebüro vom Fachmann beraten, welche Reise am besten geeignet ist? Qualität hat seinen Preis und das gilt insbesondere auch für das Thema SEO-Beratung. Andre Alpar hat sich in seinem Business Blog andre.fm Gedanken zum Thema Preise für Suchmaschinen-Optimierungen und nennt 9 Gründe warum sehr gute SEO-Beratung auch einen sehr guten Preis haben muss.

Eine Übersicht von angeblich fairen Preisen wird man dort nicht finden. Denn für eine Beratung wird es nie Pauschalpreise geben. Zu sehr sind diese Kosten von dem anhängig, was der Auftraggeber überhaupt an Leistung geboten haben will. Ich finde den Artikel aus einem andere, viel wichtigeren Grund für lesenswert:

Die Informationen die bei der Beratung geliefert werden, machen einen dauerhaften Hebel. Das heißt der Kunde wir von der bestehenden auf eine steilere Wachstumskurve gehoben. Hier wird ein massiver Wert geschaffen, wenn das erfolgreich klappt. Informationen sind keine Bananen. Das heißt, dass wenn der Kunde die Lehren die er aus der Beratung gezogen hat für andere Länder / Projekte oder sonstwas nutzt hat der Berater hiervon nichts mehr. Der Kunde muss dem Berater nicht wieder was dafür zahlen, dass er die ein mal gegeben Informationen noch ein Mal benutzt.

Es geht darum, Auftraggeber und SEO-Berater für das Thema noch stärker zu sensibilisieren! Einerseits, dass ein Auftraggeber nicht damit rechnen kann, für einen billigen Preis ein wirklich gutes, nachhaltiges Ergebnis geliefert zu bekommen. Und andererseits ein Hinweis an junge Anbieter in diesem hart umkämpften Markt sich nicht unter Wert zu verkaufen. Dumping-Preise haben noch keiner Branche dauerhaft genützt, sondern eher dafür gesorgt, dass ein nachhaltig niedrigeres Preisgefüge eingetreten ist. Und da gerade im Internet das Angebot in der Regel höher ist als die Nachfrage und es immer schwerer wird, gute und schlechte Dienstleister voneinander unterscheiden zu können, hilft dieser Artikel von Andre eventuell weiter, sich vorher seine Gedanken zu diesem Thema zu machen.

PageRank-Update April 2009

Fast genau drei Monate nach dem letzten PR-Update hat Google am vergangenen Wochenende neue PageRank-Werte auf deren Server eingespielt. Dass dieses Ereignis natürlich das Internet wie jedesmal stark beschäftigt, war natürlich klar. Auch wenn die meisten Webmaster inzwischen wissen (müssten), dass der PR nicht gleichbedeutend mit guten Positionen in den Suchmaschinen ist, fühlt man sich doch gut, wenn der PR steigt oder man ist traurig, wenn er fällt.

Objektiv gesehen, scheinen die Auswirkungen diesmal nicht so gross auszufallen. Wie man bei Sistrix nachlesen kann, halten sich Auf- und Absteiger relativ gesehen die Waage. Der Großteil der dort analysierten Websites hat seinen PR behalten. Aber es sind immer wieder die Einzelschicksale, die es spannend machen. So konnte z.B. W3.org seinen PR10 zurückerhalten. Dagegen ist Lawblog.de von PR 6 auf 0 gefallen. BoeserSeo.com stellt sich dabei die Frage, ob das PR-Update ein Downgrade Update ist. Also ein Versuch von Google, zu verhindern, dass bei immer mehr Websites automatisch die Pageranks ansteigen, ohne dass sich an der Qualität etwas getan hat. Ob man soweit gehen kann, wage ich aktuell noch zu verneinen.

Meine privaten Websites haben leider durchweg verloren und weisen inzwischen fast alle einen PR von 0 aus. Da meine Besucherzahlen aber davon bisher weitgehend unbeeindruckt sind – lediglich eine Seite hat in den SEPRs aktuell verloren – nehme ich das Thema sportlich und mache einfach weiter wie bisher. Content is King und das bleibt für mich das wichtigste. Das mein Anfang des Jahres gestarteter Blog von 0 auf 2 gestiegen ist, überrascht mich nicht, mit mehr hatte ich auch nicht gerechnet. Wichtiger sind für mich meine beiden externen Projekte fdp-thueringen.de und julis-thueringen.de. Eine Seite blieb bei PR 5, die andere fiel leicht von 5 auf 4. Da ich dort aber auch keinen aktiven Linkaufbau betreibe, ist das ok. Dort steigen die Besucherzahlen und das ist – wie gesagt – das wichtigste.

Mal sehen, was in drei Monaten passiert, neugierig bleibe ich und werde die PRs auch weiterhin langfristig beobachten.

Subdomain vs Unterordner

Nachdem im November 2008 bei meiner besucherstärksten Website CheatsCorner die Besucherzahlen um knapp 35% zurückgingen, habe ich mich intensiver mit einigen Fragestellungen rund um das Thema SEO-Suchmaschinenoptimierung beschäftigt. Denn Hintergrund für den Besucherückgang war ein Absturz in den SERPs beim wichtigsten Keyword Cheats von Platz 10 im Juli und August 2008 auf Platz 34 im November 2008. Und da rund 80% der Besucher über Suchmaschinen auf diese Website gelangen und mit 96% hieran Google den grössten Anteil hat, habe ich mir vor Maßnahmen der On-Page-Optimierung gesprüft.

Als ich mir die SERPs genauer angeschaut habe, ist mir aufgefallen, dass einzelne Wettbewerbsseiten häufiger als zweimal bei Google erschienen. Üblicherweise zeigt Google einen Link, max zwei Links, einer Domain bei den Suchergebnissen an, wobei der zweite Link immer optisch eingerückt ist. Damit will Google wohl ein Spamming der Suchergebnisse vermeiden. Wenn es aber Subdomains zu einer bereits angezeigten Domain gibt – also subdomain.domain.de anstelle www.domain.de, dann können von dieser ebenfalls max. 2 Links in den SERPs auftauchen.

Somit stellte sich mir die Frage, ob Subdomains nun besser sind als Unterordner?

Bisher habe mittels mod-rewrite die Linkstruktur in Forum von Unterordnern dargestellt, damit die Keywords auch in der URL vorkommen und es sich somit um suchmaschinenfreundlichere URL handelt. Hintergrund hierfür war auch, dass damit der Trust der Domain auch möglichst stark weiterverebt wird, bei einer Subdomain nach meiner Kenntnislage geringer ausfällt. Wenn dies aber dazu führt, dass andere Website aufgrund der Subdomains viel häufiger in den SERPs auftauschen ist das natürlich kontraporduktiv!

In den letzten Wochen habe ich mir die Entwicklung mal genauer angeschaut und dabei festgestellt, dass Google hierbei restriktiver verfährt. Dies würde zu einem Blogbeitrag von Matt Cutts mit dem Titel subdomains and subdirectories passen, der dazu folgendes sagte:

For several years Google has used something called “host crowding,” which means that Google will show up to two results from each hostname/subdomain of a domain name. That approach works very well to show 1-2 results from a subdomain, but we did hear complaints that for some types of searches (e.g. esoteric or long-tail searches), Google could return a search page with lots of results all from one domain. In the last few weeks we changed our algorithms to make that less likely to happen

Somit sollte sich der Anteil der Subdomains eher rückläufig entwickeln, was seit Anfang Januar bei den Subdomains, die ich beobachtet habe, auch in kleinen Schritten passiert ist. Das werde ich bei Google weiter beobachten. Wie sieht das nun aber bei anderen Suchmaschinen aus?

Bei Yahoo.de finden sich ebenfalls Subdomains zusätzlich zur Hauptdomain wieder. Da ich aber beim Haupt-Keyword eine bessere Platzierung in den SERPs habe (aktuell Platz 11 ggü. Platz 22-25 bei Google) und kaum Besucher über Yahoo zu mir kommen, macht es aktuell leider wenig Sinn, Yahoo genauer zu beobachten.

Interessanter ist das schon live.com. Von dort bekomme ich zwar noch weniger Besucher, aber hier sind 29 der ersten 30 Positionen in den SERPs von einer Website inkl. der Subdomains belegt, lediglich auf Platz 18 taucht einen andere Seite auf. Hier dominiert die Subdomain eindeutig gegenüber dem Unterordner.

Fazit:

Ich glaube weiterhin, dass man eine Verzeichnisstruktur mit Unterordnern immer dann vorziehen sollte, wenn man nicht einen komplett anderen Themenbereich mit deutlich abgegrenztem Content und ggf. auch anderem Layout anbieten will und hierfür keine eigene Domain genutzt werden kann oder soll. Denn dann handelt es sich wirklich um eine komplett andere Website und diese sollte mind. per Subdomain separiert werden.

In allen anderen Fällen wird sich meiner Einschätzung nach auf Dauer die Unterordner-Struktur als der bessere Weg erweisen. Einerseits dürfte der Linkaufbau deutlich einfacher sein und andererseits läuft man nicht in Gefahr, dass die Suchmaschinen, insbesondere Google, eine zu häufie Nutzung von Subdomains als Spam bewerten (wenn Content und Dateistruktur auch noch sehr ähnlich sind) und man in den SEPRs nach hinten geschoben wird. Das live.com das aktuell anders sieht, muss man leider aufgrund der Bedeutung dieser Suchmaschine vernachlässigen.

Ich werde die SERPs-Entwicklungen in den kommenden Wochen weiter beobachten und bin gespannt, ob sich ab meinen Einschätzungen was ändern wird.

Start ins Neue Jahr mit PageRank-Update

Da hat Google hat zum Jahresende 2008 nochmal schnell für Bewegung in der Szene gesorgt und einen PageRank-Update laufen lassen. Die Auswirkungen in der Breite sind mir noch nicht bekannt, aufgrund der Sylvester-Feiern dürften einige genauso wie ich erst heute am ersten Tag des Neuen Jahres 2009 davon erfahren haben.

Für mich sind die Ergebnisse leider leicht bitter. Während f-thies.de weiterhin einen PR 4 auf der Startseite ausweist, hat erneute keine der Unterseiten scheinbar einen PR erhalten, überall nur der graue Balken. Warum ist mir leider ein Rätsel. Und meine besucherreichste Seite CheatsCorner.de ist von PR 4 auf PR 3 gefallen. Im Gegenzug konnte ich dort aber durch On-Page-Optimierungen die SERP-Positionierung beim wichtigsten Keyword verbessern.

Auch meine Seite WarCraft-Guide.de hat verloren und weisst nur noch einen PR 0 aus, hier wirken sicherlich noch die Domain-Umstellumgen aus, dafür konnte bwguide.f-thies.de sich von PR 0 auf PR 2 verbessern. Und mightandmagicworld.de bleibt stabil bei PR 3

Meine beiden externen Projekte fdp-thueringen.de und julis-thueringen.de dagegen konnten sich sogar von PR 4 auf PR 5 verbessern, was mich insbesondere freut, da hier aufgrund des Themas kein eigener Backlink-Aufbau vorgenommen wurde.

In Anbetracht der Arbeiten, die ich in meine Seiten 2008 investiert habe, trifft mich das Endergebnis 2008 dann doch emotional, aber es ist auch ein Ansporn, es 2009 noch besser zu machen. Daher: Alles Gute an Euch alle für 2009!!!

Update: Leider wurde wenige Tage nach dem Update meine Seite CheatsCorner.de komplett mit einem PR von 0 versehen, warum ist mir (noch) schleierhaft. Wenn jemand Ideen hat, woran das liegen könnte, wäre ich für eine Info sehr dankbar.

Wie lang darf ein Linktext sein?

Wenn man sich mit dem Thema SEO / Suchmaschinenoptimierung eingehender beschäftigt, dann muss man sich über kurz oder lang auch mit der Frage des Aufbaus eines Linktextes beschäftigen. Einen wirklich hervorragenden dreiteiligen Artikel habe ich im Blog von SISTRIX gefunden: Wie lang darf ein Linktext sein?

Auf Basis einer sehr arbeitsintensiven und tiefgehenden Analyse verschiedener Linktexte kommt der Verfasser zu einem wirklich interessanten Ergebnis: Google wertet sowohl bei URLs wie auch bei Linktextes maximal bis zu dem Wort hinter dem siebten Trennzeichen aus. Als Trennzeichen gelten dabei neben dem Leerzeichen, dem Komma auch !, #, %, ‚, (, ), *, +, „, “, -, /, :, =, @, ~. Nicht als Trennzeichen gelten jedoch & und _! Und er kommt zu folgender Faustregel:

Als Faustregel kann also gelten, dass bei sprechenden Datei- und Verzeichnisnamen maximal 4 getrennte Keywords ausgewertet und deswegen verwendet werden sollten. Bei allen Keywords, die danach in der URL vorkommen, wird bei einem Link mit der URL als Linktext anscheinend keine Power mehr vererbt.

Ich kann den Artikel wirklich sehr empfehlen, da er sehr informativ ist und interessante Einblicke in die Vorgehensweise von Google & Co. liefert!

Onlinehandbuch der Suchmaschinen-Optimierung

Beim Surfen bin ich auf einen sehr interessanten und vor allem umfangreichen Artikel rund um das Thema Suchmaschinenoptimierung, das Onlinehandbuch der Suchmaschinenoptimierung:

Praktisch seit es Internetsuchmaschinen gibt beschäftigen sich viele Webseitenbetreiber mit dem Thema Suchmaschinenoptimierung. Aus der anfänglichen Optimierung der Meta-Tags und Optimierung von Webseiten wurde im Laufe der Jahre eine komplexe Aufgabe. Nicht zuletzt auch dank Google wurden Suchmaschinen zu einem enorm wichtigen Mittel um Informationen im Internet zu recherchieren und aufzufinden. In einer Zeit in der Suchmaschinen keine große Zukunft vorausgesagt wurde und Webkataloge oft zur Recherche genutzt wurden konnte Google mit dem Pagerank neue Maßstäbe setzen. Heute sind Suchmaschinen schon alleine wegen der Größe des Internets unverzichtbar und oftmals der Startpunkt einer Internetrecherche.

Ihr findet dort alles rund um Indexierung und Indexierbarkeit, Onpage- und Offpage-Optimierung sowie Cloaking, Doorwaypages, Keyword Stuffing, Linkfarmen etc. Nicht nur für Einsteiger lohnt sich der Besuch.