Beim Ranking in Suchmaschinen spielen ab 2010 zwei Dinge eine wichtige Rolle, die man als Hobbywebmaster oft komplett außer Acht lässt. Zum einen ist das die Ladezeit der Webseite, zumindest findet man darüber immer wieder Berichte im Netz. Zum anderen wird valider Code (stimmiger Quelltext) als Kriterium beachtet.

Die Ladezeit wird durch eine ganze Latte von Dingen beeinflusst. Bilder, Buttons, Javascripte und CSS nenne ich hier mal an erster Stelle. Bei den letzten beiden ist neben der Dateigröße auch noch die Positionierung im Quelltext von Bedeutung. Mit diversen Werkzeugen kann man leicht herausfinden wo es am Webseitengerüst am meisten krankt, siehe hier meine „spanischen Dörfer“. Damit kann zumindest auch der Halbprofi ein wenig anfangen ohne 100%-iges Wissen besitzen zu müssen.

Auch für nicht-kommerzielle Webseiten ist das Ranking nicht vollkommen unwichtig, gefunden werden möchte schließlich jeder und das nicht erst auf Seite 47 einer Suchmaschine. Die namhaften Suchmaschinen setzen Webmaster so betrachtet unter Zugzwang.

Validationstest von www.google.com

Ich beginne mal mit dem validen Code. Der Begriff kommt aus dem Latain und bedeutet frei übersetzt „gesund“. Wie gesund sind denn eigentlich die Webseiten jener Suchmaschinen, die uns diesen Handlungszwang auferlegen?

Eigentlich sollte man ja meinen, dass hier mit gutem Beispiel voraus gegangen wird. Google als „Oberbevormunder“ hat ja eine wirklich spärliche Seite was den Inhalt betrifft und weist darin bereits satte 47 (!) Fehler auf.

Validationstest von www.yahoo.de

Yahoo bietet auf der Startseite im Vergleich erheblich mehr an Inhalt als SuMa-Riese Google. Mehr Inhalt ist auch zwangsläufig eine Quelle für mehr Fehler. Beachtliche 157 Fehler wirft der Test beim Markup Validation Service aus.

Halten sich also die selbsternannten Gesetzgeber des Internetrankings überhaupt nicht an ihre eigenen Vorgaben und verlangen es nur von den ihnen Untergebenen Webmastern? Diese Tests lassen zumindest nichts anderes vermuten, sitzen dort doch die Profis in Sachen Webseitengestaltung und allem was dazu gehört.

Ich habe einige von mir oft besuchte Webseiten getestet und kam immer wieder zu einem „fehlerhaften Ergebnis“ den gesunden Code betreffend. Auch namhafte Webauftritte sind nicht fehlerfrei unterwegs:

Die Qualiät des Inhalts dieser Seiten leidet keineswegs unter diesen Fehlern, schließlich spielt sich das alles im Hintergrund ab ohne dass der Besucher dies überhaupt wahrnimmt. Das Ranking kann sich auch sehen lassen. „Validität allein bedeutet nichts“ schreibt z.B. der Webstandard und beruhigt damit so manchen Hobbywebmaster. Sind die Vorschriften von Google & Co. also nicht anderes als heiße Luft und Panikmache?

Pagespeed von google.de

Selbst bei der Ladezeit spielt Google keine Vorreiterrolle. Trotz der bereits erwähnten „inhaltslosen“ Seite die nun wirklich nicht viel Traffic erzeugen sollte schafft es der Internetriese nur auf 89 von 100 Punkten in Sachen Geschwindigkeit und empfiehlt Nachbesserung. Bemerkenswert: Gemessen ist dieser Wert immerhin mit dem hauseigenen Tool von Google, dem Pagespeed. Yahoo schafft auch nur 83 von 100 – berauschend liest sich anders.

Bei meinem Rundblick im Feedreader ergaben sich auf dem „Web-Tachometer“ diese Werte:

Diese Liste könnte ich endlos fortsetzen, den „grünen Haken“ beim Tempo erreichte keine Webseite. Nicht-spurlos muss sich also nicht verstecken (77/100). An der einen oder anderen Nachbesserung bin ich noch dran, die dann zum geplanten Themewechsel greifen wird. Volle Punktzahl wird auch wohl damit nicht erreicht werden.

Unterm Strich macht es für mich den Eindruck, dass Validation und Pagespeed zu viel Gewicht in die Waagschale bringen und von niemandem zu eng gesehen werden sollten. Solange die Vorschriften von deren Erfindern nicht eingehalten werden muss sich der Rest der Internetgemeinde nicht ernsthaft Sorgen machen in den SuMas auf den hinteren 100 Seiten platziert zu werden.