rss
0

Die Interne Verlinkung als Ranking Indikator? – Teil 2

Lange Zeit galt es als Alternative für die Suchmaschinenoptimierung, hinter dynamisch generierte Inhalte und Navigationsleisten statische Navigationsleisten mit festen Links zu hinterlegen, die allerdings für den Nutzer unsichtbar sind. So haben die Nutzer eine dynamisch generierte Navigation, die mit allen technischen Raffinessen ausgestattet ist, doch der Crawler findet eine statische Navigation mit vielen internen Verlinkungen, die auf eine gut ausgebaute, belebte Seite schließen lassen. Viele Jahre bedienten sich die Spezialisten in der Suchmaschinenoptimierung solcher Tricks und erschufen so komplexe, dynamisch generierte Internetseiten, die im Hintergrund die Vorzüge einer statischen Seite darboten. Doch diese Zeiten sind inzwischen vorbei. Wie die Internettechnologie und der Aufbau von Webseiten wurden auch die Crawler weiter entwickelt. Inzwischen erkennen Crawler die gängigen Design-Tricks und bewerten diese negativ. Bedient man sich bei der Suchmaschinenoptimierung dieser Tricks, so kann das auch negativ ausfallen und die betreffende Seite sinkt im Ranking rapide ab. Navigation, die also eine Schrift in der gleichen Farbe wie der Hintergrund besitzen oder eine sehr kleine Schriftgröße, fallen sofort auf und werden nicht als positive, interne Verlinkung gewertet.

Um sowohl dynamische Inhalte darstellen zu können, als auch statische Inhalte für die Crawler zur Verfügung zu stellen, ist eine sogenannte Weiche von Nöten. Dabei bekommt der Crawler eine andere Website präsentiert als der Nutzer selbst. Für die Unterscheidung zwischen Browser und Crawler haben sich einige Mechanismen entwickelt, die von vielen Webdesignern verwendet werden. Wichtig ist, dass auf Grundlage des aufrufenden Mediums auf eine unterschiedliche URL weitergeleitet wird. Das ist über ein Redirect möglich. Dieses kann auf verschieden Weisen realisiert werden. Sowohl über eine serverseitige .htaccess-Datei als auch über Angaben im HTML-Meta oder über eine JavaScript-Programmierung ist dies leicht zu realisieren. Allerdings sind sowohl Redirects in JavaScript als auch im HTML-Meta für Crawler unter Umständen sichtbar und können so zu negativen Effekten führen. Die serverseitige .htaccess-Variante ist die sicherste und eleganteste Möglichkeit.

Stilistisch am anspruchsvollsten, aber für die Suchmaschinenoptimierung am sinnvollsten ist eine Zwischenlösung zu bewerten. Wenn man Effekte, die man vor einigen Jahren nur mit Hilfe von JavaScript oder anderen dynamischen Lösungen erzielen konnten, nun in HTML und CSS implementiert, bedeutet dies einen höheren Aufwand. Denn hinterlegt man in einer CSS-Datei eine saubere Angabe über Navigationsleisten mit Sonderfunktionen oder raffinierten Effekten, kann man in der HTML-Datei einfach statische Links angeben, die der Crawler so auch direkt findet. Auf diese Weise braucht man sich nicht doppelt Gedanken machen über eine Crawler-optimierte Seite und eine Nutzer-optimierte Variante, sondern es wird technisch einwandfrei eine Seite programmiert, die beide Aspekte optimal bedient.

Strukturiert man die eigenen Seiten dann noch thematisch relevant und legt dazu eine klare Sitemap an, so steigen die Chancen auf ein hohes Ranking.

About the Author

Kommentare sind geschlossen.

x
Loading...