Artikelformat

Satelliten Seiten verstecken? Warum eigentlich und wie?

Wenn es um das Thema Linknetzwerke und Satelliten geht, hört man oft die Aussage, dass man Satelliten-Projekte besser vor den gängigen Backlink-Quellen verstecken sollte. Bei vielen von mir gefundenen Satelliten geschieht dieses über die robots.txt, in welcher man mit diesen beiden Zeilen:

die Crawler bekannter Backlink Checker dazu bewegt, den Satelliten nicht in den Suchergebnis-Pool aufzunehmen. Da viele kostenlose SEO- & Backlink Tools auf die Backlink-Daten von größeren Anbietern zugreifen, ist es bereits ein effektiver Weg, die Bots dieser Anbieter für deine Website zu sperren, damit diese deine Domain in diesen Auswertungen nicht auftauchen zu lassen.

Aber warum möchte man seine Satelliten überhaupt verstecken?

  • Wettbewerbsrecht?
  • Linkpartner verstecken?
  • Dem Mitbewerber keine Bastelanleitung für das eigene Linkbuilding zur Verfügung stellen?

Das sind alles verständliche Gründe für diesen Versuch. Aber zwei Punkte möchte ich einmal zu bedenken geben.

Warum kann es schlecht sein, Satelliten Seiten zu verstecken?

Zum einen ist es sehr schwer alle Bots von Backlink-Analyse-Tools auszusperren, da man sie erst mal kennen muss. Es gibt nämlich bereits zahlreiche Crawler, welche den ganzen Tag im Netz nach Links suchen. Natürlich kann man auch Majestics oder den SEOmoz Crawler identifizieren und aussperren, aber wie ich jetzt erfahren habe, wertet bereits ein weniger bekannter Backlink Checker bereits 21 Quellen aus. Deswegen sollte jedem klar sein, wie schwer es wird, wirklich alle Crawler zu vertreiben.

Der für mich wichtigste Punkt ist aber, was Google davon hält, über die öffentliche robots.txt Backlink-Crawler auszusperren? Nach über einer Stunde an Überlegungen habe ich keinen wirklich triftigen Grund dafür gefunden. Daher könnte ich mir vorstellen, dass Google dieses sogar als negatives Kriterium für die Wertigkeit von Links einer solchen Domain ansehen könnte, bzw. dort besonders genau hinschauen könnte.

Die .htaccess Datei ist dien Freund

Mittels der .htaccess Datei kann man allerdings auch Bots aussperren, was den großen Vorteil hat, dass diese Datei für Google nicht lesbar ist und Google sich vermutlich auch nicht als Slurp (Yahoo) oder mit der Kennung eines anderen Bots ausgeben wird, um so evtl. die Sperre zu bemerken. Entsprechende Listen der User-Agent-IDs findet man unter anderem bei Useragentstring.com oder mittels Google.

Schlusswort

Die robots.txt zu nutzen ist natürlich absolut White-Hat, die .htaccess Methode ist eigentlich schon Cloaking und somit mindestens Grey-Hat 😉 Nur mal so ein Gedankengang vor dem Mittagessen… 😉

Bewerte diesen Artikel
1 Stern2 Sterne3 Sterne4 Sterne5 Sterne

19 Bewertung(en), durchschnittlich: 5,00 von 5

Loading...

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.