Artikelformat

Backlink Checker: Warum viele eigentlich wertlos sind

Jeder der Links kauft, oder Links tauscht der kennt das Problem. Man braucht ein Kontrollorgan um die entsprechenden Links zu prüfen. Links verschwinden, Links werden auf NoFollow gesetzt oder es gibt einen Relaunch, etc…

Es gibt nun mehrere Möglichkeiten Links zu kontrollieren. Die einfachste ist eine entsprechende Software zu kaufen oder einen freien Dienst dafür zu nutzen. Ich hab mir die meisten Angesehen. Alle verfahren nach dem gleichen Prinzip. Man trägt die Seite ein auf der der Backlink vorhanden sein soll. Das Programm lädt die entsprechende Seite runter und schaut dann nach ob der Link ordentlich gesetzt ist.

Von der Theorie her ist das ja auch in Ordnung, was aber wenn dich der andere Webmaster veräppeln möchte. Was für Methoden könnte er benutzen und wie könnte man sich davor schützen?

Um es mal vorwegzunehmen, ich kenne keine freie Software die alle fiesen Methoden abfängt und überprüft.

1. X-Robots Tag

Der X-Robots Tag wird von den großen 3 Suchmaschinen unterstüzt. Angenommen du würdest einen Artikeltausch machen. Der “Böse” Webmaster würde deinen Artikel bei sich einpflegen, aber im Header den X-Robots Tag NoFollow setzen.

Der Backlinkchecker würde die Seite runterladen, die Links prüfen und ein OK zurückgeben. Den Header würden die wenigsten Backlinkchecker prüfen!

Fazit: Beachte immer den HTTP Header. Und http://www.backlink-check.de/ prüft nur den HTTP Status und nicht ob der X-Robots Tag auf Nofollow gesetzt ist. Somit ist auch dieser Backlinkchecker durchgefallen.

2. Robots.txt

Das machen zum Glück die meisten Backlink Checker. Sie prüfen ob eventuell die Seite über die Robots.txt gesperrt ist. Wäre die Seite wirklich gesperrt, würde sie nie im Google Index landen und somit auch keinen Linkjuice verteilen.

Fazit: Sollte immer geprüft werden und die meisten Backlinkchecker prüfen die Robots.txt auch.

3. LinkCloaking

Sehr perfide, aber auch leider sehr effektiv. Die gängigen Backlinkchecker besuchen die Seite und kommen mit einem eigenen Useragent. Beim Beispiel http://www.backlink-check.de/ kommt der Useragent :”BACKLINK-CHECK.DE(+HTTP://WWW.BACKLINK-CHECK.DE/BOT.HTML)”. Super in PHP ist das ein 3zeiler und ich markiere jeden Link grundsätzlich per Nofollow, aber wenn der entsprechende Bot kommt kriegt er halt den Link ohne Nofollow. Würde vom Prinzip her funktionieren. Aber jeder User würde ebenfalls die Nofollow Links sehen. Und mit entsprechenden Firefox oder IE Tools würde man relativ schnell erkennen, das es sich um ein Nofollow Link handeln würde.

Also macht man es anderes rum. Man lässt die Links alle normal, nur für Google, Yahoo und MSN setzt man den Tag “Nofollow”. Vom Prinzip könnte man sogar die Links für die entsprechenden Suchmaschinen ausblenden. Was aber zu viel des Guten sein könnte und eventuell ein Ausschluss aus dem Index nach sich zieht! Deswegen wird entweder nur der X-Robots Tag gesetzt oder ein Nofollow Attribut. Vom Prinzip her könnte man sogar 100 Reziproke Links tauschen, aber für Google & Co diese Links ausblenden, so dass die Seite aussieht als hätte Sie nur One Way Links.

Fazit: Was tun gegen Linkcloaking? Man kann über Plugins oder dirket auch im Browser seinen Useragent ändern. Ich mach das auch sehr gerne, das ich persönlich immer als Googlebot unterwegs bin, ist halt aber ein wenig nervig wenn ich doch mal ein Google Service wie Mail nutzen will, dann kommt man als GoogleBot nicht rein 🙂

Das hilft aber nicht, wenn der Böse Webmaster IP Cloaking macht. Listen mit IP´s von Suchmaschinen Bots gibt es zu hauf im Netz. Der böse Webmaster macht dann folgendes, bevor eine Seite ausgeliefert wird, wird die IP Adresse des Requests überprüft. Sollte die IP Adresse in seiner Datenbank vorhanden sein, so wird dann die manipulierte Seite ausgeliefert. Somit hat man keine Chance herauszufinden ob der böse Webmaster wirklich IP Linkcloaking nutzt.

Also was tun um 100% sicher zu sein, das der Backlink auch wirklich was bringt?

Die absolut sicherste Methode ist die Prüfung des Backlinks im Google Cache. Nur was Google wirklich indiziert hat, zählt! Der Backlink Checker sollte also als erstes prüfen, ob die Seite überhaupt noch im Google Index vorhanden ist und sollte die Seite da sein, muss der Google Cache überprüft werden.

Dazu sollte man sagen, dass man den Google Cache auch ausschalten kann. Allgemein finde ich solche Seiten dann relativ suspekt. Es gibt zwar durchaus einige legitime Gründe um den Google Cache auszuschalten, dass sollte dann aber im Einzelfall angesehen werden.

Zusätzlich sollte geprüft werden ob vielleicht ein entsprechender X-Robots Tag gesetzt worden ist. Die Robots.txt sollte ebenfalls geprüft werden.

Grundsätzlich muss man dazu sagen, dass diese Methoden wirklich sehr sehr selten angewendet werden. Dennoch wer vielleicht Linkkauf mit hohen Budget tätigt oder harte Arbeit in Linktausch investiert hat und wertvolle Links dem Tauschpartner angeboten hat, der sollte schon drauf achten das seine Arbeit auch Früchte trägt und nicht von Bösen SEO´s ausgenutzt wird.

Weitere bösen Methoden:

  • Links in HTML Kommentaren
  • Links im Javascript Code
  • Links in einem nicht wertbaren HTML Bereich

Auch das sollte abgefangen und überprüft werden.

Bewerte diesen Artikel
1 Stern2 Sterne3 Sterne4 Sterne5 Sterne

30 Bewertung(en), durchschnittlich: 5,00 von 5

Loading...

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.