Website Bewertung: So misst Google anhand von Empfehlungen deiner Site einen wert zu!

OnPage SEO Buch

Die meisten Menschen, die sich mit einem komplizierten Vorgang zu beschäftigen haben, werden sicherlich die Ratschläge eines anerkannten Spezialisten eher Glauben schenken als die Ratschläge einer x-beliebigen Person von der Straße.

Dies hat nichts mit einer möglichen Abwertung der x-beliebigen Person zu tun, sondern mehr mit der Einschätzung, dass der besagte Spezialist mit größerer Wahrscheinlichkeit wohl kompetenter in seiner Aussage ist.

Googles Einschätzung zur Wertung einer Empfehlung

Nach diesem simplen Prinzip versucht Google, die Stärke einer Website im Internet zu messen. Wenn eine bestimmte Website regelmäßig Fachbeiträge veröffentlicht und diese Fachbeiträge nicht nur von vielen Menschen gelesen, sondern zudem auch noch weiterempfohlen werden, dann muss dieses Portal einfach eine gewisse „Autorität“ in der Einschätzung vieler Leser haben.

Somit ist es mehr als logisch, das Google bei Abfrage einer themenspezifische Suchphrase genau diese Seite auf die erste Seite der Suchergebnisse setzt. Ebenso ist es mehr als logisch, dass Google die von dieser Seite gegebenen Empfehlungen (Backlinks) stärker einschätzt als die Empfehlung der kleinen Strickseite von Lieschen Müller.

So einfach wie ich es gerade dargestellt habe, macht Google sich die Einschätzung einer Site natürlich nicht. Google hat zwischenzeitlich mehr als 300 Filterregeln aufgestellt, die bei der Beurteilung einer Site und der Stärke von (Back)-Links eine Rolle spielen. Um welche Filterregeln es sich hierbei genau handelt werden sicherlich nur die Google Gründer Sergey Brin und Larry Page beantworten können, denn diese Regeln werden strengstens unter Verschluss gehalten.

Faktoren die bei der Einschätzung einer Site zusätzlich eine Rolle spielen sind beispielsweise das Alter einer Webpräsenz, die Häufigkeit von neuen Veröffentlichungen, die Anzahl der regelmäßigen Besucher, der Zuwachs an regelmäßigen Empfehlungen, das Umfeld in der sich die Site (gemessen nach den Empfehlungen) bewegt oder auch die Qualität des Quelltextes, gemessen an den W3C-Standards für valides HTML.

So wie es im realen Leben starke und schwache, bekannte und unbekannte Menschen gibt, so gliedert sich auch das Internet in starke und schwache Websites. Empfehlungen von den starken Seiten werden von Google so gut wie niemals angezweifelt; bei Empfehlungen von Websites mit einer mittleren Stärke muss unter Umständen wohl mal eine „Nachfrage“ erlaubt sein und die Empfehlungen von schwachen Seiten werden grundsätzlich einmal sehr kritisch betrachtet.

Webgo Banner
Webgo mobile Banner

Hyperlinks von schwachen Seiten

In Ausnahmefällen erhält die „Stimme des Volkes“ (also die der schwachen Webseiten) allerdings auch bei Google „Gehör“, nämlich dann, wenn die „Masse“ zum gleichen Zeitpunkt ihre Stimme „erhebt“.

So wie man den Ausspruch des einfachen Bürgers „Wir sind das Volk“ nicht unterschätzen sollte, gewichtet Google die „Stimme“ (den Backlink) der kleinen Seite dann, wenn zum gleichen Zeitpunkt viele andere Sites ebenfalls ihre „Stimme“ zum gleichen Ziel erheben. Denk beispielsweise an die Katastrophe des 11. Septembers 2001 oder an die Papst-Wahl Benedikt XVI. am 19. April 2005.

Google-Toolbar und die PageRank-Anzeige

Mit Einführung der so genannten Google Toolbar gab Google den Webmastern die Möglichkeit einzusehen, wie stark Google die einzelne Website einschätzt. Die eingeschätzte Stärke zeigt sich mit dem so genannten Pagerank-Balken (PR) 0 bis 10. Die Zahl „0“ zeigt dem Webmaster, dass die Website in den so genannten Google-Index aufgenommen wurde, die Zahl „10“ zeigt dem Webmaster, dass Google die Website als absolute Autorität anerkennt und wertet.

Webseiten mit einer PR-Einschätzung „10“ gibt es weltweit relativ wenige. Apple, Microsoft, das W3C und natürlich Google wären solche Kandidaten. PR-9 Seiten gibt es einige wenige in Deutschland, ebenso Seiten mit PR-8. Bis dato ist man davon ausgegangen, dass Seiten mit einer PR-7 bis 5 von Google ebenfalls noch als Autoritätsseiten eingeschätzt werden, ab PR-4 bis 1 wird es dann schon schwieriger.

Unter vielen Analysten heißt es, der von Google angezeigte PR-Balken spiegelt nicht mehr die wahre Google-Einschätzung für die Site wieder. Seit Einführung der PR-Anzeige wurde der PR-Balken von vielen Webmastern als eine Art Währung angesehen.

Die Folge war, dass viele Webmaster sich haben kaufen lassen und eine Empfehlung (Backlinks) nur des Geldes wegen abgegeben haben. Hierdurch zeigte sich in der Bewertung einzelner Sites plötzlich ein falsches Bild. Viele Experten sind auch der Meinung, dass Google das Modell der PR-Anzeige eines Tages komplett verwerfen wird.

Noch zeigt sich aber der PR-Balken und dieser Balken lässt sich wunderbar benutzen um dir zu erklären, wie die Google-Einschätzung vom Grundsatz her funktioniert und wie sich Backlinks auf andere Seiten auswirken.

Stell dir vor, du besitzt eine Website mit der PR-Stärke „8“ auf der Startseite (www.heise.de ist beispielsweise ein derartiger Kandidat). PR-8 zeigt, diese Seite wird von Google als eine starke Autorität in seinem Bereich (Nachrichten rund um Themen aus dem Internet) eingeschätzt. Die PR-Stärke wird innerhalb der Heise-Site, pro Ebene, in voller Stärke (allerdings gekürzt um jeweils einen PR-Punkt) weiter gegeben. In diesem Fall hätte die zweite Ebene eine echte PR-7 Stärke, die dritte Ebene eine PR-6 Stärke usw.

Empfiehlt nun Heise von seiner Startseite aus die Startseite einer anderen Site, so „vererbt“ Heise seine Stärke (gekürzt um einen PR-Punkt) auf die andere Site und es zeigt sich ein PR-7-Wert. Dieser Wert bedeutet allerdings nicht, dass nun auch diese Seite als Autorität in der Kategorie PR-7 gewertet wird, denn Heises „Stimme“ gilt nur für Themen aus seinem Bereich und dies auch nur in abgeschwächter Form.

Diese Site benötigt schon einige PR-8-Back-Links aus dem gleichen semantischen Umfeld, um von Google als echte Autorität mit einer starken PR-7 gewertet zu werden.

Caroline Preuss Banner
Caroline Preuss mobile Banner

Vererbung Link-Power

In gleicher Weise funktioniert die „Vererbung“ von gegebenen Empfehlungen für alle Links im gesamten Internet. Allerdings spielen noch andere Faktoren bei der Vererbung eine Rolle. Ein einzelner Backlink auf einer Seite ist stärker als wenn von dieser Seite viele Empfehlungen zu verschiedenen Sites gegeben wurden.

In diesem Fall müssten sich die empfohlenen Seiten die Link-Power der gebenden Seite „teilen“. Sofern du Google eine Möglichkeit gegeben hast, auch deine Website zu indexieren und nichts anderes bestimmt ist, fließt auch deine Link-Power in die Berechnung aller betroffenen Sites mit ein.

Wie und wann indexiert Google eine Website

Um deine Website in den Google-Index zu bringen, hast du zwei Möglichkeiten: Erstens, du meldest deine Website bei Google an und bittest um Aufnahme, zweitens, du bittest einen bekannten Webmaster, auf deine Homepage zu verlinken.

Google betreibt weltweit hunderte von „Spider“ und „Robots“ die tagtäglich nichts anderes machen, als das Internet nach neuen Informationen zu durchforsten und diese zu indexieren. Hierbei verfolgen die Spider jeden Hyperlink (sofern erlaubt) und so würde letztlich auch deine Website gefunden und indexiert werden. Allerdings wird nicht jede Website tagtäglich nach neuen Informationen durchsucht und auch nicht „besucht“.

Je öfter sich die Informationen auf einer Webseite ändern, desto öfter wird die Site auch von den Robots besucht. Dies kann im Stundentakt erfolgen, es kann allerdings auch schon mal vier Wochen dauern. Ein Backlink zu deiner Website auf der kleinen Homepage von Lieschen Müller wird von Google also nicht so schnell gefunden wie ein Backlink vom Heise-Portal.

Möglichkeiten die Indexierung der Seiten zu verbieten

Es gibt Gründe für einen Webmaster, Google die Indexierung seiner Seiten zu verbieten. Denk dabei beispielsweise an die vielen Einzel-Produktseiten eines Online-Shops. Auf diesen Einzelseiten werden keine wirklich interessanten Informationen vermittelt und haben deshalb im Google-Index nichts zu suchen.

Andere Webmaster stellen aus bestimmten Gründen verschiedene Duplikate ihrer Site zur Verfügung und auch diese Seiten haben im Google-Index nichts zu suchen. Man muss seine Informationen nicht zehnfach von Google indexieren lassen, einmal genügt. Außerdem würde Google in diesem Fall sogar die Originalseite abstrafen und sie wäre in der Google-Ergebnisliste so gut wie nicht zu finden (Stichwort: Duplicate Content).

Damit die Google-Spider wissen, welche Webseiten zur Indexierung freigegeben sind, bedient man sich in der Regel zwei verschiedener Methoden: Du hast die Möglichkeit, die Indexierung der Seite über so genannte Header-Informationen zu verbieten. Die Header-Informationen finden sich auf jeder HTML-Seite im „HEAD“-Bereich und sind für den User nicht sichtbar. In diesem Fall findet sich ein so genannter „META“-TAG mit folgenden Informationen:

Du kannst dem Spider im Header auch sagen, dass du auf dem Server eine so genannte „robots.txt“ abgelegt hast. Mit dieser robots.txt bestimmst du, welche Bereiche der Site indexiert werden dürfen und welche nicht. Als Header-Information zeigt sich dann:

Wie du mit einer robots.txt zu verfahren hast und was du damit machen kannst, findest du unter anderem bei SELFHTML sehr gut erklärt.

Möchtest du, dass die Suchmaschinen lediglich einzelne Hyperlinks nicht verfolgen, so kannst du dem Hyperlink einen „rel“-Attribut mit dem Wert „nofollow“ mitgeben. Ein derartiger Hyperlink würde im Quelltext beispielsweise wie folgt aussehen:

Der „nofollow“-Wert des „rel“-Attributes wurde im Jahre 2005 von Google eingeführt, gehört allerdings nicht zu den standardisierten Erweiterungen des W3Cs. Dennoch ist dieser Wert ab HTML 4.01 zulässig und wurde auch sehr schnell von den bekannten Suchportalen Yahoo und MSN übernommen.

Mit rel=“nofollow“ wollte Google den Auswirkungen von Spam-Einträgen in Gästebüchern, Foren oder Weblogs entgegentreten. Getreu dem Motto: „Die Masse machts“, versuchen Spammer, durch automatisierte Einträge ihre Websites in den vorderen Rängen der Google-Ergebnisliste zu positionieren (siehe hierzu meine Ausführungen zum Thema „die Stimme des Volkes“).

Mit rel=“nofollow“ werten die Suchmaschinen den Hyperlink als nicht existent und somit vererben derartige Hyperlinks auch keine Link-Power.

Mit JavaSript maskierte Hyperlinks

Zwischenzeitlich gibt es viele Webmaster, die ihre „Backlinks“ mit einem so genannten JavaScript-Code „maskieren“ um den Suchmaschinen das wahre Ziel der Links zu „verschleiern“. Häufig sieht man derartige Maskierungen bei Webseiten die ausschließlich den Zweck erfüllen sollen, den User zu so genannten Affiliate-Partnern zu leiten.

Derartige Websites geben dem User keine wirklichen Informationen, sie dienen lediglich dem Zweck, auf einfache Art und Weise durch Vermittlungsprovisionen Geld zu verdienen.

Google Quality-Rater

Die Verschleierung derartiger Links kann Google nur durch „Sichtprüfung“ eines „Quality Raters“ erkennen. Analysten gehen davon aus, dass Google alleine in Deutschland rund 2000 Quality-Rater (zumeist Studenten) beschäftigt.

Wie bei eigentlich allen Bewertungsregeln hält Google sich auch in Sachen „Quality-Rater“ mit Informationen sehr zurück. Eine interessante Abhandlung zum Thema Google Quality Rating findest du unter anderem auf der Website pixelfolk.net.

Tipps für suchmaschinenfreundliche Maskierung der Links

Es gibt allerdings auch Gründe einen Hyperlink mit einem JavaScript-Code zu versehen, ohne dass der Webmaster hierbei gegenüber Google etwas zu verbergen hat. Auch die Zieladresse soll durchaus noch von der Link-Power profitieren.

Ein Beispiel wäre, wenn der Webmaster genau analysieren möchte, welche Besucher in welchem Umfang bestimmte Links aktivieren. Dies kann beispielsweise sinnvoll sein, wenn der Webmaster bestimmte Produkt-Verweise auf seiner Webseite besser optimieren möchte.

Welche Möglichkeiten es gibt, um derartige Verweise „suchmaschinenfreundlich“ zu gestalten, kannst du beispielsweise in einem interessanten Blog-Beitrag des SEOs Uwe Tippmann nachlesen. Damit du diesen Beitrag auch als einfacher Webmaster verstehst: Mit der Bezeichnung „Link Juice“ sind sämtliche positive Eigenschaften gemeint, die mit einem Backlink übertragen werden können. Das Wort „Link Juice“ oder auch „LinkJuice“ setzt sich zusammen aus Hyperlink und juice (zu Deutsch Saft).

Bewerte diesen Artikel
1 Stern2 Sterne3 Sterne4 Sterne5 Sterne

23 Bewertung(en), durchschnittlich: 5,00 von 5

Loading...

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.