Ein Link ist ein Link ist ein Link. Ja wer kennt diesen Spruch nicht? Früher war es auch so, das jeder Link ein guter Link war und man sich mit fast jedem Link zufrieden gegeben hatte, heutzutage ist das mittlerweile anderes geworden, keiner will mehr Footer Links, Sidewide Links sind Evil und Blogkommentare das Schlimmste wofür man in der Hölle schmoren kann.
Schleichend hat sich dieser Prozess über die Jahre entwickelt und ich möchte heute einen kleinen Einblick in meine Weise des Denkens über Links und den Google Algorithmus im Allgemeinen bloggen.
Inhaltsverzeichnis
Ich fange mal mit dem Google Algorithmus an
Wir alle kennen ihn und jeder wüsste gerne wie genau er aussieht. Wahrscheinlich wird dir dieser Wunsch bis zum Tode nicht erfüllt werden, das einzige was du machen kannst, ist zu lauschen und die Millionen Puzzleteile aneinander zu Reihen und zu versuchen einen arg groben Überblick zu bekommen. Typische Details die man aufschnappt, die einem vielleicht gar nicht so wichtig erscheinen, sie aber in einem Ganzen ein ganz anderes Bild liefern.
Mal ein paar kleine Fakten:
- So hört man zum Beispiel das die Google Entwickler immer kleine Teams bilden und die sich mit einem Thema befassen.
- Laut Google gab es in diesem Jahr bis zu 350 Microupdates an den verschiedensten Rankingfaktoren.
- Googles größtes Geheimnis und deren bestgehütetes Schätzchen ist der Google Algorithmus. Was dazu führt, dass den kompletten Google Algorithmus wahrscheinlich nur eine handvoll Menschen komplett kennen.
- Die Komplexität dieses Algorithmus mittlerweile über 200 Faktoren (der Beitrag in Englisch) beherrschen muss.
Alleine diese 4 Infos reichen mir um zu erkennen das dieser Algorithmus aus Modulen bestehen muss. Ich stell mir das vereinfacht in etwa so vor:
Man muss ganz deutlich dazu sagen, das es kein Ranking Algorithmus alleine ist, sondern ein globaler Algorithmus für die kompletten organischen SERPs und der Einschätzung einer Webseite hinaus. Auch das Hinzufügen von neuen Modulen, wie zum Beispiel “Pagespeed”, lässt sich so relativ leicht und effektiv eingliedern.
Früher gab es einen festen Update Zyklus in denen die SERPs nur alle X Tage mal upgedatet worden sind, das ist mit der Zeit flexibler geworden, weil Google eher zu einem modularen System gewechselt ist, heutzutage finden wir praktisch ein Everflux (ständiges Wechseln) in den SERPs.
Aber auch Google ist immens in seiner technischen Struktur gewachsen und so was erfordert eine andere Art der Umsetzung eines Algo´s, als einen starren und festen Algo nach dem Prinzip (a² + b² = c²). In solch einem System lassen sich auch landesspezifische Module generieren und entsprechend in deren geolokalisierten Datacentern einpflegen.
So kann ein Algorithmus für Iran ganz anders aussehen als ein deutscher Algorithmus. Wahrscheinlich wird er relativ ähnlich sein, aber durch die landestypischen Gegebenheiten halt ein wenig angepasst. Ich könnte mir da zum Beispiel “Artikelverzeichnisse, Webkataloge & Social Bookmarking Dienste” vorstellen die halt auf einer landesspezifischen Software aufgesetzt werden.
Das Erkennen dieser Linkmuster müsste dann halt ein Team machen, was auch die Sprache und den Code lesen kann. Das würde auch erklären warum Google in einigen Ländern bessere Ergebnisse liefert als in anderen Ländern. Ich denke das ich mit meiner Theorie gar nicht so weit weg liege, aber ich kratze wahrscheinlich nur an der Oberfläche dessen, was bei Google wirklich vorgeht.
Ich pick mir mal zwei Module raus wo ich mir vorstellen kann, dass diese so eingesetzt werden oder halt in einer ähnlichen Weise funktionieren müssten. Wobei es aber auch natürlich so sein könnte, das es eigentlich ganz ganz anders bei Google läuft…
1. Offpage Backlink-Mustererkennung
Zu erst möchte ich ein allgemeines Bild aufzeigen, wie ich mir das Internet vorstelle. Ich hab jetzt einfach 9 verschiedene Arten plus ein Sonstiges, wo ich alle anderen Webseiten Arten reinzähle, rausgepickt. Wahrscheinlich kann man das auch noch mal in zig weitere Unterkategorien einteilen, aber für meine Zwecke reicht es vollkommen aus.
So in etwa stell ich mir das Netz vor. Alle möglichen Internetseiten in unterschiedliche Kategorien eingeteilt. Klar es überlappen sich auch Bereiche, aber wenn man es jetzt nicht auf einer Domainebene sieht, sondern auf einer URL Ebene kann man es doch meistens relativ gut herunterbrechen auf spezielle Kategorien.
Google erkennt sehr genau um was es sich für eine Webseite handelt. Auch in der aktuellen Suche, kann man sich zum Beispiel in Forenbeiträge zu suchen, oder nur in Social Media Seiten. Mal von Blogs und News ganz zu schweigen.
Jede Domain kann so über ein bestimmtes Backlink Muster verfügen um so auch erkennbar zu machen, um was es sich hierbei für eine Art von Webseite handelt.
Beispiel: Eine Uniseite hätte an allen Backlinks wahrscheinlich solch ein Muster.
Nagel mich nicht fest, aber ich könnte mir so ein perfektes Uni-Backlink Muster vorstellen. Wenn Google nun das praktisch als Schablone nutzen würde, mit ein paar Schwankungswerten (+-xx% Anteil) so könnte man relativ gut erkennen um was es sich für eine Art von Webseite handelt.
Angenommen ich registriere jetzt eine .edu Domain und freu mich so das ich jetzt vollen Edu Bonus bei Google hab und ich meine Domain natürlich auch stärken möchte, so mach ich mich ran und versuche Backlinks für diese .edu Domain aufzubauen. ich geh planlos vor oder suche den einfachsten Weg, so würde ich ein Backlink Muster aufbauen, was wahrscheinlich extrem weit weg ist vom Idealbild einer Uniseite.
Natürlich ist das kein Beinbruch und die Seite könnte immer noch ranken. Wie gesagt es ist hier nur ein Modul des Rankings was ich mir hier vorstelle. Es gibt ja immer noch knapp 200 bis vielleicht 400 andere Module die einiges bewirken können. Aber so was könnte durchaus einen Filter hervorrufen, den man so erstmal schwer wegkriegen würde…
Da würden sogar mehr Links eher schädlich sein, als die Domain wieder aus dem Filter zu hieven. In so einem Fall würden wahrscheinlich nur starke Trusted Links die Domain wieder in bessere Rankingregionen hieven.
Was auch Fakt ist, ist dass eine Blogseite mehr Links aus Blogs hat. Regierungs-Webseiten werden einen höheren Anteil an staatlichen Links haben. Shops werden eher Links aus Foren haben und so weiter und so weiter… Ich denke man sollte so was immer im Auge behalten, gerade wenn man einen natürlichen Linkaufbau nachahmen möchte.
2. Onpage Backlink-Mustererkennung
Das ist praktisch eine Art der Erkennung wo ein Link gesetzt worden ist und wie dieser Link von Google gewertet werden soll.
Google will alles mögliche Wissen über einen Link, schließlich ist er das Kernstück vom Google Algorithmus. Wer also denkt, das ein Link einfach nur ein Link ist, der täuscht sich mittlerweile. Die Entwertung von Links findet täglich statt.
Das Links keinen Pagerank mehr vererben ist bekannt, aber das Links auch Linkpower nicht mehr vererben wird zwar oft angesprochen, aber wirklich was dazu lesen konnte ich selten. Footer Links sind so ein typisches Beispiel, dass diese Links eigentlich so gut wie keine Power mehr haben. Natürlich macht man es Google auch relativ einfach, fast immer heißt der Div-Container “Footer” und ist im letzten Drittel des Quelltextes zu finden.
Wenn man jetzt diesen Footer ganz oben im Quelltext positionieren würde und ihn nicht Footer benennen würde , so kann ich mir sehr gut vorstellen, das diese Links deutlichst mehr Power haben als die üblichen Footer Links.
Nein, wenn man eine gewisse kritische Menge überschritten hat, dann werden diese Links voll gezählt, evtl. mit einem Dämpfungsfaktor. Würden diese Links entwertet werden, dann würden alle Softwarehersteller nur müde und mickrige Webseiten haben, die kaum Rankings haben. Das ist aber natürlich nicht der Fall.
Ich bin mir sicher alle würden liebendgerne einen Link von wordpress.com haben, obwohl deren Offpage Backlinkstruktur wahrscheinlich einen sehr hohen Anteil an Footerlinks hätte. Das wäre aber völlig Wurscht, der Link hätte einen Irrsinns Trust und würde dir so einen ordentlich Boost in den SERPs bescheren.
Wo gibts den besten Link?
Alle lieben Content Links und sie sind mit Sicherheit klasse Linkpower gebenden Links. Im Quelltext befindet sich der Content meist relativ Zentral. Auch weißt er im Quelltext meist wenige eindeutige Erkennungsmerkmale aus.
Wahrscheinlich aber hätten Headerlinks aus einem Fließtext heraus noch mehr Power. Ist leider aber schwer solche Links zu bekommen, da es sich Designtechnisch schwer umsetzen lässt. Rand Fishkin hatte vor kurzem dazu einen interessanten Beitrag gepostet.
Sein Punkt Nummer 1 ” Links Higher Up in HTML Code Cast More Powerful Votes ”
Auch würde das dafür sprechen, dass wenn Google mal eine Seite nicht strukturiert gliedern kann, sie einfach von Oben nach Unten Links werten würde. Wer also Links kauft oder tauscht, der sollte sehr genau hinschauen, wo sich dieser Link befindet.
Früher war alles besser…
War es das wirklich? Naja eher einfacher. Ein Link war da noch ein Link und wurde sehr gleich gewertet… Wer sich heute nur Links aus einem Footerbereich zieht, der wird damit wenig Erfolg haben. Auch wer denkt, dass man seine Links nur in Sidebars platzieren braucht um ordentlich zu Ranken, wird merken, dass es nicht mehr so gut läuft wie früher.
Google macht es auch nicht mehr so wie früher d.h. mit dem Holzhammer draufzuhauen, klar es passiert immer wieder mal! Mittlerweile aber entwertet Google solche Links lieber still und heimlich und lässt einen vor sich hin rätselnden SEO zurück, der sich fragt: “Warum rank ich zum Teufel nochmal nicht?!?”, oder “Mist, warum hab ich hier Positionsverluste?!?”
Grundsätzlich wenn man vernünftigen Backlinkaufbau betreibt, so erfüllt man eigentlich das natürliche Onpage Backlinkmuster und muss sich keine Sorgen machen. Wer sich aber auf Automatismen verlässt, der geht ein Risiko ein! Diese Automatismen machen es sich meist sehr einfach.
Ein Beispiel: Ich hab Kohle und kauf mir einen Link bei einem Forumssoftware Hersteller der in seine Software einen weiteren Footerlink einbaut. Super alles tolles Links, mit IP, Host Pop, Class C Pop, variablen Whoisdaten… Alles passt, wäre da nicht immer nur dieser Link aus dem Footer. Bäng und schon nährt man sich großen Schrittes einem passenden Filter.
Wann erwischt es einen mit einem Filter?
Ich mag Penalty nicht sagen, weil es in meinen Augen einfach falsch ist. Es gibt modulare Filter. Jeder Filter könnte einen Negativ-Faktor zurückliefern. Je nach dem wie stark oder schwach der Faktor ist, kommt dann über alle Module ein aggregierter Wert zurück. Bildlich gesehen ist es wie ein leeres Glas.
Wenn ich hier und da was mache, mal ein paar Links kaufe, mal ein wenig Blogkommentare mache, dann füllt sich langsam das Glas. Solange das Glas nicht überläuft ist alles in Ordnung und man rankt vor sich hin. Wer es allerdings schafft das Glas zum überlaufen zu bringen, der löst eben einen Filter aus.
Gerade wenn man an der Schwelle zum Überschwappen ist, kann auch mal der kleinste Onpage Faktor den Ausschlag geben und so einen Filter auslösen. Klar es gibt Fälle da erkennt man sofort das es wahrscheinlich an einem speziellen dieser Checkmechanismen das Ranking weggeflogen ist.
Fazit
Nur wer es schafft beide “Onpage” & “Offpage” Backlink Muster in einer hohen Variabilität aufzustellen, der kann sich mit tollen und besten Rankings glücklich schätzen. Natürlich nur solange man das Glas nicht zum überlaufen bringt 😉