Artikelformat

Was man über Duplicate Content wissen muss

Suchmaschinen lieben Einzigartiges. Google hat für doppelte Website-Inhalte diverse Filter, die zuverlässig zuschlagen, wenn doppelte Inhalte (“Duplicate Content”) gefunden werden. Vor allem zur Vermeidung dummer Fehler in Sachen Content-Indexierung sollte man ein paar Dinge zu diesem Thema wissen.

1. Was genau ist “Duplicate Content”?

“Duplicate Content” liegt vor, wenn zwei oder mehr Websites identische oder fast identische Inhalte haben. Es spielt keine Rolle, ob der doppelte Content auf verschiedenen Seiten innerhalb einens Projekts oder auf nicht zusammengehörenden Projekten erscheint. Um “Duplicate Content” kann es sich auch handeln, wenn der eigentliche Inhalt nicht vollständig gleich ist, sich aber stark ähnelt. Suchmaschinen wollen immer nur den Original-Content listen, nicht aber die “Doppelgänger”.

2. Wie wird “Duplicate Content” ausgesiebt?

Suchmaschinen indexieren grundsätzlich alles, was dem jeweiligen Robot oder Spider vor die Nase kommt. Wurde eine neue Seite gespidert, vergleicht die Suchmaschine den Inhalt mit anderen Seiten, die bereits indexiert wurden. Aus dieser Summe werden zunächst bekannte Spam-Seiten gefiltert – diese Seiten haben meist schon im ersten Schritt keine Chance, dauerhaft in den Ergebnissen zu erscheinen. Bei den verbleibenden Seiten überprüft die Suchmaschine nun, welche die vermeintlich “beste” Ressource für den betreffenden Content ist. Dafür werden die Anzahl und die Qualität der eingehenden Links untersucht – nach diesen Kriterien wird dann sortiert, so dass am Ende eine Seite bleibt, von der die Suchmaschine annimmt, dass es sich dabei um das Original handelt.

3. Wie kann man “Duplicate Content” vermeiden?

Serverseitig geht das ganz einfach, sofern man darauf zugreifen und die auf .htaccess-Datei edititeren kann. Sofern man von einer Website mehrere Versionen anbietet (z. B. für mobile Websites oder als eigentständige Druckansicht), dann sollte man die Teile, die nicht indexiert werden sollen, entsprechend mit dem Meta-Tag für “robots” durch ein “noindex” steuern. Wenn man Inhalte syndiziert oder freiwillig an Dritte abgibt, damit diese den Content für eigene Zwecke publizieren können, sollte man immer einen Backlink verlagen. Dann ist es nämlich selbst für eine Maschine “idiotensicher”, den originären Content zu identifizieren.

4. Warum ist “Duplicate Content” gefährlich?

Doppelte Inhalte können das Ranking einer Website negativ beeinflussen. Allein schon aus diesem Grund sollte man dafür sorgen, dass eigener Content nicht von Dritten geklaut werden kann. Am wichtigsten ist und wird es in Zukunft sicher auch bleiben, selbst einzigartige Inhalte zu erstellen. So geht man nicht nur auf Nummer sicher in Sachen Vermeidung von “Duplicate Content” – man bietet seinen Besuchern auch etwas zum Lesen, was es anderswo nicht gibt.


Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.