Artikelformat

Doppelter Content auf der eigenen Website – Schlaflos im Web?

Einigen Webmastern und Suchmaschinen-Optimierern scheint die Idee vom ‘doppelten Content‘ schlaflose Nächte zu bereiten, zumindest im deutschen Abakus-Forum, dem Branchenleader der deutschsprachigen SEO-Foren. Das Schreckgespengst dabei: Google erkennt auf verschiedenen Webseiten identischen Content und schliesst einzelne Seiten aus dem Index aus.

Ich ließ mich anfangs auch von dieser diffusen Angst anstecken, denn mein Blog produziert doppelten Content (a.k.a. ‘DC’) en masse: Der Content meiner Posts erscheint nämlich in verscheidenen Blog-Ansichten. Posts erscheinen als Einzel-Ansicht, auf den Themen-Seiten (’Tags’) und auf der Blog-Hauptseite, welche chronologisch geordnet ist. Natürlich hat’s auf den letzten beiden Ansichten noch andere Inhalte, resp. Posts drauf, weswegen dies weniger schlimm ist. Zudem habe ich noch Beiträge im Web bei meinen Content-Partnern verstreut, die auch auf Webgreenhorn.com zu finden sind. Ein weiterer Gefahrenherd?

Nicht unbedingt: Interessant ist nämlich, dass sich z. B. in großen amerikanischen SEO-Foren niemand Gedanken zu doppeltem Content macht! Ich habe in dreien davon nachgefragt, die Antwort war unisono: ‘Forget it!‘. Auch auf Abakus waren beruhigende Stimmen zu hören, einig waren sich die Diskussionsteilnehmer nicht – siehe Post Suchmaschinen-Optimierung: Wissen ist Macht.

Probleme konnte ich wegen doppeltem Content (der nur auf meiner eigenen Website öfter vorkam) noch nie beobachten – meine Devise ist nun: ich lass’ die Suchmaschinen ihren Job tun, d. h. Google soll entscheiden (falls es denn überhaupt ein Thema sein sollte!), ob eine meiner Seiten mit ähnlichem Content weniger relevant ist, und unter Umständen sogar vom Index ausgeschlossen werden soll. Was ich garantiert nicht tun werde: Mittels der Datei robots.txt oder dem Robots Meta-Tag Webseiten präventiv von einer Indexierung auszuschließen!


Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.