Artikelformat

Alte Inhalte richtig offline nehmen

Das Internet wird nicht immer nur mit neuen Inhalten gefüllt, sondern es werden täglich auch Mengen an Daten und Seiten wieder offline genommen. Bei dem Löschen von einzelnen Seiten auf Websites entstehen regelmäßig die sogenannten 404-Fehler. Diese Fehler sind aber sowohl für die Besucher, als auch aus SEO-Sicht ärgerlich, aber auch vermeidbar. Wie sich 404-Fehler nach dem abschalten von einzelnen Seiten vermeiden lassen, erkläre ich an dem folgenden Modell.

Klassische 404-Fehlerseite

Normalerweise gelangt der Nutzer oder ein Bot von Suchmaschinen über die “alte” URL direkt mittels einem Redirect auf die 404-Fehlerseite, da die Seite offline genommen wurde.

Dadurch erscheint in den Google Webmaster Tools nun ein Crawling-Fehler und die URL bleibt noch einige Zeit in den Suchergebnissen sichtbar. Außerdem ist der Nutzer verärgert, da dieser nicht die gewünschten Informationen erhalten hat und klickt zurück zu den Suchergebnissen. Diese drei Punkte gilt es mit dem Failover-Workflow zu verhindern.

SEO- und Usability-Optimierter Failover-Workflow

Bei dem Failover-Workflow für offline genommene Seiten versucht der Nutzer oder ein Suchmaschinen-Bot wieder auf die “alte” Seite zuzugreifen. Nun wird ihm ein Hinweis auf den fehlenden Inhalt angezeigt. Dieser Hinweis sollte thematisch passen und einen menschlichen Besucher “abholen” und zum verbleiben auf der Domain verleiten.

Soweit kann das jedoch auch noch eine normale 404-Seite leisten. Der Unterschied zwischen der 404-Seite und der Failover-Seite ist eher technischer Natur.

  • Die URL bleibt bestehen und es erfolgt kein Redirect
  • Im Head wird der Meta-Robots-Tag auf “noindex” gesetzt

Dadurch wird den Suchmaschinen mitgeteilt, dass exakt diese URL (daher kein Redirect nutzen) aus dem Index genommen werden soll.

Beispiel des Failover-Workflows

Ein Beispiel, wie der Failover-Workflow gut eingesetzt wird, habe ich bei dem Lebensmittelhersteller Bertolli gefunden. Statt dem eigentlichen Rezept, welches es nicht mehr gibt, werden dem Besucher andere Rezepte angezeigt, welche ihn zum verweilen auf der Seite animieren sollen. Der Meta-Tag Robots steht auf “noindex” und die URL ist identisch zu der alten Seite.


Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.