Zurück zur Blogübersicht
SEO

Wer einen Relaunch seines Webauftritts durchführt, hat mit zahlreichen Stolpersteinen zu kämpfen – HTTP Status Codes sollten einem nicht fremd sein! Seiten sind eventuell nicht mehr verfügbar, die Bilder werden nicht mehr angezeigt, weil sich die Ordnerbezeichnung änderte, von Hindernissen im Rahmen der Programmierung ganz zu schweigen. Probleme wie diese haben schon so manchem Shop-Betreiber schlaflose Nächte bereitet.

Sind all diese Schwierigkeiten überwunden und der Shop steht funktionsfähig im Netz, kann es dennoch zu einem unerklärlichen Abfall in den Rankings kommen. Dies kann die verschiedensten Ursachen haben. Eine davon kann in fehlerhaften URLs liegen.

Nehmen wir an, wir hätten einen Shop für Tierbedarf. Im Zuge des Shop-Updates ändern sich zum Teil die Gebindegrößen für Tierfutter. Die Dosen mit 600 Gramm Inhalt werden aus dem Angebot genommen, weil sie zu wenig gekauft werden. Ordnernamen ändern sich gegebenenfalls auch.

Für uns als Seitenbetreiber scheint alles in Ordnung zu sein, denn der Shop funktioniert augenscheinlich, doch der Schein kann trügen.

Zunahme der Crawling-Fehler

Durch eine Umbenennung von Ordnern und Seiten sind einstmals indexierte Dokumente nicht mehr im Index zu finden. Dies hat Crawling-Fehler zur Folge, die sich letzten Endes negativ auf die Platzierung auswirken können. Da Google jedem Internetauftritt nur ein gewisses Crawl-Kontingent zur Verfügung stellt, kann es vorkommen, dass gerade bei vielen Artikeln im Shop plötzlich nicht mehr alle Seiten indexiert werden.

Verschwundene Backlinks

Dass (vor allem natürliche) Backlinks für gute Rankings wichtig sind, hat sich inzwischen rumgesprochen. Ändern wir jetzt aber die URL-Struktur, landen Besucher auf 404-Seiten oder bekommen eine Fehlermeldung im Browser angezeigt. Springen die Besucher enttäuscht wieder zu Google zurück, kann sich eine erhöhte Absprungrate negativ auf unsere Platzierungen auswirken. Im Idealfall hat unser Webmaster all diese Probleme vorausgesehen und ein Konzept für Weiterleitungen erstellt. Was können wir aber tun, wenn der Webmaster nicht so vorausschauend war? Wir wollen anhand eines Beispiels zeigen, wie wir mit Hilfe der Google Webmastertools Ursachenforschung und Problemlösung betreiben können.

Crawling-Fehler in den Google Webmaster-Tools

Im nachfolgenden Screenshot der Google Webmaster-Tools sieht man sehr gut, wie die Zahl der Crawling-Fehler nach dem Relaunch anstieg.
 

Unter der Verlaufskurve listet uns Google bis zu 1000 Seiten mit Fehlern auf. Diese können nach URL Priorität und Datum sortiert sowie nach Begriffen innerhalb der URL gefiltert werden. Weitere Erkenntnisse können wir gewinnen, wenn wir die Liste herunterladen und mit Programmen wie Microsoft Excel betrachten.

Ein Klick auf die URL liefert uns weitere Details, beispielsweise Informationen, welche Links auf die fehlerhafte URL zeigen.

In diesem speziellen Bereich Tierfutter tauschen sich User sehr intensiv in Foren und anderen Plattformen aus, weshalb die zugehörigen Backlinks nicht vernachlässigt werden sollten. Wenn wir es schaffen, den Backlink auf eine alternative (existierende) URL zeigen zu lassen, wäre dies vorteilhaft. Da wir nur selten die Foreneinträge ändern können, sollten wir eine Alternativ-Adresse ermitteln und den Link per 301-Redirect umleiten.

Wie finden wir eine Alternativ-URL?

Wie eingangs erwähnt, kann die Zunahme der Crawling-Fehler verschiedene Ursachen haben. Wurden einzelne Ordner umbenannt, kann das Problem recht einfach über einen 301-Redirect vom alten auf den neuen Ordner gelöst werden. Schwieriger wird es, wenn sich nur einzelne Adressen oder die Gebindegrößen der Produkte ändern. Sind wir uns z.B. nicht sicher, ob wir die URL der nicht mehr vorhandenen 400-Gramm Dose besser auf 200 oder auf 600 Gramm weiterleiten, ist ein Redirect auf die zugehörige Kategorie eine gute Alternative.

Ein weiterer Ansatz für die Weiterleitungen von Produkt-URLs können Kundenbewertungen, Platzierungen oder die CTR (Click Through Rate) sein. Können wir uns nicht zwischen zwei adäquaten Seiten entscheiden, nehmen wir die mit den besseren Bewertungen, der besseren Platzierung oder der höheren CTR. Auch hier helfen uns die Google Webmaster-Tools weiter. Unter dem Suchanfragen können wir uns in den Webmaster-Tools nicht nur die häufigsten Suchanfragen, sondern auch die häufigsten Seiten ausgeben lassen. Auch hier können wir die Daten exportieren, mit Excel analysieren und vor allem einen Vergleich mit den nicht gefundenen URLs durchführen.

Ihnen hat unser Beitrag gefallen und sie haben wichtige Informationen für Ihr Web-Projekt und Ihr Unternehmen mitnehmen können? Werfen Sie doch auch einen Blick in unseren ausführlichen Artikel zum Thema Website Relaunch, wo wir Ihnen 14 Fehler aufzeigen, die Sie wichtige Rankings kosten könnten. Vermeiden Sie diese Fehler unbedingt beim Website Ihrer Website!