Zum Inhalt springen

Fehlerhafte URLs nach dem Relaunch

Wer einen Relaunch seines Webauftritts durchführt, hat mit zahlreichen Stolpersteinen zu kämpfen – HTTP Status Codes sollten einem nicht fremd sein! Seiten sind eventuell nicht mehr verfügbar, die Bilder werden nicht mehr angezeigt, weil sich die Ordnerbezeichnung änderte, von Hindernissen im Rahmen der Programmierung ganz zu schweigen. Probleme wie diese haben schon so manchem Shop-Betreiber schlaflose Nächte bereitet.

Sind all diese Schwierigkeiten überwunden und der Shop steht funktionsfähig im Netz, kann es dennoch zu einem unerklärlichen Abfall in den Rankings kommen. Dies kann die verschiedensten Ursachen haben. Eine davon kann in fehlerhaften URLs liegen.

Nehmen wir an, wir hätten einen Shop für Tierbedarf. Im Zuge des Shop-Updates ändern sich zum Teil die Gebindegrößen für Tierfutter. Die Dosen mit 600 Gramm Inhalt werden aus dem Angebot genommen, weil sie zu wenig gekauft werden. Ordnernamen ändern sich gegebenenfalls auch.

Für uns als Seitenbetreiber scheint alles in Ordnung zu sein, denn der Shop funktioniert augenscheinlich, doch der Schein kann trügen.

Zunahme der Crawling-Fehler

Durch eine Umbenennung von Ordnern und Seiten sind einstmals indexierte Dokumente nicht mehr im Index zu finden. Dies hat Crawling-Fehler zur Folge, die sich letzten Endes negativ auf die Platzierung auswirken können. Da Google jedem Internetauftritt nur ein gewisses Crawl-Kontingent zur Verfügung stellt, kann es vorkommen, dass gerade bei vielen Artikeln im Shop plötzlich nicht mehr alle Seiten indexiert werden.

Verschwundene Backlinks

Dass (vor allem natürliche) Backlinks für gute Rankings wichtig sind, hat sich inzwischen rumgesprochen. Ändern wir jetzt aber die URL-Struktur, landen Besucher auf 404-Seiten oder bekommen eine Fehlermeldung im Browser angezeigt. Springen die Besucher enttäuscht wieder zu Google zurück, kann sich eine erhöhte Absprungrate negativ auf unsere Platzierungen auswirken. Im Idealfall hat unser Webmaster all diese Probleme vorausgesehen und ein Konzept für Weiterleitungen erstellt. Was können wir aber tun, wenn der Webmaster nicht so vorausschauend war? Wir wollen anhand eines Beispiels zeigen, wie wir mit Hilfe der Google Webmastertools Ursachenforschung und Problemlösung betreiben können.

Crawling-Fehler in den Google Webmaster-Tools

Crawling-Fehler in den Google Webmaster-Tools, die heute als Google Search Console bekannt sind, sind Probleme, die Google beim Versuch, eine Website zu durchsuchen und zu indexieren, entdeckt. Diese Fehler können dazu führen, dass bestimmte Seiten nicht in den Suchergebnissen erscheinen, was die Sichtbarkeit und den Traffic der Website erheblich beeinträchtigen kann. Hier sind einige der häufigsten Crawling-Fehler und deren Bedeutung:

DNS-Fehler
Ein DNS-Fehler tritt auf, wenn Googlebot die DNS-Server einer Website nicht erreichen kann. Dies bedeutet, dass Google die IP-Adresse der Website nicht herausfinden kann und somit die Website nicht crawlen kann. Solche Fehler können auf DNS-Konfigurationsprobleme oder Serverausfälle hinweisen.

Serverfehler (5xx)
Serverfehler, auch bekannt als 5xx-Fehler, bedeuten, dass der Server aufgrund interner Probleme nicht in der Lage ist, die Anfragen von Googlebot zu verarbeiten. Häufige Ursachen sind Überlastung des Servers, Serverkonfigurationsprobleme oder kurzfristige Serverausfälle. Solche Fehler müssen schnell behoben werden, um sicherzustellen, dass die Website korrekt indexiert wird.

Robots.txt-Fehler
Die Robots.txt-Datei gibt an, welche Bereiche einer Website von Suchmaschinen gecrawlt werden dürfen und welche nicht. Ein Fehler in dieser Datei kann dazu führen, dass wichtige Seiten von der Indexierung ausgeschlossen werden. Typische Probleme sind Syntaxfehler in der Datei oder falsche Anweisungen, die den Zugriff auf wesentliche Teile der Website blockieren.

404-Fehler (Nicht gefunden)
Ein 404-Fehler tritt auf, wenn eine Seite nicht gefunden wird. Dies passiert, wenn eine URL entfernt oder umbenannt wurde, ohne dass eine entsprechende Weiterleitung eingerichtet wurde. Solche Fehler können das Benutzererlebnis beeinträchtigen und das Ranking der Website negativ beeinflussen.

Soft 404-Fehler
Ein Soft 404-Fehler tritt auf, wenn eine Seite den Nutzern zwar anzeigt, dass die Seite nicht gefunden wurde, aber dem Serverstatus „200 OK“ zurückgibt. Dies kann Googlebot verwirren und dazu führen, dass die Seite weiterhin im Index bleibt, obwohl sie keine nützlichen Inhalte bietet.

Fehlerhafter Zugriff durch Googlebot
Dieser Fehler zeigt an, dass Googlebot aufgrund von Zugriffsproblemen nicht auf die Seite zugreifen kann. Ursachen können durch IP-Blockierungen, Firewall-Einstellungen oder andere Sicherheitsmaßnahmen hervorgerufen werden, die den Zugriff von Googlebot auf die Website verhindern.

Probleme mit mobilen Seiten
Mit der zunehmenden Bedeutung der mobilen Suche überprüft Google auch spezifische Probleme, die beim Crawlen der mobilen Versionen von Websites auftreten.

Wie finden wir eine Alternativ-URL?

Wie eingangs erwähnt, kann die Zunahme der Crawling-Fehler verschiedene Ursachen haben. Wurden einzelne Ordner umbenannt, kann das Problem recht einfach über einen 301-Redirect vom alten auf den neuen Ordner gelöst werden. Schwieriger wird es, wenn sich nur einzelne Adressen oder die Gebindegrößen der Produkte ändern. Sind wir uns z.B. nicht sicher, ob wir die URL der nicht mehr vorhandenen 400-Gramm Dose besser auf 200 oder auf 600 Gramm weiterleiten, ist ein Redirect auf die zugehörige Kategorie eine gute Alternative.

Ein weiterer Ansatz für die Weiterleitungen von Produkt-URLs können Kundenbewertungen, Platzierungen oder die CTR (Click Through Rate) sein. Können wir uns nicht zwischen zwei adäquaten Seiten entscheiden, nehmen wir die mit den besseren Bewertungen, der besseren Platzierung oder der höheren CTR. Auch hier helfen uns die Google Webmaster-Tools weiter. Unter dem Suchanfragen können wir uns in den Webmaster-Tools nicht nur die häufigsten Suchanfragen, sondern auch die häufigsten Seiten ausgeben lassen. Auch hier können wir die Daten exportieren, mit Excel analysieren und vor allem einen Vergleich mit den nicht gefundenen URLs durchführen.

Ihnen hat unser Beitrag gefallen und sie haben wichtige Informationen für Ihr Web-Projekt und Ihr Unternehmen mitnehmen können? Werfen Sie doch auch einen Blick in unseren ausführlichen Artikel zum Thema Website Relaunch, wo wir Ihnen 14 Fehler aufzeigen, die Sie wichtige Rankings kosten könnten. Vermeiden Sie diese Fehler unbedingt beim Website Ihrer Website!

Sie möchten mehr zum Thema erfahren? Zögern Sie nicht noch heute unsere SEO-Agentur zu kontaktieren, wir freuen uns auf Ihre Kontaktaufnahme!

Ihr Ansprechpartner
für SEO & SEA

Beyond Media hilft Ihnen dabei, sich von der Konkurrenz abzuheben und bringt Ihre Website mit den richtigen SEO- & SEA-Maßnahmen nach vorne. Gewinnen Sie mit unserer Hilfe und unserer Expertise neue Kunden und sichern Sie sich und Ihrem Unternehmen langfristige und nachhaltige Erfolge mit einem starken digitalen Auftritt!