Cloaking Black-Head-Seo
SEO, Wissenswertes

Cloaking


Cloaking ist eine Programmiertechnik, die im „Black-Head“ Bereich der Suchmaschinenoptimierung bekannt ist. Wie jedes Ziel der Suchmaschinenoptimierung beabsichtigt auch das Cloaking eine Verbesserung der Rankings innerhalb einer Internetpräsenz in diversen Suchmaschinen. Hierbei werden verschiedene Versionen (Quellcode) für individuelle Betrachter (User-Agent) definiert. Wobei die Kernaufgabe darin liegt, zwei optimierte Dokumente zu erstellen - eines für den Nutzer, das andere für den Webcrawler, wie z.B. dem Googlebot 2.1.

Warum Cloaking mehr schlecht als recht ist, erklären wir in diesem Beitrag. Viel Spaß beim Lesen und Finger weg von SPAM-Methoden!

Hintergrund der Cloaking-Absicht

Wenn man eine Webseite aus der Perspektive des Nutzers betrachtet, hat diese gegebenenfalls andere Anforderungen als die aus Sicht des Algorithmus einer Suchmaschine. Insbesondere bei Online-Shops kommt es des Öfteren zu Diskussionen über Fließtext im Content. Branchenabhängig scheint es aus Nutzersicht oft als „überflüssig“ Text auf einer Landingpage zu implementieren. Für ein gutes Ranking ist hochwertiger Content jedoch notwendig. Man könnte fast behaupten, dass auf Grund dieses Konfliktes das Cloaking erdacht worden ist. Denn genau für diese beschriebene Situation scheint das Cloaking die perfekte Lösung zu sein.

Eine Webseite, die sich stark auf Bild, Videos oder sonstige Flash-Animationen fokussiert hat und kaum relevanten Text aufweist, kann nur bedingt von einer Suchmaschine bewertet werden. Zwar ist es heute vielen Crawlern möglich, Bilder zu erkennen und diese zu deuten, doch im Vergleich zu einem hochwertigen Text ist der Informationsfluss deutlich geringer. Cloaking bietet genau an dieser Stelle eine verlockende Methode, um den Suchmaschinen-Bots möglichst viel relevanten Text zu liefern, ohne dass dieser sich negativ auf das Nutzerverhalten auswirkt.

Verschiedene Vorgehensweisen und deren Risiko

IP Cloaking

Bei jedem Zugriff auf eine Webseite fragt der Server die dazugehörige IP-Adresse des Nutzers, aber auch die eines Bots ab. Sind einem die Standard IP´s der Crawler bekannt, kann man diesen eine optimierte Variante der Inhalte ausliefern. Da der normale Benutzer von einer anderen IP zugreift, erfährt dieser nichts von der bot-optimierten Webseite.

Man sollte jedoch bedenken, dass große Suchmaschinen sich kontinuierlich weiterentwickeln und stets Prozesse entwickeln, um Manipulationen aufzudecken. So schicken diese zum Beispiel Crawler von dynamischen IP-Adressen los. Zudem gibt es gesonderte Crawler, welche ausschließlich zum Enttarnen von Cloaking-Webseiten durch das Netz schwirren. Deren IP ist nur schwer zu ermitteln, da Suchmaschinen engagiert versuchen diese geheim zu halten.

User Agent Cloaking (Agent Name)

Ein menschlicher User ruft im „World Wide Web“ eine Webseite mit Hilfe eines Browsers auf. Dieser dient zur Darstellung von Webseiten, aber auch zur Abfrage des Dokumentes der eingegebenen URL an den Server. Jeder Browser hat einen eigenen User Agent, welchen der Server vor dem übermitteln des gewünschten Dokumentes abfragt. Ein User Agent von einer natürlichen Person könnte demnach wie folgt aussehen:

  • Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36

Der Spider (Bot) benötigt jedoch keinen Browser um ein Dokument zu verstehen und dieses zu crawlen. Er könnte daher eine direkte Anfrage an den Server stellen. Der User Agent hierfür wäre in Bezug auf Google wie folgt:

Ein Webmaster könnte nun für jeden User Agent einen optimierten Inhalt ausspielen, um so die genannten Vorteile zu genießen. Auch wenn diese Variante auf den ersten Blick sehr sicher wirkt, gibt es für die Spider Möglichkeiten, diese zu entlarven. So können Bots beispielsweise mit einem getarnten User Agent ausgerüstet werden, welche dann für den Server wie ein Standard-Browser-Zugriff aussehen.

Cloaking als Spamtechnik

Da man mit dem Cloaking der Suchmaschine einen anderen Inhalt ausliefert, wird auch dieser für die Indexierung verwendet. Spammer könnten dem Crawler somit vortäuschen, dass eine Webseite zum Thema „Schwarztee“ informiert, was dementsprechende Rankings für passende Suchanfragen nach sich ziehen würde. Für einen menschlichen Nutzer dagegen, wäre eine reine Werbungsseite sichtbar.

Kriminelle Hacker gehen noch einen Schritt weiter. So versuchen diese, sich in beliebige Internetpräsenzen ein zu hacken, um dort anschließend den Quellcode abzuändern. Damit könnte der Hacker Spam-Links zu seiner eigenen Webseite integrieren, die auf den ersten Blick für den Webmaster nicht ersichtlich sind. Meist verweisen diese Links auf pornographische- oder Glücksspielseiten, was sich negativ auf das eigentliche Ranking auswirken kann. Es ist deshalb ratsam, seine Seite gut zu schützen und zudem regelmäßige Kontrollen durchzuführen.

Grauzonen im Cloaking

Wenn man sich genau mit dem Thema „Cloaking“ beschäftigt, fällt einem auf, dass bereits mit gängigen Webstandards eine schwache Form von Cloaking betrieben wird. Diese gelten jedoch als unbedenklich und werden dementsprechend von Suchmaschinen akzeptiert. Dennoch sollte einem bewusst sein, dass Suchmaschinen und Nutzer unbeabsichtigt verschiedene Versionen deuten.

Informationen auf Bildern

Ein typisches Beispiel sind Werbe- oder Aktionsbanner. Hierbei werden Texte meist direkt auf das Bild integriert. Für den menschlichen Nutzer ist der Informationsfluss eindeutig, die Kombination aus Bild und Text wirkt sich zudem sehr positiv auf die User Experience aus. Der Bot allerdings erhält nur Information durch gut gepflegte Alt-Attribute, Titel-Tags sowie Text, der in naher Umgebung auffindbar ist.

Flash-Animationen

Flash Animationen können eine Webseite optisch aufwerten. Doch suchmaschinenfreundlich sind diese überhaupt nicht. Ein Bot weiß nur über deren Existenz bescheid, Verstehen und Auswerten der Information, ist dem Bot jedoch fremd.

Dynamische Webseiten

Die Anforderungen an einen Webmaster steigen stetig, so wollen Nutzer immer die aktuellsten Informationen erhalten. Das kann dazu führen, dass eine Webseite, zwischen zwei Crawls des Bots starke inhaltliche Abweichungen aufweist. Zudem werden Aktionsbanner verändert oder das Angebotssortiment angepasst. Viele Seiten sind technologisch auf dem Stand, dass sie ihrem Besucher, je nach Nutzereigenschaft, eine angepasste Seite präsentieren können.

Googles Richtlinien für Webmaster

Wie man in den Google Webmaster Richtlinien nachlesen kann, wird Cloaking seitens Google nicht akzeptiert und kann zu einer schwerliegenden Abstrafung (Penalty) führen. Genauere Informationen über Googles Richtlinien in Bezug auf Claoking finden sie hier.

Gehen Sie kein Risiko ein!

Cloaking kann verlockend sein, doch dies steht in keiner Relation zur möglichen Konsequenz einer Penalty. Wir können Ihnen nur abraten jegliches Risiko einzugehen. Google & Co. wird Ihnen immer einen Schritt voraus sein, es ist nicht die Frage ob, sondern wann der Spider eine Manipulation entlarvt. Versuchen Sie deshalb, jedem Crawler einen unverfälschten Inhalt ihrer Webseite zu präsentieren. Zudem sollten Sie dem Bot unter die Arme greifen wo Sie nur können, pflegen Sie alle Alt- und Titel-tags, erstellen Sie relevante Bild-Datei-Namen und binden Bilder in Textbereiche, die thematische Zusammenhänge haben ein. Google bietet Ihnen in der Google Search Console die Möglichkeit, Inhalte aus beiden Perspektiven zu betrachten. Nutzen Sie dieses Tool zur Überprüfung unklarer Seiten.

Wir unterstützen Sie gerne!

Sollten Sie sich unsicher sein, ob Ihre Maßnahmen in den Bereich Cloaking fallen, zögern Sie nicht und fragen Sie uns an. Unsere kompetenten SEO Manager/innen beraten Sie gerne zu diesen und weiteren Themen.