Searchmetrics Glossar: das Lexikon für SEO und Content Marketing

Cloaking

Als Cloaking wird eine BlackHat-Technik bezeichnet, die Besuchern einer Website eine andere Version zeigt als den Suchmaschinen-Crawlern. Ziel des Cloaking ist es, möglichst viel Text für Suchmaschinen im Quellcode zu platzieren, um damit bessere Rankings in den SERP zu erzielen. Wenn ein Bot beim Crawlen einer Seite Cloaking feststellt, kann dies zum Ausschluss der Website aus dem jeweiligen Index von Bing, Google & Co. führen.

 

Der Hintergrund von Suchmaschinen-Cloaking

Im Gegensatz zum menschlichen Besucher einer Website können Crawler wie der Google-Bot nur in beschränktem Maße Bilder und andere Dateien auslesen. Als Basis für die Analyse einer Seite dient deshalb heute immer noch der Quelltext. Für eine Suchmaschine stellt sich eine Website demnach immer primär als Textdokument dar. Die Cloaking-Technik versucht, gerade diese Schwäche der Crawler auszunutzen, indem der Quelltext einer Website mit relevantem Content gespickt wird. Der menschliche Besucher nimmt diese Quelltext-Anreicherung jedoch nicht wahr, da die Textelemente im Frontend nicht angezeigt werden. Auf Deutsch heißt „to cloak“ auch „verhüllen“ oder „maskieren“. Webmaster, die Cloaking verwenden, maskieren folglich bestimmte Inhalte für den User.

 

Gängige Arten von Cloaking

  1. IP-Delivery
    Hierbei wird der angezeigte Inhalt einer Website von der IP-Adresse des Besuchers bzw. Bots abhängig gemacht. Kennt ein Webmaster z.B. die Standard-IP-Adresse eines Crawlers, kann er diesem optimierte Inhalte ausliefern, die der menschliche Besucher nicht sehen kann. Der Erfolg dieser Blackhat-Taktik basiert darauf, dass Suchmaschinen-Robots immer über eine konstante IP-Adresse auf die Seite zugreifen. Die meisten Provider verwenden heute jedoch wechselnde IP-Adressen.
  2. Agent Name Delivery
    Beim Zugriff auf das Internet nutzen wir Programme, die jeweils einen eigenen Namen, den Agent Name verwenden. Über die sogenannte Agent Name Delivery kann nun analysiert werden, ob ein Crawler oder ein menschlicher User auf die Website zugreift. Wird erkannt, dass es sich um einen Spider handelt, können folglich spezielle Text-Seiten ausgeliefert werden. Um dieser Cloaking-Technik zu entgehen, „tarnen“ viele Anbieter wie Google die Agent Names ihrer Bots mit den Namen gängiger Browser, z.B. Mozilla/5.0.
  3. Weißer Text auf weißem Hintergrund
    Mit weißem Text auf weißem Hintergrund haben BlackHat-SEOs lange Zeit gearbeitet. Bei dieser Methode des Content-Spam könnte man ebenfalls von Cloaking sprechen, auch wenn eigentlich Besucher und Crawler die gleiche Version gezeigt bekommen. Doch die Tatsache, dass Schrift auf einem gleichfarbigen Hintergrund versteckt bzw. „verhüllt“ wird, lässt auch hier die Bezeichnung „Cloaking“ im weitesten Sinne zu.
  4. Cloaking als Spamtechnik für kriminelle Hacker
    Agent Name Cloaking oder Cloaking über die IP-Delivery (wenn die IPs der Crawler bekannt sind) wird auch von kriminellen Hackern genutzt. Dabei übernehmen Sie die Kontrolle über eine Website und verändern den Quellcode so, dass Bots eine andere Version der Seite angezeigt wird. In dieser für den menschlichen User nicht sichtbaren Seitenversion binden Hacker massenhaft Spam-Links zu eigenen Projekten, vorwiegend aus den Bereichen Glücksspiel, Pornographie oder Kredite ein. Wer feststellt, dass seine Website gehackt wurde, sollte sofort handeln, denn er riskiert einen Ausschluss aus dem Suchmaschinen-Index

 

Cloaking – Grenzfälle

Cloaking muss nicht immer ausschließlich dazu dienen, Suchmaschinenergebnisse zu manipulieren. Es gibt viele Fälle, in welchen z.B. der Google-Bot eine andere Version einer Internetseite zu sehen bekommt als der menschliche Besucher.

  • Flash-Animationen: viele Internetseiten arbeiten heute mit Flash-Animationen, weil den Besuchern eine optisch ansprechende Seite gezeigt werden soll. Allerdings sind die Informationen in den Flash-Dateien für Suchmaschinen-Robots nur schwer oder gar nicht lesbar. Sie können im Quelltext nur erkennen, dass eine Flash-Anwendung geladen wird, aber nicht, welchen Inhalt sie hat.
  • Text auf Bildern: Vor allem für Banner und Produktbilder denken sich Grafiker und Webdesigner meist sehr reizvolle Arrangements aus. Allerdings können Suchmaschinen die Bilder nur anhand von Alt-Tags oder Title-Tags sowie dem die Bilder umgebenden Content analysieren und zuordnen. Wer somit Inhalte vor den Suchmaschinenspidern verstecken möchte, kann dies auf Bildern tun. Viele SEOs nutzen diese Taktik z.B. um das Impressum ihrer Satelliten-Seiten zu verschleiern und zu verhindern, dass diese indiziert wird. Denn über einen Vergleich der Impressen verschiedener Websites kann ein Linknetzwerk u.a. enttarnt werden.
  • CSS-Elemente mit „display none“: Aus Unwissenheit verwenden viele Webseiten-Betreiber die Voreinstellungen ihres CMS. Dabei kann es vorkommen, dass die Einstellungen bestimmter CSS-Elemente diese vor dem Nutzer verbergen. Dies ist häufig bei nicht verwendeten Content-Boxen der Fall. Für Suchmaschinen ist der Inhalt dennoch lesbar, auch wenn das CSS-Element mit dem Attribut „display none“ gekennzeichnet wurde.

 

Was gilt für Suchmaschinen nicht als Cloaking-Spam?

Beim Geotargeting wird die Ausgabe des Contents anhand einer Standortermittlung des zugreifenden Users gesteuert. Da es sich hierbei allerdings um eine Maßnahme handelt, die den Nutzerkomfort erhöht, wenn z.B. ein Franzose eine französischsprachige Version einer Firmenwebsite ausgeliefert bekommt, gilt Geotargeting über die IP-Abfrage nicht als manipulatives Cloaking. Gleiches gilt auch für die User Agent Delivery, wenn sie verwendet wird, um Usern mit mobilen Endgeräten eine für Tablets und Smartphones optimierte Website anzuzeigen. Ebenso gilt es allgemein als unbedenklich, wenn Agents von Suchmaschinen URLs ohne Session-IDs übergeben werden.

 

Tipps für Webmaster und SEOs

Wer die Gefahr ausschließen möchte, von Google, Bing und Co. aufgrund von Cloaking als Spammer deklassiert oder nicht mehr indiziert zu werden, der sollte Websites bereitstellen, die sowohl für menschliche Nutzer als auch für Crawler die gleichen Inhalte ausliefern. Werden Bilder verwendet, sollten diese z.B. mit den nötigen Tags zur Beschreibung versehen werden, damit auch Suchmaschinen diese Inhalte thematisch passend indizieren können. Grundsätzlich sollte jeder SEO beachten, dass er alle Möglichkeiten ausschöpft, um Nutzern wie Bots Inhalte optimal, zielführend, themenrelevant und einzigartig anzubieten.

Praxistipp: Um zu überprüfen, welche Inhalte z.B. der Google-Bot sieht, können SEOs und Webmaster das kostenlose Tool „Abruf wie durch googlebot“ in den Google Webmastertools verwenden. Voraussetzung dafür ist ein gültiges Google-Konto sowie eine Anmeldung der betreffenden Seite für die WMT.

F