Conductor
Los geht's

Cloaking

Als Cloaking wird eine BlackHat-Technik bezeichnet, die Besucher*innen einer Website eine andere Version zeigt als Suchmaschinen-Crawlern.

Ziel des Cloaking ist es, möglichst viel Text für Suchmaschinen im Quellcode zu platzieren, um damit bessere Rankings in den SERP zu erzielen. Wenn ein Bot beim Crawlen einer Seite Cloaking feststellt, kann dies zum Ausschluss der Website aus dem jeweiligen Index von Bing , Google & Co. führen.

Der Hintergrund von Suchmaschinen-Cloaking

Im Gegensatz zu menschlichen Besucher*innen einer Website können Crawler wie der Google-Bot nur in beschränktem Maße Bilder und andere Dateien auslesen. Als Basis für die Analyse einer Seite dient deshalb heute immer noch der Quelltext. Für eine Suchmaschine stellt sich eine Website demnach immer primär als Textdokument dar. Die Cloaking-Technik versucht, gerade diese Schwäche der Crawler auszunutzen, indem der Quelltext einer Website mit relevantem Content gespickt wird. Menschliche Besucher*innen nehmen diese Quelltext-Anreicherung jedoch nicht wahr, da die Textelemente im Frontend nicht angezeigt werden. Auf Deutsch heißt „to cloak“ auch „verhüllen“ oder „maskieren“. Webmaster, die Cloaking verwenden, maskieren folglich bestimmte Inhalte für User.

Gängige Arten von Cloaking

  1. IP-Delivery
    Hierbei wird der angezeigte Inhalt einer Website von der IP-Adresse der Besucher*innen bzw. Bots abhängig gemacht. Kennen Webmaster z. B. die Standard-IP-Adresse eines Crawlers, können sie diesem optimierte Inhalte ausliefern, die menschliche Besucher*innen nicht sehen können. Der Erfolg dieser Blackhat-Taktik basiert darauf, dass Suchmaschinen-Robots immer über eine konstante IP-Adresse auf die Seite zugreifen. Die meisten Provider verwenden heute jedoch wechselnde IP-Adressen.
  2. Agent Name Delivery
    Beim Zugriff auf das Internet nutzen wir Programme, die jeweils einen eigenen Namen, den Agent Name, verwenden. Über die sogenannte Agent Name Delivery kann nun analysiert werden, ob ein Crawler oder ein menschlicher User auf die Website zugreift. Wird erkannt, dass es sich um einen Spider handelt, können folglich spezielle Text-Seiten ausgeliefert werden. Um dieser Cloaking-Technik zu entgehen, „tarnen“ viele Anbieter*innen die Agent Names ihrer Bots mit den Namen gängiger Browser, z. B. Mozilla/5.0.
  3. Weißer Text auf weißem Hintergrund
    Mit weißem Text auf weißem Hintergrund haben BlackHat-SEOs lange Zeit gearbeitet. Bei dieser Methode des Content Spam könnte man ebenfalls von Cloaking sprechen, auch wenn eigentlich Besucher*innen und Crawler die gleiche Version gezeigt bekommen. Doch die Tatsache, dass Schrift auf einem gleichfarbigen Hintergrund versteckt bzw. „verhüllt“ wird, lässt auch hier die Bezeichnung „Cloaking“ im weitesten Sinne zu.
  4. Cloaking als Spam-Technik für kriminelle Hacker
    Agent Name Cloaking oder Cloaking über die IP-Delivery (wenn die IPs der Crawler bekannt sind) wird auch von kriminellen Hackern genutzt. Dabei übernehmen sie die Kontrolle über eine Website und verändern den Quellcode so, dass Bots eine andere Version der Seite angezeigt wird. In dieser für menschliche User nicht sichtbaren Seitenversion binden Hacker massenhaft Spam Links zu eigenen Projekten, vorwiegend aus den Bereichen Glücksspiel, Pornographie oder Kredite ein. Wer feststellt, dass die eigene Website gehackt wurde, sollte sofort handeln, denn sonst wird ein Ausschluss aus dem Suchmaschinen-Index riskiert.

Cloaking – Grenzfälle

Cloaking muss nicht immer ausschließlich dazu dienen, Suchmaschinenergebnisse zu manipulieren. Es gibt viele Fälle, in welchen z. B. der Google-Bot eine andere Version einer Internetseite zu sehen bekommt, als menschliche Besucher*innen.

  • Flash-Animationen: viele Internet-Seiten arbeiteten früher mit Flash-Animationen, weil Besucher*innen eine optisch ansprechende Seite gezeigt werden sollte. Allerdings waren Informationen in den Flash-Dateien für Suchmaschinen-Robots nur schwer oder gar nicht lesbar. Sie konnten im Quelltext nur erkennen, dass eine Flash-Anwendung geladen wird, aber nicht, welchen Inhalt sie hat.
  • Text auf Bildern: Vor allem für Banner und Produktbilder denken sich Grafiker*innen und Webdesigner meist sehr reizvolle Arrangements aus. Allerdings können Suchmaschinen die Bilder nur anhand von Alt-Tags oder Title-Tags sowie dem die Bilder umgebenden Content analysieren und zuordnen. Wer somit Inhalte vor den Suchmaschinen-Spidern verstecken möchte, kann dies auf Bildern tun. Viele SEOs nutzen diese Taktik z. B. um das Impressum ihrer Satelliten-Seiten zu verschleiern und zu verhindern, dass diese indiziert wird. Denn über einen Vergleich der Impressen verschiedener Websites kann ein Link-Netzwerk u. a. enttarnt werden.
  • CSS-Elemente mit „display none“: Aus Unwissenheit verwenden viele Website-Betreibende die Voreinstellungen ihres CMS. Dabei kann es vorkommen, dass die Einstellungen bestimmter CSS-Elemente diese vor Usern verbergen. Dies ist häufig bei nicht verwendeten Content-Boxen der Fall. Für Suchmaschinen ist der Inhalt dennoch lesbar, auch wenn das CSS-Element mit dem Attribut „display none“ gekennzeichnet wurde.

Was gilt für Suchmaschinen nicht als Cloaking-Spam?

Beim Geotargeting wird die Ausgabe des Contents anhand einer Standortermittlung des zugreifenden Users gesteuert. Da es sich hierbei allerdings um eine Maßnahme handelt, die den User-Komfort erhöht, wenn z. B. in Frankreich wohnende Personen eine französischsprachige Version einer Firmenwebsite ausgeliefert bekommen, gilt Geotargeting über die IP-Abfrage nicht als manipulatives Cloaking. Gleiches gilt auch für die User Agent Delivery, wenn sie verwendet wird, um Usern mit mobilen Endgeräten eine für Tablets und Smartphones optimierte Website anzuzeigen. Ebenso gilt es allgemein als unbedenklich, wenn Agents von Suchmaschinen URLs ohne Session-IDs übergeben werden.

Tipps für Webmaster und SEOs

Wer die Gefahr ausschließen möchte, von Google, Bing und Co. aufgrund von Cloaking als Spammer deklassiert oder nicht mehr indiziert zu werden, der sollte Websites bereitstellen, die sowohl für menschliche User als auch für Crawler die gleichen Inhalte ausliefern. Werden Bilder verwendet, sollten diese z. B. mit den nötigen Tags zur Beschreibung versehen werden, damit auch Suchmaschinen diese Inhalte thematisch passend indizieren können. Grundsätzlich sollte jeder SEO beachten, dass er alle Möglichkeiten ausschöpft, um Usern wie Bots Inhalte optimal, zielführend, themenrelevant und einzigartig anzubieten.

Praxistipp: Um zu überprüfen, welche Inhalte z. B. der Google-Bot sieht, können SEOs und Webmaster das kostenlose Tool „Abruf wie durch googlebot“ in den Google Webmaster Tools verwenden. Voraussetzung dafür ist ein gültiges Google-Konto sowie eine Anmeldung der betreffenden Seite für die WMT.

Bereit, das Potenzial deiner Website zu entfalten?

TrustRadius logo
G2 logo
SoftwareReviews logo