Black-Hat-SEO verstößt massiv gegen die Qualitätsrichtlinien der Suchmaschinen.

 Was ist Black-Hat-SEO?

Unter Black-Hat-SEO versteht man das Ausnützen von Lücken in den Bewertungsmethoden von Suchmaschinen. Anders als beim Gray-Hat-SEO wird hier extrem gegen die Qualitätsrichtlinien der Suchmaschinen verstoßen, um eine Topplatzierung zu erreichen. Oft gelingt das auch, jedoch ist die Verweildauer dort nur sehr kurz, weil diese Art der Suchmaschinenoptimierung sehr schnell auffliegt und die Domain dann gesperrt wird.

Möglich ist die gute Suchmaschinenplatzierung in diesem Fall durch verschiedenste Vorgehensweisen, die die Ergebnisse manipulieren. So sind viele Links maschinell generiert und/oder von eigens aufgebauten Linknetzwerken auf das Zielobjekt verknüpft. Auch offene Systeme, wie Blogs, Gästebucher, Foren usw. werden infiltriert und für die Verlinkung genutzt. Auch am Inhalt der eigenen Seite wird übertrieben optimiert und mit falschen Tricks gearbeitet.

Black-Hat-SEO ist darauf ausgelegt, auf kurze Zeit viel Geld zu generieren. Die Black-Hats bauen eine Domain sehr schnell auf und nehmen möglichst viel Geld ein, bis es zu einer Sperrung durch die Suchmaschinen kommt. Die Sperrung ist schon mit einkalkuliert. Durch die steigende Erfahrung und die geringere Anzahl an Schlupflöchern hat sich das Kräfteverhältnis im Kampf Suchmaschinen gegen Black-Hats jedoch Richtung Suchmaschinen verschoben. Black-Hat Seiten existieren natürlich nach wie vor, jedoch weitaus kürzer als das früher der Fall war.

 Lücken im Algorithmus

Die meisten Lücken im Algorithmus sind mittlerweile schon gestopft. So war es früher durch eine einfache Manipulation des Meta-Tags Keyword möglich seine Platzierung zu verbessern. Das erübrigt sich für heute schon dadurch, dass das Meta-Tag Keyword keine Gewichtung bei der Bewertung mehr hat.

 Invisible Text/Hidden Text (Unsichtbarer Text)

Unsichtbarer Text (Invisible Text/Hidden Text) hingegen war bis vor Kurzem noch eine gute Möglichkeit Text in die Homepage zu integrieren, der zwar für die Crawler, jedoch nicht für das menschliche Auge sichtbar war. Man gab dem Text und dem dazu gehörigen Hintergrund einfach die gleiche Farbe, was dazu führte, dass zwar faktisch Textstellen vorhanden waren, diese jedoch dem Benutzer verborgen blieben. Das ist/war eine sehr gute Möglichkeit Inhalte zur Suchmaschinenoptimierung zu integrieren, ohne dabei die Schönheit der Seite anzutasten. Schöner Nebeneffekt ist auch der höhere C2C-Wert (Content-to-Code-Ratio). Jedoch erkennen die Suchmaschinen dieses falsche Spiel mittlerweile. Eine Möglichkeit die Erkennung für die Suchmaschinen zu erschweren ist, anstatt einer CSS-Hintergrundfarbe ein Hintergrundbild in Schriftfarbe zu erstellen und zu integrieren. Diese Möglichkeit kann man noch anwenden, jedoch bin ich mir sicher, dass auch dieses Loch bald gestopft wird.

Alternativ wurde früher auch einfach ein Text mit einer kleinen Schriftgröße in die Seite eingebaut oder hinter Bildern versteckt. Jedoch ist vorallem der Versuch Text mit einer kleinen Schriftgröße einzubauen sehr einfach zu erkennen, was diese Vorgehensweise auch unbrauchbar macht.

 Invisible Links/Hidden Links (Unsichtbare Links)

Im Gegensatz zum Hidden Text geht man mit versteckten Links ein nicht allzu großes Risiko ein, wodurch man dieses Schema auch unter Gray-Hat hätte einsortieren können. Da viele Flashseiten diese Methode als Mittel zur Google-Optimierung nutzen, kann man diese Vorgehensweise schon fast als von Google geduldet ansehen. Es werden hier durchsichtige Bilder benutzt um z. B. eine auf Flash basierende Navigation für Google sichtbar zu machen. Eine Folge der versteckten Links kann eine Verbesserung der Linkpopularität sein.

Da man kaum Gefahr läuft von Google abgemahnt oder bestraft zu werden kann man die versteckten Links als Mittel benutzen. Jedoch liegt in anderen Bereichen ein weitaus größeres Potenzial zur Optimierung.

 Keyword-Stuffing

Beim Keyword-Stuffing handelt es sich um die Häufung eines Schlüsselwortes auf einer Seite. Google gewichtet ein Keyword umso mehr, desto öfter es im Content, den Tags und in den Attributen vorkommt. So integriert der Black-Hat vorher festgelegte Wörter im Title-Tag, in den H-Tags, der Meta-Description und den Meta-Tag-Keywords sowie in den Title- und Alt-Attributen der Links und Bilder. Mittlerweile ist diese Methode weitaus schwieriger umzusetzen, als das früher der Fall war. Google ermittelt heute eine Keyworddichte, die nicht zu hoch sein darf, da das Wort sonst ganz schlecht bewertet wird. Das Ziel des Black-Hats und auch vieler Gray-Hats ist das optimale Ausreizen der Keyworddichte. Es gibt jedoch keine genaue Angabe wie hoch die Keyworddichte sein darf, was das ausloten erschwert. Zudem ändern sich die Suchmaschinenalgorithmen andauernd.

 Doorway Pages

Viele unseriöse SEO-Anbieter und Black-Hats benutzen Doorway Pages (Brückenseiten) zur Verbesserung des Suchmaschinenrankings. Unter Doorway Page versteht man eine Seite, die keinen Wert auf Layout legt und stark auf die Suchmaschinenoptimierung ausgelegt ist. Sie ist der eigentlichen Startseite des Internetauftritts vorgeschalten und leitet direkt auf diese weiter. Dem Crawler wird die optimierte Seite vorgelegt, während der eigentliche Besucher die schöne Seite zu sehen bekommt. Das im deutschen Raum wohl bekannteste Beispiel für eine solche Manipulation dürfte BMW sein. Hier wurde diese Praktik genau so umgesetzt. Während der Besucher nur bei deaktiviertem Javascript die suchmaschinenoptimierte Seite zu sehen bekam, bekamen alle die, die Javascript aktiviert hatten die fürs menschliche Auge optimierte Seite zu sehen. Es dauerte einige Monate bis BMW aufflog. Das es jedoch so lang dauerte, eine durchaus bekannte Seite dieser Methodik zu überführen, zeigt jedoch auch, dass kleinere Seiten durchaus mit Black-Hat-Methoden überleben könnten.

Es existieren einige Tools, die speziell für die Erstellung von Doorway-Pages gebaut wurden. Das macht es leicht und wenig zeitaufwendig. Viele unseriöse Anbieter von Suchmaschinenoptimierungen benutzen diese Methode um eine schnelle Verbesserung des Suchmaschinenrankings zu erzielen. Natürlich lässt man als seriöser Webmaster/SEO von solchen Anbietern die Finger!

 Link-Netzwerke

Den Aufbau kleinerer Linknetzwerke habe ich im Gray-Hat-SEO schon beschrieben, beim Black-Hat-SEO verhält es sich jedoch noch ein bisschen anders. Beim Black-Hat-SEO wird alles noch extremer betrieben, als es beim Gray-Hat der Fall wäre. Man baut eigene Webseiten auf, um von diesen Webseiten auf die eigene Seite zu linken. Oft wird der Inhalt automatisch durch ein Programm erstellt, was dem Black-Hat viel Arbeit erspart. Zudem sind diese Seiten auch noch gleich auf die Optimierung der Zielseite ausgelegt.

 Site-Hacking

Beim Thema Site-Hacking befinden wir uns in der tiefschwarzen Suchmaschinenoptimierung. Denn durch das Eindringen in eine fremde Webseite verletzt man nicht nur die Richtlinien der Suchmaschinenanbieter, sondern auch bestehendes Gesetz. Das hacken einer Webseite ist illegal, weshalb von dieser Methode die Finger zu lassen sind. Da es jedoch öfter vorkommt und auch zur Suchmaschinenoptimierung beiträgt, muss auch dieses Thema genannt werden.

Der Hacker verschafft sich Zugriff auf Content-Management-Systeme (CMS) oder allgemein den Server des Zielobjekts und verändert die dort liegenden Dateien zu seinen Gunsten. Er versteckt Links in einzelnen Seiten und hat so die beste Möglichkeit, dass der Schwindel lange Zeit nicht auffliegt. Man kann zwar davon ausgehen, dass der Link von oder im Auftrag des Webmasters der Zielseite gesetzt wurde, jedoch kann man im Nachhinein nur schwer nachweisen, wer die Seite gehackt hat. Die Hacker benutzen dazu meist mehrere Proxy-Server um ihre Identität zu verschleiern.

Ziel eines solchen Angriffes sind vor allem Webseiten, deren Verlinkung einen hohen Wert für die Zielseite haben können. Das sind meistens Seiten mit einem hohen Pagerank und/oder aus dem selben Themenbereich der verlinkten Seite. Doch auch kleine Seiten sind Angriffen ausgesetzt. Aus diesem Grund sollte man immer, egal ob es sich um einen kleinen oder großen Internetauftritt handelt, ein sicheres Passwort benutzen. Als Webmaster sollte man zudem immer verschiedene Passwörter für die einzelnen Internetauftritte seiner Kunden verwenden, da man sonst Gefahr läuft in allen Seiten auf einmal gehackt zu werden. Die Liste der Domains liefert man durch die eigene Referenzliste gleich mit.

Leider laufen vor allem CM-Systeme Gefahr gehackt zu werden. Oft besitzen diese Systeme eine öffentliche Lizenz, wodurch ein jeder die Grunddaten einsehen kann. Hacker können die Schwachstellen ausfindig machen und haben dann die Möglichkeit dieses Leck auszunützen. Betroffen sind vor allem beliebte Systeme, die in hoher Zahl verwendet werden, da diese das größte Potenzial besitzen. Um die Gefahr zu minimieren empfiehlt sich, das System stets auf dem neuesten Stand zu halten.

Tipp: Den Zugang zum Webserver, zum CMS und zur Datenbank immer mit unterschiedlichen Passwörtern absichern. Im Optimalfall sollte das PW zehn Stellen oder länger sein und neben Groß- und Kleinbuchstaben auch noch Zahlen und Sonderzeichen besitzen. Auf Wörter aus dem Wörterbuch und Ähnlichkeiten zum Benutzernamen sollte verzichtet werden. Das CMS stets auf dem neuesten Stand halten.

 Content-Klau

Black-Hats können mit Hilfe von guten Inhalten ihre Seiten stark vorantreiben. Jedoch fehlen ihnen oft diese Inhalte und zudem ist das Erstellen guter Beiträge oft auch mit einem enormen Zeitaufwand verbunden. Deshalb besorgen sich die Black-Hats Inhalte von seriösen Webseiten. Ein beliebtes Verzeichnis zum aufspüren für brauchbaren Inhalt ist dabei DMOZ. Das Onlineverzeichnis ist eigentlich da um Webseiten zu bestimmten Themen zu finden. Die Black-Hats suchen auch nach bestimmten Themen, jedoch um dann den Inhalt der Seiten zu kopieren und dann selbst zu veröffentlichen.

Dabei machen die Anwender der schwarzen Suchmaschinenoptimierung auch nicht halt vor Foren, Gästebüchern und Blogs. Sie benötigen schlicht Text für ihre Homepages und der authentischste Text kommt vom Menschen selbst. Die Vorgehensweise ist dabei längst keine Angelegenheit von manuellem Copy and Paste mehr, sondern wird mit kleinen Programmen (Content Grabber) automatisiert durchgeführt. Diese durchforsten das Web nach Texten und speichern diese. Der geklaute Content wird dann automatisch oder auch manuell in die Seite des Black-Hats integriert und veröffentlicht.

Tipp: Man kann sich teilweise gegen solche Content Grabber schützen. Man kann z. B. auf bot-trap.de ein PHP-Skript herunterladen und es in seine Webseite einbauen. Dieses Skript aktualisiert sich automatisch um stets auf dem Laufenden gegen die Attacken zu sein. Auch manuell kann man Einstellungen treffen, die helfen um sich gegen diese Angriffe zu wehren. Jedoch ist das automatisierte Skript besser und weniger zeitaufwendig.

 Logfile-Spam

Viele Webmaster benutzen Statistiken als Werkzeug um ihre eigene Seite zu optimieren. Viele dieser Statistiken sind öffentlich einzusehen und zeigen oft auch auf, von welchen Seiten die Benutzer auf die Seite gekommen sind. Da dieser Link sehr oft als direkte Verknüpfung angelegt ist wird er von Suchmaschinencrawlern als Backlink angesehen. Diesen Punkt macht sich der Black-Hat zu Nutze um eine Vielzahl an Backlinks zu generieren.

Auf der eigenen Seite wird ein Link gesetzt über den man auf eine Seite mit einer öffentlichen Webstatistik gelangt. Wird der Link benutzt, so erscheint die Ausgangsdomain als Link in der Webstatistik und die Seite besitzt einen Backlink mehr.

Natürlich kann man das Ganze auch noch automatisieren. Sogenannte Spider können direkt darauf angesetzt werden solche Backlinks zu erzeugen. Sie simulieren dabei einen einfachen Webseitenbesucher, der von ihrer Homepage auf die Zielhomepage gelangt. Das beste Ziel sind hierbei wieder einmal Seiten mit gutem PR oder themennahem Inhalt.

Tipp: Um selbst nicht für die Optimierung missbraucht zu werden empfiehlt sich, die Webstatistik nicht öffentlich zu machen, oder die Links auf „nofollow“ zu setzen.

 Cloaking

Eine weitere Black-Hat-Technik ist das Cloaking, bei dem man Suchmaschinen mit andersartigen Informationen, bezüglich des Inhalts einer Seite, versorgt. In diesem Fall wird dem menschlichen Benutzer eine andere Seite serviert als dem Suchmaschinencrawler. Die eine Seite ist auf Schönheit und Lesbarkeit ausgelegt, während die andere für den Zweck der Suchmaschinensichtbarkeit optimiert wurde. Der einfachste Weg, einen Benutzer von einem Crawler zu separieren, ist den HTTP-User-Agent anzuweisen Browsern die eine und Crawlern die andere, jeweilige Variante zuzuweisen (User Agent Cloaking). Da sich teilweise jedoch mittlerweile die Suchmaschinenbots als normale Browser ausgeben, wird es weitaus schwieriger die Robots auf die suchmaschinenoptimierte Seite weiter zu leiten. Abhilfe schafft hier eine Weiche, die bestimmte IPs auf die SEO-Seite leitet (IP Cloaking oder auch IP Delivery). Problem hierbei dürfte sein, dass bei weitem nicht alle Crawler eingeschlossen sind und man stets up-to-date mit den IPs sein muss.

Seit Neuestem wählen sich Robots auch mit den IPs von gängigen Providern ein, was auch die IP-Lösung sinnlos macht. Das Vorgehen der Suchmaschinen ist dabei das Aufspüren von Cloakingseiten, was ihnen problemlos gelingen dürfte, da sie nur die Serverantwort der normalen Robots mit derer vergleichen muss, mit der sie sich über die IP eines ISP eingewählt haben.

Professionelles Cloaking verfolgt die IP-Adresse des Anfragestellers zurück, um Informationen über ihn zu erhalten. So kann evtl. festgestellt werden, ob es sich dabei um einen Suchmaschinenbot handelt. Diese Art des Cloaking ist zwar weitaus weniger anfällig und weniger leicht durchschaubar als die Grundmethoden des Cloaking, jedoch müssen auch hier stets die IP-Listen auf neuestem Stand sein. Die Wahrscheinlichkeit erwischt zu werden ist stets vorhanden. Wird man des Cloakings überführt ist mit Bestrafungen seitens der Suchmaschinen, von der Abstufung des PR, bis hin zur Sperrung zu rechnen.

Fazit: Im ersten Moment hört es sich sehr gut an. Eine suchmaschinenoptimierte Seite, frei von Designelementen wie etwa Flash oder JavaScript, auf den Kern zusammengestutzt, wird der Suchmaschine präsentiert und der eigentliche, menschliche Webseitenbesucher bekommt die schöne ansehnliche Variante präsentiert. Was früher lange problemfrei und mit wenig Aufwand funktioniert hat ist mittlerweile schwer umzusetzen und zeitaufwendig. Die modernen Suchmaschinen haben die stärkeren Waffen, sprich Methoden um Cloaking zu erkennen. Aus diesem Grund rate ich ausdrücklich von dieser Methode ab! Google reagiert allergisch auf Cloaking-Versuche. Meistens hat Cloaking einen sofortigen Ausschluss aus dem Index zur Folge.