Um eine Internetpräsenz für Suchmaschinen optimieren zu können muss man verstehen, wie die Suchmaschinen arbeiten. Für die Meisten ist eine Suchmaschine eine Webseite auf der sie einen Suchbegriff eingeben und anschließend die Ergebnisse erhalten. Natürlich verbirgt sich dahinter weitaus mehr. Um eine Webseite wirklich optimieren zu können muss man eben das Dahinter verstehen. Versteht man den Ablauf, ist auch gewährleistet, dass man in schwierigeren Fällen eher die richtige, denn die falsche Entscheidung trifft, denn man kann oft schon allein durch logisches Denken hier die richtige Wahl treffen.

Allgemein ist zu sagen, dass sich die Aufgabengebiete einer Suchmaschine in drei wichtige Arbeitsschritte unterteilen lassen. Diese drei Arbeitsschritte sind die im Folgenden beschriebenen Punkte „Sammeln von Daten“, „Auswertung der Daten“ und „Verarbeitung der Suchanfragen“. Kurz zusammengefasst kann man sagen, dass die Suchmaschinen mit Hilfe von Software Daten aus dem World Wide Web sammeln und damit ihre eigene Datenbank füttern. Diese Datenbank wird nach speziellen Kriterien bewertet und verwaltet um für Suchanfragen der Suchmaschinenbenutzer gewappnet zu sein.

 Sammeln von Daten

Eine Suchmaschine sammelt Informationen und Inhalte von nahezu allen Internetpräsenzen aus dem World Wide Web. Das geschieht natürlich nicht manuell, was bei abermillionen von Internetauftritten und den sich stetig ändernden Inhalten auch praktisch unmöglich wäre. Die Suchmaschinen bedienen sich dabei verschiedenster Software um ihre Datenbanken stets aktuell zu halten.

Diese Software durchforstet das Internet sowohl nach neuen Seiten, als auch nach neuem und aktualisiertem Inhalt innerhalb bestehender Seiten und lädt diese Daten herunter. Unter SEO-Experten und im Folgenden wird diese Software als (Web-)Crawler oder auch als (Web-)Robot bezeichnet, den die Suchmaschinen zur Datenerfassung auf die einzelnen Webseiten „schicken“. Man spricht auch vom Webcrawler- bzw. Webrobot-System.

Anders als landläufig vermutet wird, ist das Ergebnis einer Suchanfrage nicht der aktuelle (Live-)Stand der Webseiten. Es wird lediglich das Wissen der aktuellen Datenbank ausgegeben, die sich wiederum auf Daten des letzten Crawls bezieht. Diese Daten können, müssen aber nicht dem derzeitigen Stand der jeweiligen Webseite widerspiegeln. Folglich ist die Aktualität einer Suchmaschine umso höher je weniger Zeit zwischen den Crawler-Abfragen liegt.

 Auswertung der Daten

Die von den Robots heruntergeladenen Daten werden von speziellen Programmen nach bestimmten Vorgehensweisen in einer Datenbank abgespeichert und ggf. vorhandene alte Daten überschrieben. Das System wertet zudem die gesammelten Daten aus um eine Relevanz der Webseite zu einem Schlüsselwort festlegen zu können. Diese Berechnung unterscheidet sich von Suchmaschinenanbieter zu Suchmaschinenanbieter und ist der essentielle Teil bei der Suchmaschinenoptimierung. Es wird versucht genau an diesem Punkt anzusetzen und einen möglichst hohen Wert und somit eine möglichst gute Endplatzierung zu erreichen. Diese Gewichtungen werden durch ein sog. IR-System (Information Retrieval System) errechnet. Wird eine Seite einem Suchwort zugeordnet, so spricht man in der Fachsprache von Indexierung.

 Verarbeitung der Suchanfragen

In diesem Punkt finden wir uns auf der Hauptseite der Suchmaschine wieder. Über die Suchmaske (Eingabemaske) gibt der Suchmaschinenbenutzer sein Suchwort ein. Die Suchmaschine durchforstet ihre Datenbank nach dem Index für den eingegebenen Suchbegriff und gibt, geordnet nach Relevanz und mit einigen Zusatzinformationen, die Liste der dazugehörigen Webseiten wieder.

Natürlich muss die Webseite, die für die Suchmaschine am relevantesten erscheint und somit ganz oben gelistet wird, nicht unbedingt die für den Benutzer relevanteste Webseite sein. Ziel der Suchmaschinen ist jedoch ihren Kunden die bestmögliche Auswahl auf der ersten Seite der Ergebnisliste zu liefern, da der Benutzer sonst evtl. zu einem anderen, für ihn besseren Suchmaschinenanbieter wechselt.

Ein weiterer Beweis, dass die Suchmaschinen noch lange nicht perfekt arbeiten, ist, dass unter den Suchergebnissen auch oft „tote Links“ auftauchen. Diese toten Links lassen sich vor allem auf große Crawlerintervalle zurück führen. Sprich während die Seite offline ging oder umzog und der Suchanfrage, hat der Crawler die Seite nicht besucht.

 Schema zur Arbeitsweise

 

Arbeitsweise einer Suchmaschine