Das Internet bietet viele verschiedene Tools für Webmaster, um ihre Seite zu verbessern und auszuwerten. Nachfolgend habe ich einige wichtige und nützliche Seiten aufgelistet. Natürlich gibt es zu den aufgelisteten Webseiten noch Alternativen und bei der Schnelllebigkeit des Internets vielleicht auch bald bessere Tools.

Die Tools unterscheiden sich teilweise grundlegend und sind zum Teil zur Bewertung der gesamten Webseite als auch zum Teil nur zur Auswertung bestimmter Eigenschaften oder der Validierung bestimmt. Mit ihrer Hilfe kann man jedoch genaue Kennzahlen, sozusagen einen Istwert bestimmen, den man dann durch Optimierung an den Sollwert angleichen kann.

Wer auf der Suche nach einer Webseite mit einer Auflistung vieler verschiedener Tools ist, ist gut beraten http://weblog-abc.de/seo-tipps/liste-der-besten-seo-tools-110.html oder http://rapid.searchmetrics.com/tools/ einen Besuch abzustatten. Diese Seiten bieten verschiedenste Tools für verschiedenste Einsatzbereiche rund im die Suchmaschinenoptimierung. Auch ich benutze viele Werkzeuge, die ich in diesen Listen gefunden habe. Das ist auch der Grund warum man im folgenden Teil einige Helferlein dieser Seiten finden kann. Aber auch andere Tools werden empfohlen und nur die besten und sinnvollsten beschreibe im Nachfolgenden. Auf der beigelegten DVD, sowie auf der Webseite zu dieser Diplomarbeit, kann man einen Ordner/Unterpunkt mit Links finden. Benannt habe ich den Ordner/Unterpunkt Netzmeister Eder. Einfach die Bookmarks importieren oder die Links auf der Webseite benutzen.

 SEO-Bewertung

Es gibt mehrere verschiedene Onlinetools zur Bewertung der gesamten Webseite. Ich habe mehrere Tools ausprobiert und war sehr zufrieden mit seitwert.de, seitenreport.de und mit dem Searchmetrics Report von rapid.searchmetrics.com. Natürlich gibt es weitaus mehr als diese drei Pages, jedoch beinhalten diese drei Tools nahezu alles was man bei der Optimierung beachten muss. Am besten ist wahrscheinlich mehrere Tools bei der Bewertung einzubeziehen, was kein großes Problem darstellen dürfte, da alle drei kostenfrei sind und nur einer Registrierung bedürfen. Wenn man einen kleinen Schwachpunkt an den Dreien erkennen kann, dann vielleicht der, dass die Windows-Suchmaschine Bing! noch nicht in die Bewertung einfließt, sondern nur Google und Yahoo. Mit der steigenden Bedeutung von Bing! werden diese Bewertungstools bestimmt auch diesen Bewertungspunkt heranziehen.

Neben diesen drei SEO-Checkern kann ich auch noch seoworkers.com empfehlen. Dieses Tool bietet Möglichkeiten ähnlich der drei zuvor genannten Tools. Zudem kann man mit diesem Werkzeug am leichtesten Textauszeichnungen wie die Header h1-h6, strong-Tags und viele weitere auslesen und analysieren. Es scheint, als gäbe es für die Auswertung einer Webseite kein Allheilmittel. Das liegt wahrscheinlich vor allem an den unterschiedlichen und sich ständig wechselnden Bewertungsmethoden und Anforderungen der Suchmaschinendienstleister, was zu unterschiedlichen Auswertungskriterien bei den SEO-Checkern führt. Oft sind diese nicht up-to-date oder haben ihre Gewichtung auf die Suchmaschinen unterschiedlich verteilt.

Links zu den SEO-Bewertungstools:
http://www.seitwert.de
http://www.seitenreport.de - Registrierung erforderlich
http://rapid.searchmetrics.com/searchmetrics-report,59.html
http://www.seoworkers.com/tools/analyzer.html

 Validierungs-Tools

Der Code der Webseite sollte stets W3C-konform sein. Sowohl eine HTML- als auch eine CSS-Validierung muss durchgeführt werden. Fehler müssen behoben werden. Im besten Fall benützt man einen sehr aktuellen DocType!

Sowohl für die CSS- als auch die HTML-Validierung ist w3.org die perfekte Anlaufstelle:
HTML-Validator: http://validator.w3.org/
CSS-Validator: http://jigsaw.w3.org/css-validator/

 Tools zur Auswertung der Meta-Tags und Attribute

Zu den wichtigen Meta-Tags zählen Title, Description, Language, Content Type und Robots. Das Meta-Tag Keywords ist zu vernachlässigen. Bei den Attributen kommt es vor allem auf das Alt-Attribut der Bilder und die Title-Tags an. Jedes Bild sollte eine Alternativbeschreibung besitzen und auch jeder Link sollte mit einem Title-Tag versehen sein.

Eine große Hilfe bei der Analyse der Meta-Tags ist die Meta Tag Analyse von Searchmetrics, die sowohl die Länge des Title-Tags als auch der Meta-Description angibt und auf einer Skala darstellt. Daneben werden auch noch der Content Type, der Author und das Robot-Tag sowie die Sprachenangabe des Inhalts angezeigt. Alternativ kann man auch den Meta-Tag-Check von TopSubmit beanspruchen. Hier erfährt man ebenfalls ob die Länge des Tags richtig gewählt ist. Auf seoaffe.com habe ich einen Meta-Tag-Checker gefunden, der vor allem gut die Benutzung von Schlüsselwörtern im Title und im Meta-Tag auswertet.

Das Analysewerkzeug von seoworkers.com zeigt sowohl viele Informationen zu den Meta-Tags als auch Daten über die Alt- und Ankertexte. Besonders schön ist hier die statistische Darstellung über die Benutzung von Schlüsselwörtern. Außerdem werden Textauszeichnungen und Überschriften ausgewertet und angezeigt.

Bei der Seitenauswertung auf Seitenreport werden Alt- und Title-Attribute ausgewertet und unter Benutzerfreundlichkeit angezeigt. Man sieht sowohl die Gesamtzahl der Bilder und Links als auch die Anzahl derer die bereits ein Alt- bzw. Title-Attribut besitzen. Im Optimalfall sollte jedes Bild und jeder Link mit seinen Attributen ausgezeichnet sein.

Um jedoch nicht nur die Anzahl der benutzten Anker- und Alttexte, sondern auch die Links dazu gelistet zu bekommen, habe ich eine unscheinbare aber hilfreiche Seite im Internet gefunden. http://joerghuelsermann.de/tool/links/

Für Joomla gibt es auch Plugins, die einem helfen nicht benutzte Alt- und Title-Attribute ausfindig zu machen. Das ist die wahrscheinlich sinnvollste und schnellste Methode um keine leeren Auszeichnungen in der Seite zu haben.

Bei der robots.txt gibt es keine Überprüfungstools, da kein Programm wissen kann, welche Ordner man ausschließen will und welche man offen haben will. Auf jeden Fall sollte die robots.txt vorhanden und nach den Vorgaben von „Meta-Tag-Robots und robots.txt“ ausgearbeitet sein. http://www.homepage-performance.de/robots-txt.html bietet auch noch eine gute und ausführliche Beschreibung. Um bei der Erstellung der robots.txt Syntaxfehler auszuschließen, empfehle ich einen Durchlauf bei http://www.sxw.org.uk/computing/robots/check.html.

Meta-Tag-Check:
http://rapid.searchmetrics.com/seo-tools/seitenanalyse/meta-tags-analysieren,36.html
http://webtool.topsubmit.de/analyze/?meta
http://www.seoaffe.com/tools/meta-tag-optimieren.html
http://www.seoworkers.com/tools/analyzer.html

Check für Alt- und Title-Attribute:
http://www.seitenreport.de - Registrierung erforderlich
http://www.seoworkers.com/tools/analyzer.html
http://joerghuelsermann.de/tool/links/

 Auswertung der Schlüsselwörter im Content

Wie wir gelernt haben, ist es für eine gute Suchmaschinensichtbarkeit nötig, dass man zuvor auserkorene Schlüsselwörter an verschiedensten Stellen der Webseite einbaut. Es gibt im Internet mehrere Werkzeuge, die einem dabei helfen können eine schöne Verteilung herzustellen und Schwachstellen im Bereich der Schlüsselwörter ausfindig zu machen.

Eine große Hilfe bei der Auswertung der Keyword-Density und der richtigen Schlüsselwörter dürfte das Werkzeug von Webmaster Tips (wmtips.com) sein. Neben der Auswertung des Titels und der Meta-Tags werden auch Phrases (Wortketten) angezeigt. Für Statistiken über die Keyword-Density reichen auch die kleinen Tools von WeBuildPages und SEOBench aus. Kurz und bündig werden hier die Dichte der aus ein, zwei oder drei Wörtern bestehenden Wortfolgen ausgewertet. Will man seine Seite zusätzlich noch mit einer anderen Seite, z. B. von einem Mitbewerber, vergleichen, dann empfehle ich den Keyword Density Analyzer von keyworddensity.com.

Von großem Wert bei der Wahl eines neuen Schlüsselworts könnte RankingCheck sein. Hiermit kann man ermitteln wie oft ein Suchbegriff pro Monat abgefragt wird. Daraus kann man schon erkennen, ob sich ein Begriff überhaupt lohnen würde oder ob er zu selten abgefragt wird um überhaupt infrage.

Links zu den Schlüsselwort-Tools:
http://www.wmtips.com/tools/keyword-density-analyzer/
http://www.webuildpages.com/seo-tools/keyword-density/
http://www.seobench.com/keyword-density-analyzer/index.php
http://www.keyworddensity.com/
http://www.ranking-check.de/keyword-datenbank.php

 Content-to-Code-Ratio

Das Verhältnis vom Inhalt zum Code sollte über 40% betragen. Deshalb sollte der Code von verzichtbarem Material befreit werden und im besten Fall ein Tool zum Ausmisten und Komprimieren genutzt werden. Man kann ggf. auch den Text etwas verlängern oder mehrere Inhalte zu ein paar in der Anzahl wenigeren, dafür aber längeren Inhalten zusammenfassen, was dann aber auch logisch aufgebaut sein sollte. Es sollte das unter bekannten Umständen beste Verhältnis herausspringen und wenn es dann nicht zu den 40% reicht, dann ist das auch vertretbar.

Links zu den Auswertungstools für die Content-to-Code-Ratio
http://www.searchenginegenie.com/tools/ContentToTextRatio.php
http://www.seochat.com/seo-tools/code-to-text-ratio/

Ebenfalls finden kann man die C2C-Ratio bei den Bewertungstools für die gesamte Seite auf Seitenreport (www.seitenreport.de) und bei Searchmetrics (rapid.searchmetrics.com).

 Auswertungen bei den eingetragenen Diensten

Unter Dienste meine ich in diesem Fall sowohl die Suchmaschinen wie auch die Social Bookmarkdienstleister und außerdem Alexa und DMOZ.

Für eine einfache Google-Pagerank-Abfrage eignet sich vor allem das Tool von Sistrix. Für das Abfragen von PageRanks mehrerer Domains empfehle ich den Page-Rank-Checker von Webmaster Tips oder den PageRank Check von Searchmetrics. Wirklich empfehlen kann ich WebRankStats. Dieses Tool bietet eine Übersicht der Ränge bei Google, Alexa, Quantcast und Compete. Quantcast und Compete kann man mit Alexa vergleichen. Auch diese Tools erstellen Statistiken über die Webseiten. Jedoch sind sie bei Weitem nicht so relevant und deshalb kann man deren Zahlen zwar auch zur Auswertung hernehmen, aber man sollte ihnen keine zu große Relevanz zuweisen. Außerdem zeigt WebRankStats die Anzahl der jeweils indexierten Seiten und die Zahl der Backlinks an. Zusätzlich wird auch noch die Webseitensicherheit bewertet. Die Sicherheit spielt bei der Webseitenbewertung bisher noch keine große Rolle, was sich aber in naher Zukunft ändern kann und meiner Meinung nach auch wird.

Um die Eintragung bei DMOZ zu prüfen, sollte man einfach auf dmoz.org seine Domain eingeben. Ebenfalls auf der eigenen Webseite stellt Alexa seine Site Information zu Verfügung.

Sehr interessante Statistiken über die Backlinks einer Seite liefert der Backlinkchecker von x4d. Hier wird die Anzahl der Backlinks aufgezeigt und man kann auch feststellen welche PageRanks die einzelnen Backlinks haben. Dadurch lässt sich feststellen wie viel und vor allem wie viel gute Backlinks die Seite aufweist. Analog funktioniert auch das Tool Domain Popularität von Searchmetrics.

Links zu den Auswertungstools:
https://tools.sistrix.de/pr/
http://www.wmtips.com/tools/pagerank-checker/
http://rapid.searchmetrics.com/seo-tools/seitenanalyse/pagerank-analyse,23.html
http://www.webrankstats.com/
http://www.alexa.com/siteinfo
http://www.x4d.de/backlinkchecker/
http://rapid.searchmetrics.com/seo-tools/server-und-domains/domain-popularitaumlt,14.html

 Speedtesttools

Die Dauer, die die Webseite braucht, um sich aufzubauen ist vorallem wichtig für Benutzer mit schwachen Anbindungen. Dabei kommt es oft nicht nur auf die Datenmenge an, sondern auch auf die Verarbeitungszeit. Der Großteil der Verzögerung dürfte jedoch wirklich bei der Übertragung der Daten auftreten. Um zu testen, unter welchen Umständen die eigene Webseite am schnellsten antwortet, gibt es einige Werkzeuge.

So kann man auf der Seite von Pingdom, neben einigen weiteren weiteren Webseitentools, auch einen Geschwindigkeitstest finden, der sowohl die Gesamtladedauer als auch die Dauer der einzelnen Dateien wiederspiegelt. Die Unterteilung der Ladedauer in Anfrage-, Verarbeitungs- und Antwortzeit kann bestens zur Optimierung der Webseite hinsichtlich Datenmenge und Verarbeitungsaufwand genutzt werden.

Ebenfalls hilfreich können die Werkzeuge von Searchmetrics und TopSubmit sein. In leicht abgespeckter Form liefern diese Tools Daten analog zu denen von Pingdom. Zudem bieten beide eine interessante Auflistung der Ladedauer bei unterschiedlichen Bandbreiten.

Links zu den Speedtesttools:
http://tools.pingdom.com/
http://rapid.searchmetrics.com/seo-tools/seitenanalyse/website-geschwindigkeit,46.html
http://webtool.topsubmit.de/analyze/?ladezeit