„Einige wichtige“ ist deswegen so ausweichend formuliert, weil es inzwischen eine schier unübersichtliche Zahl an kostenlosen und kostenpflichtigen Anwendungen mit sehr unterschiedlicher Ausrichtung gibt. Bei den kostenpflichtigen gibt es sowohl solche, die jeden Monat Geld kosten, als auch solche, für die eine einmalige Gebühr fällig wird. Regelmäßige Kosten sind meist die fairere (und zunehmend auch weiter verbreitete) Lösung, da ja ohnehin meist für eine Analyse, also einen regelmäßigen Service, bezahlt wird und der Programmierer so einen höheren Anreiz hat, die Software oder den Dienst weiterzuentwickeln. Überdies können Unternehmen so gezielt buchen, was sie benötigen, bzw. einen Service abbestellen, wenn sie diesen nicht mehr für sinnvoll halten.

Viele Unternehmen arbeiten beispielsweise mit der Sistrix Toolbox, einer Reihe von Programmen zur SEO-Optimierung, Analyse von Links und zum Monitoring. Damit lassen sich neben der eigenen Website auch die wichtigsten Mitbewerber beobachten, passende Links ermitteln, auf die hin optimiert werden soll und Sie behalten die passenden Kennzahlen im Blick. Jedes der fünf Module kostet monatlich 100 Euro, wobei es Rabatte bei längeren Laufzeiten gibt.

Eine Alternative kommt von Searchmetrics. Mit der Software Essentials SEO/SEM lassen sich Domains und Mitbewerber analysieren und auch mehrere Suchmaschinen im Blick behalten, wenn Sie beispielsweise nicht nur auf Google achten wollen. Die Kosten liegen bei mindestens 89 Euro monatlich, wobei die Plus- und Professional-Versionen zwischen 199 Euro und 399 Euro monatlich kosten. Noch umfangreicheren Funktionsumfang bieten hier die Searchmetrics Suite, die sich aber mit einem Einstiegspreis von monatlich 799 Euro eher eher für größere Unternehmen eignet als für kleine Startups, die auf jeden Euro schauen müssen.

Eine dritte beliebte Software ist Seolytics. Über den Visibility Rank lässt sich die Sichtbarkeit von Webseiten anhand organischer Keyword-Rankings und Suchvolumina beurteilen, womit sich bis zu zehn Domains benchmarken lassen. Eine wichtige Rolle spielt hier das Thema Universal Search, wobei neben Bildern und Videos auch die Potenziale für News, Places oder Übersetzungen analysiert werden können. Was aus einer Website an Potenzial herauszuholen ist, zeigt die Verkehrsvorhersage für die Site.

Ebenfalls sinnvoll ist die SEA-Analyse, über die Sie erkennen, zu welchen Themen und Stichwörtern die Konkurrenz Anzeigen bei Google schaltet. Seolytics bietet Daten für 21 Länder, sowohl für Google als auch für Bing. Die Software kostet in der Pro-Version 99 Euro monatlich, in der Elite-Version mit größerem Funktionsumfang und mehr auswertbaren Domains und Keywords sowie einer eigenen API zur Einbindung in andere Programme 339 Euro monatlich.

Praktisch: Seolytics kann auch in einer kostenlosen Variante dauerhaft genutzt werden, die dann allerdings nur die eigene Website analysiert und das auch nur im Kontext mit Google und für ein Land. Auch bei den Detailanalysen und Reportings ist vieles nur eingeschränkt nutzbar. Dennoch vermittelt die Gratis-Variante ein gutes Bild von der Funktionsweise. Auch bei den anderen genannten Programmen lässt sich vieles begrenzt kostenlos testen. Von dieser Möglichkeit sollten Sie auch Gebrauch machen, um sich im Vorfeld darüber klar zu werden, wie gut die Software in der Handhabung ist und ob Sie daraus alle nötigen Parameter für Ihre Website herauslesen können.

Onpage-Analyse: Dank Panda ein neuer, alter Trend

Wohl resultierend aus dem Panda-Update im vergangenen Jahr ist in den letzten Monaten eine Vielzahl von Onpage-Optimierungs-Tools erschienen. Für Gesprächsstoff in der Branche hat vor allem das neue Onpage.org-Tool des SEO-Beraters Marcus Tandler gesorgt. „Das Onpage.org-Tool ist aus unserer täglichen Arbeit heraus entstanden“, erklärt Tandler. „Insofern wussten wir sehr genau, was wir und was die Kunden brauchen.“ Die Nachfrage, so der umtriebige SEO-Experte, übersteige die Erwartungen bei Weitem und zeige, dass hier für viele Unternehmen eine wichtige Optimierungsmöglichkeit liege. „Es gibt unzählige SEO-Tools, aber mit dieser Fokussierung auf Onpage-Optimierung haben wir ein klares Alleinstellungsmerkmal“, ist sich Tandler sicher. Dabei ist Tandlers Software (99 Euro monatlich) bei weitem nicht die einzige Neuerscheinung im SEO-Onpage-Umfeld. Neben Onpage.org gibt es noch den Sistrix Optimizer und den Searchmetrics Optimizer, die aber eher aufgabenorientiert und auf der Basis von Keyword-Zielen vorgehen, während das Tandler-Tool vor allem durch seine übersichtliche Darstellung auffällt.

Viel hilft viel? Bei regelmäßiger SEO-Analyse eher nicht.

Fast noch wichtiger als die Wahl der „besten“ SEO-Software ist jedoch deren regelmäßiger Einsatz. Nur so bemerken Sie Entwicklungen zeitnah und können entsprechend reagieren und gegensteuern. Daher ist es sinnvoller, sich zunächst einige Werkzeuge anzuschauen und zu entscheiden, auf welche Art und mit welchem Ziel Sie Ihre Site optimieren wollen. Dann nutzen Sie regelmäßig dieselben Tools (weniger ist mehr!). Zum Vergleich: Eine professionelle Performance-Marketing-Agentur nutzt neben Sistrix auch Raven, Seomoz und Linkresearch-Tools – das ist für viele Unternehmen schon eher zu viel des Guten.

Speichern Sie außerdem die Analysen und Ergebnisse regelmäßig ab, um sich später einige Zahlen noch einmal im Verlauf anschauen zu können. Die Reportings auf einer eigenen Festplatte zu haben, ist dabei zumindest als Backup sinnvoll.

Ebenfalls wichtig: Qualität der Inhalte und Akzeptanz durch Nutzer

Nur relativ kompliziert messbar ist dagegen die redaktionelle Qualität von Website-Inhalten. Die klassische Maßeinheit der Keyworddichte, also das „Tunen“ von Texten auf das möglichst häufige Vorkommen bestimmter Begriffe ist nur noch ein Teil des Geschäfts. Faktoren wie Verweildauer, Absprungrate und Click-throug-Rate (CTR) spielen insbesondere seit Googles Panda-Update im vergangenen Jahr eine wichtigere Rolle. Hierauf setzt auch Eric Kubitz, Betreiber der Contentmanufaktur. Der Münchner SEO-Experte hat mit dem kostenlosen Webservice Contentman ein einfaches Auswertungstool für Texte geschaffen.

Empfehlenswert aus redaktioneller Sicht ist beispielsweise das Auswerfen bestimmter Köder (Linkbaits), etwa Content-Beiträge, die von Website-Betreibern zum Weiterverbreiten und Stärken der Marke zur Verfügung gestellt werden. Diese werden dann freiwillig geteilt und tragen so quasi nebenbei zur Google-Optimierung bei. Während es sich bei solchen freiwilligen Content-Sharing-Maßnahmen um sinnvolle und legale Maßnahmen zur Verbesserung der Wahrnehmung einer Website handelt, sind gewerblicher und koordinierter Linktausch sowie das Bezahlen für Verlinkungen (Linkfarmen) bei Google mehr als nur verpönt.

Der Pinguin schlägt zurück: Wenn die gelbe Karte kommt

Gerade durch das Penguin-Update ist die Luft für viele Website-Betreiber und Suchmaschinenoptimierer dünner geworden. Immer häufiger ahndet Google Verstöße gegen seine Policies durch Ausschluss aus dem Ranking oder zumindest Herunterstufung der Ergebnisse in den Ergebnislisten. Laut Matt Cutts, dem Leiter des Google-Webspam-Teams wurden in der ersten Jahreshälfte 2012 bereits 25.000 Website-Betreiber abgestraft.

Der Webmaster erhält in diesem Fall eine Nachricht mit dem Titel „Google Webmaster Tools of detectet unnatural links“. Darin wird mitgeteilt, man habe unnatürliche oder künstliche Verlinkungen entdeckt und die Site daher abgestraft. Immerhin erhält der Webmaster so auch die Möglichkeit zur Neuanmeldung („Reconsideration“) seiner Site. In einigen Fällen fehlt offenbar auch der Hinweis auf die Chance zur Reconsideration der Site durch Google.

Spätestens an dieser Stelle sollten Unternehmen ihren SEO-Optimierer zu Rate ziehen, denn eine solche Disqualifizierung kann das Geschäft nachhaltig beeinflussen und teuer werden. Denn bei Google nicht mehr oder nur noch unter „ferner liefen“ gefunden zu werden, ist eine der härtesten Strafen, die ein im Internet tätiges Unternehmen treffen kann.

Abgesehen von diesen automatischen Abstrafungen aufgrund des Algorithmus der Suchmaschine gibt es auch manuelle Penalties, die von Googles Webspam-Team aufgrund von Verletzungen gegen die Google Webmaster Guidelines verhängt werden. Hierbei handelt es sich um Maßnahmen, die nicht so eindeutig auf der Basis eines Algorithmus erfolgen können. Aber natürlich werden hierfür auch entsprechende Routinen und Tools herangezogen, um solche Sites zu ermitteln, die die Google-Mitarbeiter näher in Augenschein nehmen.