SEO-Texte sind gezielt auf Suchmaschinen optimierte Texte. Doch das ist nicht alles: Sie sollen auch den Anforderungen der Nutzer gerecht werden! Wir zeigen Dir, wie Du den perfekten SEO-Text verfassen kannst. ... Weiterlesen
18 min |
11 min |
Suchmaschinenoptimierung ist ein wichtiger Bereich des Onlinemarketings. Es müssen viele Faktoren beachtet werden und unterschiedlichste Daten benutzt werden, um die richtigen Maßnahmen und Strategien abzuleiten und deren Ergebnisse zu bewerten. Um all diese Daten nutzen und berücksichtigen zu können, verwenden SEO-Experten Tools, die sie bei ihrer Arbeit unterstützen. In diesem Artikel wird eine Auswahl aus der unendlichen Toollandschaft vorgestellt und beliebten und nützlichen Funktionen zugeordnet.
Was sind SEO-Tools?
Wieso sind SEO-Tools wichtig?
Ein Websitecheck mit SEO-Tools
SEO-Tools zur Betrachtung der Website-Performance
Fazit: Was sind die besten SEO-Tools?
Darunter versteht man Applikationen, um Webseiten zu analysieren, Chancen und Risiken zu erkennen und sinnvolle Maßnahmen und Strategien zu identifizieren. Die erste Herausforderung liegt darin, die „richtigen“ Tools zu finden und einen geschulten Umgang mit diesen zu erlernen. Eine weitere Hürde besteht darin die erlangten Daten richtig zu interpretieren.
Im Onlinemarketing wird viel Zeit auf die Analyse und Aufbereitung von Daten verwendet. Je „besser“ die SEO-Tools eines Marketers, desto geringer wird der Zeitaufwand und desto zielgenauer werden die Maßnahmen. Deshalb befasst sich dieser Artikel mit Tools die, je nach Anwendungsfall, aus unserer Sicht den größten Impact und besten Daten liefern können
Da es unzählige Möglichkeiten und Herangehensweisen für ein Websitecheck/SEO-Audit gibt, ist es wichtig zu Beginn zumindest die wichtigsten Eckpunkte festzulegen, die in jedem Fall betrachtet werden müssen. Je nach Größe der Website oder der genehmigten Ressourcen können diese vertieft oder erweitert werden.
Von einigen Tools wird man hierbei sehr gut an die Hand genommen, da bereits die Strukturierungen der Berichte Themencluster und somit Analyseansätze liefern. Doch es genügt kein noch so gutes Tool für eine ganzheitliche Optimierung, wenn der Rezipient nicht Up-To-Date ist zu Entwicklungen der SEO-Branche, aktuellen Google Updates und ein gewisses Grundverständnis für SEO-Basics und wichtige Begriffe mitbringt. Ergänzend ist aufgrund der steigenden Datenmengen und möglichen Datenquellen auch ein Grundverständnis für Statistik und Datenanalysen hilfreich. Dieser Beitrag liefert keine vollständige Liste von Tools, die für jeden gleichermaßen hilfreich sind, jedoch eine gute Orientierung für die meisten kleinen bis mittelgroßen Websites.
Zuerst beschäftigen wir uns mit Tools, die dabei unterstützen, die Leistung einer Website oder App zu bewerten. Eine grundsätzliche Frage ist: Wofür rankt meine Seite (in der organischen Suche)? Wie performen meine Topseller? Woher kommen meine Nutzer: innen? Usw.
Für diese Fragen, muss theoretisch kein teures Tool genutzt werden, sondern lediglich ein Blick in die beiden von Google gratis zur Verfügung stehenden Tools geworfen werden:
Die wohl bekanntesten und noch dazu jedem Websitebetreiber frei zur Verfügung stehenden Tools, Google Analytics und Search Console, kennt vermutlich jeder SEO oder Online Marketing Manager. Doch was unterscheidet die beiden Tools und wofür kann welches Tool verwendet werden?
Google Analytics ist eine Online Marketing Analyse Plattform von Google, die Daten in Form von Kennzahlen und Dimensionen unterschiedlicher Umfänge erfasst. Diese können entweder in voreingestellten Dashboards und Berichten oder benutzerdefinierten Segmenten betrachtet werden.
Google Analytics kann hilfreiche Informationen zu allen Bereichen einer Website, dem Nutzerverhalten, oder Landingpages liefern. Durch die Implementierung von „E-Commerce Tracking“ können weiterführende Insights zu Käufen auf der Website gewonnen werden.
Durch die vielen Möglichkeiten von Google Analytics und die nicht an jede Website automatisch angepassten Dashboards, werden leider von Laien häufig Fehlinterpretationen gemacht.
Befasst man sich aber mit diesen Themen und ist fit im Umgang mit den unterschiedlichen Berichten, Filtern, Metriken und Dimensionen – so hilft Google Analytics Online Marketern sehr beim Monitoring von Websites und dem Reporting an Steakholder.
Hier ist ein Blick auf die gängigsten Untersuchungen in Google Analytics:
Wechsel von Universal Analytics zu GA4
Ab dem 01.07.2023 wird für Properties in Universal Analytics kein Treffer mehr erfasst. Der Umstieg zu GA4 ist daher verpflichtend (wenn weiter Google als Analysetool genutzt werden soll). Ab dem 01.07.2023 haben Nutzer nur noch 6 Monate lang Zugriff auf die bis dahin erfassten Daten. Um einen Datenverlust zu vermeiden, sollten bis dahin alle bisher gesammelten Daten exportiert werden. Für Nutzer, die Universal Analytics 360 verwenden, endet die Verarbeitungsfrist genau ein Jahr später – also am 01.07.2024. Wir raten jedem dazu, so früh wie möglich umzusteigen, um Datenverluste zu vermeiden. Solltest Du Fragen haben, melde dich gerne bei unserem Tracking Experten Maximilian Schmitt. Wir helfen dir gerne weiter und finden eine individuelle Lösung.
Alternative Tools zu Google Analytics
Ein anderes kostenloses Google Tool ist die Google Search Console (im Verlauf GSC genannt), die meist unterschätzt und nur oberflächlich genutzt wird. Doch gerade hier handelt es sich um eines der mächtigsten Tools für die Arbeit als SEO. Öffnest du die GSC, bekommst du zu Beginn eine Übersicht zu einigen der Berichte, die auch über die linke Navigation manuell angewählt werden können.
Der wohl meistgenutzte Report der GSC ist der Leistungsbericht. Hier kannst Du für eine URL oder ein Keyword abfragen, wie viele Impressions und Klicks in einem definierten Zeitraum (maximal 16 Monate) erzeugt wurden. Aber auch die CTR und durchschnittliche Position werden abgebildet.
Doch wie so oft sagen vorliegende Daten mehr aus, wenn Vergleichsdaten vorliegen. Häufig stellt sich die Frage: ist die Perfomance gesunken? Wie haben wir im Vorjahr hierzu abgeschnitten? Und hierzu eignet sich hervorragend die Vergleichsfunktion des Leistungsberichts.
Im Leistungsbericht erhält man nur begrenzte Dateneinsicht. Selbst per Excel- oder CSV-Export der betrachteten URLs, liefert Google nur 1000 Zeilen. In der Dokumentation der Search Central nennt Google als Tageslimit für Datenzeilen eine Obergrenze über die Search Analytics API und den Looker Studio-Connector von 50.000 Zeilen pro
Für die meisten Websitebetreiber und vor allem kleinere Domains reicht dies oft vollkommen aus.
Ein vergleichbares Pendant zur Search Console, für Microsofts Suchmaschine Bing, sind die „Bing Webmaster Tools“.
Um sich über die Sichtbarkeit einer Domain im Vergleich zum Wettbewerb ein Bild zu machen, reicht es nicht mehr aus, sich nur mit den Google Tools zu beschäftigen. Hier helfen hingegen die Tools von Sistrix, Xovi, Ahrefs, Searchmetrics oder SEMRush. Mit ihnen ist es möglich, Stärken und Schwächen der Wettbewerber zu erkennen, On- sowie OffPage Analysen durchzuführen und die eigenen Rankings zu überwachen.
Eines der bekanntesten Tools ist wohl die Sistrix Tool Box, oft auch einfach nur Sistrix genannt. Die wichtigste und zugleich zentrale Kennzahl des Tools ist der Sichtbarkeitsindex. Je höher der Indexwert einer Seite ist, desto besser ist deren Sichtbarkeit in der Google Suche. So lässt sich bspw. ein erster Wettbewerbsvergleich über den Sichtbarkeitsindex durchführen.
Sistrix liefert auch Daten für:
Xovi ist eine etwas preiswertere Alternative zu Sistrix und arbeitet mit einem Datensatz von 25 Millionen Keywords für Google.de. Aus diesem Grund bezeichnet sich XOVI selbst damit als weltweit größtes Google.de-Keyword Set.
Der XOVI-Sichtbarkeitsindex wird hier OVI genannt und steht für Online Value Index, also die Sichtbarkeit der Domain in den organischen Suchergebnissen von Google und Bing. Das Prinzip ist das gleiche wie bei Sistrix: Je höher die Sichtbarkeit ist, desto mehr oder bessere Rankings hat eine Website.
XOVI ermöglicht dem Anwender:
Ahrefs ist vor allem bekannt für hervorragende Backlinkanalysen.
Ahrefs analysiert bspw. wie viele unterschiedliche Domains/Seiten auf eine URL oder Website verlinken und über welches Domainrating (Qualitätsfaktor bei Ahrefs) diese verfügen.
Die meisten Berichte sind selbsterklärend. Mit wenig Aufwand erhält man Auskunft im Vergleich zu bis zu 6 Wettbewerbern pro Analyse.
Auch Ahrefs bietet viele weitere Funktionen an:
Ein besonders leistungsstarkes Tool für den OffPage Bereich ist Linkresearchtools, das seit 2009 am Markt ist. Der Fokus liegt ausschließlich auf (externen) Links.
Das Tool nutzt über 25 Datenquellen, wodurch sich das vollständige Backlinkprofil einer Website darstellen lässt. Besonders deutlich wird dies am folgenden Schaubild:
LRT nutzt, als Pendant zu Ahrefs Domain Rating (DR), eine eigene entwickelte Metrik, die LRT Power*Trust. LRT-Power bewertet hierbei die Stärke einer Website anhand der Linkanzahl und hilft dabei rasch die stärkste Seite, Domain oder Top-Domain zu bestimmen. Der LRT-Trust hingegen bewertet die Qualität von Links, indem das von vertrauenswürdigen Sites vererbte Vertrauen berechnet wird. Mit kostenlosen Browsererweiterungen (Chrome) lassen sich diese Werte unkompliziert abfragen.
LRT bietet eine große Bandbreite an Analysemöglichkeiten. Diese werden in folgende Kategorien eingeteilt:
Bei der Linkanalyse kann etwa der „Backlink Profiler“ als (laut LRT) umfangreichstes Backlinkanalyse Tool auf dem Markt, einen detaillierten Überblick über die Links einer Domain geben.
Alternative Tools mit hoher Bekanntheit:
In der Praxis ist es wichtig ein fixes Vorgehen mit fixen Tools zu definieren. Für Aufgaben wie eine Backlink Toxicity Analyse ist es empfehlenswert, die Domain mit mehreren Tools zu prüfen, die Ergebnisse zusammenzulegen und daraufhin zuerst die toxisch bewerteten URLs zu prüfen. Fallen für OffPage Analysen eher klassische Gegenüberstellungen mit einem Wettbewerber an, so empfiehlt es sich sehr auf eine zuverlässige Datenbank mit großartig aufbereiteten Daten, wie Ahrefs, zurückzugreifen. Vor allem für den Vergleich von Referring Domains. Ist eher eine Kurzanalyse mit möglichst geringem Zeitaufwand erwünscht – bietet Sistrix eine hervorragende Übersicht zum OffPage Status Quo einer Domain. Möchte man aber richtig aufbohren und den Fokus voll auf OffPage legen, dann ist das Tool LRT, also Linkresearchtools, die richtige Wahl. Es entstehen je nach Task oder Steakholder unterschiedliche Anforderungen an Tools. Die richtige Wahl muss jedes SEO-Team für sich selbst treffen.
Im Rahmen eines SEO-Audits erhält man ausführliche Auskunft zur Domainweiten internen Verlinkung, dem Einsatz von Canonical-Tags, den eingesetzten Direktiven (=noindex-tags), den HTTP-Antwort-Headern, robots.txt-Anweisungen, Paginierungen (= rel/prev-tags), Zustände der Titles, Descriptions, Headings, Validierungsfehlern von strukturierten Daten und vieles mehr.
Natürlich bieten auch Anbieter wie Sistrix & Co einen OnPage Crawler an, jedoch haben sich andere Tools als besonders zuverlässig zum Crawlen von Websites bewährt und teilweise sogar als Standard am Markt etabliert – wie beispielsweise der Screaming Frog.
Nur bei sehr großen Websites oder sehr leistungsstarken Anforderungen werden Tools zum Crawlen genutzt wie Audisto, Lumar.io, OnCrawl, etc. Allerdings erfordern diese Tools in jedem Fall tiefergehende SEO-Kenntnisse bzw. ein Verständnis für technisches SEO.
Der Screaming Frog gilt in manchen Kreisen als das Schweizer Taschenmesser unter den SEOs. Gerade SEO-Einsteiger sollten sich relativ früh mit dem Tool befassen und ein Verständnis für die unterschiedlichen Berichte, API-Verknüpfungen mit dem Tool und die Diagramme, die das Tool anbietet, entwickeln.
Mit dem Screaming Frog lässt sich entweder eine Domain nach definierten Regeln von einer gewissen Start-URL aus oder eine Liste von URLs im List Mode crawlen.
Der Screaming Frog hilft dabei, einen ersten Überblick zu gewinnen über vorhandenen Fehlern der Domain, inklusive einer Klassifizierung in Warnungen und Fehler, Hinweisen wie die Fehler üblicherweise entstehen und auch Tipps wie diese zu beheben sind.
SEO-Spider stets richtig konfigurieren
Elementar für den richtigen Umgang mit dem Screaming Frog ist aber vor allem die richtige Konfiguration des Tools, die beim allerersten Öffnen auf den ein oder anderen etwas überfordernd wirkt.
Dabei haben die Verantwortlichen hinter dem Tool mittlerweile ganze Arbeit geleistet und erklären so ziemlich jeden Punkt beim jeweiligen darüber Hovern mit der Maus.
API-Verknüpfungen nutzen
Noch besser als ein Crawl mit Auskunft zu technischen Fehlern, ist ein Crawl der zusätzlich mit Performance-Daten zu den einzelnen URLs angereichert ist oder Auskunft über die Indexierung bei Google liefert.
Hierfür lohnt es sich die Möglichkeit der API-Verknüpfungen mit der Search Console, Analytics oder gar die Verknüpfung mit dem GSC URL-Inspection Tool zu verwenden.
Scheduled Crawls mit dem Screaming Frog
Ebenfalls ein äußerst nützliches Feature des Screaming Frogs, ist die Möglichkeit automatisierte Crawls laufen zu lassen. Einmal eingestellt, wird so in festgelegten Frequenzen, zu einer fix definierten Zeit, an einem fix definierten Wochentag, der konfigurierte Crawl durchgeführt. Dies ermöglicht eine bequeme Nachverfolgung der Entwicklung von technischen Fehlern und Fehlerbehebungen auf einer Domain.
Seit 2011 bietet Google ein Online-Tool an, mit dem PageSpeed und die Core Web Vitals gemessen werden können. Dies liegt vor allem daran, dass es mittlerweile auch die Funktionalitäten von Lighthouse nutzt, welches seit April 2018 in den Entwickler-Tools des Google Chrome Browsers zu finden ist. Page Speed Insights (PSI) liefert nicht nur schlicht einen Wert und eine Farbskala, sondern nennt auch detailliert die gefundenen Fehler und erklärt was gemacht werden sollte. Es liefert damit eine großartige Hilfestellung für SEOs, die im Anschluss auf technische Entwickler zugehen müssen oder sich selbst die ersten Male, dem ein oder anderen genannten Problem widmen wollen. Zu Beginn der Analyse erhält man Auskunft über die Core Web Vitals und direkt darunter eine Übersicht mit einem sogenannten Leistungsfaktor. Hier werden erneut die Core Web Vitals Werte aufgeführt und Leistungsbewertungen für die Bereiche Barrierefreiheit, Best Practices und SEO vergeben.
Datenqualität: Felddaten und Lab Daten
Allerdings gibt es Probleme mit der Bewertung aller Seiten, da zur Berechnung dieser Werte ausreichend Daten vorliegen müssen. Das heißt eine Seite benötigt signifikanten Traffic für eine Berechnung realer „Felddaten“ (anonymisierte, echte). Doch einige Websites haben diesen Traffic schlichtweg (noch) nicht.
Hier spielen nun Lab-Daten eine Rolle. Denn obwohl alle Core Web Vitals in erster Linie Feld Metriken sind, können viele von Ihnen auch im Labor gemessen werden.
Andere Tools, die mit Lab-Daten arbeiten und die Leistungen einer Seite bewerten sind beispielsweise die Chrome Entwicklungstools und Lighthouse.
Wie man unschwer erkennen konnte: Es gibt keine „besten SEO-Tools“, jedoch hat jedes Tool seine Stärken und Schwächen. Je nach Unternehmen oder Website, sollte man abwägen welches Tool-Portfolio am meisten Sinn macht im SEO-Prozess. Natürlich konnte in nur einem Artikel auch nicht die gesamte Vielfalt aller Tools am Markt abgedeckt werden, jedoch sind die aus unserer Sicht wichtigsten Tools für die klassischen SEO-Arbeiten hier genannt und deren Vorteile herausgearbeitet worden. Aufgrund des Umfanges wurden spezielle Tools für die Keyword Recherche hier nicht berücksichtigt.
Eine Ausführliche Anleitung für Deine Keyword-Recherche findest du hier!
Du möchtest mehr über spannende Themen der Branche erfahren?
Du siehst gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicke auf die Schaltfläche unten. Bitte beachte, dass dabei Daten an Drittanbieter weitergegeben werden.