Ein Relaunch bietet Dir die Möglichkeit Produkte, Logos, Websites und Marken zu optimieren. Hier erfährst Du mehr dazu! ... Weiterlesen
Die XML Sitemap ist eine Textdatei und enthält alle wichtigen URLs einer Domain, um Suchmaschinen wie Google das sogenannte crawlen der Website zu erleichtern. Es können entweder alle Unterseiten oder auch nur eine bestimmte Auswahl an Seiten oder auch Pfade zu Videos und Bildern in der XML Sitemap stehen. Sie ist ein auf dem Server gespeichertes Dokument und fungiert wie eine Art Inhaltsverzeichnis für die Webseite. Eine XML Sitemap bietet aber noch weitere Möglichkeiten, um vor allem die Crawler von Suchmaschinen bei der Arbeit zu unterstützen.
Eine gute XML Sitemap online zu haben ist vor allem für SEO sehr wichtig. Sie hilft nicht nur bei der Indexierung der eigenen Webseite, sondern kann auch die Position in den Suchergebnissen steigern. Es lohnt sich, als für SEO eine XML Sitemap zu generieren und diese auch zu pflegen. Denn nicht nur Google, sondern auch andere Suchmaschinen greifen darauf zu und nutzen diese für das effektive Crawling der Webseite.
Es bietet sich sehr an mithilfe einer Sitemap dem Crawler unter die Arme zu greifen, da das Crawling unnötiger Unterseiten Google Zeit und Geld kostet. Deshalb sind Google und andere Suchmaschinen immer darauf bedacht, nur die wichtigsten und notwendigen Unterseiten zu scannen. Bei einer großen Website mit vielen Unterseiten kann der Crawler nicht alle untersuchen, bevor er die Seite wieder verlässt. Hier kann eine Sitemap dem Bot eine strukturierte Vorgehensweise aufzeigen, damit er erkennt, welche Seiten existieren. Ansonsten ist der Bot auf die internen Verlinkungen angewiesen und findet unter Umständen nicht alle relevanten Seiten.
Es ist möglich, in der Sitemap weitere Angaben für den Bot zu machen, um Google noch mehr Informationen zur jeweiligen Unterseite zu liefern. Dabei kannst Du das Datum der letzten Aktualisierung, die Priorität innerhalb der Seitenstruktur und die Häufigkeit von Änderungen angeben. Allerdings hat Google bereits bekannt gegeben, dass sie nicht auf die Angabe der Priorität oder Änderungshäufigkeit achten. Auch das Datum der letzten Änderung wird meistens ignoriert. Allerdings kann es bei gravierenden Änderungen helfen das Änderungsdatum durch <lastmod> anzugeben. So kann Google z.B. eine Umstellung auf mobile friendly leichter nachvollziehen und kann anschließend alle URLs schneller erneut crawlen, weil der Crawler die Links zu den Unterseiten nicht erst durch interne Verlinkungen finden muss.
Aus diesem Grund schadet es auch nicht, die XML Sitemap regelmäßig zu aktualisieren, damit die Bots neu erstellte Seiten auch verlässlich indexieren und crawlen. Nicht nur deshalb bietet es sich an Tools und Plug-Ins zu nutzen, die diesen Prozess automatisiert übernehmen und die Sitemap teilweise fertig hochladen.
Da eine Sitemap in der Regel sehr groß ist, bietet es sich an diese automatisch generieren zu lassen. Diese enthält schließlich alle wichtigen Pfade und Verlinkungen, die bei einer manuell erstellten Sitemap eventuell nicht komplett abgedeckt sind. So bietet WordPress zwar selbst keine Möglichkeit eine Sitemap zu generieren, aber das Plug-In Yoast unterstützt Nutzer bei der SEO Optimierung und Sitemap Erstellung. Es gibt auch XML Sitemap Generatoren, die ein komplettes Seitenverzeichnis erstellen und man das Ergebnis anschließend nur auf die eigene Webseite laden muss.
Die meisten Plug-Ins und CMS mit integrierter Sitemap-Erstellung übernehmen auch gleichzeitig das Hochladen der Sitemap mit dem korrekten Pfad, damit diese auch von den Suchmaschinenbots gefunden wird. Allerdings schadet es nicht noch einen Verweis in die robots.txt zu schreiben und dort die Sitemap zu verlinken. Denn die meisten Crawler finden die robots.txt als erste Datei und bekommen dort sofort den Link zur Sitemap übermittelt, um diese genauer unter die Lupe zu nehmen.
Ist die Sitemap erstellt und hochgeladen, bietet es sich an, diese in der Search Console von Google einzureichen. Damit steht sie Google sofort zur Verfügung und man kann sehen, wann die Sitemap gecrawlt wurde. Nun kann der Algorithmus mögliche Änderungen abgleichen und erkennt, welche neuen Unterseiten hinzugekommen sind oder welche Seiten schon länger nicht mehr gecrawlt wurden. Dadurch steigt die Wahrscheinlichkeit, dass der Google Bot zeitnah die Seite und vor allem die diversen Unterseiten erneut oder zum ersten Mal crawlt.
Du möchtest mehr zum Thema Sitemap erfahren? Dann schau hier in unserem eo:magazine-Artikel vorbei!
Die XML Sitemap ist ein Inhaltsverzeichnis mit allen relevanten URLs einer Website. Die Sitemap hilft bei der Indexierung durch Suchmaschinen und gibt Webmastern mehr Kontrolle.
Am besten hältst Du Dich an die Vorgaben von sitemaps.org und lädst die Sitemap für Google vor allem im XML-Format hoch.
Eine HTML-Sitemap ist für die Nutzer gedacht und enthält sämtliche wichtige Link zum direkten Anklicken. Eine XML-Sitemap, auf der anderen Seite, ist für Suchmaschinen gedacht und hilft bei der Indexierung. Sie ist für Menschen nur schwer lesbar und hilft dem Nutzer nicht.
Es ist sehr zu empfehlen, eine Sitemap zu generieren und hochzuladen. Insbesondere da der Aufwand durch diverse Tools und Generatoren nicht hoch ist. Je leichter Google die eigene Seite indexieren und crawlen kann, desto besser.
Du möchtest mehr über spannende Themen der Branche erfahren?
Du siehst gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicke auf die Schaltfläche unten. Bitte beachte, dass dabei Daten an Drittanbieter weitergegeben werden.