Tutorials / Online-Marketing / Suchmaschinenmarketing (SEM) / Suchmaschinenoptimierung (SEO) / Onpage / Sitemaps

Onpage-Faktoren einer Website verbessern

Sitemap-Dateien für Suchmaschinen-Crawler erstellen

TXT-Sitemap-Dateien für Webseiten-URLs bereitstellen

TXT-Sitemaps können als statische oder dynamische (mittels CMS oder einem sonstigen dynamischen Framework generierte) Textdateien auf einem Webserver für Suchmaschinen-Crawler bereitgestellt werden.

Anhand dieser Sitemap können den Crawlern alle wichtigen Seiten (URLs) für die Aufnahme in den Suchmaschinenindex mitgeteilt werden.


Maximal 50.000 URLs je Sitemap

Sollte diese Grenze erreicht werden, so ist es möglich, mehrere TXT-Sitemaps zu erstellen.

Mit mehreren Sitemaps kann man ebenfalls eine Strukturierung für verschiedene Themen- oder Produktbereiche einer Webseite gestalten und so die Übersichtlichkeit und Überprüfbarkeit für den Webmaster erhöhen.


Maximale Dateigröße: 50 Megabyte je Sitemap

TXT-Sitemap-Dateien können auch in komprimierter Form mittels gzip-Format bereitgestellt werden. Auch eine komprimierte Sitemap sollte dabei eine Größe von 50 Megabyte nicht überschreiten.


Nur absolute URLs verwenden

http://beispiel.org/startseite.html
http://beispiel.org/aktuelles.html
http://beispiel.org/themen.html
http://beispiel.org/thema_a.html
http://beispiel.org/thema_b.html

Nur URLs derselben Ebene oder tieferer Ebene verwenden

http://beispiel.org/de/startseite.html
http://beispiel.org/de/aktuelles/2017.html
http://beispiel.org/de/themen/a.html
http://beispiel.org/de/themen/b.html

Nur URLs desselben Host verwenden

Um zu vermeiden, dass Suchmaschinen absichtlich/manipulierte oder unabsichtlich erstellte Sitemaps für fremde Webseiten oder Subdomains (z. B.: Nutzerprofile bei großen Webseiten) crawlen, sind alle URL-Angaben in den TXT-Sitemaps auch nur für den Host gültig auf der die TXT-Sitemap bereitgestellt wird.

http://de.beispiel.org/startseite.html
http://de.beispiel.org/aktuelles/2017.html
http://de.beispiel.org/themen/a.html
http://de.beispiel.org/themen/b.html
http://en.beispiel.org/home.html
http://en.beispiel.org/news/2017.html
http://en.beispiel.org/subjects/a.html
http://en.beispiel.org/subjects/b.html

Nutzung von Sitemap-Tools/-Generatoren: Wenn man Tools für die Generierung von Sitemaps nutzen möchte, sollte man zuerst überprüfen ob diese Generatoren auch die Regelungen in einer eventuell vorhandenen "robots.txt"-Datei, die Regeln die sich in den Meta-Robots-Angaben einer Website befinden sowie die Angaben zu "Canonical-Links", entsprechend beachten.
Es ist unnötig, dass URLs die durch besagte Regelungen von Suchmaschinen nicht indexiert werden sollen, gleichzeitig in einer Sitemap-URL-Liste aufzuführen.