Blog

Kategorie: SEO

Sitemap Crawler – Was ist das?


Search Monster ToolWer sich mit der Suchmaschinenoptimierung (SEO) beschäftigt, wird früher oder später auf den Begriff „Sitemap Crawler“ stoßen. Ein Begriff, der für Verwunderung sorgt. Sitemap Crawler – was ist das?

Was ist ein Sitemap Crawler?

Der Begriff „Crawler“ stammt von der Suchmaschine WebCrawler her, welche bereits Anfang der 1990-er Jahre als erste öffentliche Suchmaschine die kompletten Texte einer Webseite indexierte.

Suchmaschinen arbeiten mit sogenannten „Webcrawlern“, auch „Searchbots“ genannt. Dabei handelt es sich um Computerprogramme, die automatisch im Internet unterwegs sind und Websites auf ihre Relevanz hin untersuchen. Diese Webseiten werden dann in einem Index abgespeichert. Kommt nun eine Suchanfrage nach einem bestimmten Begriff, wird dieser mit den gespeicherten Websites verglichen und die Ergebnisse nach der Relevanz der Seiten angezeigt. Da eine gute Platzierung im Suchmaschinenranking der Wunsch eines jeden Webseitenbetreibers ist, ist es sehr wichtig, die Webseiten nach bestimmten Regeln zu optimieren: SEO = Suchmaschinenoptimierung.

Was sind Sitemaps?

Sitemaps sind eine strukturierte Darstellung aller Webseiten eines Internetauftritts beziehungsweis einer Website. Sie sollen Webseitenbesuchern einen Überblick über die Struktur sowie den Umfang des betreffenden Internetauftritts geben.

Sitemaps ermöglichen es zudem, Suchmaschinen wie Google, die Webseiten optimal zu indexieren. Dies bedeutet, dass sie eine Vereinfachung der Indexierung gewährleisten sollen. Für die Suchmaschinenoptimierung sind sie ein hilfreiches Instrument zur Sicherstellung, dass sämtliche Webseiten des Internetauftritts gut erreichbar und auffindbar sind.

Wie funktioniert ein Crawler?

Crawler arbeiten selbständig und machen den ganzen Tag nichts anders, als sich durchs Internet zu bewegen und dir dortigen Webseiten zu durchforsten. Mithilfe von Hyperlinks gelangen sie von einer Seite zur anderen, so dass keinerlei manuelle Hilfestellung eines Webseitenbetreibers notwendig ist.

Die Webseitenroute, welche sich der Crawler dank der Hyperlinks festgelegt hat, wird regelmäßig von ihm „abgegangen“. Da die Crawler an einen Index gekoppelt sind, ist es ihnen möglich, die von ihnen durchsuchten Webseiten in diesen aufzunehmen – mit dem Ergebnis, dass sie in den Ergebnislisten der Suchmaschinen auftauchen.

 

Graphik: © Diverser – Fotolia.com

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *