fbpx

Crawlbudget – ein Mythos?

Inhaltsverzeichnis

     

    Der Begriff Crawlbudget ist immer im Bereich Suchmaschinenoptimierung (SEO) immer wieder zu lesen und zu hören. Google hat sich hierzu in seinem Webmasterblog geäußert und klargestellt, dass es keinen einzelnen Faktor gibt, der mit Crawlbudget einhergehen würde.

     

    Nichtsdestotrotz wird dargelegt, dass zwei Faktoren existieren, die das Crawlverhalten der Googlebots maßgeblich beeinflussen und diese letztendlich doch wieder zu einer Begrenzung des „Crawlbudgets“ führen.

    crawling_aktivitaeten

     

    Crawling-Frequenz und Crawling-Bedarf

    Würde der Google-Bot in sehr kurzer Zeit umfangreiche Webseiten komplett crawlen, so käme das im weitesten Sinne einer DDOs-Attacke gleich: im schlimmsten Fall wäre die Webseite nur noch eingeschränkt oder gar nicht mehr erreichbar, da zu viele Anfragen gleichzeitig am Server eingehen würden. Aus diesem Grund misst der Bot u.a. die Antwortgeschwindigkeit des Servers und passt daraufhin die Abstände zwischen den jeweiligen Abfragen an.

    Sollte der Googlebot dennoch massiv danebenliegen, bleibt dem Webseitenbetreiber auch noch die Option, die Crawling-Frequenz in der Google Search-Console anzupassen. In den meisten Fällen ist dies jedoch nicht notwendig.

    Daneben versucht Google den Crawling-Bedarf einer Website zu ermitteln und zielt dabei in erster Linie auf aktuelle Inhalte ab. Hierbei spielen die Beliebtheit der einzelnen URLs sowie der Status der URL (veraltete URL oder noch aktuell?) eine entscheidende Rolle.

     

    Wie kann das Crawling erleichtert werden?

    Auch wenn Google sagt, dass die Crawling-Möglichkeiten keinen Einfluss auf das Ranking haben, ist es natürlich essenziell – denn ohne Crawling gibt es kein Ranking.

    Wichtig ist vor allem, die Webseiten aus technischer Sicht solide aufzustellen. Dies beinhaltet eine ausgereifte Ladegeschwindigkeit und gute Antwortzeiten des Servers.  Ergänzend sollten Soft-Errors auf einem möglichst niedrigen Niveau gehalten werden.

    Wenig überraschend ist die Aussage, dass sich gehackte Seiten, Spam, Duplicate Content oder eine fehlerhaft umgesetzte facettierte Navigation schlecht auf das Crawling auswirken.

     

    Fazit

    Damit Crawlbudget überhaupt ein Thema wird, muss die betroffene Webseite sehr umfangreich sein– also aus mehreren tausend URLs bestehen. Insgesamt wird deutlich, dass wieder mal die Seitengeschwindigkeit und guter, einzigartiger Content die Basis für eine gesunde Entwicklung darstellen.

     

     

    • Mehr als 217 Jahre Marketingerfahrung (Team von 43 Personen)
    • Unternehmerisches denken durch 6 eigene Online Shops (Beispiel: Detailify.de)
    • Mehr als 639 Projekte erfolgreich umgesetzt
    • Persönliche Ansprechpartner im Team
    • Individuelle Zusammenarbeit für faire Preise mit Wirkung

    30 Minuten kostenlose Marketingbewertung über Microsoft Teams

    Kostenlose SEO Tipps für Deine Website

    Suchmaschinenoptimierung - Passende Artikel

    Google AI Overviews in Deutschland: Was SEOs und Online Marketing Manager jetzt wissen müssen

    Google hat in Deutschland eine neue Ära der Suche eingeläutet: Die AI Overviews, auf Deutsch auch Übersicht mit KI genannt, sind seit heute Nacht in den...

    WordPress Blogartikel erstellen: So geht’s in 5 einfachen Schritten

    Du willst einen Blogartikel in WordPress erstellen? In dieser SEO-Anleitung zeige ich Dir, wie Du das in 5 einfachen Schritten umsetzt. Mein Name ist Stefan Kraus....

    Backlinks von Konkurrenz-Websites finden

    Du willst wissen, welche Backlinks Deine Konkurrenten haben? In dieser SEO-Anleitung zeige ich Dir in wenigen Schritten, wie Du die Verlinkungen der Websites Deiner Wettbewerber herausfindest....

    top