Ich betreibe eine Website mit vielen Inhalten, aber wenig Traffic auf einem dedizierten Server auf mittlerer Ebene.
Gelegentlich wird der Googlebot uns anstürmen, was dazu führt, dass Apache seinen Speicher voll auslastet und den Server zum Absturz bringt.
Wie kann ich das vermeiden?
Sie können festlegen, wie Ihre Website gecrawlt wird, indem Sie die Webmaster-Tools von Google verwenden. Sehen Sie sich speziell diese Seite an: Ändern der Crawling-Rate von Google
Sie können auch die Seiten einschränken, die der Google Bot mit einer robots.txt-Datei durchsucht. Es ist eine Einstellung für crawl-delay
verfügbar, es scheint jedoch, dass nicht berücksichtigt wurde von Google.
Registrieren Sie Ihre Website mit den Google Webmaster-Tools, mit denen Sie festlegen können, wie oft und wie viele Anfragen pro Sekunde googlebot versuchen sollte, Ihre Website zu indizieren. Google Webmaster-Tools können Sie auch beim Erstellen einer robots.txt-Datei unterstützen, um die Belastung Ihrer Website zu reduzieren.
Beachten Sie, dass Sie die Crawl-Geschwindigkeit über die Google Webmaster-Tools (unter Site-Einstellungen) festlegen können, aber sie berücksichtigen die Einstellung nur für sechs Monate! Sie müssen sich also alle sechs Monate anmelden, um es erneut einzustellen.
Diese Einstellung wurde in Google geändert. Die Einstellung wird jetzt nur noch für 90 Tage gespeichert (3 Monate, nicht 6).
Tags und Links performance googlebot