Le crawl budget détermine combien de pages Google explore sur votre site. L'optimiser est crucial pour les sites volumineux ou en croissance.
Le crawl budget représente le nombre de pages que Googlebot est prêt à explorer sur votre site dans un laps de temps donné. Il dépend de deux facteurs :
L'optimisation du crawl budget est importante pour :
Pour les petits sites (moins de 1 000 pages), le crawl budget est rarement un problème.
L'analyse des logs serveur révèle le comportement réel de Googlebot :
Utilisez les rapports de Search Console :
Un serveur rapide permet à Google de crawler plus de pages :
Réduisez le gaspillage de crawl budget :
Bloquez intelligemment les sections non importantes :
Facilitez le crawl avec une bonne structure :
Les paramètres URL peuvent multiplier les pages :
Les sites e-commerce ont des défis spécifiques :
Signes d'alerte : nouvelles pages lentes à s'indexer, pages importantes non indexées, baisse du nombre de pages crawlées dans Search Console. L'analyse des logs serveur donne la réponse définitive.
Non, c'est déconseillé. Google a besoin de ces ressources pour comprendre votre site. Bloquer JS/CSS peut nuire au rendu et à l'indexation de vos pages.
Oui, Google doit crawler la page pour lire la directive noindex. Pour les pages vraiment sans intérêt, le blocage via robots.txt est plus efficace pour le crawl budget.
Les changements dans le comportement de crawl peuvent prendre quelques jours à quelques semaines. Surveillez les statistiques d'exploration dans Search Console pour mesurer l'impact.
Nous analysons le comportement de Googlebot sur votre site et optimisons votre crawl budget.