L'analyse des logs serveur : un atout SEO sous-exploité
Les logs serveur révèlent exactement comment Googlebot explore votre site. C'est une source d'information unique pour optimiser votre crawl budget et détecter des problèmes invisibles autrement.
Pourquoi analyser les logs pour le SEO
- Vérité terrain : Voir ce que Google crawle réellement (pas ce qu'il devrait)
- Crawl budget : Comprendre comment Google alloue ses ressources
- Problèmes cachés : Détecter erreurs, pages fantômes, boucles
- Fréquence : Mesurer à quelle vitesse Google découvre vos contenus
Informations clés dans les logs
Structure d'une ligne de log
- IP : Identifier les bots (Googlebot, Bingbot, etc.)
- Date/heure : Quand la requête a été faite
- URL demandée : Quelle page a été crawlée
- Code HTTP : 200, 301, 404, 500...
- User-Agent : Quel bot ou navigateur
- Taille de la réponse : Poids de la page servie
Métriques SEO à extraire
- Nombre de hits Googlebot par jour
- Répartition par type de page (catégories, fiches, articles)
- Fréquence de crawl des pages stratégiques
- Pages crawlées mais non indexées
- Codes d'erreur retournés aux bots
Problèmes détectables par les logs
Gaspillage de crawl budget
- Pages de pagination excessivement crawlées
- Paramètres d'URL créant des doublons
- Ressources inutiles crawlées (JS, CSS, images)
- Pièges à crawl (calendriers infinis, filtres)
Problèmes techniques
- Pages importantes rarement crawlées
- Erreurs 500 intermittentes
- Redirections en chaîne
- Pages fantômes (URL inexistantes crawlées)
Signaux d'alerte
- Baisse soudaine du crawl
- Augmentation des erreurs 5xx
- Crawl concentré sur des pages sans valeur
- Nouvelles pages jamais crawlées
Outils d'analyse de logs
Outils spécialisés SEO
- Screaming Frog Log Analyzer : Analyse complète orientée SEO
- Oncrawl : Intègre crawl et logs
- Botify : Plateforme entreprise
- SEOlyzer : Outil gratuit basique
Outils généralistes
- ELK Stack : Solution open source puissante
- AWStats, GoAccess : Gratuits, visualisation basique
- Excel/Google Sheets : Pour petits volumes
- Python/pandas : Analyses personnalisées
Bonnes pratiques
- Conserver au moins 30 jours de logs
- Filtrer pour isoler Googlebot (vérifier les IPs)
- Croiser avec les données Search Console
- Monitorer régulièrement les métriques clés
- Automatiser les alertes sur anomalies
Découvrez aussi notre guide pour auditer votre site SEO et notre audit SEO complet.
Questions fréquentes
Où trouver les logs serveur ?
Chez votre hébergeur, dans le panneau de contrôle (cPanel, Plesk). Parfois il faut les activer ou les demander au support. Sur un serveur dédié, ils sont généralement dans /var/log/apache2 ou /var/log/nginx.
L'analyse de logs est-elle réservée aux gros sites ?
Non, mais l'impact est plus visible sur les sites volumineux (milliers de pages). Pour un petit site, c'est utile ponctuellement pour diagnostiquer des problèmes d'indexation ou comprendre le comportement de Googlebot.
Comment différencier le vrai Googlebot des faux ?
Vérifiez l'IP source par reverse DNS. Les vrais Googlebot proviennent de domaines googlebot.com ou google.com. Beaucoup de bots malveillants usurpent le User-Agent Googlebot mais pas l'IP.
Quelle fréquence d'analyse recommandée ?
Pour un monitoring continu, des alertes automatisées sur anomalies. Pour une analyse approfondie, une fois par mois ou après tout changement majeur (refonte, migration, nouvelle section).
Besoin d'une analyse de logs approfondie ?
Comprenez comment Google explore votre site et optimisez votre crawl budget.



