SEO Technique Avancé
L'analyse des logs serveur : un atout SEO sous-exploité
Les logs serveur révèlent exactement comment Googlebot explore votre site. C'est une source d'information unique pour optimiser votre crawl budget et détecter des problèmes invisibles autrement.
Pourquoi analyser les logs pour le SEO
- Vérité terrain : Voir ce que Google crawle réellement (pas ce qu'il devrait)
- Crawl budget : Comprendre comment Google alloue ses ressources
- Problèmes cachés : Détecter erreurs, pages fantômes, boucles
- Fréquence : Mesurer à quelle vitesse Google découvre vos contenus
Informations clés dans les logs
Structure d'une ligne de log
- IP : Identifier les bots (Googlebot, Bingbot, etc.)
- Date/heure : Quand la requête a été faite
- URL demandée : Quelle page a été crawlée
- Code HTTP : 200, 301, 404, 500...
- User-Agent : Quel bot ou navigateur
- Taille de la réponse : Poids de la page servie
Métriques SEO à extraire
- Nombre de hits Googlebot par jour
- Répartition par type de page (catégories, fiches, articles)
- Fréquence de crawl des pages stratégiques
- Pages crawlées mais non indexées
- Codes d'erreur retournés aux bots
Problèmes détectables par les logs
Gaspillage de crawl budget
- Pages de pagination excessivement crawlées
- Paramètres d'URL créant des doublons
- Ressources inutiles crawlées (JS, CSS, images)
- Pièges à crawl (calendriers infinis, filtres)
Problèmes techniques
- Pages importantes rarement crawlées
- Erreurs 500 intermittentes
- Redirections en chaîne
- Pages fantômes (URL inexistantes crawlées)
Signaux d'alerte
- Baisse soudaine du crawl
- Augmentation des erreurs 5xx
- Crawl concentré sur des pages sans valeur
- Nouvelles pages jamais crawlées
Outils d'analyse de logs
Outils spécialisés SEO
- Screaming Frog Log Analyzer : Analyse complète orientée SEO
- Oncrawl : Intègre crawl et logs
- Botify : Plateforme entreprise
- SEOlyzer : Outil gratuit basique
Outils généralistes
- ELK Stack : Solution open source puissante
- AWStats, GoAccess : Gratuits, visualisation basique
- Excel/Google Sheets : Pour petits volumes
- Python/pandas : Analyses personnalisées
Bonnes pratiques
- Conserver au moins 30 jours de logs
- Filtrer pour isoler Googlebot (vérifier les IPs)
- Croiser avec les données Search Console
- Monitorer régulièrement les métriques clés
- Automatiser les alertes sur anomalies
Découvrez aussi notre guide pour auditer votre site SEO et notre audit SEO complet.