Notre agence

Analyser les Logs Serveur pour le SEO

Analyse logs serveur SEO
SEO Technique Avancé

L'analyse des logs serveur : un atout SEO sous-exploité

Les logs serveur révèlent exactement comment Googlebot explore votre site. C'est une source d'information unique pour optimiser votre crawl budget et détecter des problèmes invisibles autrement.

Pourquoi analyser les logs pour le SEO

  • Vérité terrain : Voir ce que Google crawle réellement (pas ce qu'il devrait)
  • Crawl budget : Comprendre comment Google alloue ses ressources
  • Problèmes cachés : Détecter erreurs, pages fantômes, boucles
  • Fréquence : Mesurer à quelle vitesse Google découvre vos contenus

Informations clés dans les logs

Structure d'une ligne de log

  • IP : Identifier les bots (Googlebot, Bingbot, etc.)
  • Date/heure : Quand la requête a été faite
  • URL demandée : Quelle page a été crawlée
  • Code HTTP : 200, 301, 404, 500...
  • User-Agent : Quel bot ou navigateur
  • Taille de la réponse : Poids de la page servie

Métriques SEO à extraire

  • Nombre de hits Googlebot par jour
  • Répartition par type de page (catégories, fiches, articles)
  • Fréquence de crawl des pages stratégiques
  • Pages crawlées mais non indexées
  • Codes d'erreur retournés aux bots

Problèmes détectables par les logs

Gaspillage de crawl budget

  • Pages de pagination excessivement crawlées
  • Paramètres d'URL créant des doublons
  • Ressources inutiles crawlées (JS, CSS, images)
  • Pièges à crawl (calendriers infinis, filtres)

Problèmes techniques

  • Pages importantes rarement crawlées
  • Erreurs 500 intermittentes
  • Redirections en chaîne
  • Pages fantômes (URL inexistantes crawlées)

Signaux d'alerte

  • Baisse soudaine du crawl
  • Augmentation des erreurs 5xx
  • Crawl concentré sur des pages sans valeur
  • Nouvelles pages jamais crawlées

Outils d'analyse de logs

Outils spécialisés SEO

  • Screaming Frog Log Analyzer : Analyse complète orientée SEO
  • Oncrawl : Intègre crawl et logs
  • Botify : Plateforme entreprise
  • SEOlyzer : Outil gratuit basique

Outils généralistes

  • ELK Stack : Solution open source puissante
  • AWStats, GoAccess : Gratuits, visualisation basique
  • Excel/Google Sheets : Pour petits volumes
  • Python/pandas : Analyses personnalisées

Bonnes pratiques

  • Conserver au moins 30 jours de logs
  • Filtrer pour isoler Googlebot (vérifier les IPs)
  • Croiser avec les données Search Console
  • Monitorer régulièrement les métriques clés
  • Automatiser les alertes sur anomalies

Découvrez aussi notre guide pour auditer votre site SEO et notre audit SEO complet.

FAQ

Questions fréquentes

Où trouver les logs serveur ?

Chez votre hébergeur, dans le panneau de contrôle (cPanel, Plesk). Parfois il faut les activer ou les demander au support. Sur un serveur dédié, ils sont généralement dans /var/log/apache2 ou /var/log/nginx.

L'analyse de logs est-elle réservée aux gros sites ?

Non, mais l'impact est plus visible sur les sites volumineux (milliers de pages). Pour un petit site, c'est utile ponctuellement pour diagnostiquer des problèmes d'indexation ou comprendre le comportement de Googlebot.

Comment différencier le vrai Googlebot des faux ?

Vérifiez l'IP source par reverse DNS. Les vrais Googlebot proviennent de domaines googlebot.com ou google.com. Beaucoup de bots malveillants usurpent le User-Agent Googlebot mais pas l'IP.

Quelle fréquence d'analyse recommandée ?

Pour un monitoring continu, des alertes automatisées sur anomalies. Pour une analyse approfondie, une fois par mois ou après tout changement majeur (refonte, migration, nouvelle section).

Besoin d'une analyse de logs approfondie ?

Comprenez comment Google explore votre site et optimisez votre crawl budget.