. Qu’est-ce-que l’analyse de logs et à quoi sert-elle pour votre site ? - LEG un pied dans mon entreprise -
Conseils d'experts

Qu’est-ce-que l’analyse de logs et à quoi sert-elle pour votre site ?

Les fichiers logs appelés aussi journaux d’événements sont des fichiers textes qui enregistrent chronologiquement les événements exécutés soit par un serveur soit par une application informatique. Ces événements sont par exemple la date et l’heur de l’ouverture d’une session, l’installation d’un programme ou une navigation internet, l’adresse IP, le fichier cible, le système d’exploitation utilisé…Déchiffrer les informations traitées chronologiquement par ces fichiers logs permet de trouver la provenance d’erreurs ou de bugs.

Ces fichiers permettent en outre de générer des statistiques concernant les connexions à des sites ou serveurs, et donc la fréquentation d’un site.

Pourquoi est-ce utile pour le SEO ?

L’analyse de logs permet d’obtenir de nombreuses informations à propos d’un site :

– Suivre le volume du crawl de GoogleBot : L’enjeu est de faire en sorte que la tendance soit à la hausse du volume de crawl de GoogleBot.

Mais qui est GoogleBot ?

Googlebot est le robot d’exploration de Google. Lors de l’exploration, Googlebot détecte les nouvelles pages et les pages mises à jour à ajouter dans l’index Google.
Grâce à un gigantesque réseau d’ordinateurs, Google est en mesure d’extraire (ou « explorer ») des milliards de pages Web. Le processus de Googlebot est basé sur des algorithmes ; les programmes informatiques déterminent les sites à explorer, la fréquence d’exploration et le nombre de pages à extraire de chaque site.

Comment être sûr que l’ensemble des urls soit bien collectées ?

En s’assurant que  100% des URLs trouvées par un crawler interne soient également trouvées par Google.

 – Connaître Le taux de crawl global et par niveau de profondeur

En effet, plus les pages d’un site sont profondes moins elles sont crawlées. Elle remonteront donc moins dans les SERPS et vont générer moins de trafic.

 – Connaître le taux de crawl des pages actives par niveau de profondeur

Pour savoir si une page d’un site est active, il faut qu’elle ait généré au moins une visite pendant une période donnée.

– Connaître les codes retours des requêtes

S’assurer que les codes 200 prédominent
Corriger les erreurs 404
identifier les 302 (pages dont l’adresse a temporairement changé puis les mettre en 301.

Les outils :

– pour les statistiques de connexion : Webalizer ou Webtrends
– pour crawler un site : screaming frog (gratuit)
– pour les analyses de fichiers logs :
– Botify (payant) ,
– Splunk (payant)
– watussi(open-source), spiderlog(bêta gratuit)

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Aller à la barre d’outils