Présentation rapide de l'outils : Crawler
Un seul objectif : comprendre comment Google et les autres moteurs de recherche voient votre site. En parcourant votre site, les robots d’exploration (comme Googlebot) laissent des informations dans les fichiers journaux de votre serveur. L’analyse des logs avec Seolyzer.io permet d’agréger toutes ces données inutilisées dans des KPI SEO efficaces.
Présentation détaillée de l'outil : Crawler
Description SEOLyzer
Lorsque les robots des moteurs de recherche comme Googlebot explorent votre site web, ils laissent assez fréquemment des informations exploitables dans un fichier appelé ‘’Journal’’.
C’est justement ces informations que SEOLyzer collecte pour vous les transmettre sous forme d’éléments SEO faciles à comprendre.
L’idée est de vous aider à remplir certaines tâches du référencement comme :
- Corriger les erreurs et les redirections ;
- Surveiller la vitesse de chargement des pages ;
- Aider les moteurs de recherche à explorer plus facilement vos pages stratégiques en priorité.
Qu’est-ce que SEOLyzer ?
La première caractéristique de SEOLyser est qu’il est assez intuitif et utile pour les référenceurs de tout niveau d’expérience.
La collecte des fichiers journaux peut se faire en temps réel ou par téléchargement, le crawler est rapide et les rapports sont simples et extensibles.
SEOLyzer commence prioritairement par analyser les performances globales de votre site web à l’aide des journaux.
L’outil analyse le contenu de vos pages et vous propose des mesures pour améliorer le trafic sur votre site, comme le contrôle de la vitesse de chargement des pages, la recherche de redirections et bien d’autres.
Lorsque l’outil passe quelques moments pour explorer votre site web, il affiche un résultat subdivisé en plusieurs sections dont voici quelques-unes :
Tableau de bord
Sur le tableau de bord du rapport d’analyse, on peut voir deux graphiques qui résument l’état des liens de votre site web.
On peut donc lire sur le premier graphique le pourcentage des URL explorées sur votre site web et celui des URL non explorées.
Une raison pour laquelle une url peut ne pas être explorée, par exemple, est qu’elle est certainement bloquée par le fichier robots.txt de votre site.
Ensuite, le second graphique nous montre le pourcentage des Urls qui peuvent être indexées par les bots des moteurs de recherche et celui des Urls qui ne peuvent pas être indexées.
Les Urls que les moteurs de recherche ne peuvent pas indexer sont entre autres les Urls bloquées via robots.txt, mais aussi ceux qui contiennent, par exemple, une balise noindex, des codes d’erreur HTTP, une URL canonique qui pointe vers une autre page, etc.
Les codes HTTP
Dans cette section, l’outil résume tout ce qu’il a pu détecter comme code HTTP sur votre site web lors de l’exploration. Il peut s’agir du code 200, 301, 404, 200, 500.
L’étude des codes HTTP permet de détecter facilement les liens défaillants au sein de votre boutique afin de les corriger.
Globalement on peut voir que l’outil nous montre que 94.5 % des Urls de notre site web sont en bon état, ce qui se symbolise par le code 200.
En revanche, 4.5% des Urls sont d’état 301 et 1% sont de 4004, ce qui signifie simplement qu’il faut vérifier les Urls pour corriger les déséquilibres.
Par exemple, lorsqu’on clique sur le pourcentage d’urls d’état 301, l’outil nous affiche toutes les Urls de cette nature et lorsque vous cliquez sur une, vous avez encore plus de détails.
Les codes 301 et 404 signifient que vous avez des correctifs à apporter à votre profil de liens.
La profondeur
Dans la fonctionnalité indexabilitée, on a également la section profondeur qui nous indique le nombre de clics nécessaire pour accéder à une page depuis la page d’accueil.
Plus le visiteur doit cliquer sur des liens, plus la profondeur de la page sera importante. Par exemple, les fils d’Ariane peuvent conduire à une profondeur assez considérable.
Sur un site ecommerce, entre catégories, sous-catégories et pagination, le contenu peut vite devenir très profond.
Profondeur par groupe
Cette fonctionnalité n’est pas différente de la précédente, seulement qu’ici, au lieu de considérer la profondeur du contenu d’une page individuellement, l’outil se concentre plutôt sur un groupe de pages.
L’outil vous indique les parties de votre site web qui ont plus de contenu profond.
Généralement, les contenus de blog, de pages de produit ou des sous-catégories sont détectés par cette fonctionnalité, car ce sont des parties d’un site qui regorgent des contenus accessibles après plusieurs clics.
Le contenu du site web
Dans cette section, on peut voir les éléments essentiels liés au contenu d’une page de site.
On peut voir que sur le site web de Twaino, il y a plus de contenus de plus de 2000 mots, c’est assez intéressant pour le référencement.
Si vos pages comptent en majorité entre 0 et 500 mots, il est recommandé de les optimiser, car vous n’exploitez pas pleinement votre potentiel SEO.
Par ailleurs, l’outil est capable de détecter les pages qui manquent de tire sur votre site web, c’est un moyen d’optimiser vos chances de classement.
En outre, la méta description n’a pas d’impact direct sur le classement, mais il est important de la renseigner, car elle permet d’inciter les internautes à cliquer sur votre site dans les pages de résultats et d’améliorer votre taux de clic.
Pour cela, s’il y a une page qui n’a pas de meta description, SEOLyzer peut vous la signaler pour que vous puissiez l’ajouter.
Les visiteurs du site web
La section visiteur de cet outil nous montre le nombre d’internautes ayant réellement visité le site web.
Ce qui est encore plus intéressant est que SEOLyser regroupe les visiteurs par catégorie :
- Visites SEO : Ce premier rapport montre le nombre de visiteurs provenant des moteurs de recherche ;
- Visites SEO par groupe : Cet onglet vous permet de mettre en avant les groupes de pages de votre site qui génèrent le plus de visites et ceux qui en génèrent le moins ;
- Le plus visité : Ici, vous pouvez découvrir les pages classées par nombre de visites SEO, pouvez avoir une idée des pages les plus puissantes de votre site web ;
- Visites SEA : Cet onglet affiche vos visiteurs provenant de la publicité en ligne, générée avec Google Ads.
En général, SEOLyzer est une solution de référencement complète pour toute personne ayant un site web et se soucie de son classement.
Vidéos de l'outils : Crawler
Gallerie de l'outils : Crawler
Présentation de l'entreprise : Crawler
SEOlyzer est une plateforme pour crawler et qui analyse les logs pour le SEO. Elle aide les professionnels du marketing web à améliorer le trafic organique de leurs sites. Ceci, en mettant en place des actions concrètes et objectives telles que :
- la détection et la correction des erreurs (404, 500, etc.) ;
- la vérification des redirections ;
- la surveillance des performances de vitesse des pages ;
- l’orientation des moteurs de recherche.
SEOlyser veille également à la bonne santé des sites à travers la surveillance des KPI SEO. Elle analyse le volume des crawls ainsi que le temps de réponse des sites.
L’outil aide les utilisateurs à toucher du doigt, les réels problèmes liés au référencement de leurs sites, grâce à des indicateurs visibles en temps réel.
Pour finir, SEOlyser permet de faire une analyse ciblée des logs à travers une catégorisation par groupes de page.
SEOlyser est approuvée et partagée par de nombreux experts SEO de par le monde. Elle est adoptée par de nombreuses entreprises et bénéficie aussi d’un nombre conséquent d’utilisateurs.
Retrouver l'entreprise : Crawler
- Lien vers l'outil : Crawler
- Visiter le site corporate
Crawler sur les réseaux sociaux
- Chaîne Youtube