Crawl


Définition :

Crawl

Le Crawl est l’action de parcourir et d’explorer automatiquement les pages d’un site web par un robot appelé spider, googlebot ou crawlbot. Il permet aux moteurs de recherche de découvrir, consulter et indexer le contenu du site, pour ensuite le référencer dans les résultats de recherche. Pour que le crawl soit efficace, il est important d’avoir une structure de site claire et cohérente, avec des URL faciles à comprendre, des balises méta incontournables et un bon maillage interne du site. En résumé, plus le crawl est performant, plus le site aura de chances d’être bien référencé dans les moteurs de recherche.

Voici quelques exemples d’outils ou de services qui permettent de crawler un site web :

Google Search Console :

  • C’est un outil gratuit proposé par Google qui permet de surveiller et d’analyser la présence du site web dans les résultats de recherche.

Xenu Link Sleuth :

  • C’est un logiciel gratuit pour Windows qui permet de vérifier les liens brisés, les images manquantes et les redirections d’un site web.

Screaming Frog :

  • C’est un outil payant disponible pour Windows, Mac et Linux qui permet de crawler un site web pour trouver les erreurs internes, les balises manquantes et les mots-clés.