Robots.txt

TL; DR: Robots.txt est un fichier utilisé par les sites Web pour communiquer avec les robots d'exploration et autres robots Web, indiquant quelles parties du site ne doivent pas être traitées ou analysées. Il permet de contrôler l'accès de ces robots à des zones spécifiées d'un site Web.
Partager

Robots.txt est un fichier texte appartenant à un groupe de protocoles Web appelés Robots Exclusion Protocol ou REP. Ce fichier commande aux robots des moteurs de recherche tels que Googlebots les pages à explorer et à indexer. Robot.txt aide les sites Web à éviter d'être bombardés par trop de requêtes. Cela joue un rôle énorme dans l'obtention d'un bon score de référencement.

Mise à jour de février 17, 2024
Axel Grubba est le fondateur de Findstack, une plateforme de comparaison de logiciels B2B, avec son expérience dans le conseil en gestion et le capital-risque où il a investi dans les logiciels. Récemment, Axel a développé une passion pour le codage et aime voyager lorsqu'il ne construit pas et n'améliore pas Findstack.