Le fichier robots.txt permet de bloquer le crawl des moteurs de recherche pour certaines URL ou parties d’un site. Ce dossier détaille tout, avec plein de conseils SEO que vous ne connaissiez peut-être pas…Cet article écrit par Olivier Duffez a été publié sur SEO : 21 conseils sur le fichier …
