Crawl et indexation
robots.txt et ordre de priorité des règles
Le fichier robots.txt qui permet de contrôler le crawl des moteurs de recherche nous réserve parfois des surprises (comme je…
Lire la suiteLes petites subtilités du fichier robots.txt qui peuvent faire mal
Le fichier robots.txt utile dans bien des cas, pour éviter des fuites de crawl (et contrôler au mieux la façon…
Lire la suiteLa balise meta noindex et NSEO, attention!
Hier, j’ai vu passer un post de Gary Illyes (Webmaster Trends Analyst chez Google) qui m’a interpellé : https://plus.google.com/+GaryIllyes/posts/ZPPrxASiXf3 En effet,…
Lire la suiteRobots.txt et URL avec des caractères spéciaux: le test
Bien que le robots.txt ne soit pas toujours respecté, c’est malgré tout un élément indispensable pour éviter que Google crawl des…
Lire la suiteDuel SEO: meta robots et en-tête X-Robots-Tag
Comme vous le savez (ou pas), on peut donner des instructions aux robots/crawlers via l’élément <meta name= »robots » content= »… » />, mais…
Lire la suiteSEO et site en maintenance, on raconte quoi à Googlebot?
Il est parfois nécessaire de mettre son site en pause quand des maintenances doivent être effectuées (upgrade d’un CMS, maintenance…
Lire la suiteDuplicate content et paramètres de tracking, la solution ultime
Google Analytics permet grâce à ses paramètres de tracking utm_ d’effectuer un suivi de ses campagnes e-marketing, que ce soit…
Lire la suiteStop au Duplicate Content avec l’indexation des sites de préprod
Cela arrive trop rarement: des sites de pré-production ou en cours de développement qui sont indexés par GoogleBot, c’est bien…
Lire la suite