Test de 5 méthodes de désindexation d’une page sur Google
19 Juin 2012
écrit parPlusieurs techniques sont envisageables pour supprimer une ou plusieurs pages de l'index de Google: via Google Webmasters Tools? meta noindex? code d'erreur 410 ?
A priori elles sont toutes efficaces, mais combien de temps faut-il? Afin d'avoir plus d'informations sur le délai de suppression d'une page en fonction de la méthodologie utilisée, je lance un test sur cinq pages que Google va découvrir via cet article.
Indexation des pages par GoogleBot
Pour que ces pages soient vite crawlées, je vais insérer les liens vers 5 nouvelles pages directement dans cet article. Ensuite, vos ReTweets (que j'espère nombreux) renforcerons un peu l'importance de cette page pour que Googlebot se penche un peu plus sur les nouveaux liens qu'elle contient.
Voici nos petits liens avec des pages pleines de Lorem Ipsum. Pour qu'ils semblent encore plus importants aux yeux de Google, je vais les placer intext (bah oui il parait que ça serait un critère de qualité qu'ils disent "les gens du SEO").
[placement de liens]Alors voici mon premier lien ancre non optimisée 1 parce que Pinguoin il est pas gentil même que ancre non optimisée 2! de toute façon, même si c'est la mort du SEO ancre non optimisée 3, je continuerais ma route avec Google ancre non optimisée 4 parce que Googlebot est mon ami pour la vie ancre non optimisée 5 d'abord. Bon allez, un petit dernier pour Vincent : ancre non optimisée 6[/placement de liens]
Test de 5 méthodes de désindexation
Quand ces pages auront été crawlées à plusieurs reprises, j'utiliserais une méthode de désindexation pour chacune d'entre elles. Voici les 5 techniques testées:
- page1.html: suppression de l'URL via Google Webmasters Tools
- page2.html: mise en place d'une erreur HTTP de type 404 (Not found)
- page3.html: mise en place d'une erreur HTTP de type 410 (Gone)
- page4.html: insertion du tag <meta name=robots content=noindex>
- page5.html: ajout d'un en-tête HTTP X-Robots-Tag:noindex
Edit du 20/06:
Ajout d'une sixième méthode via le robots.txt (via @PercevalSEo & @Jambonbuzz)
- page6.html: ajout d'une ligne Disallow: /page6.html dans le robots.txt
Pour connaître le temps nécessaire de ces différentes méthodes pour supprimer une page de l'index, je lancerais régulièrement via un cronjob des test d'indexation (scrap de SERP) avec la commande info:, puis je comparerais le délai entre la date du dernier crawl par Googlebot 2.1 et la suppression de la page dans l'index de Google. Pour être tenus informés des résulats de ce test: @aymerictwit. A bientôt pour la suite 😉
écrit dans Crawl et indexation par |