Crawl et indexation
Les en-têtes HTTP ou comment maîtriser son indexation sur Google
Voici un petit article sur l’en-tête X-Robot-Tag et l’en-tête Link rel=canonical. X-Robot-Tag pour simplifier, c’est l’équivalent de la meta <meta…
Lire la suiteLors d’une migration SEO, n’oubliez aucune URL pour vos redirections
Comme vous le savez (ou pas), il est capital de rediriger l’ensemble des URL d’un site lors d’une refonte avec…
Lire la suiteAttention au Duplicate Content: HTTP vs HTTPS
Un site accessible en HTTP et en HTTPS est-il un site dupliqué? La réponse est oui. Vous trouverez de nombreux…
Lire la suiteTest de 5 méthodes de désindexation d’une page sur Google
Plusieurs techniques sont envisageables pour supprimer une ou plusieurs pages de l’index de Google: via Google Webmasters Tools? meta noindex?…
Lire la suiteSupprimer une liste d’URL de l’index Google avec IMacros
Il est parfois nécessaire de supprimer des URL indexées malgré vous par GoogleBot pour faire le ménage dans l’index de…
Lire la suiteRobots.txt: laissons à Google ce qui lui appartient
Le fichier robots.txt est destiné aux robots (crawlers) comme son nom l’indique. Censé bloquer l’indexation de certaines URL, son efficacité…
Lire la suiteTest SEO: liens Javascript et crawlers
Courant 2009, on pouvait lire sur plusieurs sites d’actualité SEO que les robots de Google étaient sur le point d’arriver…
Lire la suiteDrupal et indexation dans Google Images
Drupal, « the » CMS (et CMF) Le CMS Drupal présente bien des avantages, par sa modularité, par le grand nombre de…
Lire la suite