Crawl et indexation

Supprimer une liste d’URL de l’index Google avec IMacros

écrit par le 15 juin 2012 à 2:37
url-removal

Il est parfois nécessaire de supprimer des URL indexées malgré vous par GoogleBot pour faire le ménage dans l’index de Google. Cela est possible (entre autres) dans Google Webmasters Tools via le formulaire de demande de suppression d’URL. Quand il s’agit de supprimer les URL d’un répertoire précis, c’est faisable dans l’interface de GWT directement […]

Robots.txt: laissons à Google ce qui lui appartient

écrit par le 27 mai 2012 à 10:00
Espèce d'andouille de robot

Le fichier robots.txt est destiné aux robots (crawlers) comme son nom l’indique. Censé bloquer l’indexation de certaines URL, son efficacité peut parfois laisser songeur… Ils peuvent cepandant être lus par les humains. Il suffit de rajouter /robots.txt à la fin d’une nom de domaine. Et cela peut parfois donner des informations intéressantes aux indiscrets!

Test SEO: liens Javascript et crawlers

écrit par le 12 octobre 2011 à 2:39
log apache

Courant 2009, on pouvait lire sur plusieurs sites d’actualité SEO que les robots de Google étaient sur le point d’arriver à lire , crawler, et indexer certains liens javascript (source Abondance). Pour me faire ma propre opinion, j’avais mis en place un test Mars 2011 sur un sous-domaine avec une page index.html et plusieurs déclinaisons […]

Drupal et indexation dans Google Images

écrit par le 9 novembre 2010 à 9:58

Drupal, « the » CMS (et CMF) Le CMS Drupal présente bien des avantages, par sa modularité, par le grand nombre de plugins/modules dont il dispose mais surtout par la immense communauté qui l’entoure et le fait vivre depuis sa date de création en 2000 par Dries Buytaert (université d’Anvers), développeur initial du projet. Bien paramétré en […]