Astuces

Archivez automatiquement vos tweets, mentions et DM sur Google Docs

écrit par le 12 septembre 2012 à 1:01
ifttt

La plateforme d’automatisation entre différents services ifttt.com (If This Then That) dont je vous avais déjà parlé à l’occasion de l’article IFTTT intègre PushOver intègre désormais un nouveau service : GoogleDrive. Ç a ne vous arrive jamais de rechercher le tweet d’une personne que vous suivez ou de vouloir remettre la main sur un ancien […]

Masquer les champs d’un formulaire pour éviter le SpamCo? lol

écrit par le 31 août 2012 à 9:04
andouille

Je tenais à vous faire part d’un phénomène amusant que j’ai pu rencontrer dans ma quête de liens, SEO avide de backlinks que je suis. Alors que je cherchais des spots pour tenter de poser des liens d’une manière habile (ou pas), là où personne ne s’est jamais aventuré, j’ai découvert un blog WordPress qui […]

Attention au Duplicate Content: HTTP vs HTTPS

écrit par le 30 août 2012 à 1:00
duplicate content

Un site accessible en HTTP et en HTTPS est-il un site dupliqué? La réponse est oui. Vous trouverez de nombreux posts autour de ce sujet sur tous les forums SEO de la planète. L’URL est différente, la configuration de l’un et de l’autre pouvant présenter du contenu différent, Google considère les deux URLs de manière […]

Import d’images sur des fiches Google Places avec Imacros

écrit par le 25 juillet 2012 à 4:52
Google Places images

La nouvelle interface de Google Places accessible via cette adresse http://places.google.com/manage permet d’effectuer des transferts groupés via un fichier CSV afin de mettre à jour l’ensemble des fiches Google Adresses d’un coup pour le compte d’un client par exemple. L’ancienne interface permettait d’ajouter des images via les attributs personnalisés afin d’illustrer chacune des fiches mais […]

Supprimer une liste d’URL de l’index Google avec IMacros

écrit par le 15 juin 2012 à 2:37
url-removal

Il est parfois nécessaire de supprimer des URL indexées malgré vous par GoogleBot pour faire le ménage dans l’index de Google. Cela est possible (entre autres) dans Google Webmasters Tools via le formulaire de demande de suppression d’URL. Quand il s’agit de supprimer les URL d’un répertoire précis, c’est faisable dans l’interface de GWT directement […]

Robots.txt: laissons à Google ce qui lui appartient

écrit par le 27 mai 2012 à 10:00
Espèce d'andouille de robot

Le fichier robots.txt est destiné aux robots (crawlers) comme son nom l’indique. Censé bloquer l’indexation de certaines URL, son efficacité peut parfois laisser songeur… Ils peuvent cepandant être lus par les humains. Il suffit de rajouter /robots.txt à la fin d’une nom de domaine. Et cela peut parfois donner des informations intéressantes aux indiscrets!