Crawl et indexation

Duplicate content et paramètres de tracking, la solution ultime

écrit par le 4 juillet 2013 à 11:23
Duplicate content et paramètres de tracking

Google Analytics permet grâce à ses paramètres de tracking utm_ d’effectuer un suivi de ses campagnes e-marketing, que ce soit pour des newsletters, partenariats, flux RSS, ou encore le suivi sur réseaux sociaux… Parmi ces paramètres qui sont à placer en fin d’URL, on retrouve en général utm_source, utm_medium et utm_campaign. Ces URL trackées génèrent […]

Stop au Duplicate Content avec l’indexation des sites de préprod

écrit par le 27 février 2013 à 3:01

Cela arrive trop rarement: des sites de pré-production ou en cours de développement qui sont indexés par GoogleBot, c’est bien souvent la porte ouverte à des tonnes de contenu dupliqué. Il suffit de faire une requête comme celle ci par exemple pour voir l’étendu des dégâts… Il existe pourtant plusieurs manières pour éviter que cela […]

Les en-têtes HTTP ou comment maîtriser son indexation sur Google

écrit par le 14 décembre 2012 à 2:59
googleBot Header

Voici un petit article sur l’en-tête X-Robot-Tag et l’en-tête Link rel=canonical. X-Robot-Tag pour simplifier, c’est l’équivalent de la meta <meta name= »robots »> (que vous pouvez placer dans le code source de vos pages HTML) mais dans les en-têtes HTTP, de même pour la Canonical. Cette méthode présente de nombreux avantages, c’est une solution rapide et efficace […]

Lors d’une migration SEO, n’oubliez aucune URL pour vos redirections

écrit par le 12 octobre 2012 à 2:45
migration seo

Comme vous le savez (ou pas), il est capital de rediriger l’ensemble des URL d’un site lors d’une refonte avec des redirections 301 afin de redistribuer la popularité des pages/site vers le nouveau site. Ayant fait des recommandations pour plusieurs migrations SEO concernant les sites de deux clients récemment, je tenais à partager avec vous […]

Attention au Duplicate Content: HTTP vs HTTPS

écrit par le 30 août 2012 à 1:00
duplicate content

Un site accessible en HTTP et en HTTPS est-il un site dupliqué? La réponse est oui. Vous trouverez de nombreux posts autour de ce sujet sur tous les forums SEO de la planète. L’URL est différente, la configuration de l’un et de l’autre pouvant présenter du contenu différent, Google considère les deux URLs de manière […]

Test de 5 méthodes de désindexation d’une page sur Google

écrit par le 19 juin 2012 à 12:54
supprimerpage HTML

Plusieurs techniques sont envisageables pour supprimer une ou plusieurs pages de l’index de Google: via Google Webmasters Tools? meta noindex? code d’erreur 410 ? A priori elles sont toutes efficaces, mais combien de temps faut-il? Afin d’avoir plus d’informations sur le délai de suppression d’une page en fonction de la méthodologie utilisée, je lance un […]