Scripts SEO

Analyser les combinaisons de paramètres d’URL dans les logs

écrit par le 2 octobre 2014 à 2:17

Les paramètres d’URL situés après le « ? » et qui constituent la chaîne de paramètres (également appelée %{QUERY_STRING}) sont bien souvent source de duplication de contenu et d’URL inutiles crawlées par les robots d’indexation. Googlebot crawl parfois un grand nombre de ces URL qui dans certains cas ne sont que des paramètres de tracking. La combinaisons de […]

Analyse du crawl de Googlebot avec la Watussi Box

écrit par le 4 janvier 2013 à 3:08
Watussi Box

Je tenais à vous présenter une application open-source développé par Jean-Benoît Moingt aka Mr Watussi (très bon blog SEO orienté technique/PHP/logs/Apache) qui va vous permettre de suivre le crawl de GoogleBot sur vos sites, via une interface Web et sans avoir à aller trifouiller les logs en ligne de commande

Lister les sites web hébergés sur une même IP

écrit par le 30 avril 2012 à 7:33
gasy-qui-es-tu

Le script PHP de cet article fait suite à une petite déception du site spyonweb.com dans le jeu du moment des SEO à savoir: « Qui est Gasy? » (mystérieux blog SEO pertinent et décalé qui a fait son apparition récemment). Ma première démarche a été de vérifier la liste des autres sites hébergés sur le même […]

Contenu Copié ? Image trackée !

écrit par le 18 avril 2012 à 8:40

Le contenu dupliqué mais surtout le contenu volé est une véritable plaie. Nous cherchons tous à avoir du contenu unique pour ne pas passer dans le filtre Anti Duplicate Content de Google. Grâce au HTTP_REFERER, il est possible de connaître l’URL d’un site qui ferait appel à vos images en direct. N’ayant pas codé depuis […]

Script PHP: chasse aux voleurs de contenus et au duplicate content

écrit par le 22 novembre 2011 à 6:26
duplicate content

Il y a quelques jours, Sylvain alias @axenetwit nous faisait remarquer dans un tweet qu’une partie de son contenu avait été volée par une agence aux pratiques douteuses. Oui, le contenu dupliqué est une plaie. Qui n’a jamais eu peur de voir ses pages toutes belles et bien optimisées passer à la trappe dans l’index […]

Script anti duplicate content avec les sous-domaines

écrit par le 3 novembre 2011 à 2:49
Contenu dupliqué

Les sous-domaines peuvent dans certains cas être des générateurs de contenu dupliqué. Si votre homepage a des prédispositions pour ressortir sur une requête, avoir la même homepage présente dans l’index de Google avec une autre URL ne va pas aider l’ami Algo à trier correctement ces pages dans les SERP, vous n’allez pas ranker comme […]

Récupérer le nombre de tweets/like/buzz des pages d’un site

écrit par le 6 septembre 2011 à 6:11

Pour ne pas répéter deux fois la même chose, ce script est une version amélioré de mon article précédent à savoir un script qui permet de récupérer les signaux sociaux des pages d’un site à partir d’un fichier sitemap, le tout dans un fichier CSV, quoi de mieux pour traiter ces données par la suite […]

Extraire les signaux sociaux des pages d’un site avec un sitemap

écrit par le 6 septembre 2011 à 5:55

Après avoir utilisé à quelques reprises l’outil de Webrankinfo pour mesurer la popularité d’une page sur les réseaux sociaux et suite à une demande d’un ami, j’ai voulu aller un peu plus loin dans les signaux sociaux et la popularité des pages… en le combinant avec les données d’un fichier sitemap pour récupérer tous ces […]