Apache

Modpagespeed ou l’ennemi potentiel de Google Images

écrit par le 22 novembre 2012 à 10:40
Google Images

ModPageSpeed est un module du serveur Apache développé par les équipes de Google dans le but est d’accélérer votre site, via un nombre assez impressionnant de filtres et fonctions dont la compression d’images à la volée. Je compte faire un article détaillé à ce sujet prochainement sur ses fonctionnalités et son intérêt inutilité mais je […]

Protéger votre blog d’un blast réalisé via des proxys anonymes

écrit par le 13 novembre 2012 à 3:18
apache serveur HS

L’un des blogs que j’héberge sur un serveur dédié été victime d’un blast bien sévère (ou mal paramétré?) hier soir… Plusieurs tentatives de commentaires par seconde via la méthode POST, je vous laisse deviner la suite: un plantage du serveur Apache qui n’a pas tenu la charge, les requêtes en POST n’étant pas mises en […]

SEO: Les fichiers .htaccess sont à utiliser avec modération

écrit par le 17 septembre 2012 à 1:10
htaccess-file

Les fichiers .htaccess vous permettent de modifier rapidement la configuration de votre serveur Apache et d’ajouter des règles et directives en fonction de différents paramètres pour des répertoires spécifiques. C’est un peu la boîte à outils des SEO puisque c’est via ces fichiers que les règles de réecriture et les redirections 301 en tout genre […]

Traquer les erreurs de crawl rencontrées par GoogleBot

écrit par le 4 juillet 2012 à 10:34
alerte googlebot

Oui, je suis encore dans ma phase d’analyse et de décorticage des fichiers logs, j’avoue! Mais c’est tellement passionnant… Au delà de l’aspect traitement des logs afin de mieux comprendre le crawl de Googlebot sur un site pour optimiser le maillage interne et lui faciliter le crawl vers des pages profondes par exemple, je vais […]

Tiens Googlebot, des fichiers logs rien que pour toi

écrit par le 28 juin 2012 à 6:46
log file

Je préfère vous prévenir, cet article sera très bref. Pas trop de temps mais vous allez vite comprendre, j’en suis persuadé. Je suis en mode « Googlebot est mon ami ». J’aime rentrer en contact avec ce fou de liens et ingurgiteur de contenus, lui faire voir certaines choses et le guider au mieux sur les sites […]

Robots.txt: laissons à Google ce qui lui appartient

écrit par le 27 mai 2012 à 10:00
Espèce d'andouille de robot

Le fichier robots.txt est destiné aux robots (crawlers) comme son nom l’indique. Censé bloquer l’indexation de certaines URL, son efficacité peut parfois laisser songeur… Ils peuvent cepandant être lus par les humains. Il suffit de rajouter /robots.txt à la fin d’une nom de domaine. Et cela peut parfois donner des informations intéressantes aux indiscrets!