Serveurs web – Apache Varnish

SEO: Les fichiers .htaccess sont à utiliser avec modération

écrit par le 17 septembre 2012 à 1:10
htaccess-file

Les fichiers .htaccess vous permettent de modifier rapidement la configuration de votre serveur Apache et d’ajouter des règles et directives en fonction de différents paramètres pour des répertoires spécifiques. C’est un peu la boîte à outils des SEO puisque c’est via ces fichiers que les règles de réecriture et les redirections 301 en tout genre […]

Faire cohabiter Varnish et PhpmyAdmin

écrit par le 12 septembre 2012 à 12:27
PhpMyAdmin Logo

Après avoir réinstallé Varnish 3 (reverse proxy d’une efficacité redoutable) sur ce serveur afin de lui donner un coup de boost, je me suis retrouvé confronté à un problème: PhmyAdmin ne fonctionnait plus… Pourtant ma configuration était correcte. Varnish est paramétré sur le port 80 tandis qu’Apache se trouve lui sur le port 8080 (via […]

Traquer les erreurs de crawl rencontrées par GoogleBot

écrit par le 4 juillet 2012 à 10:34
alerte googlebot

Oui, je suis encore dans ma phase d’analyse et de décorticage des fichiers logs, j’avoue! Mais c’est tellement passionnant… Au delà de l’aspect traitement des logs afin de mieux comprendre le crawl de Googlebot sur un site pour optimiser le maillage interne et lui faciliter le crawl vers des pages profondes par exemple, je vais […]

Tiens Googlebot, des fichiers logs rien que pour toi

écrit par le 28 juin 2012 à 6:46
log file

Je préfère vous prévenir, cet article sera très bref. Pas trop de temps mais vous allez vite comprendre, j’en suis persuadé. Je suis en mode « Googlebot est mon ami ». J’aime rentrer en contact avec ce fou de liens et ingurgiteur de contenus, lui faire voir certaines choses et le guider au mieux sur les sites […]

Robots.txt: laissons à Google ce qui lui appartient

écrit par le 27 mai 2012 à 10:00
Espèce d'andouille de robot

Le fichier robots.txt est destiné aux robots (crawlers) comme son nom l’indique. Censé bloquer l’indexation de certaines URL, son efficacité peut parfois laisser songeur… Ils peuvent cepandant être lus par les humains. Il suffit de rajouter /robots.txt à la fin d’une nom de domaine. Et cela peut parfois donner des informations intéressantes aux indiscrets!

Recette du jour: Backup de sites Web au shell sauce SCP

écrit par le 15 novembre 2011 à 3:43
script shell de sauvegarde mysql repertoires

Rien de tel qu’un bon petit plat pour ces fêtes de fin d’année! Voici une petite recette qui vous permettra de sauvegarder les sites et bases de données présents sur votre serveur de manière automatisée. Il vous faudra bien évidemment un serveur de destination sur lequel copier vos fichiers à sauvegardés. On fera les tansfers […]