Aller au contenu

Interview d’Aymeric Bouillat- consultant SEO

Quand est-ce que vous avez commencé le métier de SEO en agence ?

En 2012, dans l’agence NetBooster (agence de stratégie digitale 360° à l’époque). J’étais Webmaster depuis 10 ans, et je me suis intéressé au SE0 en 2008 : avoir un beau site web c’est bien, mais avoir du trafic dessus c’est mieux !

Quel est votre poste et quelles sont vos missions ?

Je suis consultant SEO Senior, référent technique au sein de l’agence Novalem. Je suis en charge de réaliser des audits SEO (techniques et sémantiques) afin d’améliorer la visibilité de mes clients sur Google. J’interviens également de façon plus ponctuelle sur des missions « coup de poing » à la suite de chutes de performance SEO.

En tant que référent technique, je suis chargé d’accompagner les référenceurs de l’agence sur des problématiques telles que la webperf, l’analyse de logs, le SEO mobile ou encore les migrations de site.

I. Les algorithmes et les moteurs de recherches

Comment effectuer vous votre veille SEO ? (Autrement dit, comment vous tenez-vous informés des évolutions de l’environnement de votre secteur d’activité, comme le changement des algorithmes par exemple ?)

L’essentiel de ma veille se fait sur Twitter, je suis des comptes de référenceurs actifs : certains sont en agence, d’autres chez l’annonceur, ou encore à leur compte en tant que Freelance. Cela permet non seulement de suivre l’actualité du SEO, mais également d’avoir des points de vue sur des problématiques précises lors de discussions sur le réseau social.
Lors de mises à jour de l’algorithmes « non officielles », cela permet également d’avoir des retours sur les thématiques impactées, les typologies de sites ayant gagné ou perdu en visibilité.

En parallèle, je consulte régulièrement des sites liés à l’actualité du référencement naturel dont
https://www.abondance.com pour l’actu FR, mais également les sites suivants en anglais
https://searchengineland.com/
https://www.seroundtable.com/

Le site plus expert https://www.seobythesea.com/ quant à lui décortique certains brevets déposés par Google ce qui donne une vision plus mathématique des algorithmes de classement.
Des référenceurs tenaient des blogs très utiles il y a quelques années, avec des cases studies, du partage d’astuces. Mais le SEO restant un business : certaines stratégies efficaces ayant été mises en avant au grand jour ont été « grillées » ce qui a clairement refroidi ces référenceurs, moins partageurs sur leurs sites publics maintenant.

Pour finir, Google communique également via son blog aux webmasters ce qui est une bonne source d’information pour les données officielles.

Est-ce que la manière de vous tenir informés de ces nouveautés a changé ?

Oui, tout d’abord le milieu SEO c’est fortement professionnalisé, on est passé de sites partageant des trucs et astuces et quelques outils SEO, à de nombreuses agences qui sont en concurrence, et une panoplie d’outils qui ne cesse de grandir.

Google communique plus fréquemment sur ces mises à jour via son blog ou la communication des ses portes paroles (Webmaster Trend Analyst). La firme de Mountain View propose également une importante documentation à l’attention des webmasters et des développeurs (https://support.google.com/webmasters/answer/7451184?hl=fr, https://developers.google.com/search)

Que peut-on dire sur l’évolution des moteurs de recherches (notamment Google), mais aussi les nouveaux moteurs de recherches qui font surface ces 10 dernières années ?

Google tire son épingle du jeu dans les principaux pays (exception faite de la Russie avec Yandex, et de plusieurs pays asiatiques dont la Chine avec Baidu). En France, Qwant tente de rivaliser avec Google mais c’est un défi considérable. Malgré plusieurs levées de fonds, Qwant fait face à un challenge énorme : sa capacité à crawler le web et à traiter/classer toutes ces données. Cela nécessite une énorme puissance informatique, de calcul et de stockage, et ce qui fait que le moteur peine à rivaliser avec les plus gros moteurs de recherche.

Que pensez-vous des algorithmes Google et de leurs évolutions ? Y’en a-t-il un qui vous a marqué plus qu’un autre dans votre métier ? (Lequel et pourquoi)

Globalement, les algorithmes sont très performants notamment grâce à l’évaluation des pages de résultats via les Quality Raters, qui permettent d’affiner le fonctionnement du moteur. Ils touchent de nombreuses facettes : le contenu (Panda), les liens (Penguin), la vitesse (Speed Update), la structure de la page (PageLayout) etc. En parallèle, certains secteurs peuvent être impactés par des updates spécifiques comme le MEDIC update visant les sites de type YMYL (« Your Money, Your Life »).

L’algorithme qui m’a le plus marqué dans mon métier est sans doute Google Penguin en 2012 ciblant les profils de liens artificiels, car il a impacté de nombreux sites qui jouaient avec le cœur de l’algorithme de Google. Il a changé notre façon de travailler le référencement, et à devenir beaucoup plus raisonnable en terme de netlinking.
Mais des algorithmes sous-jaçants, comme le PageLayout Algorithm par exemple, impacte de nombreux sites de façon continue, Google étant de plus en plus capable de comprendre la structure d’une page (et les éventuelles publicités qui rendraient une page moins conviviale) pour proposer des pages pertinentes dans ses résultats.