« Google ne vous aime que lorsque tout le monde vous aime en premier. »
Bien que cette affirmation de Wendy Piersall puisse sembler très simple, elle est une vérité indéniable pour le SEO.
En effet, Google améliore constamment son système :
Ceci dans l’unique objectif d’apporter à ses utilisateurs les informations les plus utiles et pertinentes selon leur requête. C’est pourquoi l’un des principes que le moteur de recherche exige aux webmasters de suivre est celle-ci :
« Concevez vos pages en pensant d’abord aux internautes et non aux moteurs de recherche… Si les moteurs de recherche n’existaient pas, est-ce que je le ferais ? ».
Pour que son objectif soit une réalité, Google utilise plus de 200 facteurs de classement. Ces dernières années Google accorde une importance particulière à un concept qu’il a introduit : L’E-A-T (Expertise Authoritativeness and Trustworthiness).
Ce guide vous permettra d’appréhender ce concept et de l’utiliser à votre avantage. Pour cela, je vais aborder des questions telles que :
Allez, commençons !
Chapitre 1 : Quelle est l’origine de l’E-A-T et comment Google l’utilise ?
L’E-A-T est un acronyme créé par Google et qui désigne en anglais : Expertise Authoritativeness and Trustworthiness.
Traduit en français nous avons : Expertise Autorité et confiance / fiabilité.
Le concept de l’E-A-T est apparu dans le document portant le nom de Search Quality Evaluator Guidelines que Google a mis à la disposition de ses Quality Raters.
Je pense que je viens de faire sortir deux termes avec lesquels vous n’êtes peut-être pas très familiers : Quality Raters et Search Quality Evaluator Guidelines.
Pour mieux appréhender l’E-A-T, il est très important d’appréhender ces deux éléments à travers la manière dont Google évalue la qualité des résultats qu’il propose à ses utilisateurs.
Nous savons que Google utilise plusieurs algorithmes pour trouver les meilleurs résultats à proposer à ses utilisateurs.
Mais une question légitime se pose : Comment Google sait si les résultats qu’il propose satisfont ses utilisateurs ?
Jusque-là, mes recherches m’ont permis de comprendre que Google évalue fondamentalement ses résultats de deux différentes manières :
- L’expérience des utilisateurs ;
- Des évaluateurs humains.
1.1. L’utilisation de l’expérience utilisateur par Google pour améliorer les résultats de recherche
Vous et moi, nous permettons à Google d’améliorer ses résultats notamment en fonction de nos réactions par rapport aux résultats qu’il nous propose.
J’ai traité de l’usage des signaux des utilisateurs par Google pour améliorer ses résultats dans cette section de mon article sur RankBrain.
Dans l’un de ses brevets, Google résume parfaitement sa relation avec ses utilisateurs :
« Par exemple, les réactions des utilisateurs à des résultats de recherche particuliers ou à des listes de résultats de recherche peuvent être mesurées, de sorte que les résultats sur lesquels les utilisateurs cliquent souvent seront mieux classés. »
Sachez que Google est capable de :
- Mesurer le mouvement des curseurs des internautes ;
- Avoir les données d’utilisateur par les navigateurs ;
- Mesurer le temps passé sur un article ;
- D’évaluer le taux de clic dans les SERPs ;
- Etc.
En bref, Google peut utiliser les comportement / réactions de ses utilisateurs afin d’améliorer son système et les résultats qu’il propose.
Il y a néanmoins lieu de noter que l’utilisation de l’UX se fait de manière indirecte.
En effet, Google effectue des tests sur une petite fraction de ses utilisateurs compte tenu des données collectées au niveau des signaux UX.
La firme vérifie ensuite si ces test ou changement améliorent ou nuisent à la qualité des résultats de recherche ou à l’expérience de recherche :
Par conséquent les signaux de l’UX ont un impact indirect sur le classement des résultats dans les moteurs de recherche.
Alors, est-ce que les signaux utilisateurs peuvent permettre à Google d’évaluer la qualité des résultats proposés ? Il s’agit d’une évidence !
Ce qui nous conduit au deuxième moyen par lequel Google évalue ses résultats :
1.2. Des évaluateurs humains chez Google : Les Quality Raters
Avez-vous déjà entendu des Quality Raters ? Si non, c’est l’occasion de les découvrir et de comprendre leur relation avec Google.
J’ai effectué beaucoup de recherche sur eux et j’ai également eu l’occasion d’avoir les propos de Quality Raters.
Allons à leur découverte !
Google a recruté de réelles personnes dans le monde entier qu’il a formé pour évaluer les résultats de son moteur de recherche :
Alors, qui sont ces évaluateurs communément appelés : Google Quality Raters ?
En 2007, Marissa Mayer de Google a indiqué lors de la « Seattle Conference on Scalability » que la firme dispose d’environ 10 000 évaluateurs humain.
Voici sa déclaration tirée du blog de Dare Obassanjo :
« Q : Comment savent-ils s’ils ont de mauvais résultats ? R : Ils disposent d’un ensemble de services de surveillance qui contrôlent le temps de fonctionnement des différents serveurs pour s’assurer qu’un mauvais serveur ne cause pas de problèmes. En outre, ils disposent de 10 000 évaluateurs humains qui vérifient toujours manuellement la pertinence des différents résultats. »
On est actuellement en 2020, c’est à dire environ 13 années après cette déclaration. On peut supposer, à raison, que ce nombre aurait bien pu évoluer.
En effet, le volume de requêtes en 2007 sur Google était de plus de 372 milliards selon Internetlivestats.com :
La même source indique que le nombre est maintenant de 1.2 trillions de recherche :
Soit plus de trois fois le nombre de 2007, la firme grandie. Mais n’ayant pas d’autres chiffres, estimons simplement que Google dispose des dizaines de milliers de personnes qui évaluent ses résultats et qui lui permettent d’améliorer ses résultats.
Notez que lorsqu’on parle de résultats de recherche, il ne s’agit pas uniquement des résultats organiques. Cela concerne également les autres types de résultats comme :
- La recherche locale :
- La recherche Vocale ;
- Les annonces Google Ads ;
- Les vidéos ;
- Les images ;
- Etc.
Comme le fait savoir un évaluateur de Google à Searchengineland :
« Q : Vous ne regardez que les résultats organiques, ou vous évaluez aussi les publicités et les pages de renvoi du CPP ? R : Nous regardons n’importe quel type de page sur le web. La plupart sont des résultats organiques, mais certaines des tâches sont orientées vers des sujets plus liés à la publicité. »
Ce tableau récapitulatif accompagne la réponse et montre les différents types de résultats que les Quality Raters traitent ainsi que le cotas par heure et par minute.
Ne nous arrêtons pas là et essayons de mieux découvrir ces personnes que Google emploi.
1.2.1. Comment Google recrute ses Quality Rater ?
Comme à son habitude, Google ne divulgue pas d’informations sur son système notamment celui des Quality Raters. J’ai pu trouver de précieuses informations grâce à Potpiegirl qui a pu parcourir la section Google Rater du forum wham.com :
Nous allons donc nous servir des postes ou commentaires de ces Quality Rater pour mieux appréhender comment ils travaillent.
Concernant le système en lui-même des Quality Raters, il faut noter qu’il date d’environ 16 ans selon les propos d’un ancien dans le forum mentionné ci-dessus :
« Juste pour réitérer ce que j’ai dit plus tôt dans le fil, j’étais dans le groupe initial des évaluateurs lorsque le projet a commencé fin 2003/début 2004... »
Le système date déjà de plusieurs années et il ne fait pas de doute qu’il soit réellement utile au géant américain
Pour ce qui est du recrutement, l’un des Quality Raters indique selon Potpiegirl :
« Il existe quelques noms pour ce poste. Les entreprises qui embauchent pour ce poste sont Lionbridge, Leapforce et Butler Hill. Je ne sais pas si Workforce Logic recrute encore pour ce poste ou non. Lionbridge désigne ce poste comme évaluateur Internet et Leapforce le désigne comme évaluateur de moteurs de recherche. Vous ne postulez pas chez Google. Ces sociétés passent des contrats avec Google et engagent des entrepreneurs indépendants.
Je travaille pour Lionbridge. J’apprécie le salaire, mais la disponibilité des tâches n’est pas toujours constante et le travail peut parfois devenir ennuyeux. Il s’agit essentiellement d’évaluer l’utilité des résultats des moteurs de recherche. Pour commencer, vous devez postuler et si des postes sont disponibles dans votre région et que vous remplissez les conditions requises, ils vous inviteront à passer un test. Ce test est long et vous devez l’étudier attentivement. Le salaire est élevé (je ne peux pas le divulguer en raison de l’accord de confidentialité), mais il est horaire. C’est un excellent moyen de gagner un revenu à temps partiel. »
Ainsi, nous avons LionBridge qui fournit des évaluateurs à Google :
Il y a également Leapforce et Butler Hill qui sont devenus Appen et qui fournissent des évaluateurs à Google :
Workforce LogiQ également semble toujours dans la fourniture d’évaluateurs à Google :
Ce sont les quatre entreprises évoquées dans le commentaire et il se peut que ces sociétés continuent toujours de proposer des Quality Raters à Google.
De plus, le travail se fait à domicile et les Quality Raters sont en quelque sorte des freelances travaillent depuis chez eux sans forcément se rendre dans un bureau physique de Google.
Si le dossier d’un Freelancer est accepté, il devra passer un examen scindé en deux différentes sections pour devenir un Quality Rater :
« L’examen se compose de deux sections : La section 1 comporte 24 questions théoriques et la section 2 se compose de 270 examens pratiques. »
Je ne sais pas si les choses sont toujours ainsi, puisqu’à défaut de nouvelles informations, j’exploite celles qui sont à ma disposition.
Alors, si vous désirez devenir un Google Quality Rater, essayez de bien vous préparer.
1.2.2. Quelles sont les qualifications pour devenir un Quality Rater de Google ?
Selon mes recherches, les GQR ne sont pas forcément des spécialistes du marketing ou des spécialistes d’un domaine en particulier. Ce sont des utilisateurs de Google comme vous et moi qui sont recrutés un peu partout dans le monde entier.
Mais comme vous vous en doutez, ce n’est pas accessible à tout le monde. Les évaluateurs doivent être titulaires d’un diplôme universitaire ou avoir une expérience professionnelle équivalente afin de candidater.
Pourquoi ? Le poste exige des compétences en communication de niveau universitaire, ainsi que de bonnes capacités d’analyse.
La bonne nouvelle, c’est qu’ils ne recherchent pas un diplôme spécifique, mais simplement que vous ayez un diplôme universitaire ou une expérience similaire.
1.2.3. Quelles sont les performances que doivent fournir les Quality Rater ?
Lorsque vous devenez un GQR, vous êtes payé de l’heure et il y a un certain niveau de performance que vous devez maintenir.
Google a mis en place un système de performances qui évalue le nombre de tâches que vous êtes en mesure d’examiner par heure.
A ce sujet, une personne a posé la question dans le forum des Quality Raters (reporté par Potpiegirl) :
« Bonjour, je voudrais vous demander combien d’URL par heure faites-vous habituellement ? Plus de 60 ou moins de 60 ? Je n’ai aucune idée de la moyenne, car personne ne m’a jamais dit combien je devais en faire. Merci. »
A cette question, plusieurs personnes ont répondu un minimum de 30 évaluations de l’heure :
« Je crois que 30 est le minimum attendu pour la notation, dans les quelques semaines qui suivent votre embauche »
30 évaluations par heure reviennent à consacrer 2 minutes pour chaque tâche.
Il s’agit visiblement d’une tâche qui exige beaucoup de concentration et personnellement, je me demande comment évaluer une page ou n’importe quoi en 2 seulement minutes ?
Notez qu’il y a également un autre type de tâche nommé « before and after » (avant et après) ou « side by side tasks – SxS » qui exige une productivité moyenne de 20 évaluations par heure.
Ici, il faut comprendre que la tâche consiste à comparer deux résultats des SERPs. Consacrer trois minutes pour évaluer une SERP et faire un rapport est très peu selon moi.
A juste titre, PotPiegirl affirme :
« Ce qui me préoccupe VRAIMENT à ce sujet est une chose essentielle : comment diable peut-on vraiment évaluer une page web en 2 ou 3 minutes ? Donc, comme je l’ai mentionné plus haut, les premières impressions comptent VRAIMENT. »
De plus, il arrive que le système qu’ils utilisent (Raterhub) connaisse des pannes et soit relativement lent, comme en témoignent les Quality Rater (QR) à ARS Technica :
« Supposons que vous ayez une tâche de cinq minutes mais qu’il vous faille deux minutes pour la charger. Il vous reste maintenant trois minutes facturables ».
Ars Technica fait savoir que certains évaluateurs estiment que parfois, la tâche prend plus de temps à charger qu’il ne faut de temps pour accomplir la tâche :
Une tâche typique prend entre 30 secondes et 15 minutes, et le temps que l’évaluateur peut facturer pour cette tâche est déterminé à l’avance par Google, selon les Raters.
Il faut donc comprendre que les évaluations ne sont souvent pas complètes comme le dit un SQR :
« Il n’est pas possible d’effectuer 20 tâches SxS par heure si vous cliquez sur chaque résultat. C’est assez facile dans les cas où les côtés sont presque identiques et où vous devez juste décider si vous préférez avoir A ou B quelque part. Quand j’en faisais 20, j’en faisais beaucoup en me basant uniquement sur des snippets… J’en faisais 2 ou 3 par heure sans qu’ils se plaignent, remarquez. Et puis je me suis dit que s’ils voulaient que j’aille plus vite, peut-être qu’ils ne voulaient pas que je sois aussi prudent pour juger chaque résultat. Maintenant, je ne suis pas sûr de ce dont ils se soucient ! Peut-être que cela les aide d’avoir beaucoup de perspectives et de styles de notation différents. Peut-être que personne ne vérifie notre travail du tout ! »
Ainsi, les évaluations ne sont parfois pas complètes, du moins selon ces informations. Mais n’ayant pas de moyen de vérifier comment les choses se passent actuellement, on peut supposer que certains sites web peuvent ne pas être entièrement examiné.
Une chose est certaine : La première impression que donne votre site web compte énormément. Il faut dans ce cas veiller sur vos titres, vos méta descriptions ainsi que tout ce qui apparaît dans les SERPs soient irréprochables.
Les Quality Raters ont des quotas de temps bien définis et il semble que Google fait rarement de compromis lorsqu’il s’agit de productivité.
Le QR interviewer par Searchengineland indique :
« Ils ont également tendance à être très stricts quant à leurs objectifs de productivité. Il y a un certain nombre de tâches que je dois accomplir chaque minute, en fonction du type de tâche. Si je n’atteins pas ces objectifs, je suis mis à l’épreuve et je ne peux pas travailler. Si ma qualité n’est pas à la hauteur, ils me renvoient. C’est un environnement de travail très contrôlé. »
Si vous aspirez à devenir un évaluateur de Google, vous savez à quoi vous en tenir. ?
1.2.4. A combien les Search Quality Rater sont-ils payés ?
Comme je l’ai mentionné, les Quality Raters travaille de l’heure et sont payés entre 14 et 19 $ selon Glassdoor :
Pour les tâches à effectuer, les évaluateurs de qualité utilisent un site web « Raterhub » pour recevoir des missions selon mes lectures.
Il est normalement dit que ce sont les QR peuvent fixer des horaires qui s’adaptent à leur propre emploi du temps.
Mais la réalité est tout autre selon Arstechnica qui a recueilli les propos de 10 SQR :
En effet, il peut avoir de nombreuses tâches à exécuter pendant une journée, alors que des tâches ne sont pas disponibles selon d’autres jours.
Il faut donc comprendre que les SQR s’adaptent en fonction de la disponibilité des tâches :
Ce qui fait qu’ils pouvaient faire jusqu’à 40 heures par semaine comme l’indique Arstechnica :
Mais en avril 2017, leur quota d’heure a été réduit de moitié. En effet, les évaluateurs de US Leapforce ont reçu le 3 avril 2017 le mail suivant de la part de The Leapforce Team :
« Depuis le 1er juin 2017, [les évaluateurs aux États-Unis] peuvent travailler jusqu’à 26 heures par semaine civile (du dimanche au samedi). Nous comprenons et apprécions que cela aura un impact significatif sur un certain pourcentage de notre communauté d’évaluateurs. C’est pourquoi nous essayons de vous donner le plus de temps possible pour vous informer des changements à venir. »
Ceci serait dû à des changements dans les politiques de recrutement de Google :
Vous pouvez consulter l’article complet de ArsTechnica qui décrit ce problème qualifié de « Cauchemar » par certains Raters.
Enfin, notez également que les QR travaillent pendant un an et attendent ensuite une certaine période de 3 mois. Avant de présenter une nouvelle demande pour être recruté ou pas.
1.2.5. Comment Google sanctionne les Quality Raters ?
Selon mes lecteurs, les conditions de travail ne sont pas forcément idéales et il semble plutôt facile d’être disqualifié.
Un QR indique à ArsTechnica :
« Google aime annoncer qu’il prend soin de son personnel. Mais nous n’avons rien de tout cela. Pas de réelle sécurité. [Si vous êtes botté], vous pouvez être bloqué au travail sur la base d’absolument rien. Nous serions mieux traités comme des employés de Google. Nous serions directement reconnus. »
Notez que Google a mis en place un robot qui vérifie ponctuellement le travail des QR. S’il trouve le moindre problème, il bloque automatiquement le QR hors du système d’attribution des tâches. C’est ce processus que les QR désignent comme « botted ».
En dépit de toutes ces difficultés, les QR aiment particulièrement leur travail.
« Je sais que lorsque nous en parlons, c’est négatif, mais nous aimons notre travail. Nous ne sommes pas des employés mécontents. Nous n’aimons pas voir nos emplois disparaître lorsqu’ils réduisent nos temps de travail. »
Il est important de rappeler que bien qu’ils travaillent avec Google depuis des années, aucun de ces évaluateurs n’a eu l’occasion de parler avec des Googler ou des employés directs de Google :
« Q : Avez-vous un contact direct avec quelqu’un de Google, ou communiquez-vous uniquement avec Lionbridge ? R : Je n’ai aucun contact avec Google ; il s’agit seulement de Lionbridge. »
Maintenant, répondons à l’une des questions les plus importantes :
1.2.6. Que font concrètement les Search Quality Raters de Google ?
Pour cela, je vais une fois de plus revenir sur Potpiegirl qui me permet d’avoir cette affirmation d’un évaluateur :
« Oui, ils ont leurs algorithmes conçus pour amener les meilleurs sites au sommet, mais quand ils y arrivent, ils doivent être examinés à l’œil nu pour s’assurer de la qualité du site. C’est la raison pour laquelle le comité d’examen existe et c’est la raison pour laquelle certains d’entre vous passent de la page 1 à la page 10 sans avertissement. ».
Il faut comprendre par là que ce sont majoritairement les meilleurs résultats qui sont passés à la loupe par les QR.
Cela ne veut pas dire qu’il ne faut pas s’inquiéter des évaluations lorsque votre site web n’occupe pas les premières pages de Google.
D’autant plus que les décisions qui sont prises après ces examens sont incorporées dans les algorithmes et tous les sites web subissent les changements. Je vais revenir sur ce point dans les prochaines sections.
L’essentiel est de garder ou d’améliorer votre position précieusement gagnée dans les SERPs.
Un Quality Rater de Google évalue plusieurs éléments en prenant en compte le contexte de l’ensemble des sites web ainsi que les requêtes pour lesquelles les pages apparaissent.
Par exemple, ils peuvent effectuer des tâches comme :
- Évaluer un mot-clé et une URL :
A ce niveau, les QR reçoivent un mot-clé et une url. Ils sont ensuite invités à évaluer la pertinence / l’utilité de l’url par rapport à l’intention de recherche du mot-clé :
En effet, l’évaluateur prend dans un premier temps le mot-clé et détermine sa pertinence par rapport à ce que l’utilisateur souhaite :
- Faire un achat ;
- Se rendre à un endroit précis ;
- Avoir des informations sur une thématique ;
- Se rendre sur une plateforme ;
- Avoir un certain type de résultats (vidéo, images, actualités…)
- Etc…
Ensuite, ils examinent l’url pour voir si elle est pertinente pour la requête en question. Ils ont la possibilité de donner des notes et même de marquer cette url comme spam :
A ce niveau, j’attire votre attention sur le fait que les QR ont seulement 2 ou 3 minutes pour faire tout ce travail.
Il est très important de soigner votre site web et ses contenus afin de faciliter la tâche aux QR et de leur donner la meilleure première impression possible.
Cela signifie également d’avoir un site web qui se charge rapidement avec une mise en avant des éléments les plus importants de la page.
- Choisir le meilleur SERP :
Comme j’ai eu à le dire, les QR doivent parfois choisir entre deux différentes pages de résultats de recherche pour la même requête.
Google leur propose la SERP actuelle et une autre qui a subi une modification. Avec ce type de mission, les évaluateurs notent à peu près quelle série de résultats est « meilleure » à leur avis :
Source : Searchengineland
Evidemment, il a pleins d’autres tâches que les évaluateurs de Google font, comme l’a indiqué le QR interviewé par Searchengineland.
Le plus intéressant, il est possible de savoir si un QR a évalué votre site web. Barry Schwartz de Seroundtable a indiqué qu’on peut reconnaître les traces d’un évaluateur avec comme trafic referral : cart.corp.google.com.
Il a tiré cette information d’une discussion dans le forum WebmasterWorld. Effectivement, une personne a commenté l’article en indiquant qu’il constaté du trafic referral de corp.google.com. Si jamais je tombe sur ce type de trafic, je me ferai une joie de le partager avec vous.
A cette étape, il est tout à fait normal de se demander si Google se fie uniquement à l’analyse d’une seule personne ?
Pour éviter des biais, Google confie les tâches à plusieurs personnes à la fois.
Selon l’interview de Searchengineland, il en ressort qu’environ six différents QR traitent la même tâche :
« Bien que nous parlions de lignes directrices, une chose qui m’a vraiment impressionné est le fait qu’il y ait plus d’un évaluateur qui examine un site. Je crois (je ne suis pas sûr, je me base sur les commentaires laissés par les autres évaluateurs) qu’il y a environ six évaluateurs qui examinent chaque tâche. »
Alors, que se passe-t-il si ces QR arrivent à des conclusions différentes pour une évaluation ? Il est curieux de savoir que ces évaluateurs mènent un débat afin de trouver un accord :
« Si je note quelque chose comme étant utile mais qu’un autre évaluateur dit que c’est hors sujet, nous devons parvenir à un accord (par le biais de commentaires et de débats) avant que la note ne soit soumise. »
Parfois et dans de rares cas, des modérateurs issus de la société qui les recrute interviennent pour qu’une décision soit prise :
« Toutefois, après un nombre suffisant d’échanges, ils font venir un modérateur qui choisit la note qui lui correspond le mieux. Ce modérateur examine nos commentaires et prend une décision en fonction de ceux-ci. »
1.2.7. Sur quoi se base les Quality Raters pour évaluer un site web ?
Les différents éléments que les QR sont amenés à évaluer sont parfaitement résumés par cette infographie de Single Grain :
Comment arrivent-ils à se retrouver ? En effet, les QR travaillent avec un document appelé « Google Quality Evaluator Guidelines ».
Comme son nom l’indique, il s’agit d’un guide qui contient toutes les consignes que les évaluateurs doivent suivre pour effectuer leur tâche. Et c’est justement ce document qui contient les consignes concernant l’E-A-T.
Voyons de quoi il s’agit.
1.3. Qu’est-ce que le Google Search Quality Evaluator Guidelines ?
Le Search Quality Evaluator Guidlines est un document PDF en anglais fourni par Google qui explique aux évaluateurs comment évaluer la qualité des pages web et la pertinence des résultats de recherche.
Il est accessible au grand public et semble d’une grande importance auprès de Google.
1.3.1 Le Search Quality Evaluator Guidelines n’a pas toujours été public
Il est curieux de savoir que Google a essayé de garder secret ce document au début de son programme de Quality Raters en 2003-2004.
Ainsi, seul les Quality Raters y avait accès, mais le problème est le suivant : Le document finissait toujours par devenir public sans l’accord de Google.
En 2008 par exemple, Brian Ussery a découvert une copie révisée du document :
Ce sera en Octobre 2012 que le googler Matt Cutts va indiquer dans la vidéo suivante que Google pourrait publier officiellement le document :
A la 2:20 minutes, il fait savoir :
« Nous pourrions être en mesure de mettre à la disposition du monde entier ces lignes directrices sur la qualité humaine – que nous mettons à la disposition des gens sur Google. Je pense que ce serait une bonne chose, car les gens pourraient alors les lire. »
Effectivement, Google prend l’initiative de partager le mars 2013 son Search Quality Raters Guidelines pour la première fois.
Mais un problème se posera : Le document public fait 43 pages alors que la version non-public destinée aux Quality Rater fait 161 pages comme l’indique Searchengineland :
Après cette publication en 2013, Google s’abstient de publier publiquement les versions suivantes qui feront encore l’objet de fuite :
On pourrait se demander pourquoi Google fait autant d’effort pour ne pas rendre public ce document ?
A mon avis, il s’agit certainement des informations contenues dans ce document. Elles sont suffisamment précieuses pour que la firme se donne du mal à essayer de le garder privé.
Il s’agit d’une raison suffisante pour chercher à lire et comprendre ce document.
Par ailleurs, il faudra attendre 2015 avant que Google ne publie officiellement la première version complète de son Search Quality Rating Guidelines :
Ce sera un document de 160 pages avec de nombreux exemples de résultats de recherche et des pages contenant des explications détaillées sur les raisons pour lesquelles chaque exemple spécifique est soit :
- D’excellente qualité ;
- De qualité modéré ;
- De mauvaise qualité.
Depuis cette année, la firme continue d’améliorer son document.
1.3.2. Quelle est la fréquence des mises à jour du Search Quality Evaluator Guidelines
Il n’y a pas une fréquence ou une date fixe où il faut s’attendre à une mise à jour du Search Quality Evaluator Guidelines (SQEG).
Si nous devons nous baser sur l’historique de ses mises à jour, on peut estimer que la fréquence est de 2 à 3 changements par an.
Pour l’année 2019, Google a procédé à la modification de son document à 3 reprises :
- Mai 2019 ;
- Septembre 2019 ;
- Décembre 2019.
Le document compte actuellement 168 pages et se trouve exclusivement en anglais :
Il est légitime de se demander à quoi bon prendre connaissance d’un document et d’essayer de s’y appliquer alors qu’il sera de toute façon modifié ?
Il faut noter que la plupart des modifications que Google apporte à son document sont généralement de petite envergure et parfois très subtiles.
Par exemple, Google peut décider :
- De rephraser certains paragraphes ;
- D’inclure ou de supprimer certains exemples afin de clarifier des concepts qui semblent ambiguës ;
- D’ajouter des instructions afin d’éviter des biais dans la compréhension.
Par contre, la substance ou le message principal du document est généralement laissé intact ou très peu modifié.
Il faut l’avouer, les professionnels du SEO ne restent pas indifférents au moindre changement dans ce document. Pour la simple raison qu’une modification est un signale que Google compte ajuster ses algorithmes d’une certaine façon.
Pouvoir décoder le Search Quality Evaluator Guidelines est un plus pour anticiper l’évolution des algorithmes de Google.
Vous pouvez régulièrement consulter cette page de SearchEngineLand sur laquelle des articles sont publiés à chaque fois que Google met à jour son guide.
Mieux, les articles traitent également des tenants et aboutissants des changements, ce qui en fait de très bon investissement en temps.
1.3.3. Pourquoi devriez-vous prendre connaissance du Search Quality Evaluator Guidelines ?
Nous avons compris que le SQEG de Google est un manuel nécessaire à son équipe pour évaluer la qualité des sites qui apparaissent dans les résultats des moteurs de recherche.
En ce sens, il s’agit d’un ensemble d’instructions qui permet à ses évaluateurs de savoir comment Google défini un site d’excellente qualité ou de basse qualité.
Mais pourquoi s’intéresser à un document qui ne s’adresse pas aux marketeurs comme le guide SEO de Google ?
Il faudrait le consulter parce que Google même l’a suggéré à plusieurs reprises.
En effet, le googler Danny Sullivan a explicitement recommandé de prendre connaissance de ce document de près de 200 pages :
Traduit en français :
« Vous voulez faire mieux avec un changement général ? Ayez un grand contenu. Oui, la même réponse ennuyeuse. Mais si vous voulez avoir une meilleure idée de ce que nous considérons comme un excellent contenu, lisez les directives de nos évaluateurs. Cela représente près de 200 pages de choses à considérer : »
Avoir une connaissance profonde de ce guide, permet donc de savoir exactement ce que Google considère comme contenu d’excellente qualité.
En parlant de contenu, il ne faut pas seulement considérer les articles de blog. Il faut prendre en compte tous les types de contenus sur des pages web telles que :
- Les pages de produit ;
- Les landing pages ;
- Les pages A propos ;
- Les pages de téléchargement ;
- Etc.
En dehors de Danny Sullivan, Ben Gomes qui est le Vice-Président des recherches de Google fait savoir selon CNBC :
« Vous pouvez consulter les directives de l’évaluateur pour savoir où nous voulons que l’algorithme de recherche aille. Elles ne vous disent pas comment l’algorithme classe les résultats, mais elles montrent fondamentalement ce que l’algorithme doit faire. »
Si vous avez envie de comprendre ce que l’algorithme de Google doit faire pour classer les résultats de recherche, il est très pertinent de prendre connaissance de ce guide.
Le bénéfice d’une telle connaissance vous permet évidemment de mieux positionner votre site web dans les SERPs.
Comme Google tente de le dire en début de cette année dans l’un de ses postes repris par Barry Schwartz :
« Nous comprenons que ceux qui s’en sortent moins bien après un changement de mise à jour de base peuvent encore sentir qu’ils doivent faire quelque chose. Nous vous suggérons de vous assurer que vous offrez le meilleur contenu possible. C’est ce que nos algorithmes cherchent à récompenser. (…) Si vous comprenez comment les évaluateurs apprennent à évaluer un bon contenu, cela pourrait vous aider à améliorer votre propre contenu. En retour, vous pourriez peut-être faire mieux dans la recherche. “
Récapitulons, le document Google Quality Evaluator Guidelines est une mine d’or pour les SEO et les Contents marketers parce que :
- Il provient directement de Google ;
- Il fournit des détails sur l’aspect des pages de haute qualité ;
- Il explique comment évaluer la pertinence des résultats de recherche ;
- Il montre ce que Google considère comme un contenu de qualité ;
- Il montre où Google veut que l’algorithme de recherche aille.
Ces raisons sont suffisantes pour chercher à appréhender le précieux document de Google. Cependant, il faut faire preuve de bon sens dans son utilisation.
1.3.4. Pourquoi vous devez utiliser judicieusement le Search Quality Evaluator Guidelines
Le Search Quality Evaluator Guidelines est certes la bible des Quality Raters, mais ce document ne devrait pas devenir aussi le vôtre. Ou du moins pas à la lettre !
En effet, il ne faut pas perdre de vue le caractère fondamental de ce document : Des guidelines ou des lignes directrices.
Ce qui implique que cela vous permet d’avoir un point de vue général et que dans de certaines situations, le document serait vague et ambigu.
De plus, n’oublions pas que les Search Quality Rater suivent une formation intense après avoir été recruté comme le fait savoir le QR interviewé par Searchengineland :
« Q : Une fois que vous avez été embauché, y a-t-il une sorte de formation ? R : Après mon embauche, il y a eu un webinaire hebdomadaire de deux heures ainsi que des modules de formation à suivre. C’était une formation très intense. Pendant les quatre premières semaines, je devais commenter chaque note que je donnais. Ces commentaires ont ensuite été examinés et commentés, ce qui m’a permis d’avoir un retour sur mes notes. »
Vue l’acharnement de Google à essayer de garder secret son document, il ne serait pas faux de penser que de précieuses informations qui n’apparaissent pas forcément dans le SQEG sont dévoilées.
Mais tenons-nous en pour l’instant au SQEG qui est lui-même un document assez dense à appréhender.
Plus de 160 pages complètement en anglais, il faut avouer qu’il y a suffisamment du travail à faire ?
Je vous recommande seulement d’essayer de comprendre la substance et de l’appliquer ensuite à votre propre site web. Ceci, selon vos objectifs et les conditions dans lesquels se trouve votre site web.
Chercher à scruter chaque détail peut être fastidieux et faire du temps. D’autant plus que certaines sections vont certainement connaître des modifications.
Maintenant, voyons quelques-unes des modifications que Google a apporté à son document la dernière fois.
1.3.5. Mise à jour du Search Quality Evaluator Guide du 5 décembre 2019 : Quelles sont les modifications majeures ?
La dernière mise à jour des lignes directrices était la troisième au cours de l’année 2019. Il s’agissait d’une mise à jour plus légère par rapport aux deux précédentes de la même année.
Le changement le plus notable a été l’ajout d’une sous-section entière intitulée « 0.0 The Search Experience » dans la section « Introduction to Search Quality Rating » :
Cette section explique les raisons pour lesquelles les personnes effectuent des fouilles et la manière dont elles le font.
Le 4eme paragraphe en particulier fait référence à la nature complexe de certaines requêtes. A son début, on peut lire la mention : « Différents types de recherche nécessitent des résultats de recherche très différents. »
Google donne des exemples pratiques qui peuvent mieux aider à la compréhension de cette partie :
« Les résultats des recherches médicales doivent être de haute qualité, faire autorité et être dignes de confiance. Les résultats de la recherche pour « photos de bébés animaux mignons » devraient être adorables. Les résultats de recherche pour un site web ou une page web spécifique devraient avoir ce résultat souhaité en tête. Les recherches qui ont de nombreuses significations possibles ou qui impliquent de nombreux points de vue ont besoin d’un ensemble de résultats variés qui reflètent la diversité naturelle des significations et des points de vue. »
L’ajout de cette section sur l’expérience de recherche semble être conforme à l’idée que les moteurs de recherche soient, plus que jamais, des moteurs de découverte.
Il est également intéressant de noter la fréquence d’apparition des termes « divers » ou « diversité » dans cette section. Cela dénote l’effort de Google à souligner l’importance de ces attributs, tant pour les résultats de recherche que pour les personnes qui utilisent la recherche.
La seconde modification concerne la section 0.2 : Google exhorte ses évaluateurs à baser leur jugement sur ses consignes et non de façon subjective :
« Sauf indication contraire, vos notations doivent être basées sur les instructions et les exemples donnés dans ces lignes directrices. Les notations ne doivent pas être fondées sur vos opinions personnelles, vos préférences, vos croyances religieuses ou vos opinions politiques. Utilisez toujours votre meilleur jugement et représentez les normes et standards culturels de votre lieu d’évaluation. » :
La troisième modification concerne l’ajout de deux autres termes à la liste des définitions importantes des Guidelines.
Il s’agit de « Search engine (moteur de recherche) » et de « User (Utilisateur) ».
Curieux de savoir comment Google défini ces deux termes ? Les voici :
« Moteur de recherche : Est un outil destiné à aider les personnes à trouver ou à interagir avec le contenu disponible sur Internet
Utilisateur : Dans ces lignes directrices, le mot » utilisateur » désigne une personne qui essaie de trouver des informations ou d’accomplir une tâche sur Internet. Gardez à l’esprit que les utilisateurs sont des personnes d’horizons différents, dont les expériences et les besoins peuvent différer des vôtres : des personnes de tous âges, sexes, races, religions, affiliations politiques, etc. »
Vous pourrez trouver d’autres définitions dans le Guides afin d’essayer d’avoir le même point de vue que Google sur certains termes.
Il y a eu d’autres modifications beaucoup plus légères que je vous laisse découvrir avec :
Toutefois, je vous montre comment le document de Google est structuré :
1.3.6. Comment le Search Quality Guideline de Google est structuré ?
Il faut noter que le document de Google, Search Quality Evaluator Guideline, est structuré en quatre grandes parties.
Partie 1 : Lignes directrices sur la notation de la qualité des pages
A ce niveau, Google précise les critères associés à la notation de la qualité des pages.
Ainsi, les évaluateurs sont invités à observer plusieurs facteurs qui sont importants en tant qu’indicateurs de qualité, en accordant une attention particulière à l’E-A-T que nous allons détailler dans le prochain chapitre.
Des exemples sont fournis pour illustrer chaque notation :
Partie 2 : Comprendre les besoins des utilisateurs mobiles
Source : Search Quality Evaluator Guidelines du 12/2019
Pour déterminer le degré de pertinence d’un résultat de recherche, la première étape consiste à comprendre les besoins de l’utilisateur.
C’est à ce stade que Google fournit des directives sur ce qu’il est important de prendre en compte pour comprendre les besoins de l’utilisateur, en particulier les utilisateurs mobiles.
Des exemples ne manquent pas également :
Source : Search Quality Evaluator Guidelines du 12/2019
Partie 3 : Ligne directrice sur la notation de la satisfaction des besoins des utilisateurs
Après avoir compris les besoins de l’utilisateur, il est possible d’évaluer dans quelle mesure un résultat a répondu aux besoins de l’utilisateur.
Ici, Google fournit des directives supplémentaires sur ce qui est important pour l’évaluation de la pertinence.
A ce niveau, il y a plein d’exemple :
Partie 4 : L’annexe sur l’utilisation de la plate-forme d’évaluation
Source : Search Quality Evaluator Guidelines du 12/2019
Comme le titre le laisse présager, il s’agit d’une partie qui permet aux évaluateurs de savoir comment utiliser la plateforme d’évaluation : Raterhub.com.
La firme donne plusieurs exemples et indications :
Il est temps de répondre à l’une des questions les plus importantes dans cet article :
1.4. Quel est l’impact des Quality Rater sur les classements de Google ?
Pour avoir une idée précise de cet impact, il est crucial de comprendre comment Google effectue des changements au niveau de son algorithme.
1.4.1. Comment Google apporte des changements à son algorithme ?
Google nous montre dans la vidéo suivante comment il apporte des changements à son algorithme.
Comme vous auriez pu le comprendre, Google fait savoir que tout changement qu’il apporte à son algorithme commence généralement par une idée de ses ingénieurs.
Si je dois reprendre les expressions exactes des googlers dans la vidéo (traduit évidemment en français), nous avons :
« Un changement algorithmique typique commence par une idée d’un de nos ingénieurs. »
Après cela, les googlers intègrent ce potentiel changement de l’algorithme dans une version d’évaluation appelé « Sandbox » :
« Nous mettons ensuite en œuvre cette idée sur une version test de Google et générons des pages de résultats avant et après. »
A ce niveau, il s’agit d’avoir une version des résultats avec l’algorithme actuel et une autre version issue de l’algorithme modifié.
Ensuite, interviennent les Quality Raters :
« Nous leur soumettons deux ensembles de résultats de recherche : l’un présentant les résultats habituels, l’autre présentant des résultats modifiés. Nous leur demandons ensuite de nous indiquer celui qu’ils préfèrent et de nous expliquer pourquoi. »
Les Quality Raters vont bien plus loin que les simples résultats de recherche comme nous avons eu à le voir :
« L’évaluateur analyse la pertinence d’un site Web renvoyé par la recherche par rapport à la requête, ainsi que la qualité des résultats selon le niveau d’expertise, la fiabilité et le caractère officiel du contenu. »
Si les évaluateurs manuels de Google préfèrent les nouveaux résultats de l’algorithme modifié, le changement d’algo est testé à nouveau. Cette fois, ce sera un test en direct sur un petit échantillon des vrais utilisateurs de Google :
« Outre les tests de qualité de la recherche, nous testons le trafic en situation réelle pour voir comment les utilisateurs interagissent avec une fonctionnalité avant de la déployer auprès de tous les internautes. Nous commençons par activer la fonctionnalité en question pour un petit pourcentage des internautes, généralement 0,1 % d’entre eux. »
Cela peut également expliquer pourquoi les résultats sont parfois totalement différents de ceux que vous avez vus il y a quelques minutes.
Aussi, les 0,1% peuvent sembler petits, mais vous allez changer d’avis avec le calcul suivant :
Google traite 63 000 requêtes par seconde :
Ainsi, Google compte en une journée plus de 5 milliards 472 millions de requête.
Les 0,1% font 5 millions 472 milles requêtes pour une journée et 38 millions 304 milles en une semaine.
La firme n’a pas spécifiée la durée sur laquelle elle effectue ses tests, mais plus de 5 millions de requêtes devraient être suffisants pour déterminer si un changement est pertinent ou pas.
Même si le test se révèle concluant, il n’est pas automatiquement lancé. La firme confie les projets de modification à ses ingénieurs les plus chevronnés qui font une analyse approfondie.
Le projet peut être rejeté à ce niveau pour la simple qu’elle n’est pas pertinente pour les utilisateurs comme le fait savoir Google :
« En effet, une modification doit réellement améliorer la qualité des résultats proposés aux internautes. Sinon, nous abandonnons le projet. »
Pour résumer, Google suit le processus suivant :
ououi
Avec ce processus, on se demande bien combien de changements Google apporte à son algorithme chaque année ?
Les changements apportés à l’algorithme de Google commencent par une idée, et il faut dire que des idées ne manquent visiblement pas aux ingénieurs de Google.
En 2018 seulement, Google estime avoir effectué plus de 654 680 tests. A l’étape des tests en situation réelle, ce nombre est passé à 15 096 tests.
Au final, Google a lancé 3 234 changements sur son algorithme.
Vous avez peut être connu la statistique qui indique que l’algorithme de Google change plus de 500 fois par an en 2010.
La firme l’a évoqué dans la vidéo précédente et le document de témoignage de Eric Schmidt, , président exécutif de Google, donne plus de détails sur ce chiffre :
- 13 311 Tests de la qualité des résultats de recherche ;
- 8 157 Tests comparatifs ;
- 2 800 Tests du trafic en situation réelle ;
- 516 Lancements.
Maintenant, il faut considérer que l’algorithme de Google a été modifié 3 234 fois en une seule année. On constate donc une augmentation de plus de 6,27 fois depuis 2010, c’est énorme !
Revenons à notre question :
1.4.2. Est-ce que les Search Quality ont une influence sur l’algorithme de Google ?
La réponse à cette question est : Oui, mais pas de manière directe.
La question de savoir si les Raters ont un impact direct sur l’algorithme a fait polémique dans l’univers du SEO.
En effet, certains SEOs pensaient que le fait que quand plusieurs Search Quality Raters identifient un site comme spammeur ou de basse qualité, son positionnement individuel peut automatiquement prendre un coup.
Si un groupe de Google Raters signale tous quelque chose au sujet de sites qui sont constamment mal notés en tant que contenu de mauvaise qualité ou même de spam, Google ne déclasse pas automatiquement le site web.
Cela aurait signifié que les évaluations des Quality Raters ont un impact direct sur le classement des résultats ou sur l’algorithme de Google, ce qui n’est pas le cas.
Il me semble logique que Google utilise les données issues des QR pour créer un signal dans son algorithme qui pourrait affecter TOUS les sites ayant ce signal particulier qu’ils soient de mauvaise qualité ou non.
Danny Sullivan a répondu à cette question par ce tweet :
Traduit en français :
« Pour être vraiment clair, cela ne fonctionne pas comme ça. Les évaluateurs n’ont aucune entrée directe dans l’algorithme. Il n’y a pas de » score d’évaluation » ou autre chose du genre sur l’échantillon de pages qu’ils examinent. »
Danny va plus loin et indique que les Raters ne contrôlent que la qualité des résultats :
« Les données nous aident à comprendre comment les mises à jour semblent fonctionner. C’est comme si quelqu’un révisait la nourriture dans votre restaurant. Mais ils ne vont pas dans la cuisine et ne préparent pas la nourriture. Les données sur le classement ne sont pas un composant de l’algorithme. »
Cette métaphore de Danny illustre la relation que Google a avec ses Raters. Les données des Raters ne sont pas directement intégrées dans l’algorithme.
Matt Cutts a également essayé de revenir plusieurs fois sur ce point. Voici une vidéo où il explique la relation entre les Raters et Google.
Les Raters n’affectent pas directement les résultats, mais leurs données sont prises en compte. Ce qui peut ou pas aboutir à un changement dans l’algorithme. Matt Cutts le confirme une fois de plus dans cette vidéo.
Conclusion : Les Search Quality Raters ont parfois une influence indirecte sur les changements apportés à l’algorithme de Google.
En tant que professionnel du SEO, il est donc important de prêter attention aux QR notamment au Search Quality Evaluator Guidelines. Et ce document nous permet de comprendre un concept très important à Google l’E-A-T.
Chapitre 2 : Qu’est-ce que l’E-A-T et comment optimiser votre site ?
Dans le Google Quality Evaluator Guidelines du 5 décembre passé, le terme E-A-T est apparu 135 fois :
Il ne fait pas de doute, il s’agit d’un concept très important pour Google et sur lequel il faut s’attarder.
La firme de la Mountain view estime que l’E-A-T est très important pour les sites web. Cela signifie que si vous avez un très bon E-A-T on-page et off-page, vous pourrez améliorer les performances de votre site web dans les résultats de recherche.
Cela revient typiquement à considérer l’E-AT comme un facteur de classement. Ce sujet, fait également polémique dans la sphère du SEO.
Dans ce chapitre, j’essaie d’aller en détails pour montrer ce qu’est l’E-A-T et comment optimiser votre site web pour avoir plus de trafic ou améliorer votre positionnement dans les SERPs.
2.1. Comment le Search Quality Evaluator Guidelines définit l’E-A-T ?
Dans ses premières lignes, Google fait comprendre que l’E-A-T est très important pour les sites :
Notez que l’E-A-T est étroitement lié à ce que Google appelle les pages « Your Money or Your Life » (YMYL).
2.1.1. Qu’est-ce q’un site web YMYL ?
Les pages YMYL sont celles qui traitent de sujets qui pourraient avoir un effet positif ou négatif sur le bonheur, la santé et la richesse d’un utilisateur.
L’infographie suivante de SeoPressor présente les catégories de pages Your Money Your Life selon Google :
Ainsi nous avons :
- Tous les sites web de shopping et des transactions financières : Ce sont les pages qui permettent aux utilisateurs d’effectuer des achats, des transferts d’argents, etc.
- Tous les sites web traitant des informations financières : Si vous donnez des conseils d’investissements, d’achats ou d’assurance, etc.
- Les pages web fournissant des informations médicales : Que ce soit des conseils concernant le bien-être et la santé, les drogues et les stupéfiants, la nutrition, etc.
- Les pages traitant des informations légales : SI vous abordez des sujets ayant rapport à la réglementation en matière de divorce, de nationalité, des droits des enfants… vous êtes considéré comme une page YMYL ;
- D’autres pages web officielles ou non qui abordent de près ou de loin aux thématiques cités ci-dessus.
Est-ce qu’en ayant un site web YMYL, il faudrait faire attention aux guidelines de Google notamment à l’E-A-T ?
Absolument et les preuves ne manquent pas.
2.1.2. A quel point les dernières mises à jour de Google affectent les sites web YMYL ?
Le 1 août 2018, Google a effectué une mise à jour très importante qui a perturbé les performances de beaucoup comme l’indique Barry Schwartz :
« Oui, vu dans les 3-4 dernières heures, baisse de 20 à 30 % du trafic… Oui, mon site principal a perdu pratiquement tout son classement en page 1, fin de la partie. »
Danny Sullivan ne semble pas ignorer cette mise à jour :
Vous vous demandez peut-être la relation entre une telle mise à jour et notre sujet. Les lignes suivantes permettent d’avoir la réponse à cette question :
Comme parfois, Google n’a pas souhaité communiquer davantage sur sa mise à jour :
Barry Schwartz a alors effectué un sondage qui lui a permis de qualifier la mise à jour comme « Google Medic Update » :
Il a constaté que les sites web les plus touchés sont ceux qui sont dans le domaine :
- Médical ;
- Santé ;
- Fitness ;
- Mode de vie sain.
Et ceci à haute de 41,5% :
On pourrait penser que ces changements n’affectent pas beaucoup les sites web, mais certains ont perdu jusqu’à 95% de leur trafic.
En fouillant dans les commentaires de l’article de Barry, je suis tombé sur deux témoignages qui montrent l’ampleur des dégâts qui continuent même jusqu’en 2019.
Susan :
« Nous avons perdu plus de la moitié de notre trafic et, en même temps, la moitié de nos revenus quotidiens. Je ne sais vraiment pas quoi faire pour essayer de me remettre de cette situation. Notre site est un site de commerce électronique de niche B-to-C spécialisé dans les produits dentaires pour les patients (tous les produits OTC, nous ne sommes pas un fabricant). Donc oui, un site lié à la santé. Nous sommes une très petite entreprise, mais nous avons bien réussi. J’ai travaillé dur ces 16 dernières années pour que notre site ait tout ce que Google attend : un contenu riche et original, des photos et des vidéos originales, des pages https, adaptées aux mobiles, de bonnes notes (4,7 sur 5 pour Google Trusted, entre autres), des critiques de produits, des articles utiles avec des balises d’auteur, des temps de chargement de page rapides, un code de schéma, une page « À propos » et une vidéo « À propos », un design propre et convivial, un blog, pas de publicité… tous des trucs de white hat… »
HLTGRP :
“ … La réalité est que Google détruit ses résultats de recherche avec cette merde et des MILLIONS de sites de qualité sont détruits par elle. C’est presque comme s’ils avaient besoin de faire quelque chose tout le temps pour foutre encore plus la merde. Je dirige un site communautaire de consommateurs sur la santé depuis 22 ans. J’ai été classé page 1 place 1 pendant 18 de ces années. Depuis qu’ils ont commencé ces absurdités sur les sites de santé, je suis passé de millions d’utilisateurs à 100 000 par mois. Une perte de 95 %. Depuis octobre 2018, j’ai perdu 90 % de ce qui me restait. Et pourquoi ? Parce que Google veut que je mentionne qu’un médecin m’a conseillé sur le contenu de mon site ? C’est de la folie et je suis furieux de leurs conneries ! 22 ans et mon entreprise est détruite à cause de cela. »
Vous comprenez maintenant pourquoi vous devez prêter une grande attention à l’E-A-T que Google considère comme très important pour les sites web.
Google sait que de bons sites web peuvent parfois être touchés par ses mises à jour. Son président exécutif Eric Schmidt avait déjà affirmé :
« D’abord, nous avons construit la recherche pour les utilisateurs, pas pour les sites web, et quoi que nous fassions, il y aura toujours des sites web mécontents de leur classement. La recherche est subjective, et il n’y a pas d’ensemble « correct » de résultats de recherche. Notre processus scientifique est conçu pour fournir les réponses que les consommateurs trouveront les plus utiles. »
C’est un moyen de dire : Si les utilisateurs n’aiment pas les résultats qu’ils obtiennent, c’est un GRAND problème. Mais si les webmasters perdent leur rang, c’est compréhensible.
Il faut savoir que SQEG nous dit qu’un site qui manque d’E-A-T doit être considéré comme un site de faible qualité :
Je pense que de nombreux sites sont considérés comme des YMYL. Presque tous les domaines thématiques ont des sujets qui impactent soit financièrement, le bonheur et la santé des utilisateurs.
Même si votre niche n’est pas un sujet YMYL évident, il est judicieux de faire très attention à l’E-A-T.
2.1.3. Quelles sont les caractéristiques qui définissent une page de grande qualité et une page de basse qualité selon le SQEG ?
Grâce au Search Quality Evaluator Guidelines, nous pouvons avoir une idée de ce que Google estime comme une page d’excellente qualité ou de basse qualité.
Devinez quoi, le point le plus important pour déterminer la qualité d’une page web n’est rien d’autre que l’E-A-T.
Tandis qu’un E-A-T solide est la première caractéristique d’un site web de qualité :
Une page de basse qualité a pour première caractéristique un E-A-T insuffisant :
Avant d’aller plus loin, qu’est-ce que l’E-A-T signifie réellement ?
2.2. Qu’est-ce que l’E-A-T de Google ?
L’acronyme E-A-T désigne :
- Expertise ;
- Authoritativeness : Autorité ;
- Trustworthiness : Confiance / fiabilité.
Voyons chacun des terminologies en détail :
2.2.1. Qu’est-ce que l’expertise selon Google ?
Selon les directives de qualité de recherche de Google, il existe deux types d’expertise :
- Formelle : En particulier pour les secteurs médical, financier et juridique, un professionnel certifié est la source d’information la plus fiable. Si des informations incorrectes sont publiées dans ces secteurs, les utilisateurs risquent davantage d’être mis en danger. Ainsi, un médecin certifié aura un degré d’expertise plus élevé qu’une personne qui a une profonde connaissance dans le domaine médical, mais qui n’a aucune certification :
- L’expertise au quotidien : Le guide indique que pour certains sujets, le niveau d’expertise exigé peut être relativement faible. Il y a des personnes ordinaires qui partagent leurs expériences de vie sur des blogs personnels, des forums, des revues, des discussions, etc. Si ces personnes créent des contenus extrêmement détaillés, utiles et qu’elles semblent avoir une expérience conséquente, leur expertise est acceptable :
Vous devez être un expert dans votre domaine et vos visiteurs doivent voir clairement votre expertise.
Sur votre site, vous devez absolument afficher tout ce qui prouve vos connaissances comme :
- Les certificats ;
- Les preuves de votre formation ;
- Les diplômes ;
- Les logos de vos clients ;
- Les récompenses éventuelles ;
- Les titres de compétences ;
- Etc.
Gardez à l’esprit que les évaluateurs de Google sont formés pour y prêter attention et vous devez vous préparer.
A plus forte raison si votre site web traite de sujets qui peuvent affecter le bien-être, le bonheur, les finances ou la santé d’une personne.
Il y a néanmoins une nuance : Toutes les pages de votre site web ne seront pas évaluées de la même façon.
Il n’y a pas de sens à vouloir chercher forcément un élément d’expertise sur une page contact par exemple. Les évaluateurs utiliseront un ensemble d’exigences moins strictes si le contenu de la page ne doit pas être écrit par un expert.
A ce niveau, votre objectif devra être de déterminer quelles pages YMYL devront répondre à des normes plus strictes.
2.2.2. Qu’est que l’autorité selon Google ?
Vous pouvez avoir toutes sortes de connaissances dans votre domaine et ne pas être une autorité.
Par exemple, un spécialiste en SEO peut être un expert, mais son opinion aura peu d’autorité :
- S’il ne partage ses connaissances grâce à un blog ;
- S’il ne participe à des conférences ;
- S’il n’a pas une expérience pratique et tangible,
- Etc.
Dans le cas où vous êtes déjà reconnu comme un expert, il est capital d’acquérir une certaine autorité dans votre domaine d’expertise.
Il s’agit certes d’un investissement conséquent notamment en temps, mais votre E-A-T s’en trouvera améliorer.
Dans le cas où vous avez des créateurs de contenu experts, il faudrait qu’ils enrichissent leur autorité en ligne dans leur domaine d’expertise.
2.2.3. Qu’est-ce que la fiabilité / confiance selon Google ?
Il est essentiel de se forger une réputation de fiabilité, tant pour vous que pour votre site web.
Google a consacré toute une section pour permettre à ses évaluateurs de vérifier la fiabilité d’un site en ligne.
Google conseille de vérifier la fiabilité d’un site web grâce à des sources externes :
« Lorsque vous recherchez des informations sur la réputation, essayez de trouver des sources qui n’ont pas été écrites ou créées par le site web, l’entreprise elle-même ou l’individu… Recherchez les articles, critiques, messages de forum, discussions, etc. écrits par des personnes sur le site web. Pour les entreprises, il existe de nombreuses sources d’informations et de critiques sur la réputation… Pour les créateurs de contenu, recherchez des données biographiques et d’autres sources qui ne sont pas écrites par l’individu. »
Cela signifie que si vous avez des avis négatifs de clients sur le web, votre E-A-T risque d’en souffrir et votre site web sera considéré comme étant de mauvaise qualité.
En plus de vieller sur votre réputation en ligne, il faut également vous assurer de fournir des contenus fiables.
Source : Jaburgwilk
Il est temps de répondre à l’une des questions les plus importantes :
2.3. L’E-A-T est-il un facteur de classement de Google ?
Voici également un sujet à polémique, et je vais me servir de certaines sources fiables pour vous permettre d’avoir une idée précise.
Mes recherches m’ont permis de découvrir l’article de Marie Haynes qui montre ses preuves sur le fait que l’E-A-T est un facteur de classement confirmé par Google :
Pourquoi ai-je considéré un article venant d’une experte SEO et non un googler ? La raison est toute simple : Son article sur l’E-A-T a été considéré comme ressource fiable à consulter par Google lui-même.
En effet, Google a publié en aout 2019 un article intitulé « What webmasters should know about Google’s core updates » :
Google recommande en général de se concentrer sur des contenus d’excellente qualité. En ressource, Google a recommandé son article et d’autres articles abordant le concept de l’E-A-T :
Malgré la note suivante de Google, il y a eu un certain tumulte dans la sphère SEO :
« Note : Les liens vers les articles ci-dessus ne constituent pas une approbation de sociétés ou de services de référencement particuliers. Nous avons simplement trouvé que les articles eux-mêmes étaient un contenu utile sur ce sujet. »
Et ce n’est pas le commentaire de Danny Sullivan qui changera le sentiment de certaines personnes :
En bref, c’est pour vous montrer que cette experte maîtrise visiblement son sujet selon Google et qu’on peut considérer son contenu comme étant fiable.
Alors, l’E-A-T est-il un facteur de classement ? Oui et voici les deux différentes façons de le prouver.
2.3.1. Par définition l’E-A-T est un facteur de classement de Google
Une recherche de la définition en français de « facteur de classement » n’est apparemment pas rapidement accessible :
Sur l’image vous allez constater que la définition est celle du « classement » et non celle de « facteur de classement ». Peinant à trouver une définition directe et succincte en français, je vais fouiller du côté anglais :
Traduit en français, cela donne ceci :
« Le terme « facteurs de classement » décrit les critères appliqués par les moteurs de recherche lors de l’évaluation des pages web afin de compiler le classement de leurs résultats de recherche. … La compréhension des facteurs de classement est une condition préalable à une optimisation efficace des moteurs de recherche. »
Pouvons-nous considérer l’E-A-T comme étant un critère appliqué par les moteurs de recherche pour évaluer une page web ?
Google a été clair à ce sujet avec sa feuille blanche datant de février 2019 sur comment la firme lutte contre la désinformation :
A la 13eme page, on peut lire :
Traduit en français, nous avons :
« Pour ces pages « YMYL », nous partons du principe que les utilisateurs attendent de nous que nous appliquons nos normes les plus strictes en matière de fiabilité et de sécurité. Ainsi, lorsque nos algorithmes détectent que la requête d’un utilisateur porte sur un sujet « YMYL », nous accordons plus de poids dans nos systèmes de classement à des facteurs tels que notre compréhension de l’autorité, l’expertise ou la fiabilité des pages que nous présentons en réponse. »
A travers cette affirmation, Google fait comprendre que l’E-A-T est un facteur de classement ancré dans son algorithme. Notamment pour les requêtes relatives aux pages YMYL.
Voilà la première preuve que l’E-A-T est un facteur de classement. Voici la seconde :
2.3.2. L’E-A-T est un facteur de classement selon les mises à jour de Google
Selon Marie Haynes, l’intégration de l’E-A-T comme facteur de classement à commencer en février 2017 lorsque Google a effectué une mise à jour de son système.
Suite à cela, l’experte a reçu des demandes de plusieurs sites web qui ont été touchés par la mise à jour et dont le trafic ressemblait à ceci :
Source : Mariehaynes
Une analyse poussée a permis à l’experte de constater que ces sites web qui ont perdu du trafic, ont laissé leur place à des sites qui ont clairement une plus grande autorité ou des contenus rédigés par des experts qui ont un E-A-T très élevé.
La mise à jour du 9 mars 2018 de Google : Cette mise à jour concernait la pertinence des sites web par rapport aux différentes requêtes.
John Muller le confirmera dans cette vidéo :
Il indique que cette mise à jour était avant tout une question de pertinence.
Marie Haynes ajoute :
« Ce que nous avons remarqué, c’est que les sites perdraient leur classement pour les termes s’ils n’avaient pas assez d’E-A-T pour être pertinents pour elle. »
La mise à jour du 1er août 2018 : Il s’agit du « Medic Update » dont nous avons parlé un peu plus haut.
Les sites web du secteur médical ont reçu un grand coup et la seule recommandation de Google était de consulter son document sur l’évaluation de la qualité.
Le constat reste pareil : Les sites web les plus touchés sont ceux qui n’ont pas un E-A-T élevé.
C’est à dire que :
- Leur expertise n’est pas clairement indiquée ou ils ne le sont tout simplement pas ;
- Ils n’ont pas beaucoup d’autorité dans leur niche ;
- Ils n’inspirent pas totalement confiance et ont parfois des avis négatifs.
La mise à jour du 27 Septembre 2018 : A ce niveau Google semble mettre plus l’accent sur le « trust » ou la confiance qu’inspire les site web.
Les sites dans le domaine médical qui ont connu des baisses de trafic ont eu encore plus de pertes. Selon Marie Haynes :
« Plusieurs entreprises sont venues nous voir après avoir constaté des baisses le 27 septembre et, dans la plupart des cas, nous avons pu constater des problèmes de confiance très évidents avec le site. »
Les mises à jour de Google ont continué et il semble que les site YMYL soient toujours touchés.
Le Core Update de ce mois, janvier 2020, a affecté plusieurs sites web :
Alors que d’autres s’en sorte bien :
&
D’autres sont négativement touchés :
&
Tous ces éléments montrent que Google essaie d’amener son système à directement considéré les facteurs tels que l’expertise, l’autorité et la fiabilité ou l’E-A-T.
Si c’est ainsi :
2.4. Comment Google mesure l’E-A-T avec son algorithme ?
Expertise, Autorité et fiabilité sont concepts différents mais connexes formant l’E-A-T. Par analogie, Google semble prendre en compte plusieurs éléments pour évaluer l’E-A-T avec ses algorithmes.
2.4.1. Google mesure tout type de mention sur le web
Au cours du Pubcon Austin en 2018, le googler Gary Illyes faisait comprendre à Marie Haynes que Google est capable de déterminer quel liens ou mentions prendre en compte ou pas.
Gary continue et estime que l’E-A-T se base beaucoup plus sur les liens et les mentions sur les sites d’autorité :
Ainsi, Google est en mesure de déterminer si les mentions ou les liens que vous recevez :
- Sont naturels et délibérément fait par les autres bloggeurs ;
- Sont payés ou artificiels ;
- Ont été créés par vous-même ;
- Etc.
En bref, Google est en mesure de faire la différence entre des mentions ou des liens de qualité de ceux qui ont pour objectif de tromper son système.
Supposons que vous avez publié un article invité sur Semrush, cela n’aura pas la même valeur si c’est l’équipe de rédaction de Semrush qui décide de publier un article et de vous mentionner.
On pourrait se demander comment Google arrive à faire une telle distinction ?
Dans sa lutte contre les liens spammeurs Google a eu à améliorer plusieurs fois son système.
Il s’agit notamment de la mise à jour de son algorithme Penguin de 2016 qui permet à Google d’ignorer les liens artificiels :
John Muller le confirme dans ce tweet :
Et Google affirme clairement que sans indication, son système est à même de savoir si un lien est crédible ou pas :
Notez que Google est vraiment doué pour déterminer quels liens ou quelles mentions doivent compter en termes pour le PageRank.
Toujours dans le white paper, google indique :
« Nos algorithmes peuvent détecter la majorité des spams et les rétrograder ou les supprimer automatiquement. Le reste du spam est traité manuellement par notre équipe de suppression du spam, qui examine les pages (souvent sur la base des commentaires des utilisateurs) et les signale si elles enfreignent les lignes directrices pour les webmasters. En 2017, nous avons pris des mesures à la suite de 90 000 rapports d’utilisateurs concernant des spams de recherche et avons détecté, par des algorithmes, un nombre de spams beaucoup plus élevé. »
Bill Slawski a rédigé un article sur un brevet de Google qui explique comment Google arrive à trouver les pages qu’il peut considérer comme fiables.
Le brevet est dénommé « Producing a ranking for pages using distances in a web-link graph » :
Google reconnaît qu’il y a des sites web qui utilisent diverses pratiques pour avoir des liens artificiels et donne la solution au problème :
Google affirme :
« Certaines pages web (appelées « pages de spam ») peuvent être conçues de manière à utiliser diverses techniques pour obtenir des PageRanks artificiellement gonflés, par exemple en formant des « fermes de liens » ou en créant des « boucles ». »
Pour lutter contre cela, la firme indique :
« Une variante possible du PageRank qui réduirait l’effet de ces techniques consiste à sélectionner quelques pages « de confiance » (également appelées “seed pages”) et à découvrir d’autres pages qui sont susceptibles d’être bonnes en suivant les liens des pages de confiance. »
En d’autres termes, ce que l’algorithme veut faire est de sélectionner des pages « de confiance » (aussi appelées « seed ») qui sont connues pour être bonnes et dignes de confiance. Puis construire un réseau de sites de confiance en suivant les liens qui quittent ces pages.
Supposons que Wikipédia soit considéré comme une « seed » site. Le moteur de recherche va chercher à connaitre tous les sites vers lesquels Wikipédia fait un lien et va les considérer comme étant fiables. Evidemment, il y a également d’autres signaux que le moteur de recherche va considérer.
La firme donne cet exemple :
« Par exemple, l’annuaire Google et le New York Times sont tous deux de bonnes graines qui possèdent de telles propriétés. On suppose généralement que ces graines sont également « plus proches » d’autres pages de haute qualité sur le web. En outre, les graines qui possèdent un grand nombre de liens sortants utiles facilitent l’identification d’autres pages utiles et de qualité, faisant ainsi office de « plaques tournantes » sur le web. »
Visiblement, Google reconnaît certains sites web comme d’autorité et des liens venant d’eux permettent d’améliorer votre statut de fiabilité à l’égard de Google.
Si vous n’êtes pas connu en tant qu’autorité et que vous n’avez pas de mentions sur des sites faisant autorité, il vous sera probablement assez difficile d’obtenir un bon classement. Notamment si vos concurrents sont cités sur ces sites d’autorité.
2.4.2. Google utilise de nombreux signaux qui contribuent à l’E-A-T
Gary Illyes a éclairci certains points sur lesquels les SEO étaient confus.
Lors du Pubcon Vegas 2019, Gary Illyes a répondu aux questions de Jennifer Slegg, ce que Marie Haynes a heureusement reporté dans son article de blog.
A la question de savoir s’il existe un score E-A-T, Gary dit :
« Il n’y a pas de score interne EAT ni de score YMYL. Les directives des évaluateurs de qualité sont des directives pour les évaluateurs. EAT et YMYL sont des concepts qui permettent à l’homme d’assourdir les algorithmes. Il n’y a pas d’algo qui cherche YMYL. Il a déclaré que Google possède « une collection de millions de petits algorithmes qui fonctionnent à l’unisson pour donner un score de classement. Beaucoup de ces algorithmes miniatures recherchent des signaux dans les pages ou le contenu. Lorsque vous les mettez ensemble d’une certaine manière, ils peuvent être conceptualisés comme YMYL. Mais ce n’est pas comme si nous avions un score YMYL ». Il a également déclaré que « de nombreux algorithmes conceptualisent l’E-A-T« . »
Danny Sullivan apporte plus d’éclaircissement :
A la question de savoir si l’E-A-T est un facteur de classement, la réponse est : Oui et cette étape, je pense que vous n’avez plus aucun doute là-dessus.
Alors, qu’est-ce qu’il faut faire pour que votre site web soit optimisé pour l’E-A-T ?
2.5. Comment optimiser votre site web pour l’E-A-T ?
Si vous avez été pénalisé à cause d’un faible E-A-T, vous pouvez encore améliorer les performances de votre site web. Suivez les astuces suivantes qui sont susceptibles de vous aider.
2.5.1. Incluez les noms et biographies des auteurs pour tout votre contenu éditorial pour optimiser votre expertise
Les directives pour les évaluateurs stipulent que :
«Comprendre qui est responsable d’un site web est une partie essentielle de l’évaluation de l’E-A-T »
Le document conseille aux Quality Raters d’évaluer ce facteur en fonction du type de site web.
Ce point devient capital lorsqu’il s’agit d’une page YMYL qui devrat être créée par des experts de confiance ayant une grande autorité sur le sujet traité.
Le SQEG nous dit également que si le créateur du contenu principal (Main Content) ou l’auteur manque d’expertise pour le sujet, la page doit être classée comme étant de faible qualité :
Pour les pages telles que les pages d’accueil et les pages de produits, cela signifie généralement que le service clientèle et les coordonnées des entreprises doivent être faciles à trouver.
Mais pour les articles de blog, cela signifie que les informations sur l’auteur doivent être disponibles afin d’évaluer s’il est un expert approprié pour le sujet en question.
Par ailleurs, le Search Quality Evaluator Guidelines fait savoir :
« La réputation et l’E-A-T des créateurs du MC [contenu principal] est extrêmement importante lorsqu’un site web a différents auteurs ou créateurs de contenu sur différentes pages. »
Si l’information sur l’auteur n’est pas disponible ou est difficile à trouver, vous risquez d’avoir un score E-A-T bas.
Prenons un exemple tout simple : Qui choisirez-vous entre le contenu d’un rédacteur web très compétent et un expert SEO sur un sujet comme la création de backlinks ?
Personnellement, je choisirai l’expert SEO et je parie que vous allez faire la même chose.
De même, vous allez faire plus confiance à un docteur ayant plusieurs années d’expériences plutôt qu’à un blogueur sur des questions ayant rapport à certaines maladies.
Bien que les informations que les « experts au quotidien » puisse être souvent utiles, vous allez automatiquement choisir des personnes qui :
- Sont expertes dans leur domaine ;
- Ont de l’autorité dans leur niche ;
- Qui inspirent confiance.
Autrement dit, une personne avec un E-A-T élevé et c’est exactement ce que Google essaie de faire.
Google a donné des exemples de page ayant un bas E-A-T :
Source : Search Quality Evaluator Guidelines 50eme page
L’évaluation et les observations sont les suivantes :
Traduit en français :
« Il n’y a aucune information sur l’auteur de ce site, aucune information de contact et aucune information sur la paternité. Les pages médicales exigent un degré élevé de confiance de la part des utilisateurs. Comme il n’y a pas d’informations sur les propriétaires de ce site et sur les créateurs de son contenu, nous considérons qu’il s’agit d’un site web qui n’est pas fiable. »
Il y a également cet article :
Et les raisons de sa qualité très basse :
On peut lire comme commentaire :
« Ce contenu est mal écrit et utilise beaucoup de mots pour dire très peu de choses. Il n’y a aucune information sur les personnes responsables du contenu et aucune information de contact pour ce sujet médical YMYL. »
Une page de qualité pour Google est comme celle-ci :
Avec cette notation :
Il est dit :
« Il s’agit d’un article sur le site web d’un journal qui a remporté plusieurs prix, dont le prix Pulitzer et le prix des médias du GLAAD. L’article comporte une quantité complète de MC de très haute qualité qui est unique et originale, y compris des reportages d’investigation approfondis par deux auteurs ayant une connaissance et une expérience approfondies du journalisme d’investigation.”
Effectivement, lorsque vous taper leur nom dans google, vous avez plusieurs éléments de réponse :
&
Pour vérifier l’autorité ou l’expertise d’un auteur, vous pouvez effectuer une recherche dans Google avec son nom pour voir à quel point il fait autorité sur le web.
2.5.2. Investissez dans le Branding pour avoir de l’autorité
Lorsqu’il s’agit des petites entreprises ou organisations, les directives prennent soin d’avertir les évaluateurs que des manquements aux informations relatives à la réputation ne sont pas toujours mauvais.
Mais comme vous pouvez le voir, la même chose ne s’applique pas aux grands sites ou entreprises :
« Vous devriez vous attendre à trouver des informations sur la réputation des grandes entreprises et des sites web de grandes organisations, ainsi que des créateurs de contenu connus. »
Les évaluateurs sont encouragés à examiner les informations de réputation créées par des tiers, plutôt que de se fier exclusivement au contenu créé par la marque ou l’auteur lui-même :
Traduction :
« Mais pour l’évaluation de la qualité des pages, vous devez également rechercher des informations extérieures et indépendantes sur la réputation du site. Lorsque le site web dit une chose sur lui-même, mais que des sources externes de bonne réputation ne sont pas d’accord avec ce qu’il dit, faites confiance aux sources externes. »
Cela signifie qu’il est absolument vital d’avoir une réputation positive si vous voulez optimiser votre référencement dans les moteurs de recherche.
Si vos créateurs de contenu ont la réputation de répandre des informations erronées, cela limitera sérieusement votre capacité à bien vous classer. Par ailleurs, l’absence de réputation ne vous nuira pas au sens strict du terme, mais cela signifie que les auteurs ayant une réputation positive vous surpasseront.
Pour le branding de votre entreprise et de vous-mêmes :
- Interagissez avec votre audience et les influenceurs sur les réseaux sociaux ;
- Développez un leadership éclairé en vous plaçant sur des plateformes de confiance ;
- Racontez votre histoire pour établir un lien avec votre public ;
- Etc.
Tout cela contribuera à votre image d’expert fiable et digne de confiance sur les sujets que vous abordez.
N’oubliez pas qu’un docteur qui n’est pas connu sur le web qui publie un article, n’aura pas la même performance qu’avec un bloggeur très connu qui a un E-A-T très élevé.
Même si vous êtes vraiment bon dans votre niche avec beaucoup de connaissances, vous allez manquer d’E-A-T pour ce sujet car personne d’autre ne vous mentionne en ligne.
Les contenus que vous allez publier ne seront probablement pas bien classés tant que vous n’aurez pas acquis une certaine autorité en ligne.
Pas actuellement reconnu comme une référence dans votre niche ? Il est temps d’enrichir votre biographie et de l’ajouter à vos contenus éditoriaux. Cela vous permettra de mieux vous classer dans les recherches de Google.
2.5.3. Produisez des contenus de haute qualité pour instaurer la confiance
Aussi tentant qu’il soit d’écrire votre contenu juste pour apparaître lors d’une recherche, vous devez donner la priorité à votre utilisateur.
Google aime les contenus bien détaillés et qui sont très utiles aux utilisateurs :
Evitez le keyword stuffing, en bourrant votre contenu avec des mots-clés dans l’espoir de mieux vous positionner.
Les directives de Google en matière de recherche de qualité stipulent indique que « le keyword stuffing » implique un contenu de faible qualité :
Votre contenu doit soit aider, soit apprendre à vos utilisateurs quelque chose sur un sujet en rapport avec votre activité.
Google a dressé une liste de pages utiles courantes, dont les suivantes :
- Partager des informations sur un sujet ;
- Partager des informations personnelles ou sociales ;
- Partager des photos, des vidéos ou d’autres formes de médias ;
- Exprimer une opinion ou un point de vue ;
- Divertir ;
- Pour vendre des produits ou des services ;
- Pour permettre aux utilisateurs de poster des questions auxquelles d’autres utilisateurs pourront répondre ;
- Pour permettre aux utilisateurs de partager des fichiers ou de télécharger des logiciels.
Laissez les visiteurs exprimer leur opinion sur votre contenu et n’hésitez pas à utiliser les noms réels des personnes ou des entreprises que vous avez aidées afin que les gens puissent vérifier vos affirmations.
Soyez une source d’information fiable et que vos pages apportent réellement une valeur ajoutée aux utilisateurs :
Par ailleurs, évitez les contenus qui ont tendance à tromper les utilisateurs. Google déteste ces types de contenus et vous risquez d’être durement sanctionné si vous en faites usage.
Voici quelques exemples de comportements et de contenus trompeurs :
- Usurpation d’identité d’autres marques ou personnes ;
- Vol d’informations personnelles telles que des mots de passe ou des cartes de crédit ;
- Utilisation d’informations inexactes ou incorrectes pour manipuler les visiteurs ;
- Simuler les critiques ;
- Faire de fausses déclarations au profit de quelqu’un ;
- Publicité trompeuse ;
- Etc.
Proposer toujours des informations fiables pour instaurer la confiance auprès de votre audience.
2.5.4. Assurez-vous d’avoir des mentions et des backlinks des sites d’autorités
L’autorité est plus compétitive que l’expertise et la fiabilité. Elle se mesure généralement par rapport aux autres options dans votre niche.
Pour estimer que vous avez une grande autorité dans votre secteur, il faut que :
- D’autres sites web traitant de la même thématique, notamment les sites d’autorité, mentionnent vos contenus et font des backlinks vers vous ;
- Votre enseigne soit mentionnée par des personnes sur les différentes plateformes comme les réseaux sociaux ;
- Le volume de recherche de votre marque est élevé.
Pour ce faire, il est pertinent :
- De mener des campagnes de netlinking : Il s’agit de l’un des moyens les plus efficaces pour renforcer l’autorité d’un site web. Toutefois, il faut vous concentrer sur les backlinks issus de site ayant un E-A-T très élevé.
- De toujours vous démarquez de la concurrence : Pour être une autorité, vous ne devez pas faire comme la compétition. Vous devez fournir des services exceptionnels et vous assurez d’avoir une approche unique par rapport à la compétition.
2.5.5. Enrichissez la confiance qu’inspire votre marque
Il a plusieurs choses que vous pouvez faire pour montrer à tous visiteurs qu’il peut vous faire confiance.
Pensez à créer une page « À propos » afin de donner aux visiteurs des informations sur les propriétaires ou les dirigeants de votre business ou de votre site web.
Faire en sorte que les informations pour contacter l’entreprise soit détaillées et claire, est également un bon point pour instaurer la confiance. Les choses semblent généralement louches quand il manque une adresse ou des coordonnées à une marque.
Avez-vous une équipe ? Vous pouvez ajouter une page d’équipe qui vous permet d’ajouter des biographies de chaque membre auxquelles les visiteurs peuvent s’identifier.
Avez-vous des clients satisfaits ? Il serait peut-être judicieux de les mettre sur votre page d’accueil. Cela permet de montrer votre crédibilité, mais il faut vous assurer de donner des noms complets et des informations fiables que les visiteurs peuvent vérifier.
Vous pouvez également utiliser des services web d’évaluation de produits comme Trustpilot, BazaarVoice et Power Reviews pour mettre en évidence les niveaux de satisfaction de vos utilisateurs. Notez que les algorithmes de Google utilisent ces sites web pour évaluer les sites web.
Enfin, difficile d’être crédible lorsque les navigateurs des visiteurs leur indique que votre site web n’est pas sécurisé :
Pensez à utiliser le HTTPS et prenez des mesures de sécurité contre les pirates informatiques et les spammeurs.
2.5.6. Se concentrer sur l’E-A-T ne remplace pas les autres objectifs SEO
L’E-A-T n’est pas venu remplacer les 200 autres facteurs de classement de Google. C’est pourquoi, vous devez toujours recourir aux stratégies traditionnelles de référencement que sont entre autres :
- L’optimisation des pages pour le mobile ;
- L’amélioration de la vitesse de chargement des pages ;
- La recherche de mots-clés ;
- Supprimer les liens brisés ;
- Etc.
En réalité, il faut doivent que toutes ces stratégies soient exécutées pour que les efforts d’E-A-T soient couronnés de succès.
Rappelez-vous que c’est une combinaison d’algorithme qui conceptualise l’E-A-T. Vous pouvez revoir vos stratégies SEO afin de voir dans quel mesure intégré l’E-A-T dans vos objectifs d’optimisation.
Chapitre 3 : Quelques études de cas d’un E-A-T bien optimisé
Pour finir notre article, voyons quelques études de cas que Marie Haynes a publié sur son site web. Il s’agit de preuves concrètes que l’E-A-T est réellement un facteur de classement.
Si vous voir les détails de chaque exemple, consultez la section « Early E-A-T success story – Saas brand » de son article sur l’E-A-T.
Après avoir été négativement impacté par les mises à jour, ces site web ont connu une amélioration de leur trafic après une optimisation de leur E-A-T :
Source : Mariehaynes
Par contre, les sites web suivant n’ont pas été touchés par les mises à jour. Ils ont quand même connu une amélioration significative de leur trafic :
Source : Mariehaynes
Conclusion : L’E-A-T – Un facteur de classement important à prendre en compte
D’année en année, Google s’approche de son idéal qui est de proposer à ses utilisateurs les informations les utiles pour leurs différentes requêtes. Pour ce faire, la firme n’hésite pas à apporter des milliers de changements à son système chaque année.
Ce qui ne reste pas sans conséquence pour les sites web. Alors que certains perdre des places chèrement acquises dans les SERPs, d’autres émergent.
A partir de 2017, l’E-A-T de Google sera la cause d’un profond bouleversement dans les SERPs. Notamment pour les sites YMYL qui ont un impact direct ou indirect sur la santé, le bonheur et l’aspect financier des internautes.
Dans ce guide, j’ai eu l’occasion de vous faire découvrir les origines de ce concept et comment Google l’exploite pour évaluer la qualité des contenus. Vous savez également toutes les actions à mener pour optimiser votre E-A-T afin d’émerger dans les résultats de recherche.
Mais avant de vous lancer dans l’amélioration de votre E-A-T, je vous recommande fortement de faire un audit complet de votre site. Cela vous permet d’identifier :
- Vos faiblesses afin de les renforcer ;
- Vos forces et de les optimiser ;
- Les opportunités que vos concurrents n’ont pas encore saisies ;
- Les pièges à éviter pour ne pas gaspiller vos ressources.
De cette façon, vous pourrez mettre en place des stratégies pertinentes et efficaces pour optimiser votre E-A-T.
A bientôt !