Raphaël Richard, spécialiste du webmarketing, publie une étude nommée Google Décodé, qui a pour ambition d'analyser les 300 critères utilisés par Google pour définir la pertinence, personnaliser ou pénaliser un site web...
Raphaël Richard, dirigeant d'une agence de référencement française et acteur "historique" du domaine dans l'Hexagone, livre dans l'étude "Google Décodé" qui vient de paraître les 300 critères de classement qui sont, selon lui, pris en compte par Google dans son algorithme de pertinence.
"Pour diminuer le temps de veille sur le fonctionnement de Google, je cherche depuis des années un ouvrage qui donnerait la liste de tous ses critères de classement. Mais je ne l'ai jamais trouvé" commente Raphaël Richard. "Il y a deux ans, Matt Cutts a affirmé que l'algorithme de Google tenait compte de 200 critères, qui ce qui corroborait nos estimations internes (230 à 250 critères de classement et apparition de 20 à 30 nouveaux critères par an). J'ai donc décidé de compléter ma liste personnelle qui contenait 70 critères de classement.
"Mais, lors de mes formations au référencement, lorsque je présentais cette liste des 70 premiers critères, on m'a rapidement posé des questions sur le poids relatif de chaque critère. Ma première réponse a consisté à attribuer un pourcentage à chaque critère dans l'algorithme. Cela s'est rapidement avéré insatisfaisant car si la présence du mot clé dans la balise H1 s'avérait être le critère ayant le plus de poids pour les mots clés long tail, ce n'était pas la balise H1 qui permettait à un site de gagner une position sur les mots cles short tail. J'ai mis 18 mois pour élaborer une nouvelle thèse représentant le mode de calcul du score de pertinence de Google que je présente dans une vidéo sur le site", conclut l'auteur de l'étude.
Les principaux enseignements de l'étude sont les suivants :
- Les sites qui sont bien référencés satisfont rarement plus de 50 à 60 critères de classement de Google sur un total de 300. Les sites mal référencés satisfont, pour leur part, un nombre de critères de classement encore moins important (20 à 30).
- Très souvent, les trois premiers sites du haut de la page, se positionnent pour des raisons très différentes : l'un marquant un grand nombre sur les critères liés à la confiance, l'autre sur des critères liés aux liens pointant vers lui et le dernier bénéficiant d'une structure de site très favorable.
Les chiffres clés de l'étude :
- Google repose sur un réseau de 5 à 10 millions d'ordinateurs. Chaque ordinateur répond en moyenne 200 ou 300 internautes.
- L'algorithme de classement tient compte de 300 à 350 critères de classement : 227 critères sont pris en compte sur le moteur de recherche généraliste, 147 critères de classement et conditions d'indexation, 26 pénalités, 9 sanctions prises par Google et 25 critères de personnalisation.
- 70 critères concernent les moteurs de recherche spécialisés de Google (Adresses, Vidéo, Blogs, Image : recherche universelle / universal search).
- 30 nouveaux critères viennent s'ajouter tous les ans aux précédents.
- 100 millions de sites web indexés dans le monde.
- Plus de 1 000 milliards de documents mis en ligne.
Certains vont certainement railler ce travail en évoquant un prix trop élevé (1 290 euros pour la version complète), mais le tome 1 (80 pages) est disponible gratuitement en téléchargement. Plutôt présenté sous la forme d'un livre blanc sur le fonctionnement de Google, ce premier tome est intéressant mais ne livre pas les secrets qui sont censés se trouver dans le Tome 2. On regrettera cependant que les critères révélés dans des extraits sur le site JDN sont assez complexes à comprendre au travers de phrases parfois absconces. Exemple : "La présence du mot clé dans le nom de domaine (...) renforce la pertinence d'un site. Mais l'effet de ce facteur, encore considéré comme primordial par de nombreux référenceurs, est confondu avec une conséquence de la présence du mot clé dans le nom de domaine". Difficile de comprendre le sens d'une telle phrase, le phénomène se renouvellant plusieurs fois dans ces "bonnes feuilles" en pré-publication. Dommage...
Ce travail n'en reste pas moins conséquent et, bien que son prix ne le mette pas à la portée d'un webmaster indépendant ou d'un passionné du Web, il vaut certainement la peine d'être consulté pour faire avancer nos connaissances des algorithmes du célèbre moteur de recherche. L'apparition d'un livre pointu sur le sujet (il en existe tellement qui ne font qu'effleurer le sujet...) est toujours une bonne nouvelle...
Raphaël Richard, dirigeant d'une agence de référencement française et acteur "historique" du domaine dans l'Hexagone, livre dans l'étude "Google Décodé" qui vient de paraître les 300 critères de classement qui sont, selon lui, pris en compte par Google dans son algorithme de pertinence.
"Pour diminuer le temps de veille sur le fonctionnement de Google, je cherche depuis des années un ouvrage qui donnerait la liste de tous ses critères de classement. Mais je ne l'ai jamais trouvé" commente Raphaël Richard. "Il y a deux ans, Matt Cutts a affirmé que l'algorithme de Google tenait compte de 200 critères, qui ce qui corroborait nos estimations internes (230 à 250 critères de classement et apparition de 20 à 30 nouveaux critères par an). J'ai donc décidé de compléter ma liste personnelle qui contenait 70 critères de classement.
"Mais, lors de mes formations au référencement, lorsque je présentais cette liste des 70 premiers critères, on m'a rapidement posé des questions sur le poids relatif de chaque critère. Ma première réponse a consisté à attribuer un pourcentage à chaque critère dans l'algorithme. Cela s'est rapidement avéré insatisfaisant car si la présence du mot clé dans la balise H1 s'avérait être le critère ayant le plus de poids pour les mots clés long tail, ce n'était pas la balise H1 qui permettait à un site de gagner une position sur les mots cles short tail. J'ai mis 18 mois pour élaborer une nouvelle thèse représentant le mode de calcul du score de pertinence de Google que je présente dans une vidéo sur le site", conclut l'auteur de l'étude.
Les principaux enseignements de l'étude sont les suivants :
- Les sites qui sont bien référencés satisfont rarement plus de 50 à 60 critères de classement de Google sur un total de 300. Les sites mal référencés satisfont, pour leur part, un nombre de critères de classement encore moins important (20 à 30).
- Très souvent, les trois premiers sites du haut de la page, se positionnent pour des raisons très différentes : l'un marquant un grand nombre sur les critères liés à la confiance, l'autre sur des critères liés aux liens pointant vers lui et le dernier bénéficiant d'une structure de site très favorable.
Les chiffres clés de l'étude :
- Google repose sur un réseau de 5 à 10 millions d'ordinateurs. Chaque ordinateur répond en moyenne 200 ou 300 internautes.
- L'algorithme de classement tient compte de 300 à 350 critères de classement : 227 critères sont pris en compte sur le moteur de recherche généraliste, 147 critères de classement et conditions d'indexation, 26 pénalités, 9 sanctions prises par Google et 25 critères de personnalisation.
- 70 critères concernent les moteurs de recherche spécialisés de Google (Adresses, Vidéo, Blogs, Image : recherche universelle / universal search).
- 30 nouveaux critères viennent s'ajouter tous les ans aux précédents.
- 100 millions de sites web indexés dans le monde.
- Plus de 1 000 milliards de documents mis en ligne.
Certains vont certainement railler ce travail en évoquant un prix trop élevé (1 290 euros pour la version complète), mais le tome 1 (80 pages) est disponible gratuitement en téléchargement. Plutôt présenté sous la forme d'un livre blanc sur le fonctionnement de Google, ce premier tome est intéressant mais ne livre pas les secrets qui sont censés se trouver dans le Tome 2. On regrettera cependant que les critères révélés dans des extraits sur le site JDN sont assez complexes à comprendre au travers de phrases parfois absconces. Exemple : "La présence du mot clé dans le nom de domaine (...) renforce la pertinence d'un site. Mais l'effet de ce facteur, encore considéré comme primordial par de nombreux référenceurs, est confondu avec une conséquence de la présence du mot clé dans le nom de domaine". Difficile de comprendre le sens d'une telle phrase, le phénomène se renouvellant plusieurs fois dans ces "bonnes feuilles" en pré-publication. Dommage...
Ce travail n'en reste pas moins conséquent et, bien que son prix ne le mette pas à la portée d'un webmaster indépendant ou d'un passionné du Web, il vaut certainement la peine d'être consulté pour faire avancer nos connaissances des algorithmes du célèbre moteur de recherche. L'apparition d'un livre pointu sur le sujet (il en existe tellement qui ne font qu'effleurer le sujet...) est toujours une bonne nouvelle...