Le moteur de recherche le plus utilisé au monde a toujours prétendu vouloir offrir pour chaque requête les pages qui correspondent aux attentes des internautes, sans vraiment y parvenir. Jusqu’à aujourd’hui, il classait les sites dans ses SERPs en fonction des données prélevées et analysés par les algorithmes qu’il avait lui-même élaboré, puis mis à jour à partir de ses exigences du moment. Ces algorithmes déterminaient les pages optimisées le plus justement, les mieux linkés, les plus partagés… Sans parvenir à déterminer les contenus les plus qualitatifs du point de vue de l’utilisateur. L’idée désormais est de concevoir des outils d’analyse et de classement qui se modifient eux-mêmes en se basant sur les informations collectées pour s’adapter aux besoins des internautes.
Le machine learning au service du SEO
Littéralement, le « machine learning » signifie « machine qui apprend. » Google a donc développé des robots disposant d’un système d’apprentissage automatique. Plus précisément, ces outils ont la capacité, non plus seulement de prélever des informations sur les sites et de les analyser en fonction de paramètres prédéfinis, mais de mettre à jour ces paramètres en fonction des données collectées. Pour évaluer la qualité des pages, Google a donc décidé de s’adapter aux expériences des utilisateurs. Vous pouvez compléter votre lecture en parcourant le blog consultantinfoweb.com/blog/
Rankbrain
Apparu en avril 2015, Rankbrain est le premier composant de l’algorithme de Google qui met en application cette notion de machine learning. Le but de Rankbrain est de mieux comprendre les requêtes des internautes pour présenter dans les SERPs des résultats les plus pertinents possibles. L’idée est d’éviter que la signification des mots-clés soit mal comprise et notamment, que des malentendus surviennent entre homonymes. Par exemple, si un internaute fait une recherche contenant le mot-clé « Hébergement », Rankbrain devra déterminer, suivant les co-occurrences qui accompagnent le mot-clé principal, si la requête concerne plutôt un hébergement hotelier ou un hébergement web. Et du côté serveur, l’algorithme de Google va analyser le contenu des pages à classer, en se focalisant, non plus seulement sur le mot-clé «Hébergement », mais sur les autres mots-clés présents dans la page. C’est pour cette raison que l’optimisation d’un site ne consiste plus à créer une multitude de pages consacrées à des variantes du mot-clé principal et d’optimiser ces pages en truffant les balises et les paragraphes de ce mot-clé principal. Au contraire, il faut désormais mettre en place son arborescence des pages et optimiser ses pages en mettant en pratique la théorie du glissement sémantique et en exploitant la relation entre les termes sémantisés. Si nous reprenons notre exemple, Google pourra alors déceler si chacune des pages aborde la question de l’hébergement hôtelier ou de l’hébergement web, pour déterminer la pertinence des pages en fonction des différentes requêtes.
Une compréhension des internautes
Les webmasters souhaitant mieux positionner leur site doivent fournir un effort particulier pour mieux comprendre les besoins des internautes. Tout d’abord, vous pouvez analyser la pertinence de vos pages avec Google Analytics et améliorer le contenu de celles qui affichent un taux de rebond élevé. Par ailleurs, il est important d’analyser les mots-clés de votre secteur et de votre thématique (avec les outils en ligne) pour mieux comprendre quels sont les besoins des internautes et comment ils formulent leurs requêtes. Vous obtenez donc des pistes pour rédiger et optimiser vos pages et les adapter aux attentes des utilisateurs.