Google n’est pas leader de la recherche web pour rien. Il propose depuis maintenant des dizaines d’années les meilleurs résultats, souvent de très loin, en comparaison à ses compétiteurs. Pour cela, il s’est sans cesse appuyé sur des algorithmes performants et l’analyse fine des données issues de la recherche web.
Mais cette hégémonie lui a valu d’être entraîné dans un procès antitrust aux États-Unis. Les documents révélés lors de ce procès courant 2024 ont permis de mieux comprendre la pertinence de ses résultats et la façon dont Google exploite les interactions des utilisateurs pour les améliorer.
Les référenceurs web professionnels avaient de nombreuses intuitions sur la façon dont le moteur fonctionne, appuyés parfois par des articles scientifiques ou des expérimentations. Mais tout ne s’expliquait pas, loin de là.
Grâce à ce procès, tout le monde a pu découvrir des documents édifiants sur la façon dont Google a évolué au cours des dix dernières années. On commence à avoir bien plus de clarté. Une brique du moteur de recherche appelée Navboost se distingue de toutes les autres.
Ce Navboost, c’est ce qui a permis à Google de commencer à sortir des briques algorithmiques magnifiquement bâties, mais souvent trop faciles à tromper.
Ce Navboost, c’est la prise en compte de ce que les internautes apprécient. C’est la prise en compte des comportements des utilisateurs.
Une page web est bien si les personnes qui la consultent la trouvent bien. Dis comme cela, c’est une évidence.
Plongeons dans Navboost.
La prise en compte du comportement utilisateur chez Google
En réalité, la prise en compte du comportement des utilisateurs chez Google n’est pas particulièrement récente. Cela fait au moins une décennie que des algorithmes, comme le learning to rank, ou les retours fastidieux des quality raters sont intégrés dans la recherche web. Ces données ont longtemps servi de base pour ajuster le classement des contenus proposés dans les résultats.
L’objectif global reste simple : améliorer sans cesse la pertinence et la qualité des résultats affichés dans la SERP. Google sait que pour rester compétitif, il doit proposer une expérience de recherche alignée avec les attentes des utilisateurs. Les documents issus du procès montrent clairement que la qualité seule ne suffisait plus. L’algorithme devait évoluer pour intégrer des interactions et données comportementales plus complexes.
Alors, et c’est ce que l’on découvre dans des slides édifiants du procès antitrust, un jour Google décide de changer le paradigme du moteur de recherche. À la base, ils veulent améliorer la qualité de la SERP. Mais ils se rendent compte que le procédé à des limites, car définir la qualité c’est une tâche très complexe, souvent trop compliquée (surtout avant que des LLMs performants pointent le bout de leur nez). Ils décident alors de changer leur but. Il ne s’agit plus de proposer les contenus les plus qualitatifs, mais les contenus qui plaisent le plus aux utilisateurs.
Ils se rendent bien compte des problèmes que cela implique : des contenus faits pour attirer les clics, piéger les utilisateurs, vont nécessairement apparaître plus facilement. Des contenus un peu rudes à lire mais très qualitatifs vont disparaître.
Ils décident cependant de ne pas s’en faire : la brique algorithmique habituelle (QBST, Mustang, etc.) va faire le boulot de classement initial, puis les twiddlers, des mini-briques, vont jouer les policiers pour sortir les pages qui débordent trop, tandis que Navboost va réordonner les meilleures pages restantes pour que le classement final soit le préféré des internautes.
En 2005 apparaît officiellement Navboost, même si au début il est probable que l’optimisation n’était pas basée sur le clic, ou en tout cas, son effet n’était pas aussi fort que ce qu’on peut observer depuis 2018-2021. Il surveille les interactions utilisateurs avec la SERP, puis change subtilement le classement pour toujours proposer les pages qui vont, d’après une prédiction algorithmique, avoir le plus d’interactions avec les utilisateurs.
Navboost, comment ça marche ?
Navboost est un algorithme de prédiction. Il essaie, par exemple, de maximiser les chances que lorsqu’il réordonne les résultats d’une SERP, le premier résultat soit toujours celui qui serait le plus cliqué par un utilisateur humain. Il fait la même chose pour le second résultat, le troisième, etc.
Il s’agit donc de faire une prédiction sur le CTR (taux de clics), de façon à savoir ce qui va être cliqué. Si l’on fait une bonne prédiction, alors les utilisateurs seront heureux, car la SERP sera affichée dans l’ordre dans lequel ils auraient voulu cliquer dessus.
Cela est rendu possible par une capacité absolument phénoménale de Google de faire du machine learning à grande échelle. Pour fabriquer le modèle de prédiction, on parle de la récolte d’un milliard de comportements utilisateurs par jour, pour l’analyse de 100 milliards de clics permettant d’identifier les comportements intéressants. En clair, Google monitore une énorme partie du flux de ses utilisateurs et stocke leurs comportements sur 13 mois complets pour pouvoir aboutir à la prédiction par Navboost.
Les signaux comportements exploités sont les taux de clics sur les pages des SERPs, le dwell time (est-ce que l’utilisateur reste longtemps sur une page cliquée depuis la SERP), et les motifs de navigations déterminants (analyse des allers-retours SERPs/sites, scrolling sur la SERP, hover, etc. On peut tout imaginer en réalité : dès que des tests montrent un nouveau motif intéressant, il est sans doute activement monitoré ensuite).
Cependant, Google ne s’appuie pas uniquement sur les données issues de la SERP. Chrome, son navigateur, joue également un rôle majeur dans la captation des données utilisateur. Mais faire la part des choses entre ce que Navboost utilise précisément et ce qui est exploité par d’autres algorithmes, comme Mustang, reste un véritable casse-tête. Ce que l’on sait avec certitude, c’est que Navboost s’appuie intensivement sur les données comportementales provenant de la SERP. En revanche, Mustang semble intégrer, en plus, des informations captées via Chrome, comme les interactions internes à un site ou des comportements plus détaillés liés à la navigation.
Les documents révélés lors du procès ne permettent pas de trancher totalement sur les sources utilisées par chaque algorithme. Cela illustre à quel point l’écosystème algorithmique de Google est interconnecté et parfois encore opaque.
Contrairement à ce que l’on pourrait penser, Navboost ne cherche pas à prédire un comportement moyen généralisé. Google segmente les données selon des critères comme la localisation, la langue, l’appareil utilisé ou l’OS. Ce découpage, appelé slicing, permet de personnaliser les résultats pour des groupes d’utilisateurs et de rendre la recherche plus pertinente. Un utilisateur à Paris sur Chrome pourrait ainsi obtenir une SERP différente de celle d’un utilisateur à Nantes utilisant Safari.
Le fait d’utiliser un historique sur une période de 13 mois permet bien sûr de voir beaucoup de comportements et ainsi faire de bonnes prédictions pour de nombreux cas. Mais parfois un Navboost plus rapide, qui prend 24h de data seulement, va prendre la main pour proposer des résultats plus liés à l’actualité ou aux variations très rapides de comportements face à des événements ou des tendances ponctuelles.
Navboost le couteau-suisse du Search ?
En lisant les documents du procès, on se rend compte que chez Google, Navboost est vu comme un algo roi. Grâce à son historique qui s’appuie sur des résultats de recherche déjà bien travaillés par d’autres algorithmes, il apprend la meilleure façon d’optimiser une SERP, mais oublie au passage qu’il s’approprie tout le travail effectué précédemment.
Une jalousie envers Navboost semble réellement exister en interne.
C’est un peu comme si une IA de type LLM (ChatGPT et cie.) devenait ultra-performante en prenant à son compte tous les contenus récupérés ici et là. On comprend que cela peut énerver.
Cela étant, comme Navboost donne de très bons résultats, Google l’utilise pour d’autres tâches que le ré ajustage des positions des pages. Par exemple, les snippets et les sitelinks sont ajustés pour maximiser les taux de clics.
On voit aussi dans les leaks Google des références à Navboost reliées aux entités nommées, de quoi s’attendre à voir des SERPs aménagées -encore une fois- ainsi que le Knowledge Graph.
Mais ce n’est pas trop compliqué Navboost ?
C’est quand même incroyable qu’une brique aussi importante que Navboost soit passée sous le radar pendant des années. Bien sûr les SEOs avaient quelques intuitions et faisaient des hypothèses, mais la communication Google rendait les choses compliquées.
En effet, Google affirmait depuis fort longtemps que le CTR n’était pas un signal de classement. Ils le criaient sur tous les toits. Autant dire que si les experts SEO en parlaient hypothétiquement entre eux, c’était un discours inaudible auprès d’une communauté plus large et moins experte. Pourtant, c’était vrai. Le CTR est utilisé dans les classements de Google. Les documents internes le disent. Pas seulement les SEOs.
Au-delà du problème de communication et de défiance (une société a le droit de ne pas répondre ou ne pas communiquer sur sa façon de faire sa techno et ses algos. Mais mentir n’est pas une option que l’on attend…), Navboost présente d’autres sérieux soucis.
La récolte des datas n’est pas toujours évidente, comme le scroll sur un téléphone qui n’indique sans doute pas la même chose que le scroll sur un écran 12 pouces voire sur un écran 32 pouces. Ainsi, plus les interfaces sont complexes, plus capturer les nuances doit devenir compliqué.
Le découpage en tranches de la data répond bien sûr en partie à cette problématique : on peut regrouper tous les contextes similaires, et ainsi réduire la présence de différence indétectables pourtant bien là.
Comme déjà évoqué, ce n’est pas toujours très clair dans les leaks Google et les documents du tribunal, mais on ressent que Chrome joue un grand rôle en termes de captation des données utilisateurs.
Chrome c’est le navigateur de Google et il renvoie beaucoup d’informations vers son entreprise : depuis la SERP bien sûr – mais ce pourrait être fait en javascript depuis n’importe quel navigateur – mais aussi, pourquoi pas, quand on consulte des sites. Les clics réels internes à un site permettent par exemple de bien comprendre quelles sont les pages importantes, et ainsi on peut faire les meilleurs sitelinks.
Pour ma part, je parie que Chrome est au cœur d’une très grosse partie de la récolte de la data, car la seule information venant de la SERP semble un peu insuffisante pour bien comprendre l’attractivité d’un site ou des pages d’un site. Quoi de mieux que d’observer quelqu’un naviguer sur un site complet pour comprendre s’il lui plait et ce qui lui plait.
Avec Navboost, il peut y avoir des biais. Peut-être qu’en faisant une tranche particulière de data on va isoler des comportements reliés à des préférences culturelles ou politiques, renforçant ainsi encore plus le biais.
Le pire défaut de Navboost, déjà évoqué plus tôt, mais indispensable à rappeler : tout miser sur les clics limite la diversité des résultats. Au bout d’un moment on peut parier que ce sont toujours les mêmes pages mises en avant qui seront toujours les plus appréciés. Il ne semble pas intéressant de les faire descendre de leur piédestal, si bien que les nouveaux arrivants ne risquent pas d’avoir la chance d’être un jour proposés en bonne position dans les classements.
Et si on n’affiche pas une page à un moment donné parmi les tops positions, on ne peut pas récolter de data d’interaction avec l’humain, faute d’avoir un panel assez large de possibilités de clics dessus.
Comment profiter de Navboost en SEO ?
Parlons maintenant de la façon dont on peut réagir face à Navboost pour espérer en tirer parti.
Déjà, c’est primordial, il faut convaincre toute personne qui verrait dans une SERP Google une page de notre site à cliquer dessus. Il faut donc soigner les titles, les meta description, tout ce que l’on peut personnaliser dans le snippet, pour donner envie de cliquer. CLIC, CLIC, CLIC. C’est essentiel !
Ensuite, il faut avoir des contenus engageants sur ses pages. On ne parle pas de faire un contenu qualitativement expert – même si c’est souvent relié – mais un contenu qui plaît. Quand Google affirme qu’il faut penser à l’internaute et que tout ira bien, ce n’est pas totalement faux.
Pour savoir si on parvient à bien faire les choses, on peut suivre quelques métriques du site : le CTR dans la Google Search Console, le temps de rétention. Mais bien plus simplement on peut être sûr que si on a de nombreuses visites venant de sources non organiques, il y a fort à parier que les pages sont attractives.
Par exemple, un contenu poussé depuis un réseau social et qui performe est un bon contenu pour Navboost.
Attention ! Navboost réordonne une SERP qui est générée par les algos de classement plus classiques de Google. Cela veut dire qu’il faut déjà être dans la première liste de candidats à la SERP pour pouvoir passer dans Navboost.
Si un site n’a jamais eu aucun de ses pages présentées un jour dans le top 10, on peut assez légitimement penser que ce n’est pas Navboost qui arbitrera. Il faut travailler les classiques du SEO (popularité, sémantique) ou alors il faut feinter et faire en sorte que des utilisateurs Chrome utilisent notre site et s’en montrent contents, peu importe d’où ils viennent originellement.
Cependant, si on est top 10, on regarde de près.
Et si jamais dès qu’on obtient de très bonnes positions on repart loin, c’est que les humains, et donc Navboost ensuite, pensent que les contenus ne valent pas le détour.
Si on a des métriques similaires à un concurrent mais qu’on reste toujours quelques places en dessous, c’est aussi certainement Navboost qu’il faut actionner. Avoir un peu plus de clics naturellement peut largement changer la donner et inverser la tendance !
Navboost, la machine à re-ranker de Google
La brique Navboost c’est un peu la bête noire du pro du SEO. On se doutait que quelque chose de ce genre existait, mais sans bien comprendre comment cela pouvait fonctionner.
Avec la description de Navboost que l’on connait, cela remet les choses en perspective. Il faut faire évoluer nos pratiques en SEO.
On ne peut plus miser que sur la technique ou sur la qualité des contenus. On doit faire plus, on doit miser sur le trafic qualifié.
Pour avoir un site qui performe en SEO, Navboost nous souffle qu’il faut déjà avoir un site qui performe.
Faire de la promotion hors SEO pour le SEO, faire connaitre son site, sa marque, faire bonne impression, c’est devenu indispensable.
Plus on aura du trafic hors SEO et des contenus adaptés, plus ce sera facile de monter en tête des classements et surtout d’y rester.
Rassurons-nous un peu. Le SEO technique n’est pas mort, car Navboost ne régit pas tout le classement, et qu’il faut bien aussi de temps en temps que Google teste de nouveaux sites et de nouvelles pages.
Avoir mis en place toutes les bonnes pratiques des années 2020-2024 c’est parfait. Mais il faut aller un peu plus loin maintenant.
Les trois piliers habituels : technique, popularité, contenu, sont toujours d’actualité. Mais il faut bien se dire que la popularité est davantage de l’autorité : il faut une reconnaissance du site par les internautes, et il faut penser que le contenu ce n’est pas toujours le meilleur contenu, c’est un contenu qui est attractif, sans sombrer dans la facilité.
Navboost change la face du SEO. Adaptons-nous. Pensons toujours de plus en plus aux utilisateurs, aux lecteurs et futurs lecteurs de nos sites. Soignons-les, faisons leur confiance pour reconnaitre et lire des pages rédigés pour les aider, les instruire, les divertir.