Pour le SEO, les liens entrants sont un sujet historique. On parle souvent
des 3 piliers du SEO en mentionnant l’autorité pour faire référence aux
backlinks. Nous allons voir aujourd’hui que l’autorité ce n’est pas que ça, et
que pour l’améliorer il n’y a pas que l’acquisition de backlink qui rentre en
ligne de compte. Pour autant choisir un backlink a toujours un impact, et il
y a de meilleures façons de faire que juste choisir le lien le plus cher.
Comment optimiser l’efficacité de votre acquisition de liens ?
Définition de l’autorité
Le PageRank et ses variantes
Le PageRank est une formule qui a vu beaucoup d’évolutions depuis sa création, puis le dépôt de son brevet.
Initialement, le PageRank est une formule qui permet de trier des pages en fonction des liens entrants qu’elles reçoivent.
Chaque lien contribue au PageRank de la cible, et sa valeur est calculée avec une portion du PageRank de la source, réduit par le nombre de liens sortants sur la page source.

Depuis, d’autres facteurs sont intervenus dans le calcul :
· L’inverse de la distance entre chaque page, calculée en fonction des embeddings * de chaque url : une notion de thématisation du PageRank rentre en ligne de compte.

(* embedding : plongement sémantique : représentation des mots sous forme de vecteurs pour le traitement automatique des langues, encodant le sens de chaque mot sous forme de nombre. Grâce à l’embedding, on peut calculer avec les mots suivants : Paris-France+Pologne = Varsovie)
· Une dévaluation en fonction des résultats d’un algorithme anti-spam (si la page ne passe pas l’algorithme, elle ne transmet rien).

· L’emplacement du lien sur la page : c’est la méthode du robot aléatoire raisonnable : plus le lien est dans les premiers liens d’une page, plus il transmet de PageRank.

En produisant une métrique de PageRank qui inclut tous ces facteurs, on peut parvenir à une métrique qui va être cohérente avec le ranking.
Il y a quelques mois, une fuite de la documentation de l’API interne de Google a eu lieu. L’analyse de cette documentation a révélé un nouveau genre de PageRank, qui semble être une dernière version de l’algorithme : le PageRank NearestSeed (NS). Ce PageRank semble un peu inspiré du Trust de Yahoo ! Car il prend en compte un pool de sites de référence et implique un boost si on est mentionné par ces sites, ou à une distance correcte. (Par exemple, Forbes pouvait en faire partie avant de tomber en disgrâce pour abus, c’est un exemple flagrant d’intervention humaine : « Si Forbes ne joue pas le jeu, on le retire de la liste »).
Attention, si on se base uniquement sur le Trust pour essayer d’évaluer l’autorité d’un site, on se tire une balle dans le pied, ce n’est pas prendre en compte l’intégralité des facteurs impactant.
Les facteurs impactant la transmission
Parlons un peu de ces facteurs impactant la transmission dont je parlais plus tôt :
– La thématisation : Sans doute l’un des facteurs les plus complexes à manipuler. Ici on parle d’essayer de trouver des embeddings proches de notre contenu… Ou de rapprocher notre contenu des embeddings des sources existantes. C’est un jeu un peu complexe parce que rapprocher deux contenus sans dénaturer complètement le message individuel de chacun (faites bien la distinction entre le rapprochement sémantique et la duplication, ce n’est pas la même chose) est un travail d’orfèvre, et vous vous devez de vous accompagner d’un bon rédacteur qui comprendra qu’il ne s’agit pas de « juste » rajouter des mots.
– L’emplacement du lien sur la page : Le facteur le plus facile à modifier, déplacez le lien en haut du code html de la page pour avoir le plus de transmission et le tour est joué. Un nombre de liens sortants important réduisant la transmission également. Dans le cadre du robot aléatoire raisonnable, cette notion de nombre de liens sortant est implicitement intégrée par un poids plus élevé sur les premiers liens et décroissant jusqu’au dernier lien. Au-delà du 300e lien, la valeur de transmission est toujours quasi nulle. Google communique sur une limite à 200 liens pour une page, mais restez raisonnables (une centaine de liens sortants, c’est déjà pas mal).
– L’antispam : Le facteur le plus difficile à modifier. Qu’est-ce qui définit le spam du point de vue d’un moteur ? La pauvreté de vocabulaire dans les termes utilisés dans le contexte du contenu, la répétition de n-grams sur une page etc… D’un point de vue algorithmique, il faut se fier à une liste d’urls reconnues comme du spam pour identifier des patterns qui se retrouvent à des niveaux similaires que le dataset d’entraînement. Ainsi, la pratique du keyword stuffing est identifiée assez simplement par un algorithme antispam par exemple.
– Le voisinage de sites importants : C’est sans doute le point le plus compliqué : il faut parvenir à identifier un site dont les liens sont particulièrement efficaces (plus que de raison).
Le trafic naturel
Toujours dans les fuites de documents de Google, et ce, couplé avec les informations qu’on peut récupérer lors du procès antitrust qui oppose Google au ministère de la Justice américain (DOJ), l’autorité inclut le PageRank ainsi que le trafic (dans le Twiddler – un ajustement de la SERP post création – Navboost qui se sert des clics) et la notion de visites naturelles d’une url (spécifiquement via les réseaux sociaux (RS)). Une autre façon de booster l’autorité de vos pages consiste donc à travailler aussi sur le trafic naturel de vos pages (en passant par du Community Management, en optimisant le CTR de la SERP ou en envoyant des newsletters par exemple).
Pour autant, si le suivi du trafic est une surprise, en tout cas à cette échelle pour les SEOs, ça ne rend pas pour autant les méthodes utilisant des backlinks obsolète : tous les critères qui servent au ranking sont utiles pour améliorer ses positions, et pour être le mieux positionné, il faut être le meilleur dans tous les critères actifs.
Trouver des sources de liens
L’identification
Pour trouver des sources potentielles de backlinks, vous avez plusieurs méthodes :
– Accéder au catalogue d’un vendeur de liens
– Produire vos propres sites
– Interagir avec des sites que vous trouvez par vos propres moyens
On va s’intéresser particulièrement au premier et au dernier élément ici, produire ses propres sites est un défi différent, mais si vous prenez en compte les recommandations indiquées ici, vous pourrez y trouver quelques propositions intéressantes pour votre réseau de site. Après tout, la logique de l’acquisition de backlinks est grosso modo la même quel qu’il soit.
Supposons que vous obtenez le catalogue d’un vendeur de liens : vous pouvez y trouver de nombreux sites, généralement indiqués sous une catégorisation humaine, avec de nombreuses métriques de références. Si vous souhaitez exploiter ces catégories et ces métriques de références pour filtrer la liste et réduire votre temps de travail, libre à vous d’en user selon vos préférences.
Supposons que vous contactez par vous-même des partenaires potentiels, vous êtes bien sûr libre de reconstruire une liste de métriques en exploitant vos outils préférés, voire demander quelques informations à ces partenaires en devenir, mais des métriques réellement importantes pourraient être les suivantes :
– Le trafic (on l’a vu dans la section précédente, le trafic naturel est important). Vous pouvez éventuellement coupler cette information avec la possibilité de relai de l’article sur les réseaux sociaux ainsi que le nombre de followers que le site revendique.
– Une métrique de PageRank : Le PageRank se transmet à l’url, mais une notion de PageRank au domaine est indiquée dans les Leaks. C’est surprenant, mais ça peut aider.
– Une métrique de Trust : à ne pas prendre comme étant la valeur réelle des urls d’un site mais plutôt en dernier afin d’aider au choix entre plusieurs possibilités. Attention : le Trust ici doit vous permettre de rapprocher vos choix basés sur le PageRank de ce qu’on espère via le PageRank NearestSeed. Par ailleurs, certaines métriques populaires indiquées comme du Trust ne sont pas réellement du Trust, il vaut mieux éviter donc de prendre le Trust comme la métrique décisive.
Je déconseille de filtrer la liste par les catégories humaines car c’est le meilleur moyen de rater de belles opportunités de linking. Les catégories humaines n’ont pas de sens d’un point de vue de moteur de recherche.
Le filtrage des sources
Vous avez identifié une liste de sources potentielles, vous allez pouvoir commencer un travail de filtrage. Votre intérêt ici est de vous assurer que dans le champ des possibilités, vous ne perdiez pas de temps à identifier les meilleures.
Les éléments à filtrer :
La conservation des liens sortants : Lorsque vous faites de l’acquisition de backlinks, vous achetez un lien qui est placé sur une page. A moins que le site ne change de propriétaire, les liens qui y sont placés ont été payés par un client. Vous souhaitez avoir un partenaire qui va maintenir le lien car perdre le lien, c’est perdre l’autorité associée. De même, vérifiez que les liens sortants ne soient pas en nofollow : le nofollow ne vous apporte pas d’autorité.
Le taux de spam : En utilisant des métriques qui prennent en compte le taux de spam, on peut identifier des sites qui dépassent le taux de spam moyen du web. En France, ce taux est entre 20 et 30%. Au-delà, vous pouvez oublier le site.
Les contenus IA : Sans être un problème pour un contenu spécifique, plusieurs contenus issus d’outils génératifs seraient des indices de contenus réalisés rapidement, avec un minimum d’implication du vendeur. Le tout serait de vérifier surtout si les contenus délivrent des informations intéressantes. Un contenu qui n’a pas de valeur ajoutée, IA ou non, est un contenu qui peut ne pas performer. C’est donc un filtre qui peut être pris en compte dans le choix pour maximiser les chances de performances, mais ce n’est pas une condition sine qua non. Une simple visite sur le site et lecture des articles suffit à s’en rendre compte.
Le taux de sortie du PageRank interne : Un site qui vit de la vente de lien aura tendance à faire beaucoup plus de liens sortants que la normale. Cela augmente grandement son taux de dilution, qui est en moyenne compris entre 3 et 10%. Un site qui dépasse ce taux de dilution est facilement identifié comme un site de vente de lien, ce qui tombe dans la définition du spam par Google. Ses liens sortants ont une chance de ne pas avoir une grande valeur. Pour identifier le taux de dilution d’un site, il faut crawler le site et on calcule la répartition via les liens sortants du PageRank. Tous les liens sortants du site contribuant à la dilution, il faut identifier les sites qui sont dans la moyenne afin de les conserver.
Le maillage correct des pages d’articles : si vous êtes arrivés jusque-là, vous avez identifié un site qui est dans la moyenne du taux de spam, dont les contenus sont corrects et vous avez calculé la répartition du PageRank Interne après un crawl du site. Ce qu’il vous reste à faire est tout simplement d’identifier si les pages articles que vous avez lue sont correctement maillées dans le site : leur profondeur ne doit pas excéder 5, (idéalement en dessous de 3), et elles sont classées dans la première moitié de la liste des urls internes, d’après le classement du PRI.
Les éléments qu’il n’est pas nécessaire de filtrer :
La thématique globale du site : la transmission finale se fera d’URL vers URL, et la catégorisation ne fait pas de sens pour un moteur de recherche. Filtrer via une catégorisation humaine retire de la liste des sujets proches qui seraient dans une autre catégorie.
Les sites qui n’ont pas une forte autorité globale : ce n’est pas le site qui nous intéresse globalement, c’est la page qui va nous faire un lien. Si vous retirez un site spécialisé dans votre thématique pour le bénéfice d’un média généraliste, il y a des chances que vous y perdiez.
Les sites qui n’ont pas un fort ratio de Trust par rapport à une métrique de PageRank : C’est une pratique courante mais ce sont deux métriques qu’il n’y a pas d’intérêt à comparer de la sorte. Vous devez comparer des métriques d’une url ou d’un site avec les mêmes métriques d’un autre site.
Réaliser un ordre de priorités

Vous avez raffiné la liste de vos acquisitions potentielles en retirant du lot tous ceux qui ne correspondent pas à votre politique sur les backlinks (ou aux recommandations précédentes) ? Il vous faut maintenant réaliser un ordre de priorité pour identifier l’ordre dans lequel votre budget doit être dépensé.
Pour ça, il n’y a qu’un seul véritable usage : il faut s’assurer que la valeur du lien correspond à votre budget. C’est une dernière étape qui va potentiellement filtrer environ la moitié de votre liste au travers d’une sélection qui utilise la sémantique de la source et de la cible (encore une fois, on ne parle pas de catégorisation humaine).
Evaluer la valeur du lien est indispensable pour prioriser vos achats, vous allez avoir besoin de plusieurs éléments :
– La localisation approximative du lien sortant : Les métriques d’autorité pour une url qui correspond à celle qui fera le lien sont suffisantes : au mieux on parle d’un PageRank thématisé et antispam.
– Le texte de la page d’où part le lien : À moins de tenter d’obtenir un lien sur une url déjà existante, ou de fournir le texte, il vous faudra estimer en prenant une page existante similaire au texte que vous souhaitez obtenir, ou en prenant un embedding sémantique moyen pour l’intégralité du site, s’il n’est pas généraliste.
– Le texte de la page cible du lien : Aussi important, si ce n’est plus important que le reste : votre url à mettre en avant a également un texte que vous allez pousser, et s’il correspond aux contenus qui le mentionnent, c’est mieux. Ici vous avez également besoin de l’embedding de votre contenu, par la même méthode que l’élément précédent.
Pour la méthode d’embedding, je recommande d’utiliser les embeddings des LLM, il n’y a pas de meilleure méthode accessible au grand public aujourd’hui. Il vous faut ensuite une formule que vous allez utiliser pour évaluer chaque lien. Il faut prendre en compte l’inverse de la distance entre les embeddings sources et cibles, et y intégrer la métrique du PageRank de l’url source. Vous obtiendrez une valeur unique au lien que vous simulez, et que vous pouvez comparer avec les autres liens simulés afin de les trier par ordre décroissant.
Pour vos acquisitions de backlinks, il vous faut ensuite considérer votre budget et envisager chaque lien de la liste en commençant par la valeur la plus élevée jusqu’à la valeur la plus basse, si votre budget vous le permet.
L’acquisition
Modalités d’acquisition
Lors de l’obtention du lien, vous devez envisager d’obtenir un lien qui dure dans le temps. L’aspect « à vie » du lien (comprendre « tant que le vendeur gère le site ») est plus intéressant parce que perdre un lien vous fait perdre ce que ce lien vous donnait.
En obtenant un lien à vie, vous devez surtout vous assurer que ce lien et son contexte ne changeront pas.
Vous pouvez être tenté de demander un lien avec une ancre optimisée, attention de ne pas dépasser un taux d’ancres optimisées raisonnable, ce qui pourrait être pénalisé par le Penguin. Selon les sujets, un taux d’ancre optimisé acceptable peut varier entre 3 et 5% avec une moyenne plus fréquemment admise entre 4.5 et 5%. Le maximum n’est pas un objectif en soit, plutôt un risque, mais avoir une ancre optimisée est un critère qui peut être utilisé par Google et donc doit être envisagé.
Cependant, les Google Leaks nous apprennent une chose assez importante : les ancres optimisées ne sont prises en compte que lorsque la source du lien est faite sur le top 30% des sites de l’index d’après leurs métriques de PageRank. Il ne vaut donc mieux pas s’embêter à faire de backlinks avec une ancre optimisée si le site source n’a pas de métrique de PageRank (thématisé et antispam) supérieure à 66 / 100.
Dans les cas contraires, le lien est toujours utilisé, mais l’ancre ne l’est pas. C’est spécifiquement contreproductif d’obtenir un lien avec une ancre optimisée sur un site en dessous du seuil indiqué. Le ratio d’ancre optimisé augmenterait, mais sans impact réel.
Vous avez donc 2 points à surveiller pendant l’acquisition :
– La conservation du lien et son contexte.
– Si c’est souhaitable, obtenir une ancre optimisée, sinon pas d’ancre optimisée (sauf sur la marque).
La cohérence sémantique
Pour maximiser l’effet de la transmission du PageRank via la thématisation d’un lien, il y a factuellement deux possibilités : soit on rapproche le contenu source du contenu cible, soit on fait l’inverse.
C’est bien plus simple d’ajuster le contenu source, mais lorsque votre cible ne se positionne pas et qu’elle pourrait avoir de bien meilleurs backlinks en changeant son texte, il faut envisager que le texte en ligne n’est pas celui qui va bénéficier des liens entrants. Dans ces cas-là, il faut avoir l’ouverture d’esprit de se dire que le contenu actuel peut être remplacé (ou déplacé s’il est essentiel à votre parcours utilisateur) par un contenu plus en phase avec les articles source.
La méthode à utiliser pour rapprocher la sémantique de deux pages est de calculer les embeddings des contenus textuels et de calculer l’inverse de la distance sémantique entre ces deux embeddings obtenus.
Utiliser une autre méthode ne serait pas aussi précis, en revanche, la précision de l’embedding dépend énormément du modèle exploité pour le calculer, c’est pourquoi un LLM sera plus efficace.
Après l’acquisition, le suivi
Les tests de non-régression
Suivre la stabilité et la conservation d’un lien dans le temps, c’est essentiel : la disparition d’un lien important a comme effet de supprimer la transmission d’autorité qu’il avait. Pour autant, les avantages de la création d’un lien sont plus importants que les désavantages de la suppression : en créant un lien, on peut permettre au GoogleBot de découvrir l’url, ce qui peut vous permettre de l’indexer. La suppression du lien n’enlève pas cette indexation, car le robot connaît la page.
Les conséquences d’une suppression d’un lien varient selon l’impact réel du lien :

– Soit il ne se passe rien
– Soit vous perdez en autorité et votre ranking est impacté
Tout dépend de l’importance du lien pour votre ranking, mais de façon générale, perdre des liens n’est pas un bon signal car si vous perdez des liens importants et que vos concurrents n’en perdent pas, vous y perdez dans le classement.
Afin d’éviter ou en tout cas de limiter ces incidents fâcheux, mettre en place des tests de non-régression sur les liens les plus importants permet d’être prévenus quand une action est nécessaire : contacter le prestataire pour corriger une erreur, remplacer un lien supprimé, etc…
Pour qu’un test de non-régression sur les backlinks soit intéressant, il doit prendre en compte plusieurs critères liés à l’url source : est-elle explorable ? Est-elle indexable ? Le contexte ou l’emplacement du backlink a-t-il changé ? A-t-on ajouté un nofollow sur le lien ? Le lien a-t-il été supprimé ? La page a-t-elle été supprimée ?
Idéalement, on veut également suivre l’autorité de la page source, car cette autorité décroit naturellement avec le temps (le site source va créer d’autres articles, démailler ou remailler certaines urls, et potentiellement transmettre moins de PageRank en interne à cette page, qui va aussi potentiellement perdre des backlinks, à moins d’entretenir l’arrivée de backlinks vers cette url). Utiliser les métriques d’un outil qui actualise ses métriques à l’url permettrait ainsi d’identifier une valeur plancher sous laquelle il faut agir pour remonter la valeur du backlink ou évaluer si l’investissement pour celui-ci à défaut d’un autre est toujours avantageux.
La mémoire des moteurs de recherche
Du point de vue d’un moteur de recherche, la conservation de l’historique des changements d’une url a un coût énorme. Il s’agit de conserver en mémoire plusieurs versions d’une url, ce qui revient à stocker le web entier plusieurs fois.
Pourtant, les pages changent et évoluent, et afin de lutter contre des pratiques de spam, connaître ces changements est important. C’est pourquoi Google conserve uniquement les 20 dernières modifications d’une page en mémoire. C’est-à-dire les 20 derniers changements de code, de texte, d’autorité d’une page.
Pourquoi c’est important ?
Google a déposé un brevet sur un algorithme visant à lutter spécifiquement contre les pratiques des SEO : le Transition Rank. Cet algorithme fonctionne en 2 parties :
– La détection
– La phase de quarantaine

La détection : lorsqu’une url est suspectée de spam au travers d’actions comme l’optimisation sémantique ou l’acquisition de liens, elle passe en phase de transition : une phase qui dure de quelques heures à 3 mois pendant laquelle une position arbitraire moins bonne que la position initiale est attribuée à la page. Si pendant cette période, la page se trouve réoptimisée, elle entre à nouveau dans une phase de Transition Rank, et perd à nouveau des positions.
La seule façon d’échapper au Transition Rank est de ne plus toucher au contenu ou au linking d’une page pendant 3 mois.
Optimiser sa stratégie en plusieurs niveaux
Pousser les urls qui font de bons backlinks
Lorsqu’on obtient un backlink, surtout sur un site qui valorise la marque ou le site, comme un média, on veut pouvoir amplifier l’effet de ce backlink. Pour ça, on peut adopter une stratégie d’acquisition de liens vers les urls qui vous font des liens. De cette façon, on peut :
– Recevoir indirectement de l’autorité depuis des sites qui sont peut-être un peu éloignés de la thématique de la cible finale
– Optimiser les backlinks obtenus depuis les mêmes sources que vos concurrents
– Redynamiser un backlink historique qui perd en PageRank
Le linkwheel
Une théorie de circulation du PageRank en boucle, connue pour augmenter le passage du bot sur vos urls consiste à exploiter les liens sortants en espérant obtenir de la cible qu’elle pointe vers une page parmi les liens entrants, directs ou indirects.
En appliquant cette méthode, il est possible de multiplier par un facteur allant jusqu’à 2,6 le PageRank obtenu par une page.
On appelle communément cette méthode le linkwheel, et si elle est connue des SEOs, elle l’est également par Google, qui a su prendre des mesures pour en limiter l’impact. Rien ne permet aujourd’hui d’affirmer qu’il n’y a aucune configuration ou adaptation de cette technique qui pourrait avoir un effet. Mais puisque Google tente d’en limiter l’impact, il convient de déployer suffisamment d’efforts pour rendre singulières les urls qui composent cette « roue » : il suffit que les pages qui composent la roue ne passent pas l’algorithme anti-spam pour que cette technique ne soit plus efficace, ou que celles ci soient sur le même AS (autonomous system) pour être considérées comme appartenant à la même entité (domaine, IP, association avec un même compte Google via GA ou GSC, ou d’autres fonctionnalités Google), et donc dévaluer les liens passant par ces pages.
Une solution : communiquer avec des sites en amont et en aval de vos urls sur le trajet des liens.
Combien de liens obtenir ?
Comprendre ce que représente un lien
Un lien est un vote de confiance qu’une url donne à une autre. Ce principe provient du Science Citation Index d’Eugène Garfield. Mais la différence, c’est que chaque page a une possibilité de transmission différente en fonction du nombre de liens sortants, de la distance sémantique, et chaque backlink transmet différemment selon son emplacement dans la liste des liens sortants.
Comment Google se sert-il d’un lien ?
Parce qu’un backlink sert dans le calcul du PageRank, et que le Googlebot l’utilise pour découvrir des nouvelles pages, Google se sert des liens pour évaluer la probabilité que la page suivante soit intéressante.
Que se passe-t-il si la page suivante n’est probablement pas intéressante ?
Le PageRank est téléporté à l’intégralité des urls du web. D’un point de vue pratique, le Googlebot « saute » à une autre page dans sa liste d’urls à visiter, et d’un point de vue mathématique, la partie du PageRank non transmis via le backlink est attribué uniformément à l’intégralité des pages de l’index.
Est-ce que le PageRank sera envoyé de la même façon quel que soit la page source ?
Non, en fait, il y a trois types d’urls sources :
– L’url qui ne passe pas l’algorithme antispam : cette page ne transmet rien de plus à ses cibles de lien, comme si les liens sortants étaient en nofollow. Dans ce cas, le PageRank est téléporté à l’intégralité des urls du web, il n’y a pas d’avantage ou d’inconvénient majeur à recevoir un lien d’une page spam.
– L’url lambda qui passe l’algorithme antispam : cette page transmet normalement le PageRank qu’elle reçoit à ses cibles. Ni plus, ni moins.
– L’url d’un site « Seed ». Le PageRank de production étant le PageRank_NS, il faut prendre en compte que certaines pages sur le web transmettent « toujours » du PageRank à leurs cibles, lesquelles sont très probablement des pages lambda.
De la façon dont le PageRank Nearest Seed est calculé, il faut évaluer la distance en nombre de liens depuis une page Seed pour évaluer le PageRank réel de la page. Il faut donc remonter les sources de liens pour trouver la seed la plus proche ou voir où on peut récupérer un lien directement ou indirectement depuis une seed logique.
Évaluer la concurrence
De combien de liens a-t-on besoin pour dépasser la concurrence signifie qu’il faut évaluer la valeur nécessaire pour faire mieux que les autres. Google étant un moteur de classement, vous devrez donc évaluer les valeurs d’autorité via le linking de vos concurrents sur la SERP visée pour faire mieux qu’eux, à valeur sémantique équivalente.
De quoi avez-vous besoin pour chaque page concurrente ?
– La liste des liens entrants
– Une valeur de PageRank à l’url
– Le PageRank au niveau domaine
– Une valeur fiable de Trust à l’url
A partir de la liste des liens entrants, vous pouvez calculer deux autres métriques :
– Le nombre de sites référents pour une page
– La force de ces liens
A partir de toutes ces métriques là, vous pouvez identifier la moyenne acceptable, le maximum et le minimum pour chaque url se positionnant sur la SERP. Ça devrait vous donner une idée assez précise de ce qu’il manque à votre page pour être considérée comme suffisamment importante pour rejoindre la liste des urls qui rankent.
Si vous êtes déjà dans la moyenne de ce qui est acceptable pour que votre page ranke sur la SERP visée, les actions et autres leviers à activer restant sont l’interaction des utilisateurs, le trafic et la localisation de celui-ci.
Comment bénéficier au mieux des liens obtenus ?
Le maillage interne
Lorsque vous recevez des liens depuis l’extérieur du site, du côté de Google, ces liens sont dans une base de données spécifique et sont traités et gérés sur la base en question. Lorsque vous réalisez des liens au sein d’un site, (donc des liens internes), Google les stocke dans une autre base de données, et réalise des calculs spécifiques pour ces liens. Ce qui signifie que la valeur d’un lien depuis un site différent du vôtre est différente de la valeur d’un lien interne. Cela veut aussi dire que certaines pratiques sanctionnées du point de vue des liens réalisés à l’externe ne sont pas forcément sanctionnées en interne.
Cependant, bien travailler votre maillage interne reste important car ça permet aux robots de découvrir plus facilement les pages mises en avant au sein du site. Grâce à un maillage interne correctement réalisé, vous pouvez ainsi pousser une section de votre site qui est primordiale pour votre entreprise.
Ainsi, l’optimisation du PageRank interne permet de faire bénéficier certaines urls de PageRank lorsque vous recevez des liens, quelque soit la page de votre site qui reçoit des liens.
Les liens sortants, un intérêt stratégique
On l’a vu plus tôt avec la technique du linkwheel, on peut exploiter les liens sortants pour permettre au PageRank d’être un peu boosté, mais d’un point de vue plus large, les liens sortants sont importants, car ils permettent de faire circuler le PageRank vers d’autres urls du web, probablement de la même thématique, et comme toutes les urls du web sont reliées, plus souvent dans les mêmes thématiques, faire un lien sortant contribue également à faire revenir le PageRank chez soi.
Il n’y a aucun intérêt à considérer le PageRank comme un volume, mais plutôt comme un flux. Penser qu’on peut accumuler le PageRank en faisant des nofollow ou en refusant de faire des liens sortants n’est pas utile, car dans le cas d’un « cul de sac », le Pagerank se téléporte vers le reste du web. (C’est une méthode pour éviter les spider trap).
Pourtant, les liens sortants sont surveillés : je l’ai dit plus tôt, le taux de dilution (sortie du PageRank interne), c’est-à-dire le pourcentage du PageRank Interne qui est attribué à l’extérieur du site doit être compris entre 3 et 10% pour paraître naturel. Au-delà de 10%, le site fait trop de liens sortants, en deçà de 3% c’est plus probablement un « cul de sac ».
On l’a vu, il y a de nombreuses façons d’optimiser l’autorité d’une page, de sorte à la faire remonter dans les résultats de recherche sur Google. Si vous avez prêté attention à cet article, vous aurez compris que le pagerank a bien évolué depuis la formule de 1996, et que, assez logiquement, Google se base sur le comportement des utilisateurs (le trafic, l’interaction avec la page, le temps de lecture etc…) pour donner une notion d’autorité légèrement différente du nombre de backlinks.
Sources :
Yahoo TrustRank :
Titre : Combating Web Spam with TrustRank
Auteurs : Zoltan Gyöngyi, Hector Garcia-Molina, Jan Pedersen
https://www.vldb.org/conf/2004/RS15P3.PDF
Web Spam :
Titre : Detecting spam web pages through content analysis
Auteurs : Alexandros Ntoulas, Marc Najork, Mark Manasse, Dennis Fetterly
https://dl.acm.org/doi/10.1145/1135777.1135794
Transition Rank :
Titre : Changing a rank of a document by applying a rank transition function
Auteur : Ross Koningstein
https://patents.google.com/patent/US8924380B1/en
PageRank Nearest Seeds :
Titre : Producing a ranking for pages using distances in a web-link graph
Auteur : Nissan Hajaj
https://patentimages.storage.googleapis.com/b8/dc/3e/3b5b32f8acd264/US9165040.pdf
Latent Semantic Model :
Titre : Learning Deep Structured Semantic Models for Web Search using Clickthrough Data
Auteurs : Po-Sen Huang, Xiaodong He, Jianfeng Gao, Li Deng,Alex Acero, Larry Heck
https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/cikm2013_DSSM_fullversion.pdf
Blog et ressources diverses :
Titre : Puissance du lien
Auteurs : Frédéric Bobet, Pierre Calvet, Thomas Cubel, Thomas Largillier, Guillaume Peyronnet, Sylvain Peyronnet, Guillaume Pitel
https://yourtext.guru/livres/puissance-du-lien-livre-numerique.pdf
Titre : Google’s PageRank: does it still matter in 2024
Auteurs : Anastasia Osypenko, Olena Karpova
https://seranking.com/blog/pagerank/
Titre : Page Rank NS (NearestSeeds)
Auteur : NC
https://lutforpro.com/seo-glossary/pagerank-ns/
Titre : Navboost: What the docs tell us and how to use it for your SEO
Auteurs : Anna Postol, Olena Karpova
https://seranking.com/blog/navboost/