Signaux et facteurs clés dans les systèmes de classement de recherche de Google

Publié: 2023-01-26

Alors que les affaires quotidiennes dans le monde entier se déroulent en ligne, l'optimisation efficace des moteurs de recherche (SEO) devient un facteur important dans le succès d'une marque. Même les entreprises les plus traditionnelles ne peuvent plus se permettre d'ignorer ce moyen crucial d'atteindre les clients dans les moments critiques de leur parcours d'achat. En plus d'améliorer la visibilité globale et la facilité de recherche d'un site Web, cela peut aider à renforcer la confiance, la crédibilité et l'engagement.

Il n'y a pas de formule unique éprouvée pour le succès du référencement. Les bonnes pratiques à suivre évoluent constamment et dépendent de divers facteurs. Néanmoins, Google s'appuie depuis longtemps sur certains signaux clés pour évaluer les sites Web et déterminer lesquels récompenser avec les premières places convoitées dans les requêtes de recherche.

Une plongée en profondeur dans les systèmes de classement de recherche de Google

Google utilise un réseau complexe de systèmes de classement automatique pour évaluer de nombreux signaux et facteurs liés aux centaines de milliards de pages Web sur Internet. Ces systèmes leur permettent de donner aux chercheurs les résultats les plus précieux et les plus pertinents à la vitesse de l'éclair. Voici un aperçu des signaux les plus critiques dans les systèmes de classement de recherche de Google.

Représentations d'encodeurs bidirectionnels à partir de transformateurs (BERT)

Les représentations d'encodeurs bidirectionnels de transformateurs, ou BERT, ont été lancées en 2019 par Google et ont représenté une évolution significative dans la compréhension du langage naturel. Ce modèle permet à Google de comprendre comment les combinaisons de mots véhiculent des intentions et des significations différentes.

Au lieu de rechercher le contexte qui correspond aux mots individuels utilisés dans une recherche, BERT a une meilleure compréhension de la façon dont les combinaisons de mots sont utilisées pour exprimer des idées plus compliquées. Parce qu'il considère les mots dans une séquence particulière et comment ils sont liés les uns aux autres, les mots essentiels ne seront pas omis des requêtes simplement parce qu'ils sont petits.

Le blog officiel de Google utilise l'exemple de la recherche de la requête "pouvez-vous obtenir des médicaments à la pharmacie de quelqu'un". Avant la mise en œuvre du BERT, cela aurait probablement donné des résultats expliquant comment remplir une ordonnance en général, car la préposition « pour » aurait été négligée. Avec BERT, cependant, Google peut comprendre que le chercheur veut savoir s'il est autorisé à prendre des médicaments pour quelqu'un d'autre dans une pharmacie et peut donc renvoyer des résultats de recherche plus utiles.

BERT est désormais fortement utilisé par Google grâce à sa capacité supérieure à classer et à récupérer des pages. C'est un facteur important dans presque toutes les requêtes en anglais grâce à sa capacité à organiser rapidement les documents en fonction de leur pertinence. Cependant, ils soulignent rapidement que BERT fonctionne avec d'autres systèmes pour générer les résultats de la plus haute qualité possible pour une requête donnée.

Systèmes de déduplication

De nombreuses requêtes de recherche peuvent renvoyer des millions de pages Web correspondantes. Cependant, il est courant qu'un nombre important de ces pages soient similaires. Google a trouvé un moyen de contrer cela en n'affichant que les résultats les plus pertinents grâce à ses systèmes de déduplication qui visent à éviter les doublons inutiles.

Cependant, les utilisateurs peuvent toujours voir les résultats émis par ces systèmes s'ils le souhaitent. Par exemple, ils atteignent la fin des résultats disponibles pour une requête. Dans ce cas, ils peuvent rencontrer un message les informant que certaines entrées ont été omises des résultats affichés en raison de leur similitude avec ceux déjà affichés. Il y a un lien dans ce message sur lequel les utilisateurs peuvent cliquer s'ils souhaitent voir les résultats.

La déduplication est également utilisée avec les extraits de code de Google. Lorsque Google propose une liste de pages Web en tant qu'extrait optimisé, cette même page ne sera pas répétée plus tard dans la première page de résultats pour permettre aux utilisateurs de trouver plus facilement les informations qu'ils recherchent.

Système de domaine de correspondance exacte

Le système de classement de Google considère également les mots dans le nom de domaine d'un site Web pour déterminer la pertinence. Cependant, ils reconnaissent l'importance de ne pas accorder trop de crédit au contenu hébergé sur un nom de domaine qui peut avoir été choisi comme correspondant parfaitement à une requête spécifique pour exploiter ce système.

Si un particulier ou une entreprise crée un nom de domaine tel que "top-places-to-buy-jewelry.com" pour pousser son contenu plus haut dans le classement, il ne sera pas automatiquement classé en tête pour cette requête.

Systèmes de fraîcheur

Google a mis en place plusieurs systèmes de fraîcheur visant à afficher un contenu plus récent, le cas échéant. Par exemple, lorsqu'une personne recherche un film qui vient de sortir, elle recherchera probablement une critique récente au lieu d'articles sur le début de sa production.

Cela peut également s'appliquer aux événements actuels. Par exemple, une recherche sur le terme « ouragan » peut afficher des informations sur la préparation à ces tempêtes dans des circonstances normales. Cependant, dans les cas où un ouragan a récemment touché terre, un contenu plus récent, comme des articles de presse sur la trajectoire de la tempête et les dégâts qu'elle a causés, peut apparaître plus haut dans les résultats.

Système de contenu utile

Le système de contenu utile de Google vise à aider les chercheurs à trouver un contenu précieux et original écrit par des personnes plutôt que par des machines avec la véritable intention d'aider les autres au lieu de simplement faire appel à des algorithmes de recherche pour attirer plus de trafic.

Cela fonctionne en créant un signal que les systèmes de classement automatisés de Google utilisent pour récompenser le contenu qui offre aux lecteurs une expérience satisfaisante et empêche le contenu qui ne répond pas aux attentes d'apparaître trop haut dans les résultats. Leurs systèmes peuvent automatiquement identifier le contenu de faible valeur ou ne sont pas utiles aux personnes effectuant une recherche sur les termes en question.

Tout le contenu des sites contenant de grandes quantités de contenu jugé inutile sera moins susceptible d'être bien classé dans les résultats de recherche, tant qu'il existe d'autres contenus sur Internet que Google estime préférable d'afficher pour les internautes. En d'autres termes, un site entier peut avoir besoin d'un contenu plus utile. Cela signifie également que la suppression du contenu inutile d'un site peut aider à améliorer le classement de tout le contenu de ce site. De plus, ce signal est pondéré, ce qui signifie que les zones avec une forte proportion de contenu inutile pourraient voir un effet plus puissant.

Google rapporte que son processus de classification est entièrement automatisé avec un modèle d'apprentissage automatique qui fonctionne dans toutes les langues. Cependant, ils soulignent qu'il ne s'agit que de l'un des nombreux signaux critiques qu'ils utilisent pour classer le contenu. Par conséquent, si d'autres signaux identifient une page Web particulière comme très pertinente pour une requête et utile pour les lecteurs, elle peut toujours bien se classer malgré le fait qu'elle se trouve sur un site qui a été classé comme contenant du contenu inutile dans le passé.

Google fournit une liste de questions que les administrateurs Web peuvent garder à l'esprit pour s'assurer que leur contenu Web est utile et suit une approche axée sur les personnes. Par exemple, ils suggèrent de fournir un contenu qui contient des recherches, des analyses ou des informations originales et offre un aperçu complet du sujet avec une grande perspicacité. Le contenu que les gens veulent mettre en signet, recommander ou partager avec d'autres est susceptible d'être mieux classé. Une autorité ou un passionné écrit un sourcing précis, et s'assurer que le contenu est également utile.

Systèmes d'analyse de liens et PageRank

Le PageRank est depuis longtemps un signal clé utilisé par Google et était autrefois la principale préoccupation du référencement. Il a évolué au fil des ans, mais reste un élément essentiel pour déterminer de quelles pages il s'agit et lesquelles pourraient être les plus utiles aux chercheurs d'une requête particulière.

Il tient compte de la manière dont les pages sont liées les unes aux autres pour déterminer leur contenu. Dans le passé, le nombre de liens vers une page provenant d'autres sites avait beaucoup de poids, mais le PageRank a évolué et prend désormais en compte divers facteurs. Les sites de mauvaise qualité ne peuvent pas être mieux classés en s'engageant dans des activités de chapeau noir comme l'agriculture de liens.

Correspondance neuronale

La correspondance neuronale est un type de système d'intelligence artificielle utilisé par Google pour comprendre les différentes façons dont un concept peut être représenté dans différentes pages et requêtes afin de produire de meilleures correspondances.

Toutes les mentions de certains concepts ne sont pas simples et claires, ce qui signifie qu'il ne suffit pas de s'appuyer uniquement sur des mots-clés pour décrire avec précision la véritable signification du contenu. Le blog de Google cite l'exemple de la requête de recherche "insights how to manage a green". Cela serait difficile à comprendre pour la plupart des gens, mais la correspondance neuronale peut donner un meilleur sens à ce type de requête. Il peut indiquer que la personne qui a tapé cette requête de recherche recherche des conseils de gestion basés sur des catégories de personnalité basées sur la couleur. Cette compréhension aide Google à trouver du contenu pertinent dans son énorme index d'informations en constante évolution.

Systèmes de contenu originaux

La plupart des gens ont rencontré des informations recyclées sur Internet. Google dispose de systèmes qui garantissent que le contenu original est affiché plus en évidence que le contenu qui cite simplement ce contenu original.

Par exemple, il n'est pas rare que des sites Web d'information à petit budget publient des résumés de ce que des médias plus importants ont publié, car tous les journalistes n'auront pas l'occasion d'interviewer des personnalités de l'actualité. Google vise à récompenser les reportages originaux avec des résultats de recherche plus élevés, compte tenu de l'effort nécessaire pour mener des enquêtes journalistiques et rechercher des sources. Ces pages peuvent rester plus longtemps dans une position apparente dans les résultats de recherche, permettant aux internautes de voir le rapport d'origine aux côtés d'articles plus récents sur l'histoire ou le sujet.

Il existe un balisage canonique que les créateurs peuvent utiliser pour aider Google à déterminer la page principale dans les cas où une page a été dupliquée à plusieurs autres endroits. Par exemple, sur les sites qui utilisent une page avec une version de bureau et une version mobile, Google considérerait les deux pages comme des doublons de la même page. Une URL sera considérée comme canonique par Google et explorée, tandis que les autres seront considérées comme des copies et ne seront pas explorées aussi souvent. Les webmasters peuvent indiquer à Google ce qui est canonique, ce qui leur donne plus de contrôle sur l'URL que les internautes verront dans les résultats de recherche et simplifie les mesures de suivi.

Systèmes de rétrogradation basés sur la suppression

Google a adopté des politiques qui permettent de supprimer certains types de contenu de ses résultats de recherche. Une fois que Google traite de nombreuses suppressions pour un site spécifique, il réévalue sa position dans le classement.

Il existe deux principaux types de suppressions : les suppressions légales et les suppressions d'informations personnelles.

Déménagements légaux

Lorsque Google reçoit un nombre important de demandes de suppression de droits d'auteur pour un site donné, il rétrograde alors d'autres contenus du même endroit dans les résultats de recherche. Cela signifie que si le site contient d'autres contenus contrefaits qui n'ont pas encore été signalés, les internautes seront moins susceptibles de les trouver. Google utilise les mêmes procédures pour répondre aux réclamations pour produits contrefaits, diffamation et suppressions ordonnées par un tribunal.

Suppressions d'informations personnelles

Dans les cas où Google traite de nombreuses suppressions d'informations individuelles sur un site réputé utiliser des pratiques de suppression abusives, d'autres contenus provenant de l'emplacement exact seront rétrogradés dans leurs résultats de recherche. S'ils détectent le même modèle de comportement avec d'autres sites, le contenu de ces sites sera également soumis aux mêmes types de rétrogradations. Les sites qui ont un volume élevé de suppressions de doxing peuvent être rétrogradés de la même manière. Google a également mis en place des protections automatiques qui empêchent les images personnelles explicites non consensuelles d'atteindre des rangs élevés dans les requêtes de recherche de noms.

Système d'expérience de page

Les internautes préfèrent largement visiter des pages Web qui offrent une excellente expérience utilisateur. En réponse, Google a mis en place un système d'expérience de page qui examine divers critères pour évaluer la convivialité d'une page particulière.

Vitals Web de base

Les éléments vitaux Web de base indiquent si une page spécifique offre une expérience utilisateur positive. Des facteurs tels que le chargement, la stabilité visuelle et l'interactivité sont pris en compte. Pour faire cette évaluation, Google examine le Largest Contentful Paint, ou LCP, qui mesure les performances de chargement. Ils pensent également que le Cumulative Layout Shift, ou CLS, mesure la stabilité visuelle du site, ainsi qu'une mesure d'interactivité connue sous le nom de First Input Delay, ou FID.

HTTPS

Google privilégie les sites servis sur HTTPS, ce qui garantit que la connexion d'un site est sécurisée.

Absence d'interstitiels intrusifs

La préférence est donnée aux sites Web dont le contenu est facilement accessible aux utilisateurs. Cela signifie qu'ils manquent d'interstitiels intrusifs ou d'éléments de page qui peuvent obstruer la vue du contenu par le lecteur. Ceux-ci sont souvent utilisés à des fins promotionnelles, mais peuvent perturber les lecteurs et masquer les mots sur la page. Cela peut rendre les sites difficiles à utiliser, de sorte que les visiteurs ne reviendront probablement pas sur le site.

Convivialité mobile

De nos jours, de plus en plus d'utilisateurs visitent des sites Web sur des appareils mobiles, Google préfère donc les pages adaptées aux mobiles. Ce signal ne s'applique pas aux recherches sur ordinateur. Google basera donc le signal sur ordinateur sur les URL consultées par les utilisateurs d'ordinateurs dans les cas où un site a des URL distinctes pour mobile et ordinateur.

Dans les cas où une recherche produit un volume élevé de correspondances potentielles qui ont une pertinence relativement égale, la préférence sera donnée au contenu joint pour une meilleure expérience de la page.

Système de classement des passages

Google comprend qu'il peut être difficile de fournir des résultats précis pour des recherches précises, étant donné que la phrase exacte qui répond à la question peut être enfouie profondément dans une page Web particulière. Par conséquent, ils ont commencé à utiliser un système de classement des passages pour mieux interpréter la pertinence de passages spécifiques. Ils comparent cela à la recherche d'une aiguille dans une botte de foin et se vantent que cela peut améliorer 7% des requêtes de recherche qu'ils reçoivent dans toutes les langues.

Système d'avis sur les produits

De temps en temps, Google met à jour ses systèmes de classement automatique pour s'assurer qu'ils fournissent des critiques de produits de haute qualité avec des recherches détaillées au lieu de résumés essentiels d'une vaste gamme de produits qui ne fournissent pas les détails recherchés par les chercheurs.

Ces mises à jour régulières des avis sur les produits aident à affiner leur capacité à récompenser les avis de haute qualité avec des positions de recherche plus élevées. Ils évaluent le contenu des avis au niveau de la page, recherchent des avis rédigés par des passionnés ou des experts ayant une connaissance approfondie du sujet et fournissent de nombreuses informations et analyses. Bien qu'ils utilisent des données structurées pour les aider à identifier les avis sur les produits, ils ne s'appuient pas uniquement sur des données structurées.

RankBrain

Lorsque l'outil RankBrain AI de Google a été lancé en 2015, c'était la première fois qu'un système d'apprentissage en profondeur était utilisé dans la recherche. Cela a représenté un énorme pas en avant dans la compréhension de la relation entre les mots et les concepts. Bien que ce soit quelque chose que les humains peuvent facilement comprendre, les ordinateurs ont souvent besoin d'aide pour établir ces connexions. Avec RankBrain, cependant, Google a pu mieux comprendre comment les mots que les gens utilisent dans les requêtes de recherche se rapportent aux concepts du monde réel.

Le blog de Google cite l'exemple d'une recherche de la phrase "quel est le titre du consommateur au plus haut niveau d'une chaîne alimentaire". Lorsque les systèmes de Google voient ces mots sur différentes pages, ils apprennent que les chaînes alimentaires pourraient être liées à des animaux plutôt qu'à des consommateurs humains et peuvent ensuite faire correspondre les mots à des concepts connexes pour comprendre que la réponse que l'individu recherche est un "prédateur suprême".

RankBrain aide également Google à mieux identifier le contenu pertinent, même s'il ne contient pas tous les mots utilisés par le chercheur. Il utilise les liens entre les termes et les concepts pour établir une relation.

Des systèmes d'information fiables

Google utilise constamment plusieurs systèmes pour trouver les informations les plus pertinentes et les plus fiables. Leurs plans s'efforcent en permanence d'identifier des pages faisant davantage autorité et de promouvoir un journalisme de haute qualité tout en rétrogradant le contenu de moindre qualité.

Il peut parfois y avoir des recherches pour lesquelles il est difficile de fournir des informations fiables. Dans ces cas, les systèmes de Google sont configurés pour afficher des avis de contenu aux utilisateurs lorsqu'ils n'ont pas un degré élevé de confiance dans la qualité des résultats disponibles pour cette recherche particulière ou que la situation évolue rapidement. Ils conseillent également les utilisateurs sur les méthodes de recherche qui pourraient fournir des effets plus bénéfiques.

Système de diversité des sites

Google a mis en place certaines mesures de protection connues sous le nom de diversité de sites qui évitent les situations où plus de deux pages Web d'un même site apparaîtront dans les premiers résultats. Cela empêche un emplacement spécifique de dominer tous les meilleurs résultats. Néanmoins, si leurs systèmes déterminent que plusieurs pages d'un même site sont particulièrement pertinentes pour une recherche, ils peuvent parfois afficher plus de deux listes.

Le système de diversité de sites de Google considère les sous-domaines comme faisant partie d'un domaine racine particulier à ces fins par défaut. Néanmoins, il peut parfois faire une exception et traiter les sous-domaines comme des sites distincts pour des raisons de diversité.

Systèmes de détection de spam

Tout comme de nombreux services de messagerie fournissent des filtres anti-spam, la recherche Google utilise également des filtres pour éviter d'avoir à trier les spams, ce qui peut nuire à sa capacité à montrer aux utilisateurs les résultats les plus pertinents et les plus précieux pour une requête de recherche. Ils utilisent des systèmes de détection de spam tels que SpamBrain pour identifier le contenu et l'activité qui enfreignent leurs politiques contre le spam. Google met régulièrement à jour ces systèmes pour suivre l'évolution des tactiques de spam.

SpamBrain

L'une des solutions les plus impressionnantes de l'arsenal de Google dans la lutte contre le spam est SpamBrain. Grâce à ce système de prévention du spam basé sur l'IA, Google a détecté 200 fois plus de sites de spam en 2021 que lors de son lancement il y a près de 20 ans.

Lancé en 2018, SpamBrain s'est rapidement fait un nom en identifiant beaucoup plus de sites de spam que les outils précédents. Son introduction a entraîné une réduction de 70 % du spam piraté et de 75 % du spam charabia trouvé sur les plates-formes d'hébergement.

Parce que les spammeurs deviennent de plus en plus sophistiqués en réponse à l'efficacité de ces outils, SpamBrain continue d'améliorer sa capacité à identifier les comportements malveillants et perturbateurs. Cela a aidé Google à garder plus de 99% de ses recherches sans spam.

Utilisation des informations d'algorithme connues dans votre campagne de référencement

Comprendre les signaux et les facteurs clés des systèmes de classement de recherche de Google peut aider les entreprises à améliorer leurs campagnes de référencement. Google a fourni de nombreuses informations utiles qui peuvent guider les décisions sur la façon dont les sites Web sont construits et le contenu qu'ils contiennent pour se classer plus haut dans les résultats de recherche.

Cependant, ces facteurs évoluent constamment et une compréhension plus approfondie de l'interaction entre tant de signaux vitaux différents est nécessaire pour tirer le meilleur parti de ces informations. Les professionnels du référencement de 321 Web Marketing s'appuient sur leurs années d'expérience et leurs connaissances pour aider les entreprises à maximiser leurs efforts de référencement de manière efficace et efficiente.

Nous avons travaillé avec d'innombrables entreprises de divers secteurs pour améliorer leur référencement national et local et nous assurer que leurs sites offrent aux visiteurs la meilleure expérience possible. Pour en savoir plus sur la façon dont nos services peuvent aider votre entreprise à se démarquer dans la recherche et à atteindre plus de clients potentiels, contactez l'équipe SEO de 321 Web Marketing dès aujourd'hui.

Articles Liés:

  • Qu'est-ce que Google Discover et pourquoi c'est important pour le référencement
  • Meilleures façons d'obtenir des avis Google pour améliorer votre référencement
  • Conseils d'utilisation de Google Search Console par les pros