Découvrir les secrets du référencement : indexation, qualité du site Web et balises méta

Publié: 2019-09-04

L'optimisation des moteurs de recherche est un sujet complexe. Il existe de nombreuses recommandations, guides et listes de contrôle qui tentent de couvrir et d'expliquer tous les différents aspects du référencement. Pour cet article, nous vous avons écouté afin que nous puissions aborder les problèmes qui vous importent le plus. De quoi devez-vous être conscient concernant l'indexation de vos pages ? Comment Google évalue-t-il la qualité du site ? Et quel est le problème avec les mots-clés dans les méta-tags ?

Si vous souhaitez explorer le potentiel de référencement de votre site Web, vous pouvez demander un rendez-vous avec notre groupe de stratégies numériques et voir comment nous pouvons vous aider :

Prendre rendez-vous

Les sujets de cet article sont basés sur les commentaires des participants à un webinaire (allemand) que nous avons récemment organisé. J'ai répondu aux questions les plus importantes - avec le soutien expert de Marcus Pentzek, qui, en tant que consultant SEO senior pour le groupe de stratégies numériques Searchmetrics, est chargé de conseiller nos clients et de les aider à améliorer leurs performances sur les moteurs de recherche.

Les questions portent sur les domaines suivants du SEO :

  • Exploration et indexation GoogleBot
  • URL, méta-tags et mots-clés
  • Signaux de l'utilisateur et intention de recherche
  • Qualité du site Web : comment puis-je améliorer mon classement ?
  • Google Analytics

Exploration et indexation GoogleBot

Avoir un site Web qui peut être crawlé est la première condition préalable pour être récupéré par Google et donc avoir une chance d'apparaître dans les résultats de recherche. Vous êtes également en mesure de prendre des décisions concernant les pages qui sont incorporées dans l'index de Google et celles qui ne le sont pas.

Comment puis-je m'assurer que le GoogleBot visite régulièrement mon site ?

Le GoogleBot visite les sites Web aussi souvent qu'il le juge nécessaire :

  • L'un des facteurs est la taille du site Web, à condition que le grand nombre d'URL d'un grand site Web ait de la valeur. Si un site Web comporte de nombreuses pages avec un contenu de mauvaise qualité, Google ne sera pas tenté de visiter plus souvent uniquement en fonction du nombre de pages.
  • Si un site Web est souvent lié à d'autres, ce qui lui donne un PageRank fort, il sera visité plus fréquemment.
  • Un autre facteur est la quantité de nouveau contenu que le site Web publie. Si, par exemple, il y a 20 nouveaux articles de blog (ou mis à jour) chaque jour, cela met la pression sur Google pour suivre et explorer le site plus souvent que s'il n'y avait qu'un seul nouvel article par semaine.

Puis-je utiliser le sitemap XML pour indiquer au GoogleBot ce qu'il faut lire et ce qu'il ne faut pas ?

Non. C'est à cela que sert le fichier robots.txt. Le sitemap XML est principalement destiné aux URL que Google doit explorer et (généralement) indexer.

Google peut-il évaluer dans quelle mesure j'ai influencé l'indexation du GoogleBot ? Et cela peut-il affecter la façon dont mon site Web est évalué ?

Vous ne pouvez donner à Google que des recommandations concernant ce qu'il doit explorer. Vous ne pouvez pas l'influencer directement en soi et, par conséquent, cela n'aura pas d'impact sur l'évaluation de votre site Web.

Est-il judicieux d'avoir une page mentions légales/mentions légales indexée ?

Oui. Toute entreprise digne de confiance doit être ouverte et fière de son nom et de qui elle est. L'empreinte ne cannibalise normalement aucune autre page du site Web, ce n'est donc pas un problème si elle est indexée.

Dans quelle mesure les fautes de frappe affectent-elles l'indexation ou le classement des moteurs de recherche ?

Les moteurs de recherche sont bons pour reconnaître et comprendre les fautes d'orthographe et devraient renvoyer le même résultat que pour le terme de recherche correctement orthographié. Pour moi et mon site Web, cela signifie qu'il n'y a aucune raison d'inclure délibérément des mots-clés mal orthographiés dans mon contenu. En fait, cela créerait une impression très peu professionnelle et pourrait avoir un impact négatif sur les signaux des utilisateurs (comme le taux de rebond).

Si Google estime que des requêtes de recherche particulières sont mieux servies par un contenu de haute qualité, les fautes de frappe pourraient même entraîner une baisse du classement, avec une page supplantée par des sites Web offrant des textes de meilleure qualité.

Comment une "bonne" indexation affecte-t-elle l'évaluation d'un site par Google ?

L'indexation a été bien faite si seules les pages qui sont censées être trouvées via la recherche sur le Web sont indexées. L'impact de cette indexation sur l'évaluation d'un site Web est dû au fait que Google ne voit que les zones pertinentes d'un site Web. Cela signifie que Google n'a pas à peser le contenu pertinent et non pertinent lors de la détermination des classements.

Cela peut-il nuire au classement d'un site Web si trop de pages sont indexées ?

Ceci est mieux expliqué avec une petite expérience de pensée : pour chaque domaine, le GoogleBot obtient un budget limité avec lequel il peut explorer le site. Si j'ai plus de pages que le budget ne le permet, il faudra beaucoup plus de temps pour que tout mon contenu soit exploré. Et si je mets à jour du contenu, il faudra également plus de temps pour que ce nouveau contenu soit récupéré.

Il y a un autre point important. Si j'ai beaucoup de contenu, mais qu'il n'est pas optimisé pour des termes de recherche particuliers, il existera probablement un grand nombre de pages qui seront toutes considérées comme de mauvaise qualité par Google. Cela peut avoir un impact négatif sur l'ensemble du domaine. De plus, si j'ai trop de pages, il peut facilement arriver que j'aie un contenu très similaire sur différentes pages couvrant les mêmes sujets. C'est ce que nous appelons la cannibalisation, et il en résulte généralement qu'aucune de ces pages ne se classe comme je le souhaiterais.

Pourquoi ne devrais-je pas souhaiter qu'une page de destination pour une campagne sur les réseaux sociaux figure dans l'index ? Cela a-t-il un impact négatif sur le budget de crawl ?

Bonne question! Je vous conseillerais toujours de considérer le but d'une page de destination. Si j'ai une page de destination qui n'existe que pour rassembler les prospects d'une campagne - cela pourrait être une page qui ne contient rien de plus qu'un formulaire de contact - alors le contenu de cette page de destination sera considéré comme de mauvaise qualité et sera mal évalué par Google. Si j'ai beaucoup de pages comme celle-ci et que je laisse Google les indexer, cela peut nuire à l'évaluation globale de mon site Web.

Si, toutefois, je remplis ma page de destination de médias sociaux avec du contenu et que je les optimise pour différents mots clés de mes pages de destination SEO, il peut alors être logique d'indexer cette page. Mais attention : si les pages de destination sont trop similaires, elles pourraient finir par se battre pour le même classement.

Cela signifie qu'il n'y a pas une seule bonne réponse. Par mesure de sécurité (pour éviter la cannibalisation), vous pouvez vous assurer de ne laisser Google explorer et indexer que le contenu spécifiquement conçu à cette fin.

Que signifie la dernière annonce de Google sur le fait que noindex est la valeur par défaut ?

L'annonce de Google selon laquelle, à partir du 1er septembre 2019, la règle noindex dans le robotos.txt ne sera plus appliquée, modifie la façon dont je peux utiliser le robots.txt. Tout d'abord, je dois être conscient du fait que toutes les pages que j'ai uniquement exclues de l'indexation via le robots.txt se retrouveront désormais dans l'index Google.

Cependant, je peux toujours désindexer des pages de la manière suivante :

  • noindex dans la méta-balise robots fonctionne toujours et est l'option la plus simple
  • en utilisant disallow dans le fichier robots.txt, je peux toujours empêcher les bots d'explorer certains contenus sur mon site Web

Dois-je ne pas indexer les pages avec un "mauvais contenu" et comment déterminer quel contenu est "mauvais" ?

En règle générale, je ne devrais chercher qu'à désindexer le contenu qui n'est pas pertinent pour les termes de recherche pour lesquels je veux être trouvé. Le contenu est "mauvais" s'il ne correspond pas à une requête de recherche. Cela signifie que la meilleure méthode consiste à évaluer le contenu dont j'ai besoin pour les termes de recherche souhaités, puis à voir si je peux le fournir.

Est-ce que cela fait une différence pour le référencement si j'ai un contenu d'une page ou une structure de site plus complexe ? Ou un one-pager peut-il être indexé par Google sans difficulté ?

En termes d'indexation, un one-pager ne devrait pas poser de problème. Il a la structure de site la plus simple possible. Une fois sur la page d'accueil, cela peut être indexé et tout le jus de lien qui est transféré sur mon site via des liens est concentré sur cette page.

Cependant, si je veux être trouvé pour plus de sujets que ceux qui correspondent directement à mon sujet principal, cela devient plus difficile avec un one-pager. Prenons l'exemple d'un site Web offrant des services thérapeutiques. La page d'accueil est optimisée pour tous les termes de recherche pertinents qui sont directement liés à ce domaine de travail. Mais maintenant, je veux atteindre les utilisateurs qui recherchent des problèmes de santé spécifiques, pour lesquels mes services peuvent apporter une solution. Dans ce cas, il serait logique de créer un nouveau contenu pour de nouvelles sous-pages qui présentent mes connaissances et mon expertise, et qui servent également les requêtes de recherche pertinentes. Bien sûr, avec plus de pages, la complexité du site Web augmente également.

Un autre point à considérer est que, selon l'intention de l'utilisateur derrière une requête de recherche, Google définit si des textes plus courts ou plus longs sont plus appropriés. Sur cette base, il pourrait être conseillé de créer une page plus longue et plus holistique (cf. Pillar Page) sur le sujet - ou il pourrait être plus logique de créer des pages plus petites, dont chacune a un objectif plus clair et est optimisée pour mots-clés individuels. Si vous faites ce dernier, ils doivent évidemment être organisés dans une structure de site Web logique.

Si cette distinction ne semble pas importante pour votre scénario spécifique, les one-pagers ont l'avantage supplémentaire qu'en raison du grand nombre de termes apparaissant sur la page, souvent à une certaine distance les uns des autres, ils ont plus de chances d'obtenir des classements à long terme. mots-clés de queue qui sont composés de plusieurs termes différents.

URL, mots-clés et méta-tags

Les moteurs de recherche deviennent de plus en plus intelligents, ce qui rend le référencement de plus en plus complexe. Cela laisse beaucoup de gens se demander à quel point les anciens favoris comme les mots-clés et les méta-tags sont toujours importants.

Est-il inutile d'utiliser des mots-clés comme méta-tags ?

Lors de l'optimisation pour le moteur de recherche de Google : oui. Cela a été confirmé par Matt Cuts de Google en 2009. Et dans ce cas : ce qui était vrai il y a 10 ans est toujours vrai aujourd'hui.

Cependant, pour les moteurs de recherche secondaires, l'utilisation de balises méta peut toujours être utile. En règle générale, pour la balise méta des mots clés, vous devez définir 2 à 3 termes de recherche pour chaque URL pour laquelle cette URL est pertinente. Et évitez les chevauchements avec d'autres URL.

Quelle est l'importance de facteurs tels que la structure de la page, par exemple avec les en-têtes h1, h2 ou h3, les balises méta et les balises alt ?

Une page bien structurée peut toujours aider, mais il existe différents avantages. Les titres rendent le texte plus digeste, ils donnent une structure claire au contenu et ils facilitent l'abord des sous-thèmes.

Les balises méta sont plus variées. Le méta-titre est un élément important qui est utilisé pour montrer aux moteurs de recherche quel est le sujet principal de l'URL et pour quel terme de recherche le contenu a été écrit. La méta description est principalement importante sur la page de résultats de recherche, car c'est le premier texte de ma page qu'un utilisateur voit - et c'est la base de la décision de l'utilisateur de cliquer ou non.

Les balises Alt, en revanche, sont très importantes pour la recherche d'images Google.

URL parlantes : quelle est l'URL parfaite ?

Cela pourrait faire l'objet d'un atelier entier. La réponse courte est qu'une URL doit refléter la structure du site Web et que chaque élément doit communiquer à l'utilisateur ce qu'il peut attendre de la page Web.

Est-il toujours utile d'exploiter des domaines de mots clés spéciaux qui peuvent bien se classer et créer un lien vers ma page afin que celle-ci obtienne un PageRank amélioré ?

De nos jours, les domaines n'obtiennent aucun avantage de classement simplement pour avoir inclus le mot-clé exact dans le titre du domaine. Donc, en toute déférence, la réponse est « non ».

Renforcer le PageRank de votre site Web principal à l'aide de liens provenant de ces domaines de mots clés ne peut fonctionner que si les domaines de mots clés sont précieux en eux-mêmes. S'il s'agit de domaines nouvellement enregistrés, ils n'auront initialement aucune valeur - ils n'auront donc aucun PageRank à transmettre. Cela peut s'améliorer si un profil de backlink est créé pour les domaines de mots clés.

La manipulation des backlinks en tant que facteur de classement est devenue plus difficile qu'auparavant, et la création d'un profil de backlink est moins "simple". Aujourd'hui, les backlinks sont plus précieux lorsqu'ils surviennent naturellement (c'est-à-dire lorsqu'ils sont de véritables « recommandations »), lorsqu'ils sont liés au sujet et lorsqu'ils ont une « histoire ». Un lien doit avoir une raison d'exister pour être considéré comme naturel. Dans cet esprit, il est plus facile pour un site Web de haute qualité de collecter des backlinks naturels car il se classera souvent pour les termes de recherche pertinents et servira donc l'intention de l'utilisateur d'un webmaster qui recherche une source pertinente.

Au lieu de me concentrer sur cette stratégie, je recommanderais plutôt d'investir du temps et des ressources dans l'optimisation du contenu de votre site Web (pour les utilisateurs), afin qu'il devienne plus tard la cible naturelle de nouveaux backlinks. Si vous essayez de créer artificiellement des liens, vous courez le risque de recevoir une pénalité manuelle de Google. D'autres stratégies (par exemple, un contenu optimisé et axé sur l'utilisateur) peuvent conduire à un bien meilleur succès à long terme.

Signaux de l'utilisateur et intention de recherche

L'intention de recherche décrit ce que l'utilisateur attend de sa recherche. Veulent-ils lire un long texte, recevoir une réponse rapide ou préfèrent-ils regarder une vidéo ? Ceci est lié aux signaux utilisateur créés par les actions de l'utilisateur. À quelle fréquence les utilisateurs cliquent-ils sur un résultat de recherche, combien de temps passent-ils sur la page et à quelle fréquence cliquent-ils pour revenir aux résultats de recherche ? Une optimisation réussie des moteurs de recherche doit toujours tenir compte de l'utilisateur et de son comportement.

J'ai beaucoup de pages de contenu, où l'utilisateur passe un peu de temps à lire mais quitte sans autre interaction. Ce taux de rebond de 100 % affectera-t-il négativement mon classement ou Google tient-il compte du fait qu'il s'agit d'une page de contenu pur ?

Tu as raison. Dans Google Analytics, ce serait un taux de rebond de 100 %. Google indique dans ses directives qu'une page n'a pas besoin d'un faible taux de rebond, mais je dirais quand même qu'il est rare que vous ne vouliez pas garder les utilisateurs sur votre domaine.

L'exemple de Wikipédia nous montre qu'il y a plus à offrir que le simple contenu de la page. Wikipédia offre aux utilisateurs de nombreux chemins à suivre, où ils peuvent accéder à plus de contenu et s'informer sur des sujets connexes.

Google n'utilise pas réellement le taux de rebond comme facteur de classement. Au lieu de cela, Google mesure la métrique associée, le "taux de retour au SERP". Ici, Google examine de plus près le temps qu'il faut à un visiteur de la page pour revenir à la page de résultats du moteur de recherche. Et cela ne doit pas être un signal négatif. Si un utilisateur a trouvé ce qu'il cherchait, il n'aura pas à revenir à sa requête de recherche initiale. Mais s'ils ne trouvent pas ce qu'ils cherchaient, ils devront soit cliquer sur un autre résultat de recherche, soit saisir une nouvelle requête de recherche plus précise susceptible de renvoyer des résultats plus appropriés.

Si nous croyons les déclarations faites par John Mueller (Google Webmaster Trends Analyst, alors les signaux des utilisateurs ne sont pas pertinents pour les classements et ne sont utilisés que pour aider à former les algorithmes de Google.

Le webinaire ne couvrait pas la navigation et l'intention de recherche locale. Pourquoi pas?

C'était juste pour garder l'exemple simple dans le temps disponible. Bien sûr, l'intention de recherche ne se limite pas aux requêtes transactionnelles et informatives. Je dirais également qu'au sein de chaque catégorie d'intention de recherche, il existe d'autres nuances plus précises qui peuvent vous aider à adapter votre contenu plus étroitement aux besoins des utilisateurs.

Qualité du site Web : comment puis-je améliorer mon classement ?

Il n'y a pas de moyen simple et rapide d'obtenir un meilleur classement. Mais nous en savons assez sur l'algorithme de classement de Google. Il est primordial que Google évalue la qualité du contenu d'un site Web et que cela joue un rôle important dans le calcul de la position de la page dans les résultats de recherche. Mais comment mesure-t-on la qualité des sites Web ?

Qui évalue mon site Web et décide s'il est bon ou mauvais ?

Les évaluations de sites Web sont effectuées par l'algorithme du moteur de recherche. L'algorithme – par exemple celui de Google – examine de nombreux facteurs différents, y compris le contenu, les liens, les signaux des utilisateurs ou les aspects techniques, et les utilise pour décider quelles URL sont les plus pertinentes pour une requête de recherche. C'est très complexe, mais fondamentalement, un site Web doit être techniquement bien optimisé et offrir le contenu le plus pertinent possible pour avoir les meilleures chances d'obtenir un classement élevé.

Que puis-je faire pour influencer directement les facteurs de classement de mon site ?

C'est une question extrêmement vaste à laquelle il est impossible de répondre en quelques phrases. Il existe plus de 200 facteurs de classement qui peuvent avoir différents degrés d'influence. L'examen des facteurs individuels et l'examen des moyens de les optimiser pourraient faire l'objet d'un futur webinaire. Ou de 200.

Mais un point de départ serait la balise de titre, qui est l'un des facteurs de classement les plus importants sur la page. L'utilisation de vos principaux mots-clés dans le titre de la page est l'un des moyens les plus directs d'avoir une influence.

Quels résultats de recherche obtiennent un extrait optimisé et comment puis-je l'influencer ?

Il appartient entièrement aux moteurs de recherche d'afficher ou non un extrait en vedette. Tout comme ils déterminent quel contenu du site Web concerné est affiché. Pour des informations détaillées sur les extraits en vedette, je vous recommande de lire les questions-réponses de Malte Landwehr et Izzi Smith sur le sujet ou de regarder leur webinaire.

Google Analytics

Plus vous disposez de données, mieux vous êtes en mesure de comprendre vos performances en ligne. Il est donc bon de connecter les données de votre plateforme d'optimisation pour les moteurs de recherche (comme la suite Searchmetrics) avec les données des utilisateurs d'un outil comme Google Analytics.

Si ma page est solide, recommanderiez-vous d'utiliser Google Analytics afin que Google puisse voir comment les utilisateurs se comportent sur le site ?

C'est généralement une bonne idée d'utiliser un programme d'analyse. C'est une bonne idée car cela vous donne un aperçu du comportement de vos utilisateurs, que vous pouvez utiliser pour vous aider à prendre des décisions. Cependant, Google indique clairement dans ses conditions générales - et je ne suggérerais en aucun cas que Google agisse autrement - qu'il n'utilise pas les données de Google Analytics pour évaluer les sites Web.

Vous voulez commencer à appliquer vos connaissances en SEO dans la pratique ? Alors organisez votre démonstration personnelle du logiciel Searchmetrics Suite dès aujourd'hui :

Demander une démo