19 février 2019 – Notes de Hangout de l'aide Google

Publié: 2019-02-26

C'est un autre Webmaster Help Hangout, avec notre homme principal, John Mueller. Cette semaine, il a eu un excellent aperçu des liens, de la vitesse de la page, de l'UTM et des liens d'affiliation. Comme toujours, la vidéo complète et la transcription sont disponibles ci-dessous. De plus, si vous trouvez ces récapitulatifs utiles, vous devriez consulter notre newsletter ! Nous collectons et organisons tous les meilleurs articles SEO de la semaine et les résumons pour vous dans des résumés rapides et digestes.

Si vous aviez auparavant une action manuelle pour les liens non naturels, cela stigmatiserait-il le site pour toujours ?

5:20

John Mueller Help Hangout 19 février 2019

Il est parfois difficile de parler, mais en général, si une action manuelle est résolue, cette action manuelle n'affecte plus le site. Il n'y a donc aucune sorte d'effet de retenue qui empêcherait un site Web de se retenir et comme de dire, eh bien, ils ont mal fait les mêmes choses et une fois que nous les empêcherons d'apparaître en haut des recherches, il n'y a rien de tel. Mais en particulier en ce qui concerne les liens, si vous aviez beaucoup de liens non naturels et que votre site était peut-être classé à cause de ces liens non naturels plutôt qu'en nettoyant ces liens non naturels, il y a bien sûr une nouvelle situation à laquelle nos algorithmes doivent s'adapter. première. C'est donc quelque chose qui pourrait dans une certaine mesure avoir un effet là-bas. Et la façon dont j'aborderais cela est simplement de continuer à travailler sur le site Web comme vous le feriez normalement et de vous assurer que vous ne vous retrouverez plus dans cette situation que l'équipe de spam Web rencontre des problèmes concernant vos liens. Donc, n'aimez pas partir et dire comme, oh j'ai supprimé ces liens, donc je vais acheter des liens d'un autre site à la place, et assurez-vous que ce que vous faites est vraiment pour l'utilisation à long terme de votre site Web .


Résumé : Une fois qu'une action manuelle est supprimée, elle est entièrement supprimée. Cependant, les liens non naturels ont toujours la capacité de nuire à un site de manière algorithmique. Cela peut prendre beaucoup de temps à disparaître.


Si votre site se charge rapidement pour les utilisateurs, mais que l'outil PageSpeed ​​Insights de Google le qualifie de lent, faut-il agir ?

11:29

John Mueller Help Hangout 19 février 2019

Ainsi, bon nombre de ces mesures que vous examinez depuis le phare vous sont principalement présentées en ce qui concerne le type d'utilisateur face aux choses. Donc, de notre point de vue du point de vue de la recherche, nous prenons une variété de ces mesures ensemble pour déterminer comment nous devrions en quelque sorte voir le site en ce qui concerne la vitesse, mais le type de mesures absolues que vous voyez là-bas dans le phare sont des éléments qui ont très probablement un effet plus important sur la façon dont les utilisateurs voient votre site. Donc, au lieu de demander à Google en ce qui concerne le référencement, ce site est-il trop lent, je le regarderais avec les utilisateurs et j'obtiendrais plutôt leurs commentaires et si vous dites que votre site est en fait assez rapide pour les utilisateurs, il fournit le contenu assez rapidement, alors vous êtes probablement en bon état là-bas.


Résumé : Le plus important est de savoir si vos pages se chargent rapidement pour les utilisateurs réels.

N Notre idée actuelle est que nous aimerions voir des améliorations de la vitesse de la page pour les sites qui ont de faibles scores de "première peinture de contenu" sur Lighthouse, car ce nombre est une approximation du temps qu'il faut pour que le contenu pouvant être lu apparaisse.


Si une page était classée pour certains mots clés et que vous la redirigiez vers une nouvelle page, cette page pourra-t-elle être classée pour ces mots clés ?

16:25

John Mueller Help Hangout 19 février 2019

Donc, c'est essentiellement ce que nous essayons de faire si nous pouvons vraiment transférer tout ce que nous un à un vers le nouveau domaine, alors ce nouveau domaine sera à la place de l'ancien domaine. Et il peut se classer pour les anciens mots-clés et il peut se classer pour les nouveaux mots-clés et encore une fois si vous apportez des modifications importantes au cours de ce déplacement, bien sûr, ce nouvel état doit être pris en compte et ce n'est pas comme si nous pouvions tout transmettre au nouveau un parce qu'un nouveau n'est pas simplement une version déplacée de l'ancien.


Résumé : Lorsque Google voit des liens passer par une redirection, il essaie de déterminer s'il doit transmettre des signaux de lien. Si la nouvelle page est similaire, il y a de fortes chances que les signaux de lien pointant vers la page précédente soient également transmis.


Est-il acceptable d'utiliser les paramètres UTM sur les liens internes ?

17:33

John Mueller Help Hangout 19 février 2019

Je suppose que c'est toujours une situation un peu délicate parce que vous nous donnez essentiellement des signaux mitigés. D'une part, vous dites que ce sont les liens que je veux indexer parce que c'est ainsi que vous reliez en interne au sein de votre site Web. D'autre part, ces pages lorsque nous les ouvrons, elles ont un lien canonique rel pointant vers une URL différente. Donc, vous dites indexer celui-ci et à partir de celui-là, vous dites bien en indexer un autre. Donc, ce que nos systèmes finissent par faire là-bas, c'est qu'ils essaient de peser les différents types d'URL que nous trouvons pour ce contenu. Nous pouvons probablement reconnaître que ce contenu, ces URL mènent au même contenu. Nous pouvons donc en quelque sorte les mettre dans le même groupe, puis il s'agit de choisir lequel utiliser réellement pour l'indexation et d'une part nous avons les liens internes pointant vers les versions UTM, d'autre part nous avons le rel canonique pointant vers une sorte de version plus propre. La version plus propre est probablement aussi une URL plus courte et une URL plus jolie qui joue également en ligne avec nous, mais il n'est toujours pas garanti de notre point de vue que nous utiliserions toujours la plus courte.

Donc, rel canonique est évidemment un signe fort, la liaison interne est également une sorte de signal plus fort, en ce sens que c'est quelque chose qui est sous votre contrôle. Donc, si vous avez explicitement lié à ces URL et que nous pensons que vous voulez peut-être qu'elles soient indexées comme ça. Donc, dans la pratique, ce qui se passerait probablement ici, c'est que nous indexerions un mélange d'URL, dont certaines, nous indexerions la version plus courte, car nous trouverions peut-être d'autres signaux pointant également vers la version plus courte. Nous indexons probablement certains d'entre eux avec la version UTM et nous essaierions de les classer normalement en tant que version UTM.

En pratique, dans la recherche, vous ne verriez aucune différence dans le classement, vous verriez simplement que ces URL pourraient être affichées dans les résultats de la recherche. Ainsi, ils seraient classés exactement de la même manière avec UTM ou sans UTM et ils seraient simplement répertoriés individuellement dans les résultats de la recherche. Et d'un point de vue pratique, cela signifie simplement que dans la console de recherche, vous pouvez voir un mélange de ces URL. Dans le rapport sur les performances, vous pouvez voir une sorte de mélange. Dans le rapport d'indexation, vous pouvez voir un mélange dans certains des autres rapports. Peut-être qu'autour de l'AMP ou des données structurées, si vous utilisez quelque chose comme ça, vous pourriez également voir ce mélange. Vous pouvez également voir dans certains cas une situation où elle permute entre les URL, il se peut donc que nous l'indexions avec les paramètres UTM à un moment donné, puis quelques semaines plus tard si nous passons à la version plus propre et que nous disons, eh bien probablement cette version plus propre est mieux, et puis à un moment donné plus tard ou algorithme pour le regarder à nouveau et dire bien en fait plus de signaux pointent vers la version UTM que nous allons revenir en arrière, cela pourrait théoriquement se produire également.

Donc, ce que je recommanderais de faire, c'est que si vous avez une préférence en ce qui concerne vos URL, assurez-vous d'être aussi clair que possible sur votre site Web quant à la version que vous souhaitez indexer. Avec les paramètres UTM, vous créez également la situation dans laquelle nous devrions explorer ces deux versions, donc c'est un peu plus lourd s'il ne s'agit que d'une version supplémentaire qui n'est probablement pas si grave. Si vous utilisez plusieurs paramètres UTM sur le site Web, nous essaierons d'explorer toutes les différentes variantes, ce qui signifierait que nous explorons peut-être, je ne sais pas, deux fois plus d'URL que votre site Web. doit en fait être en mesure de suivre l'indexation. C'est donc probablement quelque chose que vous voudriez éviter. Ma recommandation serait donc vraiment d'essayer de nettoyer cela autant que possible, afin que nous puissions nous en tenir aux URL propres. Aux URL que vous souhaitez indexer au lieu de se retrouver dans cet état où peut-être nous les prendrons comme ça, peut-être que nous les prendrons comme ça, et dans vos rapports ça pourrait être comme ça, ça pourrait être comme ça. Il faut faire attention à ça tout le temps. Alors restez aussi simple que possible.


Résumé : Soyez prudent. Les liens internes indiquent à Google quelles pages sont importantes sur votre site. Si vous créez un lien vers des pages avec des paramètres utm, il se peut que Google explore plusieurs URL avec le même contenu. Ce n'est pas un problème pour quelques pages, mais cela peut potentiellement affecter la capacité de Google à explorer le site si cela est fait à grande échelle.

Indiquez très clairement quelle est la version canonique afin que tous les signaux passent à cette page. Ce qui suit vous aidera :

  • Utilisez une balise canonique sur toutes les versions de la page qui pointe vers l'url non-utm
  • Assurez-vous que le contenu de chaque version de la page est le même


Est-il acceptable d'afficher sur les liens Googlebot un texte d'ancrage différent de celui que voient les utilisateurs réels ?

23:08

John Mueller Help Hangout 19 février 2019

Googlebot devrait donc voir la version équivalente de la page telle que la verraient les utilisateurs. Donc, si c'est quelque chose d'utile pour les utilisateurs, je vous recommande de le montrer également à Googlebot. C'est quelque chose où si vous parlez de la vitesse qu'il faut pour rendre ces pages, il vaut la peine de garder à l'esprit que nous examinons la vitesse d'une manière holistique, nous ne regardons pas seulement la vitesse d'une page comme Googlebot l'est récupérer cette page en ce qui concerne la vitesse en ce qui concerne l'utilisation de la vitesse comme facteur de classement. Pour l'exploration, bien sûr, avoir les pages qui sont disponibles très rapidement, cela nous aide un peu, donc il est logique d'accélérer les choses pour Google, au moins pour l'exploration. Une chose que je recommanderais ici est cependant d'essayer d'éviter la casse spéciale de Googlebot si possible, car cela signifie que la maintenance est beaucoup plus difficile. Si vous faites un travail spécial pour Googlebot, il est beaucoup plus difficile de dire si Googlebot voit des erreurs sur la page et si les utilisateurs voient un contenu normal et Googlebot commence à supprimer ces pages de la recherche à cause de ces erreurs. Donc, idéalement, traitez-les de la même manière que les utilisateurs. Une façon de procéder consiste à utiliser une sorte de JavaScript pour charger de manière asynchrone ces informations supplémentaires. Donc, c'est généralement assez facilement faisable, probablement moins d'effort que de masquer Googlebot dans un cas comme celui-ci.


Résumé : Non. Vous ne voulez pas créer de cas particuliers où Googlebot voit un contenu différent de celui d'un utilisateur standard.

Notre remarque : cela pourrait être considéré comme du cloaking et entraîner la suppression de pages de l'index.


S'il existe des liens pointant vers la page A et que la page A est canonisée vers la page B, Google considère-t-il que ces liens pointent vers la page B ?

26:18

John Mueller Help Hangout 19 février 2019

Donc, de notre point de vue, il y a plusieurs choses que j'ai mises en jeu ici. Je pense tout d'abord que ces pages devraient être équivalentes si vous dites qu'il y a un canonique pour cette page, cela devrait également être équivalent à la page finale. Donc, peu importe laquelle de ces pages est utilisée pour transférer des liens, car vous nous dites essentiellement que ces pages sont les mêmes, nous pouvons les traiter de la même manière. Donc, cela ne devrait pas avoir d'importance pour nos algorithmes, comme si nous captions ces liens sur cette page ou si nous captions les liens sur l'autre page. Donc, je supposerais également que ce n'est pas toujours un peu comme dans l'autre question avec les paramètres UTM, nous choisirions l'URL spécifiée comme canonique comme celle que nous indexons réellement. Donc, si ces liens sont différents d'une version à l'autre des pages, il est possible que nous ne transmettions pas PageRank de la manière que vous attendez. Donc, tout cela se rassemble et, de mon point de vue, ce que je recommanderais, c'est de s'assurer que ces pages sont équivalentes. Pour que vous n'ayez pas à vous soucier d'où, quels liens passent PageRank. Mais supposons plutôt que cela pourrait être cette page, cela pourrait être l'autre page, le rel canonique est un signal fort pour nous mais ce n'est pas une directive qui nous empêche d'utiliser complètement cette page.


Résumé : Si les pages sont vraiment équivalentes, alors oui, les liens pointant vers la page A aideraient à prendre en charge la page B.


Devriez-vous créer un site Web distinct pour chaque pays dans lequel vous souhaitez être vu ?

26:58

John Mueller Help Hangout 19 février 2019

Donc, la réponse courte est non, c'est une très mauvaise idée. Surtout si vous n'avez pas vraiment de contenu unique pour chaque pays du monde. En particulier si vous utilisez hreflang entre les différentes versions de pays et de langue. Vous devez garder à l'esprit que hreflang n'améliore pas le classement de ces pages dans ces pays, il remplace simplement ces URL. Vous devez donc toujours être en mesure de vous classer dans ces emplacements individuels. Ce qui signifie que si vous avez un contenu et que vous le répartissez dans tous les pays du monde et que vous le multipliez par chaque langue, vous aurez dilué votre contenu de manière significative sur un grand nombre d'URL. Ce qui signifie que tout élément de contenu aura beaucoup plus de mal à être affiché dans les résultats de recherche. Parce qu'au lieu d'une page forte que nous pourrions montrer potentiellement dans le monde entier, nous avons une tonne de pages différentes qui affichent toutes plus ou moins le même contenu et aucune d'entre elles n'est particulièrement forte. C'est donc quelque chose où, lorsqu'il s'agit d'une stratégie d'internationalisation, je recommanderais fortement d'obtenir l'aide de personnes qui l'ont fait avec succès pour d'autres sites Web. Pour que vous puissiez vraiment peser le pour et le contre. D'une part, vous avez l'avantage de pouvoir cibler des pays et des langues individuels avec un contenu vraiment unique et spécialisé pour eux et d'autre part, vous devez peser cela si vous diluez trop le contenu, alors tous ceux les versions auront beaucoup plus de mal à être visibles dans la recherche. Donc, d'une part, bien cibler, d'autre part, s'assurer que les versions dont vous disposez sont suffisamment solides pour être réellement visibles dans la recherche et je pense généralement qu'il faut pécher par excès en utilisant moins de versions plutôt que en utilisant plus de versions. Donc, à moins que vous n'ayez un cas d'utilisation vraiment solide pour avoir un contenu spécifiquement ciblé pour des pays individuels et que je me trompe du côté de bien, peut-être qu'un site Web mondial est préférable plutôt que de diviser les choses.


Résumé : Dans la plupart des cas, il est logique de n'avoir qu'un seul site Web et d'utiliser correctement hreflang pour aider Google à trouver la bonne version. Il peut y avoir des cas où il serait judicieux d'avoir des sites Web avec des TLD distincts au niveau des pays. C'est souvent une décision difficile. John recommande de consulter un référenceur qui a de l'expérience dans l'internationalisation.


Pouvez-vous utiliser à la fois le schéma d'évaluation et le schéma de questions-réponses sur le même contenu ?

29:33

John Mueller Help Hangout 19 février 2019 Bien sûr, je ne vois pas pourquoi pas. La principale chose à garder à l'esprit est que les données structurées doivent être axées sur le contenu principal de la page. Donc, je ne sais pas exactement comment vous combineriez la note et le schéma d'assurance qualité sur une page, mais c'est peut-être quelque chose comme si vous aviez des questions et des réponses sur un produit et que vous aviez également des notes sur ce produit. Cela pourrait être une option là-bas, mais en général, ce n'est pas que ces types de balisage sont exclusifs et vous ne pouvez utiliser qu'un seul type, vous pouvez combiner plusieurs types de balisage.


Résumé : Oui


Les liens d'affiliation sont-ils considérés comme le signe d'un site Web de moindre qualité ?

41:05

John Mueller Help Hangout 19 février 2019

Donc, en général, ce n'est pas pour autant que je sache, nous n'entrons pas explicitement dans le site et disons, eh bien, il y a des liens qui ressemblent à des liens d'affiliation, donc nous traiterons ce site Web comme étant de qualité inférieure. En général, les principaux problèmes que je vois en ce qui concerne les sites Web affiliés sont qu'ils ont tendance à être simplement des sites Web de qualité inférieure. Donc, ce n'est pas tant une question de savoir où se trouve le flux de paiement, mais plutôt que dans l'ensemble, le contenu est souvent de mauvaise qualité et à cause du contenu de mauvaise qualité, c'est quelque chose que nos algorithmes pourraient détecter et dire, eh bien ce n'est probablement pas le résultat le plus pertinent à afficher dans les résultats de recherche, et il peut également y avoir des sites Web affiliés de très haute qualité qui sont bons. Donc, ce n'est pas tant une question de savoir s'il y a un lien d'affiliation ou non, mais plutôt qu'en est-il du reste du site ? Est-ce quelque chose qu'il serait pertinent de montrer aux utilisateurs ou y a-t-il peut-être quelque chose de problématique là-dedans ? Je pense, du moins pour autant que je sache, que cela s'appliquerait à tous les niveaux, donc peu importe le sujet spécifique du site Web, mais en général, il existe de très bons sites affiliés et il y en a vraiment vraiment terrible sites affiliés. Donc, c'est plus une question de savoir si un site porno est bon ou est-ce qu'un site porno est mauvais ?


Résumé : La présence de liens d'affiliation n'est pas un signe de mauvaise qualité. Cependant, si vous avez un site affilié, pour bien vous classer, vous devez fournir suffisamment de valeur pour que Google veuille classer votre contenu aux côtés du contenu du fournisseur d'origine.


Si votre site reçoit un afflux de liens non pertinents, faut-il les désavouer ?

47:01

John Mueller Help Hangout 19 février 2019

Bien sûr, tu peux faire ça. Oui, c'est un peu à cela que sert l'entrée de domaine dans le fichier de désaveu, de cette façon, c'est comme tous ces millions ou milliers de liens, vous pouvez tout dire à partir de ce site, je n'ai rien à voir avec ça. Habituellement, ce qui se passe dans des cas comme celui-là où vous voyez ce lien de site complètement aléatoire, c'est que ce site a probablement été piraté et pour une raison quelconque, quelqu'un a décidé de supprimer tous ces liens là-bas lors du piratage du site Web et généralement nous sommes assez bons pour le ramasser et essayer de garder l'état avant qu'ils ne piratent nos systèmes. Donc, nous ignorons probablement déjà ces liens, il est possible que nous indexions peut-être ou même le site Web d'avant plutôt qu'avec le contenu piraté. C'est donc quelque chose pour lequel je ne m'inquiéterais pas trop parce que ce genre de piratage est très courant et nous avons un peu de pratique pour essayer de gérer cela. Mais si vous êtes inquiet à ce sujet, vous savez que oh c'est vraiment fou et je pense que les liens de réparation d'instruments ne sont probablement pas quelque chose où vous êtes comme dire, oh ça va tuer mon site Web si je suis associé à des violons, peut-être que le contenu pour adultes est quelque chose pour lequel vous seriez plus prudent, alors j'utiliserais simplement un fichier de désaveu pour le soumettre et vous êtes sûr que ceux-ci ne sont pas pris en compte.\


Résumé : Dans la plupart des cas comme celui-ci, Google ignore déjà l'afflux inhabituel de liens. Il est intéressant de noter cependant que John a recommandé que ce soit une bonne idée de désavouer si ces liens sont de nature adulte Par exemple, si votre site de réparation de musique a reçu des milliers de liens non naturels pointant vers lui avec l'ancre "réparation de violon", vous voudrez peut-être les désavouer.


Si vous aimez ce genre de choses, vous allez adorer ma newsletter !

Mon équipe et moi rendons compte chaque semaine des dernières mises à jour de l'algorithme Google, des actualités et des conseils SEO.

Succès!! Vérifiez maintenant votre e-mail pour confirmer votre abonnement à la newsletter Google Update.

Une erreur s'est produite lors de la soumission de votre abonnement. Veuillez réessayer.

Vidéo complète et transcription

Question 1:25 - Est-ce que les en-têtes méta HTTP X robots empêcheraient Google de suivre une redirection d'emplacement comme un 301 ou 302 ?

Réponse 1:37 - Non. Ainsi, le nofollow ne s'appliquerait qu'aux liens de cette page et puisqu'il s'agit d'une redirection côté serveur, nous ne regarderions même pas le contenu de la page. Donc nous il n'y aurait pas de liens à suivre donc ça ne changerait rien.

Question 1:58 - Un de nos clients est une boutique e-commerce. Ils ont été bloqués par plusieurs FAI, FAI mobiles et nous nous sommes demandé quel impact leur classement organique aurait.

Réponse 2:15 - Donc, je suppose que l'essentiel, de notre point de vue, serait de savoir si Googlebot serait également bloqué ou non et si Googlebot n'est pas bloqué, nous serions en mesure d'explorer et d'indexer le contenu normalement. Mais bien sûr, si Googlebot est également bloqué parce qu'il est, je ne sais pas, bloqué aux États-Unis par exemple, cela entraînerait bien sûr l'abandon de ces pages dans la recherche. Mais s'il ne s'agit que d'utilisateurs individuels, je n'y ai pas accès et l'indexation et l'exploration fonctionnent normalement, c'est généralement moins un problème, bien sûr, vous avez en quelque sorte des effets indirects là-bas que ces utilisateurs ne pourraient pas recommander le site et nous ne serions pas en mesure de récupérer ces recommandations car elles n'existent pas de la part de ces utilisateurs. Donc, évidemment, si vous bloquez la plupart des utilisateurs de votre site Web, cela aurait probablement un effet à long terme sur le site.

Réponse 3:25 - Et c'est quelque chose que certains sites font même exprès, pas particulièrement les utilisateurs mobiles par rapport aux ordinateurs de bureau, mais certains sites diront, je n'ai rien que je puisse offrir aux utilisateurs dans ces pays individuels ou pour quelque raison politique que ce soit mon contenu est illégal en Suisse parce qu'il n'est pas assez neutre ou quoi que ce soit, alors ce site pourrait choisir de bloquer les utilisateurs dans ces pays et c'est toujours quelque chose que nous devons gérer. Donc, ces utilisateurs ne pourraient pas le recommander, il pourrait y avoir des effets à long terme, mais si nous pouvons toujours explorer et indexer le contenu, c'est généralement bien.

Nous avions un manuel une action due aux liens. Nous sommes lentement remontés au bas de la page 1, parfois au haut de la page 2. Je me demandais si c'était dû au manque de liens maintenant ou si nous pouvions faire quelque chose pour regagner cette confiance afin que nous puissions revenir à notre position initiale?

Réponse 5:20 - Il est parfois difficile de parler, mais en général, si une action manuelle est résolue, cette action manuelle n'affecte plus le site. Il n'y a donc aucune sorte d'effet de retenue qui empêcherait un site Web de se retenir et comme de dire, eh bien, ils ont mal fait les mêmes choses et une fois que nous les empêcherons d'apparaître en haut des recherches, il n'y a rien de tel. Mais en particulier en ce qui concerne les liens, si vous aviez beaucoup de liens non naturels et que votre site était peut-être classé à cause de ces liens non naturels plutôt qu'en nettoyant ces liens non naturels, il y a bien sûr une nouvelle situation à laquelle nos algorithmes doivent s'adapter. première. C'est donc quelque chose qui pourrait dans une certaine mesure avoir un effet là-bas. Et la façon dont j'aborderais cela est simplement de continuer à travailler sur le site Web comme vous le feriez normalement et de vous assurer que vous ne vous retrouverez plus dans cette situation que l'équipe de spam Web rencontre des problèmes concernant vos liens. Donc, n'aimez pas partir et dire comme, oh j'ai supprimé ces liens, donc je vais acheter des liens d'un autre site à la place, et assurez-vous que ce que vous faites est vraiment pour l'utilisation à long terme de votre site Web .

Question 7:32 - La question concerne généralement un site Web qui a déménagé vers un nom de domaine différent et ils ont déplacé un cadre différent et également vers une plate-forme différente via un site angulaire plutôt qu'un site HTML statique et depuis qu'ils ont fait ce déplacement, ils ont vu une baisse significative des classements, de la visibilité dans la recherche en général.

Réponse 7:57 - J'ai donc regardé un tas de fils de discussion sur le site Web et j'ai essayé de suivre quelque chose en interne pour voir ce qui se passe exactement ici et c'est une sorte de situation compliquée où je n'ai pas vraiment de réponse directe. En particulier, il y a le passage d'une sorte de domaine de premier niveau de code de pays à un domaine de premier niveau générique, de sorte qu'une sorte d'informations de ciblage géographique est un peu perdue là-bas. Il y avait quelques problèmes au début avec la possibilité d'indexer le contenu du tout. En particulier sur le nouveau site et il y a des changements importants dans la façon dont le contenu est fourni sur le nouveau site par rapport à l'ancien site. Donc, dans l'ensemble, il y a beaucoup de changements assez importants en cours de route et certains d'entre eux étaient problématiques, comme l'impossibilité d'indexer le contenu et certains d'entre eux n'étaient que des changements de la façon dont ils pourraient normalement se produire sur un site Web où vous modifieriez le contenu de manière significative par exemple. Et je pense que ce qui se passe ici, c'est que tous ces changements ont rendu assez difficile pour nos algorithmes de déterminer quelle devrait être la nouvelle étape stable pour ce site Web et c'est probablement juste quelque chose qui prend beaucoup plus de temps qu'un déplacement normal du site prendrait . C'est donc, je pense, l'une de ces situations prudentes où vous voulez faire un tas de changements et en faisant des changements assez importants en même temps, vous causez beaucoup de confusion en ce qui concerne nos algorithmes. Là où il pourrait être judicieux de prendre ces changements étape par étape pour les tester individuellement pour voir que chaque étape intermédiaire fonctionne comme il se doit afin que vous soyez sûr que toute la chaîne de changements que vous apportez n'entraîne pas nécessairement dans des effets négatifs plus importants en ce qui concerne la recherche. Donc, je suppose que ma recommandation ici serait de continuer et de continuer à regarder le site en train de travailler sur le site pour l'améliorer. Je pense que du point de vue de l'indexation, vous êtes dans un assez bon état, vous utilisez une sorte de pré-rendu côté serveur qui nous permet de récupérer le contenu assez rapidement. Il semble que vous ayez apporté des changements importants à la vitesse du site Web dans son ensemble, ce qui est également un changement positif. Et je soupçonne que toutes ces choses s'additionneront au fil du temps pour se refléter également dans la recherche. Je souhaite que ce type de modifications puisse être traité un peu plus rapidement. J'ai donc envoyé un ping à certaines personnes du côté de l'ingénierie de recherche pour vérifier que tout fonctionne comme prévu. Mais en général, avec beaucoup de changements chaotiques sur un site et le déplacement vers un domaine différent, toutes ces choses peuvent rendre un peu difficile la création d'un site.

Question 11:03 - Nous avons un bon premier contenu significatif de deux secondes mais notre temps d'interactivité est de 12 à 15 secondes est affecté par une grande quantité de scripts selon lighthouse même s'il se charge très rapidement pour les utilisateurs. Nous sommes sur le point de lancer un nouveau site Web et nous nous demandons s'il est crucial de résoudre ce problème avant le lancement ou si cela peut attendre quelques mois, comment Google considère-t-il le temps d'interactivité ?

Réponse 11:29 - Donc, bon nombre de ces mesures que vous examinez depuis le phare vous sont principalement présentées en ce qui concerne le type d'utilisateur face aux choses. Donc, de notre point de vue du point de vue de la recherche, nous prenons une variété de ces mesures ensemble pour déterminer comment nous devrions en quelque sorte voir le site en ce qui concerne la vitesse, mais le type de mesures absolues que vous voyez là-bas dans le phare sont des éléments qui ont très probablement un effet plus important sur la façon dont les utilisateurs voient votre site. Donc, au lieu de demander à Google en ce qui concerne le référencement, ce site est-il trop lent, je le regarderais avec les utilisateurs et j'obtiendrais plutôt leurs commentaires et si vous dites que votre site est en fait assez rapide pour les utilisateurs, il fournit le contenu assez rapidement, alors vous êtes probablement en bon état là-bas.

Réponse 12:24 - Google vient d'expliquer dans un livre blanc publié il y a quelques jours qu'il utilise PageRank via des liens sur le Web pour évaluer l'autorité et la fiabilité de manière algorithmique. Peut-on supposer que l'expertise est principalement évaluée via la qualité du contenu de manière algorithmique ? Pouvez-vous nous en dire plus ?

Réponse 12:51 - Je n'ai aucune idée là-bas. C'est donc quelque chose pour lequel je n'ai vraiment rien de spécifique à ce sujet. Je viens de voir ce livre blanc que je ne connais pas hier ou avant-hier également. Cela semble assez intéressant, mais bien sûr, c'est un document assez long et il y a beaucoup de sujets différents là-dedans et le PageRank est juste plus ou moins un commentaire secondaire là-bas . Donc, je n'aimerais pas dire que tout n'est que PageRank.

Question 13:23 - Il y a quelques mois, l'équipe des laboratoires Google Chrome a publié un lien rapide. Ce qui offre des chargements de page ultérieurs plus rapides en préchargeant les liens de la fenêtre d'affichage pendant les périodes d'inactivité. Je sais que cela est bénéfique pour les utilisateurs, mais cela aurait-il un effet sur Googlebot et son classement ou chaque page visitée par Googlebot est-elle considérée comme une première visite, une table rase ?

Réponse 13:45 - Vous avez raison. Ainsi, chaque fois que Google charge une page qui est considérée comme une sorte de première visite sur ce site ou sur cette page, nous ne conservons généralement aucun cookie, ce n'est pas que nous gardons l'état de la session où nous dirions, oh nous avons chargé ceci une page et nous suivons les liens ici, nous allons donc conserver cet état et cliquer sur ces liens pour accéder à ces nouvelles pages, mais nous trouverons plutôt ces URL, puis nous récupérerons ces URL individuellement. Donc, dans un cas comme celui-ci, je ne vois aucun effet positif ou négatif sur Googlebot ici, cela semble être quelque chose qui accélérerait considérablement les choses pour les utilisateurs, donc c'est une bonne chose et vous voyez probablement des effets indirects là-bas et que lorsque les utilisateurs sont capables d'utiliser votre site très rapidement, ils passent souvent plus de temps sur le site, ils regardent un peu plus autour d'eux et, à leur tour, il est probablement plus probable qu'ils pourront également recommander ce site à d'autres, ce qui est quelque chose que nous pourrons peut-être récupérer.

Question 12:52 - Combien de temps faut-il pour restaurer les classements si je déplace un site d'un ancien domaine vers un tout nouveau et que je m'assure que toutes les redirections 301 sont en place ?

Réponse 15:02 - C'est donc quelque chose qui peut arriver très rapidement si vous effectuez un déplacement de site propre d'un domaine à un autre où tout est essentiellement le même où nous pouvons reconnaître que cette ancienne URL est redirigée vers la même URL sur le nouveau domaine puis nous pouvons généralement comprendre cela assez rapidement et généralement vous verrez dans la sorte de vue d'ensemble de l'indexation dans la console de recherche, vous verrez que l'un descend à peu près au fur et à mesure que l'autre monte et les choses changent avec peut-être un jour ou deux de une sorte de bosse entre les deux. D'un autre côté, si vous apportez des modifications importantes à votre site Web, donc différentes URL, différents cadres, différents types de contenu, tout cela peut rendre la tâche beaucoup plus difficile pour nous et nous devons vraiment réévaluer complètement le nouveau site et en fonction de le nouveau site Web déterminer comment nous devrions positionner ce site. C'est un peu les différences là-bas, mais si c'est vraiment juste une URL propre qui se déplace vers la même URL sur un autre type de changement de domaine, ce n'est vraiment pas un problème.

Question 16:18 - Un nouveau domaine héritera-t-il du jus SEO et se classera-t-il également pour les nouveaux mots-clés ?

Réponse 16:25 - Donc, nous essayons essentiellement de savoir si nous pouvons vraiment transférer tout ce que nous un à un vers le nouveau domaine, alors ce nouveau domaine remplacera l'ancien domaine. Et il peut se classer pour les anciens mots-clés et il peut se classer pour les nouveaux mots-clés et encore une fois si vous apportez des modifications importantes au cours de ce déplacement, bien sûr, ce nouvel état doit être pris en compte et ce n'est pas comme si nous pouvions tout transmettre au nouveau un parce qu'un nouveau n'est pas simplement une version déplacée de l'ancien.

Question 16:58 - Une question concernant les URL de paramètres avec des liens UTM. Ces liens dilueront-ils la valeur du lien s'ils sont fortement liés en interne ? Nous obtenons des pages indexées avec des paramètres où le canonique pointe vers la version préférée, comment cela affectera-t-il à long terme si nous sommes liés au sein du site Web avec 80% de paramètres et 20% d'URL propres.

Réponse 17:33 - Je suppose que c'est toujours une situation un peu délicate parce que vous nous donnez essentiellement des signaux mitigés. D'une part, vous dites que ce sont les liens que je veux indexer parce que c'est ainsi que vous reliez en interne au sein de votre site Web. D'autre part, ces pages lorsque nous les ouvrons, elles ont un lien canonique rel pointant vers une URL différente. Donc, vous dites indexer celui-ci et à partir de celui-là, vous dites bien en indexer un autre. Donc, ce que nos systèmes finissent par faire là-bas, c'est qu'ils essaient de peser les différents types d'URL que nous trouvons pour ce contenu. Nous pouvons probablement reconnaître que ce contenu, ces URL mènent au même contenu. So we can kind of put them in the same group and then it's a matter of picking which one to actually use for indexing and on the one hand we have the internal links pointing to the UTM versions, on the other hand we have the rel canonical pointing to kind of the cleaner version. The cleaner version is probably also a shorter URL and nicer looking URL that kind of plays in inline with us as well but it's still not guaranteed from our point of view that we would always use the shorter.

So rel canonical is obviously a strong sign internal linking is also kind of a stronger signal, in that that's something that's under your control. So if you explicitly linked to those URLs and we think maybe you want them indexed like that. So in practice what what would probably happen here is we would index a mix of URLs some of them we would index the shorter version because maybe we find other signals pointing at the shorter version as well. Some of them we probably index with the UTM version and we would try to rank them normally as the UTM version.

In practice in search you wouldn't see any difference in ranking you would just see that these URLs might be shown in the search results. So they would rank exactly the same with UTM or without UTM and they would just be listed individually in the search results. And from a practical point of view that just means that in search console you might see a mix of these URLs. In the the performance report you might see kind of this mix. In the indexing report you might see a mix in some of the other reports. Maybe around the AMP or structured data if you use anything like that you might also see this mix. You might also see in some cases situation where it swaps between the URLs so it might be that we index it with UTM parameters at one point and then a couple weeks later if we switch to the cleaner version and we say, well probably this cleaner version is better, and then at some point later on or algorithm to look at it again and say well actually more signals point to the UTM version we'll switch back, that could theoretically happen as well.

So what I would recommend doing there is if you have a preference with regards to your urls make sure that you're being as clear as possible within your website about what version you want to have indexed. With UTM parameters you're also creating the situation that we'd have to crawl both of those versions so it's a little bit more overhead if it's just one extra version that's probably not such a big deal. If you have multiple UTM parameters that you're using across the website then we would try to crawl all of the different variations which would in turn mean that maybe we crawl, I don't know, a couple times as many URLs as your website actually has to be able to keep up with indexing. So that's probably something you'd want to avoid. So my recommendation would be really to try to clean that up as much as possible, so that we can stick to the clean URLs. To the URLs that you want to have indexed instead of ending up in this state where maybe we'll pick them up like this, maybe we'll pick them up like this, and in your reporting it could be like this, it could be like this. You have to watch out for that all the time. So keep it as simple as possible.

Question 21:56 - Will there be any ability to test and view desktop renders with screenshots in the URL inspection tool in search console?

Answer 22:05 - I get these kind of questions all the time. It's like will you do this in search console or will you do that. And in general we try not to pre-announce things so I don't really have any insight that I can give you there with regards to what will happen in the future. It does seem like something that is kind of a missing aspect of the tool in that it's focusing on mobile at the moment but it might be nice to actually test the desktop version as well. So I'll definitely pass that on to your team to make sure that that's on their radar somewhere.

Question 22:41 - On one website with a couple million pages we have a sidebar which has internal links in it and next to each there's a number which represents how many sub pages that link leads to. Sort of as an information informative visual aid and generating those numbers takes a lot of time is it okay to remove those numbers for the front page when Googlebot is detected?

Answer 23:08 - So Googlebot should be seeing the equivalent version of the page as users would be seeing. So if this is something that's useful for users I'd recommend showing it to Googlebot as well. It's something where if you're talking about the speed that it takes to to render these pages it's worth keeping in mind that we look at speed on kind of a holistic way we don't just look at the speed of a page as Googlebot is fetching that page when it comes to speed with regards to using speed as a ranking factor. For crawling of course having the pages that are available very quickly that helps us quite a bit so that makes sense to kind of make things fast for Google for crawling at least. One thing I'd recommend here though is try to avoid special casing Googlebot if if at all possible because it does mean that maintenance is a lot harder. If you're doing special for Googlebot then it's a lot harder to tell if Googlebot is seeing errors on the page and users are seeing normal content and Googlebot starts dropping those pages from search because of those errors. So ideally treat them a lot the same as users. One way you could do that here is to use some kind of JavaScript to just asynchronously load that extra information. So that's usually pretty easily doable probably less effort than cloaking to Googlebot in a case like this.

Question 24:47 - Does link equity pass through links on canonical pages or is it just ignored and everything flows to the canonical? So I think the question is more that you have one page it has a rel canonical pointing to a different page and the question is will those links on that original page kind of work pass PageRank or will only that pay the links on the specified canonical page pass PageRank?

Answer 25:18 - So from our point of view there are multiple things I've come into play here. I think first of all those pages should be equivalent if you're saying that there's a canonical for that page it should be equivalent to the final page as well. So it shouldn't matter which of these pages is used for forwarding links because you're essentially telling us these pages are the same we can treat them the same. So it shouldn't matter for our algorithms like if we pick up those links on that page or we pick up the links on the other page. So II would also assume there that not always kind of like in the other question with UTM parameters we would pick the URL that is specified as canonical as the one that we actually index. So if those links are different across versions of pages then that's something where we might not pass PageRank in the way that you're expecting. So all of that kind of comes together and from my point of view what I'd recommend there is just really making sure that those pages are equivalent. So that you don't have to worry about from where, which links are passing PageRank. But rather assume that it could be this page, it could be the other page, the rel canonical is a strong signal for us but it's not a directive that prevents us from using that page completely.

Question 26:50 - Is it a good idea to create a website for every country in the world?

Answer 26:58 - So the short answer there is no that's a terrible idea. Especially if you don't really have content that's unique to every country in the world. In particular if you're using hreflang between the different country and language versions. You need to keep in mind that hreflang does not make those pages rank higher in those countries it just swaps out those URLs. So you still have to be able to rank in those individual locations. Which means if you have one piece of content and you split it up across every country in the world and multiply it by every language then you'll have diluted your contents significantly across a large number of URLs. Which means that any piece of content there will have a lot more trouble being shown in the search results. Because instead of one strong page that we could show potentially worldwide, we have a ton of different pages that all show more or less the same content and none of them are particularly strong. So that's something where when it comes to an internationalization strategy I would strongly recommend getting help from people who have done this successfully for other websites. So that you can really weigh kind of the pros and the cons there. On the one hand you have the advantage of being able to target individual countries and languages with content that's really uniquely kind of specialized for them and on the other hand you have to weigh that if you're diluting the content too much then all of those versions will have a lot harder time to be visible in search. So on the one hand targeting well on the other hand kind of making sure that the versions that you do have available are strong enough to actually be be visible in search and my general thought there is to err on the side of using fewer versions rather than using more versions. So unless you have a really strong use case for having content specifically targeted for individual countries and I err on the side of well maybe one global website is better rather than splitting things up.

Question 29:25 - Can we use both rating schema and question-and-answer schema for question answers

Answer - 29:33 - Sure I don't see offhand why not. The main thing to keep in mind is that the structured data should be focused on the primary content of the page. So I don't know how exactly you would kind of combine the rating and the QA schema on a page but maybe it's something like you have questions and answers to a product and you have ratings at that product as well. That might be an option there but in general it's not that these types of markups are exclusive and you can only use one type you can combine multiple types of markup.

Question 30:41 - So our site had maybe like 5,000 Google visitors per day for several months now we're down to under 500. This was due to a sudden, just happened in one day, we think it's due to an automatic security penalty that we got removed within one business day and we just haven't seen any change within three weeks. So I'm wondering how long was something like that it might take to recover from and if there's anything else that would cause just a sudden one day drop like that?

We got a message in search console that social engineering content was detected. It turns out that was due to our email service provider there click track my software was was automatically flagged because I guess another clients was using it so we were we got a manual review and within a business day and they said it was ok but you know.

Answer 31:48 - Ok so if there was a manual review then that would be resolved. So it's not that there is kind of a hold back after manual review that says, oh we have to be careful with this website, but that should be resolved there. I know It's kind of hard to say just in a general case with regards to a site like that there there are sometimes algorithmic changes that happen that roll out we're bigger change happens with within a day or so. So that might also be playing a role here it might also be that there's something else kind of playing in with the site there. So what what I generally recommend doing is maybe starting a thread in the webmaster help forum with the URL of your site and some of the queries where you're seeing changes. So not just like we had this many queries and now it's like down to this but rather like people are searching for our company name they're still finding our company name but for this particular kind of query we're no longer visible anymore. So that that kind of thing is it's really useful to post in the webmaster help forum and usual also when when people can't find an answer for that, the experts there are able to escalate that on to us so that we can take a look at that as well.

Question 33:24 - So they have multiple sites in German for different countries and they have the a hreflang setup. It sounds like instead of properly. So this is just what the example URLs, it's hard to say but they're saying that they're not seeing a lot of indexing of these URLs across the different country versions so what what could be happening here?

Réponse 33:54 - Donc, généralement, lorsque je vois des questions comme celle-ci, cela se résume à nos algorithmes qui regardent ces pages et disent que ces pages sont essentiellement des doublons les unes des autres. Donc on peut indexer une de ces versions et on peut la montrer aux utilisateurs parce que c'est la même chose. Donc, en particulier en allemand, c'est quelque chose que je vois pas mal, j'imagine que dans d'autres langues, c'est probablement similaire en espagnol où il y a plusieurs pays hispanophones ou en anglais bien sûr aussi où le contenu est essentiellement le même et il est juste ciblé pour différents pays. Donc, ce qui se passe ici, du point de vue de l'indexation, nous replierions probablement, au moins potentiellement, ces URL ensemble afin que les multiples versions allemandes que nous choisissons une version allemande et disons que c'est le canonique pour la version allemande avec le balisage hreflang nous ' d être toujours en mesure d'afficher les autres URL cependant. Nous pourrions donc indexer peut-être la version suisse allemande et si un utilisateur en Allemagne que nous recherchons, nous pourrions échanger cette URL contre la version allemande dans les résultats de la recherche. Mais dans le rapport d'indexation dans la console de recherche, vous ne verriez que cette URL indexée pour la version suisse qui est celle que nous avons choisie comme canonique. Donc, vous ne verriez pas cela pour la version allemande, en pratique, cela peut être correct si ces pages sont vraiment exactement les mêmes parce que nous échangeons l'URL que les utilisateurs obtiennent vers la bonne version qui est à peu près correcte et la difficulté peut être que si vous avez quelque chose dans le titre ou si vous avez des prix ou d'autres données structurées sur ces pages, cela pourrait être quelque chose qui confondrait les utilisateurs dans la mesure où un utilisateur en Allemagne pourrait effectuer une recherche, nous montrons l'URL allemande mais dans l'extrait, il a Swiss monnaie comme prix quelque part. Donc, cela pourrait être déroutant pour les gens, donc il y a généralement deux approches à cela, d'une part, vous pouvez adopter l'approche et dire que bien plier ces URL ensemble, c'est bien, cela rend ces euros un peu plus forts pour moi, ça va. Ensuite, vous pourriez y aller et dire que je vais m'assurer que ces pages sont génériques et qu'elles traversent toutes les versions allemandes, de sorte que peu importe pour moi quelle URL est effectivement indexée. L'autre approche consiste à s'assurer que ces URL sont clairement considérées comme des URL distinctes principales. Assurez-vous donc que le contenu est vraiment très différent d'une version linguistique à l'autre afin que nos systèmes, lorsqu'ils consultent ces pages, disent, eh bien, ceci est une page allemande et ceci est une page allemande différente, il y a un lien hreflang entre ces deux nous pouvons donc échanger ces URL, mais ce sont des pages uniques qui doivent être indexées individuellement. Donc, ce sont en quelque sorte les deux approches là-bas, d'une part, vous pouvez regrouper les choses, d'autre part, vous pouvez dire, eh bien, je veux qu'elles soient explicitement séparées.

Question 37:00 - Que conseilleriez-vous si une marque a une présence internationale et une fois fermée pour certaines régions. Que faites-vous des sites qui ciblent d'autres pays s'ils redirigent le site principal ?

Réponse 37:14 - Il s'agit essentiellement d'une situation de migration de site. Je suppose que si vous avez un site de pays et que vous dites que ce site n'est plus disponible, je le redirigerai vers une autre version de moi-même. C'est quelque chose que vous pouvez faire. Ce que vous ne pouvez pas vraiment faire, c'est spécifier dans la recherche pour nous dire que nous ne devons pas montrer ce site dans certains pays. Vous pouvez donc en quelque sorte regrouper vos versions allemandes et dire, comme l'Allemagne, l'Autriche, la Suisse, qu'elles devraient toutes être le seul site Web allemand qui convient, mais je ne veux peut-être pas montrer mon site aux utilisateurs en Suisse, mais vous ne pouvez pas. Il n'y a pas de balise méta où vous pouvez dire à Google de ne pas afficher mon site en Suisse. Donc, tout au plus, vous pouvez empêcher les utilisateurs de ce pays d'accéder au site, mais vous ne pouvez pas dire à Google de ne pas l'afficher dans les résultats de recherche de ce pays.

Question 38:18 - C'était ma question. Notre site Web est en anglais et nous avons un contenu unique avec différents pays. Donc, à cause de décisions commerciales, ils ferment en quelque sorte certaines régions. Donc, si nous effectuons une redirection pour le site, cela aura-t-il un impact sur mon site Web principal, aura-t-il un effet négatif ou positif ? Je veux dire que nous avons actuellement ce hreflang sur tous les sous-ensembles qui ont des pages communes où nous pouvons voir que je veux dire que nous offrons un produit dans un pays spécifique et le produit unique dans un autre pays avec un contenu différent et tout le contenu local de la région. Je me demande donc ce qu'il adviendra de ces pages ? si je redirige ces pages vers mon site principal, mes pages principales seront-elles classées pour ces régions spécifiques ?

Réponse 39:19 - Cela pourrait potentiellement arriver, mais encore une fois, ce n'est pas quelque chose que vous pouvez vraiment contrôler. Donc, si vous redirigez ces pages si ces pages existent toujours, elles pourraient également se classer à ces emplacements, vous ne pouvez pas dire qu'il n'y a pas de balise méta ou vous pourriez dire que mon site Web devrait être indexé mais non affiché dans ce particulier le pays.

Questions 39:50 - Google a ce livre de jeu UX pour les meilleures pratiques pour ravir les utilisateurs de différentes niches. Sont-ils considérés comme faisant partie du classement ou pouvez-vous donner un aperçu de cela ?

Réponse 40:02 - Donc, à ma connaissance, ces playbooks UX sont publiés par l'équipe publicitaire et c'est plus une question de, eh bien, ce sont les meilleures pratiques UX et les bonnes choses à faire sur un site Web, et pas nécessairement quelque chose que nous ' d dire, eh bien, cela joue dans le classement, mais évidemment, si vous créez un bon site Web qui fonctionne bien pour les utilisateurs, vous pouvez certainement voir indirectement un effet dans le classement. Mais ce n'est pas que nous dirions regarder ces playbooks UX et les utiliser spécifiquement comme facteurs de classement.

Question 40:38 - Quel est l'impact des liens d'affiliation lorsqu'ils sont mélangés à du contenu ciblant des sujets sensibles. Nous savons que la monétisation agressive peut être problématique, en particulier lorsque les liens d'affiliation ne sont pas divulgués aux utilisateurs et lorsque l'accent mis sur la monétisation est plus important que la fourniture d'un contenu de qualité aux utilisateurs, mais je me demande comment cela fonctionnerait pour des sujets tels que la santé, la médecine, la finance. etc.?

Réponse 41:05 - Donc, en général, ce n'est pas pour autant que je sache, nous n'entrons pas explicitement dans le site et disons, eh bien, il y a des liens qui ressemblent à des liens d'affiliation, donc nous traiterons ce site Web comme étant de qualité inférieure. En général, les principaux problèmes que je vois en ce qui concerne les sites Web affiliés sont qu'ils ont tendance à être simplement des sites Web de qualité inférieure. Donc, ce n'est pas tant une question de savoir où se trouve le flux de paiement, mais plutôt que dans l'ensemble, le contenu est souvent de mauvaise qualité et à cause du contenu de mauvaise qualité, c'est quelque chose que nos algorithmes pourraient détecter et dire, eh bien ce n'est probablement pas le résultat le plus pertinent à afficher dans les résultats de recherche, et il peut également y avoir des sites Web affiliés de très haute qualité qui sont bons. Donc, ce n'est pas tant une question de savoir s'il y a un lien d'affiliation ou non, mais plutôt qu'en est-il du reste du site ? Est-ce quelque chose qu'il serait pertinent de montrer aux utilisateurs ou y a-t-il peut-être quelque chose de problématique là-dedans ? Je pense, du moins pour autant que je sache, que cela s'appliquerait à tous les niveaux, donc peu importe le sujet spécifique du site Web, mais en général, il existe de très bons sites affiliés et il y en a vraiment vraiment terrible sites affiliés. Donc, c'est plus une question de savoir si un site porno est bon ou est-ce qu'un site porno est mauvais ?

Question 42:35 – La récupération et le rendu étant obsolètes de l'ancienne console de recherche et remplacés par l'outil d'inspection d'URL, l'outil d'inspection UL sera-t-il mis à jour pour inclure une comparaison visuelle côte à côte de la façon dont Googlebot voit une page par rapport à la façon dont l'utilisateur le ferait les voir?

Réponse 42:53 - Je ne sais pas, comme pour l'autre question, nous essayons de ne pas annoncer les choses à l'avance, donc ce n'est pas quelque chose où je serais en mesure de dire quoi que ce soit spécifiquement en ce qui concerne ce qui se passera dans le futur. Je suis également heureux de transmettre cela à l'équipe pour qu'elle y jette un coup d'œil en ce qui concerne la hiérarchisation. D'un point de vue pratique, j'ai toujours pensé que cette comparaison est quelque chose de moins utile de nos jours car la plupart des sites sont assez bons pour s'assurer qu'une page peut être rendue pour les moteurs de recherche. Au moins, les sites que j'ai consultés ont tendance à être du bon côté. Donc, en particulier au début, lorsque les sites n'étaient pas tellement habitués aux moteurs de recherche essayant en fait de rendre une page qui était une grande chose, mais de nos jours, je ne sais pas si c'est vraiment un si gros problème, comme si javascript est bloqué par un fichier robots.txt, ce genre de choses qui, selon moi, ont considérablement changé au fil des ans, mais je suis heureux de le transmettre à l'équipe et ils revérifieront probablement pour voir s'il y a vraiment des problèmes dont nous avons besoin.

Question 44:12 - Le lien de désaveu peut-il booster les classements ?

Réponse 44:17 - Oh mon Dieu, c'est une si grande question. Donc, en théorie, si votre site Web est rétrogradé avec une action manuelle en ce qui concerne les liens que vous avez achetés ou que quelqu'un d'autre est acheté pour votre site Web au fil du temps. Peut-être un référencement précédent, peut-être quelque chose qui a été mis en place avant votre arrivée dans cette entreprise, puis vous pouvez utiliser l'outil de désaveu pour supprimer en quelque sorte ces liens de nos systèmes et ensuite vous pouvez utiliser le formulaire de demande de réexamen pour nous informer de ce changement puis l'équipe de lutte contre le spam manuel jettera un coup d'œil et revérifiera que l'état actuel est correct. Et si l'état actuel est propre, ils résoudront cette action manuelle et, en général, votre site Web pourra à nouveau se classer naturellement. C'est donc quelque chose où, dans de nombreux cas, le site Web peut augmenter un peu et le classement dans certains cas, il se peut également que ces liens non naturels soutiennent anormalement le site Web au début. Donc, en supprimant ces liens, il se peut que ce support disparaisse, ce qui est en quelque sorte l'état naturel. Donc, je suppose que la réponse la plus courte est qu'il n'y a pas de oui ou de non ici dans la mesure où le désaveu des liens change ce que nous considérons comme des liens vers votre site Web et cela peut affecter votre site Web positivement ou négativement. Donc, ma recommandation générale avec l'outil de désaveu est de l'utiliser si vous avez une action manuelle en ce qui concerne les liens et que vous ne pouvez pas supprimer ces liens ou si vous vous rendez compte lorsque vous regardez vos liens, oh il y avait cette chose folle que nous l'a fait il y a peut-être deux ans et l'équipe de spam Web ne l'a pas remarqué, mais il est peut-être temps de nettoyer notre acte et de nettoyer cela, alors c'est quelque chose où il est logique d'utiliser un outil de désaveu. Je ne voudrais pas simplement utiliser ceci au hasard et dire que ce sont des liens étranges et que je ne veux pas être associé à eux. J'espère que Google pourrait mieux classer mon site Web lorsque je supprimerais ceux-ci, donc il est peu probable que cela se produise.

Question 46:27 - John puis-je poser une question basée sur des désaveux ici. Donc, nous voyons parfois, je suppose peut-être des concurrents, nous verrons littéralement un seul endroit envoyer des liens 1.1 ou 1.2 vers notre page d'accueil. Complètement hors sujet, site de réparation d'instrument hors d'Irlande, rien à voir avec ce que nous faisons évidemment. Je n'ai pas les outils ou la capacité de désavouer tous les liens, est-il préférable de désavouer le site ?

Réponse 47:01 - Bien sûr que vous pouvez le faire. Oui, c'est un peu à cela que sert l'entrée de domaine dans le fichier de désaveu, de cette façon, c'est comme tous ces millions ou milliers de liens, vous pouvez tout dire à partir de ce site, je n'ai rien à voir avec ça. Habituellement, ce qui se passe dans des cas comme celui-là où vous voyez ce lien de site complètement aléatoire, c'est que ce site a probablement été piraté et pour une raison quelconque, quelqu'un a décidé de supprimer tous ces liens là-bas lors du piratage du site Web et généralement nous sommes assez bons pour le ramasser et essayer de garder l'état avant qu'ils ne piratent nos systèmes. Donc, nous ignorons probablement déjà ces liens, il est possible que nous indexions peut-être ou même le site Web d'avant plutôt qu'avec le contenu piraté. C'est donc quelque chose pour lequel je ne m'inquiéterais pas trop parce que ce genre de piratage est très courant et nous avons un peu de pratique pour essayer de gérer cela. Mais si vous êtes inquiet à ce sujet, vous savez que oh c'est vraiment fou et je pense que les liens de réparation d'instruments ne sont probablement pas quelque chose où vous êtes comme dire, oh ça va tuer mon site Web si je suis associé à des violons, peut-être que le contenu pour adultes est quelque chose pour lequel vous seriez plus prudent, alors j'utiliserais simplement un fichier de désaveu pour le soumettre et vous êtes sûr que ceux-ci ne sont pas pris en compte.

Question 48:44 - Deux questions rapides concernant cette URL, il s'agit d'une URL de catégorie pour un site Web de commerce électronique qui a une sorte de paramètre d'affichage général. Notre problème est que l'URL a une version canonique de la version sans le paramètre. Il est lié à la version sans le paramètre sur tout le site Web, il est dans le plan du site sans le paramètre, mais d'une manière ou d'une autre, Google décide que non, c'est la version canonique et tous nos signaux pointent vers l'autre version et je ne pense pas que cela agisse autant mais Je ne comprends pas pourquoi Google ne choisit pas notre version alors que tous nos signaux pointent dans la même direction ?

Question 48:24 - Je ne sais pas, difficile à dire avec désinvolture. Je pense donc qu'une chose à garder à l'esprit est que c'est sous l'indexation mobile d'abord. Alors peut-être que la version mobile est légèrement différente, peut-être qu'il y a un rel canonique, peut-être qu'il y a quelque chose avec JavaScript qui change le rel canonique, je ne sais pas, mais c'est toujours quelque chose à garder à l'esprit. Ainsi, lorsque vous le testez dans le navigateur et assurez-vous de revérifier la vue mobile, mais en quelque sorte comme les deux autres questions plus tôt, il est également possible que pour d'autres raisons, nous décidons bien en fait, c'est le nettoyeur version.

Question 50:33 - S'il n'est lié nulle part et que vous savez que les liens internes ne pointent pas vers lui. Il ne s'agira pas d'un sitemap et avec l'inspection d'URL de Google, le bon canonique que nous avons dit est juste le canonique sélectionné par Google, c'est celui-ci plutôt que ce que nous avons marqué. Donc, je ne sais pas si cela aurait un effet, je crains juste qu'il puisse y avoir quelque chose qui nous manque et qui pourrait également affecter d'autres pages.

Réponse 51:11 - Ouais, je ne sais pas, je devrais jeter un œil. En général, s'il s'agit du même contenu, le classement serait le même. Ce n'est donc pas que quelque chose va changer là-bas. Je ne sais pas si le fait de me soudoyer avec des produits capillaires serait particulièrement utile mais je ne sais pas. Donc, je veux dire d'emblée, c'est une situation où vous avez une sorte de page tout afficher et l'autre version de la page où il se peut que nous captions des signaux disant que c'est la version tout afficher que nous devrions garder celui-là au lieu de l'autre parce qu'il pourrait être paginé ou quelque chose comme ça mais ouais je ne sais pas si et je devrais creuser là-dedans. L'autre chose qui mérite peut-être d'être mentionnée est que nous aimerions rassembler un document concernant les meilleures pratiques concernant les sites de commerce électronique en général. Donc, si vous rencontrez des choses étranges comme celle-ci que nous utilisons bien avec les sites de commerce électronique, vous avez souvent ces pages de catégorie qui ont des tonnes de contenu et la pagination et le filtrage et la vue que tout est un peu délicat, alors c'est quelque chose où je J'aimerais avoir des commentaires sur. Alors peut-être que des exemples, peut-être juste des questions générales concernant les sites de commerce électronique, tout cela serait vraiment utile d'avoir. Idéalement, envoyez-les via Twitter afin que je puisse les collecter là-bas. J'ai commencé un tweet à ce sujet et j'espère que nous pourrons mettre quelque chose en place avec certains, je suppose que les meilleures pratiques en ce qui concerne les sites de commerce électronique sur la façon dont vous pouvez vous assurer que l'indexation et l'exploration fonctionne idéalement.