5 février 2019 – Notes de Hangout de l'aide Google

Publié: 2019-02-08

Jean est de retour ! Voici quelques-unes des meilleures questions posées et réponses du récent Webmaster Helpl Hangout. Cette semaine, John a répondu à quelques bonnes questions concernant les redirections 302, la vitesse de page et les meilleures pratiques pour fusionner des sous-domaines. Vidéo complète et transcription à la fin !

Pouvez-vous bloquer une partie d'une page, comme une vidéo de Google ?

1:16

John Mueller Hangout d'aide du 6 février

Je pense que c'est un peu délicat car il n'y a aucun moyen explicite de dire que je ne veux pas que ma page apparaisse comme ça dans les résultats de recherche. Donc, ce vers quoi je tends, c'est d'essayer l'approche de la date d'expiration que je pense que vous pouvez également spécifier dans les données structurées sur la page. Je pense que oui, avec les données de structure json-ld, il existe un moyen de spécifier également la date d'expiration pour une vidéo que nous avons récupérée sur une page, je suppose. Pour que ce soit quelque chose que j'essaie.


Résumé : Vous ne pouvez pas vraiment demander à Google d'indexer uniquement une partie d'une page ou d'inclure uniquement la page dans certaines fonctionnalités SERP. Cependant, vous pouvez utiliser des données structurées pour ajouter une date d'expiration à une vidéo, ce qui devrait la faire ne pas apparaître dans les résultats de recherche.

Voici plus d'informations de Google sur le schéma vidéo et également sur l'utilisation des dates d'expiration.


Qu'est-ce que cela signifie si des pages de votre site ne sont pas indexées et que GSC affiche "Crawled, not indexed" ?

5:23

John Mueller Hangout d'aide du 6 février

Il est donc très difficile de dire sans regarder des exemples spécifiques de votre site Web, donc ce que je recommanderais de faire ici est de publier le forum d'aide avec les URL exactes que vous regardez les requêtes que vous regardez afin que les gens il peut jeter un oeil. Parfois, c'est quelque chose de simple quelque chose de technique comme peut-être qu'un blog est configuré d'une manière qui n'indexe pas ces pages par défaut, mais généralement les gens du forum des webmasters sont très rapides et reconnaissent ce genre de problèmes courants et peuvent vous aider à affiner les choses ou de les aggraver s'il y a vraiment quelque chose de complètement bizarre qui se passe ici. Une autre chose à garder à l'esprit est que nous n'indexons pas toutes les pages que nous avons vues, il est très courant que les sites Web contiennent de nombreuses pages que nous connaissons, mais nous n'explorons pas nécessairement un index et ce n'est pas nécessairement un problème. Ce sont juste nos algorithmes qui essaient de déterminer où il est logique de concentrer notre énergie et où ils concentrent peut-être un peu moins d'énergie depuis et cela signifie généralement également que ces pages ne seront probablement pas aussi visibles dans la recherche de toute façon, donc cela ne changerait pas autant pour votre site dans son ensemble s'ils étaient indexés, mais encore une fois, je vérifierais certainement auprès du forum d'aide aux webmasters pour voir à quoi pourraient ressembler certaines des causes possibles.


Résumé : Cela peut être dû à un problème technique entraînant la non-indexation des pages. N'oubliez pas non plus que Google n'indexe pas toujours toutes les pages que vous publiez. Notre note : Assurez-vous que vous ne publiez pas de contenu de blog juste pour avoir du contenu. Il a beaucoup plus de chances d'être indexé s'il est très précieux !


Avez-vous besoin d'ajouter des liens spammés à votre fichier de désaveu ?

8:17

John Mueller Hangout d'aide du 6 février

Donc, en général, vous n'avez pas besoin de rester au courant de cela, c'est quelque chose où presque tous les sites Web, si vous regardez les liens entrants, auront un tas de liens qui sont simplement du spam ou non pertinents et c'est parfaitement bien. Nous sommes assez bons pour ignorer une grande partie du genre de crudités que les sites Web collectent au fil des ans. Je ne me concentrerais pas sur cela. Si c'est quelque chose où vous savez que vous êtes déjà sorti et avez acheté des liens ou si vous avez fait faire quelque chose de vraiment bizarre par un référenceur en ce qui concerne les liens, il serait logique de nettoyer, mais si vous n'êtes pas au courant de quoi que ce soit et les choses sont autrement assez bien, alors je ne m'inquiéterais pas à ce sujet.


Résumé : Chaque site Web attire des liens de spam. Google est vraiment doué pour les ignorer. Les types de liens que vous devriez désavouer sont ceux qui ont été créés à dessein pour le référencement.


Comment Google gère-t-il les sites Web qui nécessitent des informations de localisation d'un utilisateur afin d'améliorer l'expérience utilisateur ?

9:29

John Mueller Hangout d'aide du 6 février

Donc, je suppose qu'avec le localisateur, vous voulez dire quelque chose où votre site Web reconnaîtrait où se trouve l'utilisateur et afficherait peut-être le numéro de téléphone local ou l'adresse locale en fonction de l'emplacement de l'utilisateur. Ce n'est pas quelque chose que nous ferions en ce qui concerne la recherche. Ce n'est donc généralement pas quelque chose que nous reprenons même. En général, lorsque Google affiche des pages, il refuse également ces types de demandes d'informations supplémentaires, de sorte que nous ne le remarquerions probablement même pas.


Résumé : Googlebot ne prête pas attention aux demandes de localisation. Notre remarque : assurez-vous que les informations importantes de votre page ne dépendent pas de la réception d'informations de localisation d'un utilisateur.


Une redirection 302 passe-t-elle PageRank ?

10:10

John Mueller Hangout d'aide du 6 février

Une redirection 301 est une redirection permanente qui nous indique qu'une nouvelle page remplace définitivement une page existante et une redirection 302 nous indique que temporairement le contenu est disponible sur une URL différente. D'un point de vue pratique, ce qui a généralement tendance à se produire ici, c'est qu'avec une redirection 301, nous nous concentrerons sur la page de destination, nous indexerons cette URL et y déplacerons tous les signaux. Alors qu'avec une redirection 302, nous allons nous concentrer sur la page initiale et essayer d'y conserver tous les signaux. Ce n'est donc pas une question de pagerank qui passe ou non, mais plutôt laquelle de ces URL est en fait celle qui conserve les signaux. Ce n'est pas que ces signaux se perdent avec la redirection, c'est plutôt, sont-ils ici ou sont-ils ici, et c'est en quelque sorte la principale différence.

Donc, si vous suivez laquelle de ces pages classe la cible de redirection ou la redirection, le type de page initiale qui effectue la redirection. Ensuite, avec un 302, vous avez probablement tendance à voir le classement initial de la page parce que c'est celui que nous choisissons parce que vous nous dites en quelque sorte que c'est juste temporaire et que le contenu est ailleurs et alors qu'avec une redirection 301, nous avons probablement tendance à classer la destination page plus. Et comme toujours, les gens se trompent régulièrement et nos algorithmes essaient de comprendre ce que les gens essaient de faire. Donc, si nous voyons une redirection 302 en place pendant une période plus longue, nous pourrions bien décrire que le webmaster voulait probablement dire qu'il s'agissait d'une redirection 301 et nous la traiterons comme telle et nous déplacerons tous nos signaux vers la destination page. C'est donc quelque chose où vous pourriez voir ce genre de changements se produire également au fil du temps, donc ce n'est pas cette équité de lien ou comme si nos signaux traversaient une redirection ou non, mais plutôt laquelle de ces URL finissons-nous par choisir pour notre indexation et c'est le URL qui finit par recevoir tous ces signaux.


Résumé : Une redirection 302 est censée être une redirection temporaire, tandis que 301 est permanente. Avec un 302, Google essaie de continuer à se concentrer sur la page d'origine plutôt que sur la page vers laquelle l'utilisateur est redirigé. Cependant, si un 302 est en place depuis assez longtemps, il est traité comme un 301. Notre note : En tant que tel, un 302 devrait éventuellement commencer à passer le PageRank. Mais, nous ne savons pas combien de temps cela prend.


Un langage peu flatteur ou négatif sur une page peut-il l'amener à être considérée comme de moindre qualité par Google ?

13:02

John Mueller Hangout d'aide du 6 février

J'avais une question rapide car vous savez que nous avons été confrontés pendant des années à toutes sortes de problèmes de classement étranges. L'un de mes partenaires, lorsqu'il s'occupait de certains problèmes de YouTube, avait une théorie potentielle basée sur des mots similaires interdits, par exemple. Parfois, nous nous référons à un vendeur de voitures comme un crétin ou quelque chose comme ça et dans certains de nos articles. Fondamentalement, nous voulions savoir s'il pouvait y avoir un problème avec l'utilisation d'un langage comme celui-ci sur certaines pages du site. Je ne veux rien dire comme des blasphèmes, mais juste un peu comme des trucs de type insulte comme ça ? Nous voyons toujours le phénomène où d'autres sites Web qui ont essentiellement volé notre contenu, puis légèrement modifié des choses, se classent là où nous le faisions auparavant, puis nous nous classons plutôt mal. Lorsqu'ils modifient le contenu après l'avoir volé, ils n'ont pas tendance à voler les pages du site qui utilisent ce type de langage.


Résumé : Non. Notre note : Cela ne signifie pas que vous devez ignorer Google a déclaré dans le passé que le spam UGC peut être considéré comme un signe de mauvaise qualité.


Faut-il utiliser rel-prev/next pour les « articles liés » ?

17:41

John Mueller Hangout d'aide du 6 février

Non. Donc, le type de lien suivant rel est vraiment juste pour les séries de pagination, ce n'est pas quelque chose qui est destiné à des types de liens connexes. Donc, je croiserais simplement ces articles connexes normalement, c'est ce que ces plugins ont tendance à faire.


Résumé : Non. Ceci est uniquement pour les pages paginées.


Combien de temps faut-il à un site lent pour voir un meilleur classement après avoir amélioré la vitesse des pages ?

24:32

John Mueller Hangout d'aide du 6 février

Donc, comme pour à peu près tout ce qui concerne la recherche sur le Web, ce n'est pas quelque chose où il y a un laps de temps fixe, mais plutôt nous explorons les pages d'index au fil du temps. Nous mettons à jour le type de ces signaux que nous avons pour ces pages au fil du temps. Il n'y a pas de calendrier fixe, certaines de ces pages et les signaux sont mis à jour tous les jours ou même plus fréquemment. Certains d'entre eux prennent un peu plus de temps, certains d'entre eux prennent des mois pour être mis à jour. Donc, ce que vous verrez probablement ici si vous apportez des améliorations significatives à votre site Web, mais vous verrez au fil du temps ce genre d'augmentation progressive en ce qui concerne la prise en compte de ces signaux. Cela peut être très délicat en ce qui concerne la vitesse dans le sens où la vitesse n'est pas le facteur de classement le plus important. Nous examinons des éléments tels que le contenu et essayons également de déterminer lesquelles de ces pages sont les plus pertinentes pour les utilisateurs. Donc, si un site est vraiment rapide, cela ne signifie pas qu'il est toujours classé numéro un, théoriquement, une page vide serait en quelque sorte la page la plus rapide, mais cela ne signifie pas que c'est un bon résultat pour l'utilisateur, donc la vitesse est plus un facteur de classement plus petit là. Nous verrons donc probablement des changements plus importants dans la visibilité de votre site dans la recherche au fil du temps en fonction des améliorations de la qualité et des améliorations du site Web dans son ensemble et la vitesse ressemble plus à quelque chose de petit qui serait probablement même difficile à mesurer individuellement.


Résumé : Google met à jour ses signaux concernant la vitesse de la page pour une page au fil du temps. Ce n'est pas comme si nous devions attendre une mise à jour de Page Speed. Si la vitesse vous empêche de bien vous classer et que vous apportez des améliorations, vous devriez voir une augmentation progressive du classement.


Qu'est-ce que cela signifie si vous voyez des pages bloquées par robots.txt dans GSC ?

31:33

John Mueller Hangout d'aide du 6 février

Je ne sais pas si nous ne l'avons pas encore annoncé, mais nous essayons d'être un peu en avance sur le fait de refuser les choses afin que les gens aient une chance de passer à quelque chose de nouveau. Pour déplacer les nouveaux outils dans la console de recherche. Donc, dès que nous aurons plus de plans sur ce qui se passe là-bas, nous vous le ferons savoir. Je pense que c'est l'un de ces outils qu'il est logique de conserver. Donc, puisque nous n'avons pas annoncé que nous le désactivons, j'imagine que cela viendra avec le nouveau passage à la console au fil du temps.


Résumé : Très probablement, oui. Mais pas encore.


Lors de la fusion de plusieurs sous-domaines dans un grand site, faut-il le faire par phases ?

35:47

John Mueller Hangout d'aide du 6 février

Je vais juste essayer d'aller avec l'état final le plus rapidement possible. Ainsi, au lieu de créer cette situation temporaire où les choses ne sont ni l'ancienne ni la nouvelle, j'essaierais simplement de rediriger vers les nouvelles aussi rapidement que possible.


Résumé : Il est préférable de tout faire en une seule fois.


Les liens sont-ils importants lorsqu'il s'agit de classer les vidéos dans les recherches régulières ?

39:08

John Mueller Hangout d'aide du 6 février

Nous utilisons donc un certain nombre de facteurs lorsqu'il s'agit de classement et cela inclut les liens. C'est donc quelque chose où j'aurais tort de dire que nous n'utilisons pas du tout de liens. Cependant, nous utilisons comme je ne sais pas plus de 200 facteurs pour l'indexation et le classement de l'exploration, donc se concentrer uniquement sur les liens n'a pas vraiment de sens. C'est donc quelque chose où un bon contenu prend traditionnellement des liens par lui-même et si vous créez du contenu vidéo sur votre site Web et que tout cela est généralement également lié à votre site Web, au fil du temps, ces choses s'installent d'elles-mêmes. Ce n'est pas que vous ayez besoin de créer explicitement des liens pour pouvoir apparaître dans un carrousel vidéo, je pense que cela aurait du sens.


Résumé : Très probablement, oui. Mais il y a aussi beaucoup d'autres facteurs.


Les liens de navigation masqués sur mobile sont-ils acceptables ?

40:06

John Mueller Hangout d'aide du 6 février

Nous suivrions vraiment que c'était normalement, donc je ne vois aucun problème à cela. Cela dit, s'il est difficile de naviguer sur votre site Web sur mobile, les utilisateurs qui, pour la grande majorité des sites, viennent principalement sur mobile auront du mal à naviguer sur votre site Web et auront du mal à trouver votre autre bon contenu. Je veillerais donc certainement à ce que toute interface utilisateur disponible sur votre site Web soit également disponible sous une forme ou une autre pour les utilisateurs mobiles.


Résumé : Ceux-ci sont généralement corrects. Cependant, assurez-vous que votre navigation est intuitive pour les utilisateurs.

Notre remarque : si vous essayez de créer des liens vers des pages importantes en interne, nous n'aimons pas nous fier uniquement aux liens de navigation. Nous pensons vraiment que les liens textuels ancrés dans le corps principal du contenu de vos pages sont plus utiles.

Une employée de Google, Zineb Ait, a dit un jour ceci :

https://twitter.com/Missiz_Z/status/691687094444539905
(Traduction : "Les liens du site dans le pied de page ou l'en-tête n'ont pas un poids très important en général.")


Qu'est-ce que cela signifie lorsque Google réécrit votre balise de titre ou votre méta description ?

40:06

John Mueller Hangout d'aide du 6 février

Nous avons des directives sur la façon de créer de bons titres et de bonnes descriptions, je vous recommande donc d'y jeter un coup d'œil. Souvent, lorsque je vois Google réécrire les titres ou l'extrait, c'est généralement plus basé sur des situations où nous voyons un peu comme un bourrage de mots-clés se produire avec les titres ou la description. Donc, cela pourrait être une chose à surveiller, une autre chose à garder à l'esprit est que nous essayons de choisir des titres et des descriptions en fonction de la requête. Donc, si vous effectuez une requête sur le site et que vous voyez vos titres et descriptions d'une certaine manière, cela ne signifie pas nécessairement qu'ils seront affichés de la même manière lorsque les utilisateurs normaux effectueront une recherche avec des requêtes normales. J'ai donc en quelque sorte jeté un coup d'œil à ces deux éléments et je m'assure également de consulter l'article du centre d'aide.


Résumé : Parfois, Google les réécrira s'il semble que vous bourriez de mots clés. Ils peuvent également être réécrits si Google pense pouvoir les réécrire pour mieux répondre à la requête de l'utilisateur.


Si vous aimez ce genre de choses, vous allez adorer ma newsletter !

Mon équipe et moi rendons compte chaque semaine des dernières mises à jour de l'algorithme Google, des actualités et des conseils SEO.

Succès!! Vérifiez maintenant votre e-mail pour confirmer votre abonnement à la newsletter Google Update.

Une erreur s'est produite lors de la soumission de votre abonnement. Veuillez réessayer.

Vidéo complète et transcription

Question 1:16 - J'ai un site Web que je gère si récemment l'année dernière en juin, il est passé d'une liste Web régulière à un carrousel vidéo, l'une des requêtes, comme des séquences d'archives ou des vidéos d'archives qui ont entraîné une énorme baisse des clics en conséquence . C'était un peu trompeur avec la vignette vidéo car ce résultat ne correspond pas vraiment à l'intention de l'utilisateur. Comme les utilisateurs confondent le carrousel vidéo avec une vidéo YouTube. Donc, afin de le bloquer, nous avons pris certaines mesures, nous avons bloqué la vidéo à l'aide du fichier robots.txt, nous avons également supprimé complètement les vidéos de la page. Les choses ont en fait empiré au lieu de récupérer la vidéo, Google a commencé à afficher la vignette de l'image dans le carrousel vidéo avec un horodatage de 15 secondes. Donc, cela a finalement conduit à une très mauvaise expérience utilisateur car la vidéo était introuvable, les utilisateurs ont vu la vidéo sur la page de recherche et une fois qu'ils ont atterri sur la page, il n'y avait pas de vidéo et cela a finalement conduit à une légère baisse des classements aussi bien. Je sais que vous avez tweeté l'année dernière que nous devrions essayer d'ajouter un plan du site pour les vidéos et de définir une date d'expiration dans le passé et que l'autre bloquait complètement cette partie de la page, c'est donc celle que nous avons essayée. Donc, le problème avec cette URL de vignette est qu'elles sont livrées via CDN, donc nous ne contrôlons pas vraiment les URL, donc nous ne pouvons pas vraiment les apporter, donc toute suggestion serait très utile.

Réponse 3:10 - Je pense que c'est un peu délicat car il n'y a aucun moyen explicite de dire que je ne veux pas que ma page s'affiche comme ça dans les résultats de recherche. Donc, ce vers quoi je tends, c'est d'essayer l'approche de la date d'expiration que je pense que vous pouvez également spécifier dans les données structurées sur la page. Je pense que oui, avec les données de structure json-ld, il existe un moyen de spécifier également la date d'expiration pour une vidéo que nous avons récupérée sur une page, je suppose. Pour que ce soit quelque chose que j'essaie.

Question 5:23 - Presque tous les articles de notre section de blog ont été désindexés en regardant la console de recherche, il est indiqué que l'exploration n'est pas indexée et qu'elle ne montre aucune raison spécifique pour laquelle ce qui pourrait se passer là-bas ?

Réponse 5:38 - Il est donc très difficile de dire sans regarder des exemples spécifiques de votre site Web, donc ce que je recommanderais de faire ici est de publier le forum d'aide avec les URL exactes que vous consultez les requêtes que vous êtes regarder pour que les gens là-bas puissent jeter un coup d'œil. Parfois, c'est quelque chose de simple quelque chose de technique comme peut-être qu'un blog est configuré d'une manière qui n'indexe pas ces pages par défaut, mais généralement les gens du forum des webmasters sont très rapides et reconnaissent ce genre de problèmes courants et peuvent vous aider à affiner les choses ou de les aggraver s'il y a vraiment quelque chose de complètement bizarre qui se passe ici. Une autre chose à garder à l'esprit est que nous n'indexons pas toutes les pages que nous avons vues, il est très courant que les sites Web contiennent de nombreuses pages que nous connaissons, mais nous n'explorons pas nécessairement un index et ce n'est pas nécessairement un problème. Ce sont juste nos algorithmes qui essaient de déterminer où il est logique de concentrer notre énergie et où ils concentrent peut-être un peu moins d'énergie depuis et cela signifie généralement également que ces pages ne seront probablement pas aussi visibles dans la recherche de toute façon, donc cela ne changerait pas autant pour votre site dans son ensemble s'ils étaient indexés, mais encore une fois, je vérifierais certainement auprès du forum d'aide aux webmasters pour voir à quoi pourraient ressembler certaines des causes possibles.

Question 7:05 - Nous avons ajouté un tas de pages à notre site mais avons oublié de mettre à jour le fichier de plan du site afin que Google les trouve et les indexe, mais devons-nous faire quelque chose de spécial

Réponse 7:16 - Non, vous n'avez rien à faire de spécial, un fichier de sitemap nous aide à ajouter plus d'informations concernant l'exploration et l'indexation, il ne remplace pas les informations dont nous disposons pour l'exploration et l'indexation. Donc, s'il s'agit simplement d'y trouver ses URL si nous les avons trouvées par une exploration normale, c'est parfaitement bien. De toute façon, un fichier de plan de site ne devrait pas non plus remplacer l'exploration normale, donc si aucune de ces pages n'était liée en interne, nous pourrions les trouver via un fichier de plan de site, mais il nous serait très difficile de comprendre le contexte de ces pages. C'est donc en fait un bon signe à cet égard que nous soyons en mesure de trouver ces pages et de les indexer de toute façon. Un fichier de sitemap nous aiderait ici à reconnaître quand vous apportez des modifications à ces pages afin que nous puissions les récupérer un peu plus rapidement, mais si nous les indexons déjà, au moins cette première étape n'est pas quelque chose qui vous manque de façon critique .

Question 8:17 - J'ai vérifié nos liens entrants et j'ai trouvé qu'il y avait beaucoup de liens de spam que j'ai ajoutés à notre fichier de désaveu. Je me demande à quel point il est important pour le classement de rester au top. J'ai entendu dire que Google les ignore de toute façon ?

Réponse 8:34 - Donc, en général, vous n'avez pas besoin de vous tenir au courant de cela, c'est quelque chose où presque tous les sites Web, si vous regardez les liens entrants, auront un tas de liens qui sont simplement du spam ou non pertinents et c'est parfaitement bien. Nous sommes assez bons pour ignorer une grande partie du genre de crudités que les sites Web collectent au fil des ans. Je ne me concentrerais pas sur cela. Si c'est quelque chose où vous savez que vous êtes déjà sorti et avez acheté des liens ou si vous avez fait faire quelque chose de vraiment bizarre par un référenceur en ce qui concerne les liens, il serait logique de nettoyer, mais si vous n'êtes pas au courant de quoi que ce soit et les choses sont autrement assez bien, alors je ne m'inquiéterais pas à ce sujet.

Question 9:20 - Est-ce que Google choisit si nous utilisons le localisateur sur une version mobile pour donner un meilleur UX, cela peut-il aider avec les classements ?

Réponse 9:29 - Je suppose donc qu'avec le localisateur, vous voulez dire quelque chose où votre site Web reconnaîtrait où se trouve l'utilisateur et afficherait peut-être le numéro de téléphone local ou l'adresse locale en fonction de l'emplacement de l'utilisateur. Ce n'est pas quelque chose que nous ferions en ce qui concerne la recherche. Ce n'est donc généralement pas quelque chose que nous reprenons même. En général, lorsque Google affiche des pages, il refuse également ces types de demandes d'informations supplémentaires, de sorte que nous ne le remarquerions probablement même pas.

Question 10:10 - L'équité du lien passe-t-elle par une redirection temporaire 302 ?

Réponse 10:21 - Une redirection 301 est une redirection permanente qui nous indique qu'une nouvelle page remplace définitivement une page existante et une redirection 302 nous indique que temporairement le contenu est disponible sur une URL différente. D'un point de vue pratique, ce qui a généralement tendance à se produire ici, c'est qu'avec une redirection 301, nous nous concentrerons sur la page de destination, nous indexerons cette URL et y déplacerons tous les signaux. Alors qu'avec une redirection 302, nous allons nous concentrer sur la page initiale et essayer d'y conserver tous les signaux. Ce n'est donc pas une question de pagerank qui passe ou non, mais plutôt laquelle de ces URL est en fait celle qui conserve les signaux. Ce n'est pas que ces signaux se perdent avec la redirection, c'est plutôt, sont-ils ici ou sont-ils ici, et c'est en quelque sorte la principale différence.

Donc, si vous suivez laquelle de ces pages classe la cible de redirection ou la redirection, le type de page initiale qui effectue la redirection. Ensuite, avec un 302, vous avez probablement tendance à voir le classement initial de la page parce que c'est celui que nous choisissons parce que vous nous dites en quelque sorte que c'est juste temporaire et que le contenu est ailleurs et alors qu'avec une redirection 301, nous avons probablement tendance à classer la destination page plus. Et comme toujours, les gens se trompent régulièrement et nos algorithmes essaient de comprendre ce que les gens essaient de faire. Donc, si nous voyons une redirection 302 en place pendant une période plus longue, nous pourrions bien décrire que le webmaster voulait probablement dire qu'il s'agissait d'une redirection 301 et nous la traiterons comme telle et nous déplacerons tous nos signaux vers la destination page. C'est donc quelque chose où vous pourriez voir ce genre de changements se produire également au fil du temps, donc ce n'est pas cette équité de lien ou comme si nos signaux traversaient une redirection ou non, mais plutôt laquelle de ces URL finissons-nous par choisir pour notre indexation et c'est le URL qui finit par recevoir tous ces signaux.

Question 13:02 - J'avais une question rapide, car vous savez que nous traitons depuis des années avec toutes sortes de problèmes de classement étranges. L'un de mes partenaires, lorsqu'il s'occupait de certains problèmes de YouTube, avait une théorie potentielle basée sur des mots similaires interdits, par exemple. Parfois, nous nous référons à un vendeur de voitures comme un crétin ou quelque chose comme ça et dans certains de nos articles. Fondamentalement, nous voulions savoir s'il pouvait y avoir un problème avec l'utilisation d'un langage comme celui-ci sur certaines pages du site. Je ne veux rien dire comme des blasphèmes, mais juste un peu comme des trucs de type insulte comme ça ? Nous voyons toujours le phénomène où d'autres sites Web qui ont essentiellement volé notre contenu, puis légèrement modifié des choses, se classent là où nous le faisions auparavant, puis nous nous classons plutôt mal. Lorsqu'ils modifient le contenu après l'avoir volé, ils n'ont pas tendance à voler les pages du site qui utilisent ce type de langage.

Réponse 14:49 - Je ne pense pas que cela affecterait quoi que ce soit. Certaines pages contiennent du contenu généré par les utilisateurs et elles utilisent également ce type de langage informel, donc je pense que c'est parfaitement bien.

Question 17:41 - Nous avons ajouté des articles connexes au bas de notre page de blog d'articles. Nous faisons le lien dans le prochain point rel vers l'un de ces articles connexes.

Réponse 17:52 - Non. Donc, le type de lien suivant rel est vraiment juste pour les séries de pagination, ce n'est pas quelque chose qui est destiné aux types de liens connexes. Donc, je croiserais simplement ces articles connexes normalement, c'est ce que ces plugins ont tendance à faire.

Question 19:42 - La vitesse et la sécurité deviennent des facteurs de plus en plus importants. Prévoyez-vous maintenant d'utiliser les erreurs de sécurité dans DNS SEC et l'utilisation de CDN comme signal de classement en dehors des données de vitesse

Réponse 19:55 - Je ne sais pas s'il serait logique d'aller dans ce type d'éléments individuels qui composent la vitesse, mais je pourrais certainement voir que nous utilisons, je veux dire, nous utilisons la vitesse comme facteur de classement . Donc, si tous ces éléments contribuent à la vitesse, votre site Web est plus rapide pour les utilisateurs et c'est probablement quelque chose qui fonctionnerait pour vous là-bas. Mais je ne pense pas que ce serait dans un cas où nous dirions que cette technologie spécifique est quelque chose que vous devez utiliser parce que c'est un facteur de classement réel. C'est plus que nous disons bien, la vitesse est importante, la façon dont vous atteignez cette vitesse dépend en fin de compte de vous. Peut-être que vous utilisez ces technologies, peut-être utilisez-vous d'autres technologies. Il y a de nouvelles façons vraiment cool de créer un site Web très rapidement et la façon dont vous feriez cela dépend en fin de compte de vous parce que du point de vue de l'utilisateur, ils ne se soucient pas de la technologie que vous utilisez tant que la page apparaît très rapidement.

Question 20:59 - Nous utilisons web.dev et avons obtenu 100 sur cent pour les meilleures pratiques de performance SEO et l'accessibilité, mais nous n'avons constaté aucune amélioration du classement. Combien de temps cela prend-il?

Réponse 20:12 - Web.dev est donc un excellent moyen de tester votre site pour de nombreux problèmes connus et de le comparer aux meilleures pratiques connues, mais le simple fait d'obtenir de bons résultats ne signifie pas que votre site Web montera automatiquement dans les classements ci-dessus. tous les autres. C'est donc quelque chose à garder à l'esprit que ce n'est pas le genre de moyen final et ultime de faire du référencement et de bien se classer. Il s'agit d'une liste des meilleures pratiques et elle vous donne diverses choses que nous pouvons tester et que nous pouvons signaler pour vous. C'est donc quelque chose où je pense que c'est une bonne idée d'examiner ces choses, mais vous devez être capable d'interpréter ce qui en ressort et vous devez réaliser qu'il y a plus dans le classement numéro un que simplement remplir un ensemble de techniques conditions.

Question 22:26 - Récemment, je recherche un moyen de servir du contenu statique avec une infrastructure cloud sans serveur produite par un CMS dynamique, beaucoup de mots fantaisistes, afin que nous puissions conserver l'excellent et facile à utiliser dans un WordPress qui sert le contenu et HTML statique pour les utilisateurs, ce qui augmentera considérablement les performances et la sécurité. Alors que Google et Automatic s'associent maintenant et que WordPress alimente une grande partie du Web, pensez-vous qu'il pourrait y avoir un moyen non applicatif de le faire au lieu de se lancer?

Réponse 22:33- Je ne connais aucun moyen spécifique de configurer cela avec ce que vous regardez ici, mais en général, nos outils de test fonctionnent pour tout type de contenu Web. Donc, si vous pouvez diffuser votre contenu en utilisant l'infrastructure qui vous semble logique pour votre site, quel que soit le back-end qui vous semble logique pour votre site Web et vous pouvez utiliser nos outils de test pour confirmer que Googlebot est capable de voir ce contenu, alors cela devrait s'entraîner. Donc, ce n'est pas que Googlebot dirait spécifiquement que vous devez utiliser cette infrastructure et le faire comme ça, pour que nous puissions le faire, mais plutôt vous pouvez utiliser n'importe quelle infrastructure que vous voulez et tant que Googlebot peut accéder à ce contenu, vous devriez être prêt.

Question 24:32 - Vous avez mentionné dans les hangouts précédents que la dernière série de modifications liées aux performances est une pénalité de classement progressive ouverte à mesure que votre site Web devient de plus en plus lent, nous travaillons à l'amélioration de la vitesse de notre site. Savez-vous combien de temps il faudra à Google pour remarquer ces améliorations une fois qu'elles seront disponibles ?

Réponse 24:54 - Donc, comme pour à peu près tout ce qui concerne la recherche sur le Web, ce n'est pas quelque chose où il y a un laps de temps fixe, mais plutôt nous explorons les pages d'index au fil du temps. Nous mettons à jour le type de ces signaux que nous avons pour ces pages au fil du temps. Il n'y a pas de calendrier fixe, certaines de ces pages et les signaux sont mis à jour tous les jours ou même plus fréquemment. Certains d'entre eux prennent un peu plus de temps, certains d'entre eux prennent des mois pour être mis à jour. Donc, ce que vous verrez probablement ici si vous apportez des améliorations significatives à votre site Web, mais vous verrez au fil du temps ce genre d'augmentation progressive en ce qui concerne la prise en compte de ces signaux. Cela peut être très délicat en ce qui concerne la vitesse dans le sens où la vitesse n'est pas le facteur de classement le plus important. Nous examinons des éléments tels que le contenu et essayons également de déterminer lesquelles de ces pages sont les plus pertinentes pour les utilisateurs. Donc, si un site est vraiment rapide, cela ne signifie pas qu'il est toujours classé numéro un, théoriquement, une page vide serait en quelque sorte la page la plus rapide, mais cela ne signifie pas que c'est un bon résultat pour l'utilisateur, donc la vitesse est plus un facteur de classement plus petit là. Nous verrons donc probablement des changements plus importants dans la visibilité de votre site dans la recherche au fil du temps en fonction des améliorations de la qualité et des améliorations du site Web dans son ensemble et la vitesse ressemble plus à quelque chose de petit qui serait probablement même difficile à mesurer individuellement.

Est-ce que 27:33 - L'algorithme associe-t-il éventuellement des facteurs négatifs à des personnes ou à des organisations, puis rétrograde des sites Web non liés qui sont associés aux mêmes personnes ?

Fondamentalement, comme nous avons eu des problèmes avec les conseils d'achat de voitures, puis l'un de mes partenaires et moi avons un site de type passe-temps lié à la pêche au crabe de pierre lorsque nous l'avons mis en place, il se classait dans le top trois sur tout ce qui concerne et puis c'est en quelque sorte disparu du classement. Nous avons posté une question sur le forum d'aide aux webmasters et en quelques minutes, les principaux contributeurs ont tous commencé à se concentrer sur le fait que le site avait des associations avec des conseils d'achat de voitures et je voulais donc voir s'il était possible qu'il y ait une sorte de connotation négative attachée d'une manière ou d'une autre à nous personnellement.

Réponse 28:27 - Je ne peux pas imaginer qu'il y ait quelque chose attaché à vous personnellement où nos algorithmes diraient, oh mec ce gars encore. Donc, généralement, là où cela arrive, c'est si nous voyons un site Web et c'est une sorte d'ensemble de sites bien interconnectés qui sont tous problématiques, alors cela pourrait être quelque chose ou un algorithme va oh nous devons faire attention ici, tous ces sites Web sont problématiques alors peut-être que ce nouveau site Web qui fait également partie de cet ensemble est également un peu délicat. Mais s'il s'agit de ces sites Web qui se trouvent simplement sur le même serveur avec le même propriétaire, ce n'est généralement pas un problème. C'est aussi généralement plus un problème quand cela va dans la direction des pages de porte où vous créez peut-être un nouveau site Web pour des centaines de villes différentes à travers le pays et essentiellement toutes ces pages sont les mêmes, comme tous les sites Web sont les mêmes et c'est quelque chose où nos algorithmes pourraient dire, eh bien, cela ne semble pas avoir beaucoup de valeur pour nous.

Question 31:33 - En gros, ce qui se passe, ce sont des pages qui sont le résultat d'un utilisateur sur notre site qui sélectionne correctement ses éléments de biologie afin qu'il sélectionne une configuration d'un gène et d'un réactif qui va avec et ce qui se passe, c'est que nous créons une recherche page efficacement, c'est un processus de filtrage, nous créons une page de recherche, puis bien sûr, elle fait référence à une page de produit et ils cliquent dessus pour que ces pages filtrées se retrouvent périodiquement dans Google Webmaster Tools et vous savez qu'il n'y en a pas que quelques-uns. It happens thousands at a time and so one of the things we were wondering is we do have it in our robots.txt file and we believe it's correct is there do we need to do I'll call it belt-and-suspenders and also make those a no index you know command at the beginning of the page or something like that that would help that? It just it makes it difficult to use webmaster tools sometimes when it's full of that kind of information. Finding the needle of the things we really have to take care of is difficult by the sometimes over-enthusiastic webmasters tool of capturing everything we do.

We'll see I'm in either mostly in the performance the new performance tool and it will be you know an anomaly or soft 404 one of those two because it tries to go back and find it and of course you can't find it.

Answer 33:16 - So noindex would be an option here as well but then you would have to take it out of the robots.txt so that we can see the he no index. I wonder if that's already happening to some extent here because we we wouldn't be flagging it as a soft 404 in search console if it were completely blocked by robots. So that's something where maybe we're already able to kind of crawl those pages and then we say oh we probably don't need to index these therefore we'll let the webmaster know that we kind of stumbled upon them. So that might be something to double-check that they're actually blocked by robots.txt.

Question - We're pretty sure it also happens and then they disappear and then it happens and disappear. So maybe it's just a matter of that the processing time in between the two. We just they don't, I mean, they're not really pages so we don't want them in the index because they have no title, no h1, none of that stuff because they're really not pages. They're just the results of a user asking to configure a gene and one of our products.

Answer 34:40 - Yeah so in in that case I would just leave them in the robots.txt leave them blocked. I think that's perfectly fine. There's no real way to kind of block them from appearing at all in search console but I think having them the robots.txt file is perfectly fine.

Question 35:00 - By the way when are they gonna put the robots.txt tester tool in the new Webmaster Tools?

Answer 35:06 - I don't know we haven't announced that yet but we're trying to be a little bit ahead of turning things down so that people have a chance to move to something new. To move the new tools in search console. So as soon as we we have more plans on what is happening there we will let you know. I think this is one of those tools that that make sense to keep. So since we haven't announced that we're turning it off I imagine it'll just come with the new switch to console over time.

Question 35:47 - I have a client going through a site migration it's a large enterprise website where they're going from multiple subdomains to one and right now individual business pages and content is across several branded subdomains. Each business has the same template with you know one main page and several sub pages and the single domain experience will consolidate that business template down to maybe one or two to three pages there's a lot of content consolidation. They'll be doing this in in phases you know and it'll still be a large-scale but since we're talking about so many multiple page experiences going down to one potentially. For those to be retired or redirected business business pages on old sub domain I've been thinking they should intentionally orphan those first before pushing through so many redirects at once to the new consolidated experience. Almost to let the dust settle but is it the right approach or is it just best to redirect those old pages the new relevant and compact experience and then let the dust settle from there?

Answer 36:46 - I will just try to go with the final state as quickly as possible. So instead of creating this temporary situation where things are neither the old one or the new one, I would try to just redirect to the new ones as quickly as possible.

Question 37:49 - If it's dynamic surveying and a site owner wants to set up an amp page also with the same URL and a desktop page does he need to add an amp HTML page so the same URL for mobile desktop and amp?

Answer 38:00 - So I think first of all you wouldn't be able to use the same URL for mobile and amp if you're serving different HTML because the same user would be going through that page and you wouldn't know which content to serve so that I think wouldn't work. However you can of course make an AMP page and just say the amp page is my normal page that's a perfectly fine set up. For example in the new WordPress AMP plug-in I believe there's an option I don't know it's called native amp I think. Where basically your website is purely an amp page and that's that's a perfectly fine setup. So in a case like that you would I believe set the amp HTML tag to the same URL so that we know this is meant to be the amp page you would also set the canonical to the same URL so that we know this is the canonical that you want to have indexed and then we'd be able to pick that up.

Question 39:08 - Do backlinks help in the rankings of videos in the Google Search carousel?

Answer 39:13 - So we use a number of factors when it comes to ranking and that does include links. So it's something where I would be wrong to say like we we don't use links at all. However we do use like I don't know over 200 factors for crawling indexing and ranking so focusing on links alone doesn't really make sense. So that's something where good content traditionally picks up links on its own and if you're creating video content on your website and all of that is generally also interlinked within your website so over time these things kind of settle down on their own. It's not that you need to explicitly build links so that you can show up in a video carousel I think that would make a sense.

Question 40:06 - How does Google treat site wide navigational links that are hidden on mobile resolution in responsive pages but visible on desktop.

Answer 40:13 - We would really follow it was normally so I don't see any problem in that. That said if your website is hard to navigate on mobile then users who are for large majority of the sites are mostly coming on mobile will have a hard time navigating your website and will have a hard time kind of finding your other good content. So I would certainly make sure that any UI that you have available on your website is also available in some form or another for mobile users.

Question 40:48 - Recently we learned that many of our pages have not been shown in Safe Search Results these pages are mostly destination pages of cities and countries. I've been keeping track of some of the keywords for example: Gay Barcelona or generally gay destinations anywhere. In the past five days of Barcelona index page showed up in first position on safesearch but then has disappeared from Safe Search now. We always make sure that there's no explicit image or profanity in the content but it hasn't guaranteed her position and safe search results. Could you explain how the safe search algorithm actually works?

Answer 41:35 - So we use a number of factors in figuring out when to show which content to to which users in the search results. I don't think there's like this one simple thing that makes safe search work or not. I suspect with a website like yours it'll always be kind of tricky for algorithms to figure out watch what exactly we should be showing here and how we should be showing that in the search results. I think I passed your website on to the the team here wants to take a look at it as well. So like I can definitely double check with them but I imagine it'll always be kind of tricky and a bit borderline for our safe search algorithms to figure out how we should be handling this kind of website. Which is always I think a little bit unfortunate but it's hard to find exactly the the right balance there.

Question 42:37 - I have two websites that offer very similar content some of it is even duplicated but only one will verify for Google News while the other one won't the noticeable difference is one has a health and fitness section while the other one focuses more on lifestyle content and celebrities, why why would one be accepted into Google News and not the other one?

ANswer 43:43 - I don't know why why that might be happening I don't know the the Google News policies specifically in that regard so it's really hard to say. In general though if these websites are so similar that you're saying some of the content is even duplicated maybe it makes sense to just focus on one website rather than to have two websites that are kind of essentially duplicate or very similar targeting same audience but that's I think more of a question in general for you to kind of consider. With regards to Google News specifically I would recommend going through the Google News publisher forum and double check with the folks there. The experts that that are in the forum there have a lot of experience with sites that are accepted to Google News and sites that get improved so that they do get accepted and sites that wouldn't get accepted to Google News. So they can probably give you some tips with regards to what to watch out for specifically for Google News.

Question 44:08 - Hotel website and even if you search for it with its exact name which is unique I can't see it in the first page of search results. My Google my business listing has been punished for two weeks this listing was closed by admins and I sent the documentation and they understood was mistake and we opened it. I suspect this is the reason why my web site can't be found.

Answer 44:38 - So I don't know about the specific case here so that's really hard to say but in general just because of web site isn't in Google my business wouldn't mean that we wouldn't show it in web search results for the most part the the web search results are independent of the Google my business listings. Obviously if it is in Google my business and we show it in that map's listing then that would be one place where your website would be visible but just because it's not in a Maps listing doesn't prevent it from appearing in the normal search listings. So my suspicion is that there's probably something else that you could be focusing on or that you could be looking at there and like in some of the other cases I'd recommend going to the webmaster help forum and getting some input from other people who've seen a lot of these cases and might be able to help you figure out what you could be doing there to improve.

Question 45:42 - I noticed Google rewrites some titles and meta descriptions any idea of how to know if Google will rewrite the content or keep the original version?

Answer 45:53 - We do have guidelines for how to make good titles and good descriptions so I'd recommend taking a look at that. Oftentimes when I see Google rewriting the titles or the snippet that's usually more based on situations where we see kind of almost like keyword stuffing happening with the titles or the description. So that might be one thing to kind of watch out for another thing to keep in mind is that we do try to pick titles and descriptions based on the query. So if you're doing a site query and you're seeing your titles and descriptions in one way that doesn't necessarily mean that they'll be shown the same way when normal users search with normal queries. So I kind of take a look at both of those and also definitely make sure to check out the Help Center article.

Question 46:46 - Comment Googlebot considère-t-il la personnalisation des sites Web ? Nous avons un nouveau produit qui superpose le contenu du site Web pour permettre la personnalisation en fonction de l'emplacement de l'industrie ou même d'une seule entreprise. Cela nous permet de vraiment personnaliser le contenu pour les utilisateurs finaux individuels. Ma préoccupation est que je montre le contenu original de la page à Googlebot et le contenu personnalisé aux utilisateurs finaux, cela affectera-t-il négativement nos clients ?

Réponse 47:14 - Peut-être. Peut-être que ce sera le cas. Donc, la chose à garder à l'esprit est que Googlebot indexe le contenu que Googlebot voit. Donc, si vous avez quelque chose d'unique que vous montrez à des utilisateurs individuels et que Googlebot ne le voit jamais, nous ne pourrons pas l'indexer. Nous ne serions pas en mesure d'afficher ce site Web à la recherche de ces requêtes. Ainsi, par exemple, si vous avez un si vous êtes je ne sais pas si vous reconnaissez qu'un utilisateur vient des États-Unis et que vous montrez du contenu en anglais, vous montrez à un utilisateur de France du contenu français et que Google explore depuis les États-Unis, alors Googlebot le fera ne verra que le contenu en anglais et ne saura jamais qu'il y a également du contenu en français sur ce site Web, car il ne pourra jamais voir ce contenu. C'est donc quelque chose à garder à l'esprit ici, si vous ne faites que de la personnalisation septale et que vous aimez peut-être ajouter des produits connexes ou peut-être ajouter des informations supplémentaires au contenu principal de votre page en fonction de l'emplacement ou d'autres attributs, nous serions en mesure pour classer la page en fonction du contenu principal que nous pouvons voir, mais nous ne saurions toujours pas quel type de couche d'informations supplémentaire vous ajoutez via ces pages. Donc, il ne s'agit pas pour nous de pénaliser un site Web pour avoir fait ou lui avoir causé des problèmes, c'est une chose plus pratique que nous ne pouvons pas voir, donc nous ne savons pas comment nous devrions classer cela.

Question 49:25 - Deux petites questions là le site de mon hôtel a un nom de domaine.com.tr et donc Google fait automatiquement sa région Turquie dans Google Webmaster Tools. Je ne peux pas le changer, mais mes clients sont principalement des personnes du Royaume-Uni par exemple et je souhaite être répertorié si la recherche est effectuée depuis le Royaume-Uni. Pensez-vous qu'il est nécessaire de modifier le nom de domaine si je souhaite être répertorié pour les personnes d'Europe ?

Réponse 49:50 - Vous pourriez le faire. Ainsi, lorsqu'un utilisateur d'un certain pays recherche quelque chose de local, nous utilisons le ciblage géographique pour essayer de mettre en évidence ces pages pour ces utilisateurs. Ainsi, si un utilisateur au Royaume-Uni recherche un hôtel en Turquie, il n'est pas nécessaire de faire un ciblage géographique, car le site Web au Royaume-Uni ne serait pas pertinent pour un utilisateur qui recherche explicitement quelque chose en Turquie. Je pense donc que pour la plupart, vous n'auriez pas besoin d'utiliser le ciblage géographique là-bas. Je pense que c'est parfaitement bien un site Web où nous reconnaissons la Turquie comme le pays peut toujours être pertinent à l'échelle mondiale. Donc, à moins que vous ne soyez comme disons que vous êtes une pizzeria et que vous proposez une pizza turque spéciale et que vous la livrez à des utilisateurs à Londres, puis à un utilisateur à Londres recherchant une pizza à Londres, votre site Web turc aurait un problème, mais si un utilisateur à Londres est en disant que je veux rechercher des hôtels en Turquie, alors sur ce site, votre site Web est parfaitement bien.

Question 52:01 - Question générale pour de nombreux éditeurs. Vous seriez surpris de voir combien de personnes créent une tonne de balises inutiles et c'est quelque chose que nous avons réalisé il y a quelques années, comme si nous avions des milliers de balises. Nous avons travaillé très dur et nous sommes arrivés à quelques centaines de balises et nous étions très très satisfaits de la façon dont nous avons fait cela et maintenant je vois même après cela quelques-unes des choses que nous avons regroupées et faites pour les redirections 301. Maintenant, je vois après cela des choses que nous ne couvrons plus, par exemple les crimes de célébrités, les divorces de célébrités, nous vérifions simplement ce qui se passe alors lorsque vous avez toutes ces redirections vers ce type de balise qui n'est pas plus longtemps que cela s'applique, est-ce que ça s'éteint ou pensez-vous à ou redirigez-vous cela d'une autre manière parce que je ne peux pas vraiment penser à un moyen de rediriger, disons, le divorce ou la santé des célébrités vers quelque chose et pourtant nous avons comme disons un cent histoires à cette balise à ce stade.

Réponse 53:11 - Je pense que c'est une sorte de quelque chose que je peux naturellement évoluer avec le temps. Donc, si vous commencez à avoir plus de contenu là-bas et que vous voulez en quelque sorte faire revivre cette balise, c'est parfaitement bien. Si vous voulez en quelque sorte combiner les choses encore plus, c'est parfaitement bien aussi. Ce genre de pages presque catégorielles ont en quelque sorte évolué avec le temps, je pense que c'est normal.

Question - Mais que se passe-t-il si cette catégorie n'est tout simplement plus utile, elle le fait simplement, mais elle reste assise pour toujours et je veux dire, c'est bien, mais j'aimerais évidemment consolider autant que possible.

Réponse 53:49 - Je pense que la consolidation est bien une autre option où vous pourriez dire est peut-être même savoir que l'index a du sens comme nous ne voulons plus vraiment être indexés pour ce contenu, nous voulons le garder de notre côté si les gens savent que c'est là et ils le recherchent explicitement sur votre site Web, mais peut-être qu'aucun index n'aiderait Google ou d'autres moteurs de recherche à se concentrer davantage sur le contenu indexable.