5 mars 2019 – Notes de Hangout de l'aide Google
Publié: 2019-03-12Nous rejoignons John Mueller chez lui dans ce Hangout d'aide aux webmasters. Nous avons eu de bonnes questions sur Page Speed, hreflang et Backlinks. La vidéo et une transcription complète peuvent être trouvées après notre résumé. Si vous aimez cela, pensez à vous inscrire à notre newsletter hebdomadaire ! Nous résumons les meilleurs articles SEO de la semaine en bouchées faciles à digérer.
Pouvez-vous expliquer le problème avec l'utilisation de json - ld via un gestionnaire de balises ?
11:18
Je pense donc que ce dont nous avons parlé est un certain nombre de fois et un tas de ces lieux de rencontre également et il y a de nouveaux articles de blog écrits à ce sujet également par diverses personnes, dont Barry également. Mais cela revient essentiellement à, pour que nous puissions extraire le contenu du gestionnaire de balises, nous devons être en mesure de rendre le traitement JavaScript des fichiers de script du gestionnaire de balises et de sortir l'écriture là-bas et d'inclure le côté indexation. C'est donc quelque chose qui demande toujours beaucoup de travail à nos systèmes et que nous ne faisons pas toujours pour toutes les pages, en particulier lorsque nous voyons que la page serait autrement la même, alors il est assez difficile pour nos systèmes de justifier cela nous devons également traiter tout ce JavaScript. Et en plus de cela, beaucoup d'outils de test ne traitent pas non plus le gestionnaire de balises et la sortie, il est donc très difficile pour les outils de confirmer en quelque sorte que ce balisage fonctionne correctement. Il faut plus de temps pour qu'il soit traité dans la recherche, il peut être un peu floconneux et vous ne savez pas exactement dans quoi il est indexé à un moment donné. Ce sont donc toutes des raisons pour lesquelles, de mon point de vue, il est bon d'utiliser le gestionnaire de balises pour autre chose. C'est bien de l'utiliser pour cela aussi pour JsonLD pour les données structurées dans la recherche, mais il convient de garder à l'esprit que ce n'est pas une excellente approche pour les données particulièrement structurées dans la recherche. Ce sont des moyens beaucoup plus simples de fournir les données de structure directement sur la page Web, ce qui facilite la maintenance, facilite le suivi pour tester tout cela. C'est donc ce que je recommanderais de faire, je ne dis pas que vous ne pouvez pas utiliser le gestionnaire de balises ici pour cela, vous pouvez certainement l'utiliser et nous ferons de notre mieux pour le récupérer et l'utiliser, etc., mais ce n'est pas tout à fait le même niveau de vitesse et de flexibilité, de sécurité lorsqu'il s'agit de fournir les données de structure directement sur les pages.
Résumé : Bien qu'il soit possible d'utiliser JSON-LD et d'autres données structurées via Google Tag Manager, ce n'est pas la meilleure approche. Pour que Google tire le formulaire de contenu Tag Manager et le doit rendre le JavaScript. Traitez le script à partir de Tag Manager et générez l'écriture, puis l'index. Il existe des moyens simples de fournir des données structurées directement sur la page, ce qui facilite la tâche sur Google.
Comment Google sélectionne-t-il une URL à afficher dans la recherche ?
15:20
Donc, ce genre de question entre dans la question générale de savoir comment Google choisit une URL à afficher dans la recherche et d'une part, il y a un aspect de dans ce cas comme la page de destination pour l'image 1 ayant un rel canonique défini sur la vue de toute la page, serait signifient que ces pages ne sont pas équivalentes. Donc, c'est un peu aléatoire que nous ramassions et utilisions ce canonique du tout, c'est je pense un aspect à garder à l'esprit. L'autre chose à garder à l'esprit est que même lorsque nous comprenons que ces pages pourraient être considérées comme équivalentes, il s'agit pour nous d'utiliser plusieurs facteurs pour déterminer laquelle de ces pages est la véritable canonique. Donc pour cela, nous utilisons un rel canonique, nous utilisons des redirections si nous avons quelque chose. Nous utilisons des liens externes internes, nous utilisons des choses comme des plans de site, des liens hreflang, tout cela nous a aidés à comprendre laquelle de ces URL est celle que nous devrions afficher et si l'URL canonique que vous spécifiez est celle que vous n'utilisez jamais dans le reste de votre site Web, alors il y a de fortes chances que nous dirons que rendre ce lien canonique était une erreur que le webmaster ne voulait pas vraiment dire comme ça, et peut-être que nous devrons choisir une URL différente comme canonique. Donc, je suppose que ce qui va se passer ici est soit nous ignorerons le rel canonique parce que ce n'est pas la même chose, soit nous choisirons l'une des autres pages existantes à la place parce que c'est l'une des pages qui est comme fortement liée à l'intérieur le site Web. Je ne pense donc pas que cette configuration spécifique soit si utile dans votre cas.
Résumé : Google utilise le rel canonique, les redirections, les liens internes, les sitemaps, le hreflang pour comprendre avec l'URL est celle que Google devrait afficher. Mais si l'URL canonique spécifiée est une URL qui n'est jamais utilisée dans le reste de votre site, Google peut ignorer l'URL canonique rel et choisir une autre page fortement liée en interne.
Est-ce une bonne idée d'inclure des auteurs sur les articles de blog au lieu d'un utilisateur d'éditeur générique ?
17:38

Je pense que c'est une bonne décision, surtout si vous savez qui a écrit l'article à l'origine et que vous pouvez le traiter comme une page de destination d'auteur, je pense que c'est une bonne décision. Même du simple point de vue de l'utilisateur, si quelqu'un va sur votre site Web et voit soudainement que ces articles ont été écrits par Barry au lieu d'un simple éditeur et que vous avez une page de destination pour cet auteur, cela pourrait être un signe que c'est mieux pour le utilisateur qui pourrait être quelque chose que les utilisateurs captent ou ils vont sur la page de destination de l'auteur et voient oh cet auteur est en fait un expert dans ce domaine et y est actif depuis quelques années, je pense toujours utile d'avoir sur un site Web dans général, et en ce qui concerne les classements Google, il est difficile de dire si cela aurait un effet direct. Mais au moins les effets indirects sont que les utilisateurs pourraient faire davantage confiance à votre contenu comme recommandé ou je pense que c'est quelque chose qui serait en quelque sorte attendu.
Résumé : Oui ! Avoir une page de destination d'auteur est un moyen de montrer l'EAT de vos auteurs. Cela améliorera également l'expérience utilisateur en général au lieu d'avoir un "éditeur" ou un "administrateur" générique
Quelle est la recommandation si votre interface utilisateur peut être traduite dans d'autres langues mais que le contenu supplémentaire, tel que le contenu généré par l'utilisateur, reste dans une autre langue ?
21:48
C'est donc quelque chose qui arrive assez souvent, en particulier pour le contenu généré par l'utilisateur. Donc, si vous avez un forum ou un blog ou quelque chose et que les gens commentent dans une langue, mais que vous avez la configuration nécessaire pour que l'interface utilisateur puisse passer à d'autres langues. Ensuite, vous avez rapidement une situation où l'interface utilisateur peut être en français ou en allemand mais le contenu peut toujours être en espagnol, par exemple parce que tout le monde commente en espagnol et c'est essentiellement quelque chose que vous pouvez gérer de plusieurs manières. Vous pouvez donc dire que ma version canonique est la version espagnole et que tout est comme la version espagnole, c'est une option que vous pouvez faire. Vous pouvez utiliser les annotations hreflang entre ces versions pour dire qu'il s'agit de la version la plus française de mon contenu que je peux fournir. Le contenu principal n'est pas en français, mais l'interface utilisateur est en français, de sorte que l'utilisateur qui accède à la page pourra en quelque sorte naviguer. mon site Web c'est quelque chose que vous pourriez faire. Et essentiellement, ce sont les différentes variantes que vous pouvez fournir ici pour nous en dire un peu plus sur vos préférences. D'un point de vue pratique, c'est finalement plus à vous de décider comment vous voulez être affiché dans la recherche. Donc, si vous pensez qu'il est utile pour un utilisateur français de venir sur votre site et d'atterrir sur la page avec le contenu en espagnol et l'interface utilisateur en français, puis d'utiliser par tous les moyens les annotations hreflang entre ces versions. Si vous pensez qu'un utilisateur en France aurait du mal à naviguer sur votre site si le contenu principal est en espagnol même si l'interface utilisateur est en français, il est peut-être logique de conserver la version espagnole avec l'interface utilisateur espagnole indexée. Donc, c'est en quelque sorte à vous de décider, je pense qu'aucune de ces solutions n'est parfaite. Parfois, cela dépend un peu de l'uniformité de votre contenu, de la clarté avec laquelle vous comprenez quelles versions linguistiques vous souhaitez indexer et quelles versions les utilisateurs s'attendent à voir dans les résultats de recherche. Ainsi, par exemple, si vous êtes un forum très international et que les gens publient dans toutes sortes de langues différentes, il est probablement difficile de dire que vous ne voulez que cette version de l'interface utilisateur indexée, peut-être qu'il est logique d'indexer toutes les versions de l'interface utilisateur. Bien sûr, l'inconvénient d'avoir toutes les versions de l'interface utilisateur indexées est que cela multiplie le nombre de vos URL que votre site a soudainement. Cela signifie donc que nous devons explorer beaucoup plus et s'il s'agit d'un grand site de contenu généré par l'utilisateur, cela signifie que nous devons explorer, d'une part, tout le contenu généré par l'utilisateur, puis nous devons explorer tous les multiples de celui-ci pour chaque différent version linguistique, dont je ne sais pas si c'est utile, si c'est trop ramper pour votre site Web si cela empêche peut-être un contenu plus récent d'apparaître rapidement dans les résultats de recherche. C'est quelque chose d'autre à peser là-bas. Si vous ne parlez que de quelques milliers d'articles, c'est peut-être moins un problème.
Résumé : Vous pouvez choisir une version linguistique comme version canonique ou vous pouvez ajouter des annotations hreflang entre ces versions linguistiques.
Dois-je désavouer un grand nombre d'URL aléatoires qui pointent vers mon site ?
27:58
Non, c'est essentiellement la bonne décision à prendre et surtout si c'est quelque chose qui vous inquiète vraiment. Donc, je pense que pour la plupart des sites Web, cela n'a pas de sens d'aller là-bas et de désavouer des choses qui sont juste comme incertaines et bizarres parce que pour la plupart, nous les ignorons simplement. Donc, en particulier en ce qui concerne les liens, si c'est quelque chose qui, quand vous le regardez, vous dites bien, cela pourrait être vu comme ces liens étant achetés par nous, comme naturellement placés là par nous, si quelqu'un de l'équipe du site Web devait prendre un regarder cela manuellement et ils supposeraient que, c'est nous qui faisons quelque chose de stupide, c'est le genre de chose où je dirais probablement que les désavouer ou les faire supprimer serait la bonne décision, mais sinon, si c'est juste un lien douteux et il on dirait que c'est quelque chose comme s'il y avait des millions d'autres liens là-bas, quelqu'un a exécuté un outil et déposé des tonnes de liens dans ce forum, alors c'est quelque chose que nos algorithmes ont déjà compris. Ce n'est donc pas quelque chose dont je ne m'inquiéterais pas.
Résumé : Google est doué pour déterminer les liens à ignorer. Mais il vaut mieux être prudent que désolé quand il s'agit de désavouer.
Quelle est l'importance de la vitesse des pages pour Google ?
42:30

Quelle est la politique actuelle ? Donc, la vitesse est quelque chose qui compte beaucoup pour nous et qui a un grand effet sur les utilisateurs, c'est donc quelque chose que je prendrais personnellement très au sérieux et je pense que la bonne partie de la vitesse est qu'il existe divers outils qui vous donnent des mesures assez objectives là-bas sur lequel vous pouvez réellement travailler. En ce qui concerne beaucoup d'entre nous ou d'autres problèmes liés au référencement comme, je ne connais pas la qualité de leur contenu, des choses comme cette vitesse est quelque chose qui est assez mesurable et quelque chose sur lequel vous pouvez en quelque sorte travailler, et cela devrait également être quelque chose que nous utilisons un effet direct du comportement de vos utilisateurs au sein de votre site Web. Donc, ce n'est pas seulement quelque chose qui, du point de vue de Google, comme nous disons que la vitesse est importante, c'est le suivi du classement, mais c'est quelque chose que vous verrez directement lorsque les utilisateurs viennent sur votre site Web et que votre site Web prend soudainement quelques secondes de plus pour charger ces utilisateurs réagiront très différemment sur votre site Web et vous aurez plus de mal à les convertir en clients quelle que soit la façon dont vous définissez les clients sur votre site Web.
Résumé : La vitesse est extrêmement importante lorsqu'il s'agit de Google. C'est une mesure qui est facilement traçable et facilement exploitable. Il existe d'excellents outils qui donnent d'excellentes informations sur les performances de votre site et sur ce que vous pouvez faire pour augmenter la vitesse des pages.
Si je paie pour Google Ads, mon classement sera-t-il meilleur ou moins bon ?
47:24
Nous recevons donc cette question de temps en temps et la question ici est de savoir si mon classement sera affecté, mais la meilleure ou la pire partie est quelque chose que nous entendons également certaines personnes dire, que votre classement ne s'améliorera pas si vous utilisez Google Ads certaines personnes disent que votre classement diminuera si vous utilisez les annonces Google, car nous voulons que vous achetiez plus d'annonces et aucune de ces affirmations n'est vraie. Ainsi, nos résultats de recherche sont totalement indépendants du fait que vous utilisiez ou non Google Ads, ils sont totalement indépendants des technologies que vous utilisez sur votre site Web. Donc, si vous utilisez quelque chose comme l'analyse ou un autre outil de suivi, cela dépend entièrement de vous. Si vous monétisez avec Adsense ou l'un de ces autres réseaux publicitaires, cela dépend entièrement de vous. Ainsi, que vous utilisiez ou non les produits Google au sein de votre site Web, l'utilisation d'autres services Google pour votre site Web dépend entièrement de vous. C'est quelque chose que nous préférons que ces services soient autonomes et si vous dites que c'est une raison particulière pour laquelle le service Google n'est pas génial, je ne veux pas l'utiliser, alors n'hésitez pas à utiliser autre chose. Nous ne voulons pas vous mettre dans une sorte de boîte où vous êtes comme coincé entre vous concentrer sur votre site Web et faire ce que vous pensez être bon pour vos utilisateurs et devoir utiliser ce produit en particulier. Donc, c'est vraiment le cas que nous ne lions pas cela ensemble et nous le faisons explicitement et nous travaillons dur pour nous assurer que ces choses fonctionnent bien.
Résumé : Google Ads n'a aucun effet sur les classements naturels.
Si vous aimez ce genre de choses, vous allez adorer ma newsletter !
Mon équipe et moi rendons compte chaque semaine des dernières mises à jour de l'algorithme Google, des actualités et des conseils SEO.
Succès!! Vérifiez maintenant votre e-mail pour confirmer votre abonnement à la newsletter Google Update.
Vidéo complète et transcription
Question 1:14 - Il y a deux semaines, notre site Web a perdu 94 % du trafic de Google du jour au lendemain. Avec un trafic de recherche constant au cours des 20 dernières années et aucun changement majeur, nous supposons que quelque chose de technique pourrait partager IPS ou SSL via un CDN comme le cloudfare entraîner une forte baisse du trafic de manière algorithmique. Nous avons creusé plus profondément et avons trouvé certains sites avec un contenu extrêmement risqué sur la même adresse IP. Nous pouvons changer notre thème et avoir un certificat dédié mais nous aurons toujours du trafic, que se passe-t-il ici ?
Réponse 2:01 - Mais en général, ce n'est généralement pas parce que d'autres sites sont hébergés sur la même adresse IP qu'il y a lieu de s'inquiéter. Ainsi, en particulier avec les grands hébergeurs, le partage d'adresses IP est assez courant avec les CDN, l'adresse IP partagée est extrêmement courante. Et c'est quelque chose qui change parce que beaucoup de CDN ont des points de terminaison dans différents pays et ils partagent en quelque sorte ces points de terminaison avec les différents sites Web qui y sont actifs. Donc, essentiellement, l'utilisateur et l'Allemagne peuvent voir une adresse IP différente par rapport à un utilisateur aux États-Unis, par exemple, mais en général, il s'agit d'une pratique extrêmement courante, le partage d'adresses IP, et ce n'est pas quelque chose qui sera problématique. Au début, c'était quelque chose qui était parfois très utile pour reconnaître les dates et les hôtes. Où si nous avons vu une adresse IP et 9000 sites qui avaient des adresses statiques et qu'ils sont tous spammés et s'il y avait deux autres sites Web sur le même hôte, cela pourrait être difficile pour nous de réaliser, ces deux sites sont-ils vraiment complètement sites distincts par rapport à ces 9 000 autres sites. C'est une sorte de situation délicate pour les algorithmes. Mais dans la plupart des cas comme celui-ci, nous verrons un mélange de toutes sortes de sites différents, donc différents sites dans différentes langues pour différents pays avec différents utilisateurs cibles certains sites spammés certains sites non spammés sur la même adresse IP et tout cela est parfaitement bien . Ce ne serait donc pas une raison pour nous de dire, oh comme parce qu'il y a un site de spam sur cette adresse IP, ce serait un problème. Donc, je ne sais pas précisément ce qui s'est passé ici avec ce site Web, j'ai jeté un coup d'œil sur le fait qu'en général, l'aspect de notre site Web fonctionnait bien sur la recherche pendant tant d'années avant que j'ai tendance à dire que c'est comme bon sur votre site mais ce n'est pas nécessairement quelque chose que nous garderions toujours comme ça.
Donc, ce n'est pas parce que le site fonctionnait bien dans le passé et dans la recherche qu'il continuera à bien fonctionner dans la recherche d'une part, ouais, les attentes des utilisateurs changent, d'autre part, les algorithmes de Google changent. Donc, ces choses peuvent toujours changer et il peut arriver que les choses changent parfois de manière significative et notre objectif il y a moins à dire comme ce site Web particulier est de mauvais algorithmes mais plutôt à dire que nous avons reconnu que nous avons peut-être manqué de répondre aux attentes des utilisateurs ou nous avons fait les choses d'une manière qui ne correspond plus à ce que les utilisateurs attendent, donc nos algorithmes changent pour essayer de ramener les résultats, dits les utilisateurs et pertinents de nos jours, aux résultats de recherche. C'est donc quelque chose qui peut toujours jouer selon le type de site Web.
Question 5:49 - Il y a un certain temps, à propos du site qui semblait nous surclasser en volant essentiellement notre contenu, puis en le modifiant afin qu'il ne viole pas le droit d'auteur, puis en nous surclassant. Nous avons remarqué le modèle lorsque nous regardons en arrière et avons fait des recherches qui semblent repenser notre site, améliorer notre qualité, améliorer les classements, puis ils le copieront et au cours du mois ou des deux prochains, ils commenceront à se classer nous et il nous semble en quelque sorte que les algorithmes se confondent et attribuent à ce site le mérite d'être l'auteur du contenu au lieu de nous, puis de nous supprimer dans le classement en conséquence.
Réponse 6:37 - Je ne sais pas, il faudrait que je jette un œil sur les sites pour voir ce qui s'y passe exactement. C'est donc un peu délicat d'un point de vue algorithmique de dire que, comme nos algorithmes choisiraient toujours ce site plutôt que votre site pour ces requêtes. Mais ce que je viserais généralement à faire, c'est que si ces sites copient votre contenu, essayez de trouver des moyens de s'attaquer à cela à la racine pour les encourager à ne pas copier votre contenu. Alors peut-être examiner des choses comme une plainte DMCA, je ne sais pas si c'est pertinent dans votre cas ou non, mais tout pour essayer de gérer cela d'une manière que la recherche n'a pas à deviner laquelle de ces versions de le contenu doit être classé pour ces requêtes.
Question 11:18 - Pouvez-vous expliquer le problème lié à l'utilisation de json-ld via un gestionnaire de balises ? Le gestionnaire de balises est utilisé pour vérifier la console de recherche et probablement l'analyse, il est donc assez stable.
Réponse 11:33 - Je pense donc que ce dont nous avons parlé est un certain nombre de fois et un tas de ces lieux de rencontre également et il y a de nouveaux articles de blog rédigés à ce sujet par diverses personnes, dont Barry également. Mais cela revient essentiellement à, pour que nous puissions extraire le contenu du gestionnaire de balises, nous devons être en mesure de rendre le traitement JavaScript des fichiers de script du gestionnaire de balises et de sortir l'écriture là-bas et d'inclure le côté indexation. C'est donc quelque chose qui demande toujours beaucoup de travail à nos systèmes et que nous ne faisons pas toujours pour toutes les pages, en particulier lorsque nous voyons que la page serait autrement la même, alors il est assez difficile pour nos systèmes de justifier cela nous devons également traiter tout ce JavaScript. Et en plus de cela, beaucoup d'outils de test ne traitent pas non plus le gestionnaire de balises et la sortie, il est donc très difficile pour les outils de confirmer en quelque sorte que ce balisage fonctionne correctement. Il faut plus de temps pour qu'il soit traité dans la recherche, il peut être un peu floconneux et vous ne savez pas exactement dans quoi il est indexé à un moment donné. Ce sont donc toutes des raisons pour lesquelles, de mon point de vue, il est bon d'utiliser le gestionnaire de balises pour autre chose. C'est bien de l'utiliser pour cela aussi pour JsonLD pour les données structurées dans la recherche, mais il convient de garder à l'esprit que ce n'est pas une excellente approche pour les données particulièrement structurées dans la recherche. Ce sont des moyens beaucoup plus simples de fournir les données de structure directement sur la page Web, ce qui facilite la maintenance, facilite le suivi pour tester tout cela. C'est donc ce que je recommanderais de faire, je ne dis pas que vous ne pouvez pas utiliser le gestionnaire de balises ici pour cela, vous pouvez certainement l'utiliser et nous ferons de notre mieux pour le récupérer et l'utiliser, etc., mais ce n'est pas le cas tout à fait le même niveau de vitesse et de flexibilité, de sécurité lorsqu'il s'agit de fournir les données de structure directement sur les pages.
Question 14:00 - Un client a effectué une migration HTTPs en utilisant 302 au lieu de 301, doit-il changer cela en 301 ? Combien de temps faudra-t-il à Google pour comprendre qu'il s'agit d'une redirection permanente ?
Réponse 14:14 - Donc, nous allons probablement relever cela aussi, beaucoup de gens utilisent la mauvaise balise de redirection pour les déplacements de sites et nous essayons toujours de comprendre cela correctement. Un moyen rapide de voir ce qui se passe est de vérifier dans la console de recherche si les choses sont indexées correctement. Donc, si le nouveau domaine fonctionne bien, c'est probablement déjà bien. Cela dit, si vous avez identifié des problèmes comme celui-ci ou tout autre problème technique sur un site Web qui sont faciles à résoudre et que vous pensez qu'ils pourraient avoir un impact important, nous allons simplement aller de l'avant et résoudre ce problème. Surtout le mauvais type de redirection, c'est comme un changement d'une ligne dans le fichier htaccess sur la plupart des sites Web. C'est quelque chose qui est vraiment facile à régler. Pour que vous n'ayez pas à vous soucier des moteurs de recherche qui interprètent cela dans le mauvais sens.

Question 15:20 - Nos galeries d'images ont une URL unique pour l'image comme /gallery/image1 ou /image2 ou /image 3 et nous voulons ajouter une galerie /voir tout et l'utiliser comme URL canonique mais nous n'avons pas ce lien n'importe où sur le site pouvons-nous le faire? La vue doit-elle être visible pour le lecteur ?
Réponse 15:46 - Donc, ce genre de question entre dans la question générale de savoir comment Google choisit une URL à afficher dans la recherche et d'une part, il y a un aspect de dans ce cas comme la page de destination pour l'image 1 ayant un rel canonique défini sur la page Afficher tout, signifierait que ces pages ne sont pas équivalentes. Donc, c'est un peu aléatoire que nous ramassions et utilisions ce canonique du tout, c'est je pense un aspect à garder à l'esprit. L'autre chose à garder à l'esprit est que même lorsque nous comprenons que ces pages pourraient être considérées comme équivalentes, il s'agit pour nous d'utiliser plusieurs facteurs pour déterminer laquelle de ces pages est la véritable canonique. Donc, pour cela, nous utilisons un rel canonique, nous utilisons des redirections si nous avons quelque chose. Nous utilisons des liens externes internes, nous utilisons des choses comme des plans de site, des liens hreflang, tout cela nous a aidés à comprendre laquelle de ces URL est celle que nous devrions afficher et si l'URL canonique que vous spécifiez est celle que vous n'utilisez jamais dans le reste de votre site Web, alors il y a de fortes chances que nous dirons que rendre ce lien canonique était une erreur que le webmaster ne voulait pas vraiment dire comme ça, et peut-être que nous devrons choisir une URL différente comme canonique. Donc, je suppose que ce qui va se passer ici est soit nous ignorerons le rel canonique parce que ce n'est pas la même chose, soit nous choisirons l'une des autres pages existantes à la place parce que c'est l'une des pages qui est comme fortement liée à l'intérieur le site Web. Je ne pense donc pas que cette configuration spécifique soit si utile dans votre cas.
Question 17:38 - Quelle est votre recommandation pour les sites qui ont beaucoup de contenu qu'ils souhaitent fournir pour d'autres langues et pays, mais ils n'ont jusqu'à présent traduit que l'interface, donc pas le contenu principal.
Réponse 17:55 - C'est donc quelque chose qui arrive assez souvent, surtout pour le contenu généré par l'utilisateur. Donc, si vous avez un forum ou un blog ou quelque chose et que les gens commentent dans une langue, mais que vous avez la configuration nécessaire pour que l'interface utilisateur puisse passer à d'autres langues. Ensuite, vous avez rapidement une situation où l'interface utilisateur peut être en français ou en allemand mais le contenu peut toujours être en espagnol, par exemple parce que tout le monde commente en espagnol et c'est essentiellement quelque chose que vous pouvez gérer de plusieurs manières. Vous pouvez donc dire que ma version canonique est la version espagnole et que tout est comme la version espagnole, c'est une option que vous pouvez faire. Vous pouvez utiliser les annotations hreflang entre ces versions pour dire qu'il s'agit de la version la plus française de mon contenu que je peux fournir. Le contenu principal n'est pas en français, mais l'interface utilisateur est en français, de sorte que l'utilisateur qui accède à la page pourra en quelque sorte naviguer. mon site Web c'est quelque chose que vous pourriez faire. Et essentiellement, ce sont les différentes variantes que vous pouvez fournir ici pour nous en dire un peu plus sur vos préférences. D'un point de vue pratique, c'est finalement plus à vous de décider comment vous voulez être affiché dans la recherche. Donc, si vous pensez qu'il est utile pour un utilisateur français de venir sur votre site et d'atterrir sur la page avec le contenu en espagnol et l'interface utilisateur en français, puis d'utiliser par tous les moyens les annotations hreflang entre ces versions. Si vous pensez qu'un utilisateur en France aurait du mal à naviguer sur votre site si le contenu principal est en espagnol même si l'interface utilisateur est en français, il est peut-être logique de conserver la version espagnole avec l'interface utilisateur espagnole indexée. Donc, c'est en quelque sorte à vous de décider, je pense qu'aucune de ces solutions n'est parfaite. Parfois, cela dépend un peu de l'uniformité de votre contenu, de la clarté avec laquelle vous comprenez quelles versions linguistiques vous souhaitez indexer et quelles versions les utilisateurs s'attendent à voir dans les résultats de recherche. Ainsi, par exemple, si vous êtes un forum très international et que les gens publient dans toutes sortes de langues différentes, il est probablement difficile de dire que vous ne voulez que cette version de l'interface utilisateur indexée, peut-être qu'il est logique d'indexer toutes les versions de l'interface utilisateur. Bien sûr, l'inconvénient d'avoir toutes les versions de l'interface utilisateur indexées est que cela multiplie le nombre de vos URL que votre site a soudainement. Cela signifie donc que nous devons explorer beaucoup plus et s'il s'agit d'un grand site de contenu généré par l'utilisateur, cela signifie que nous devons explorer, d'une part, tout le contenu généré par l'utilisateur, puis nous devons explorer tous les multiples de celui-ci pour chaque différent version linguistique, dont je ne sais pas si c'est utile, si c'est trop ramper pour votre site Web si cela empêche peut-être un contenu plus récent d'apparaître rapidement dans les résultats de recherche. C'est quelque chose d'autre à peser là-bas. Si vous ne parlez que de quelques milliers d'articles, c'est peut-être moins un problème.
Question 21:25 - Nous avons un blog qui fonctionne parallèlement à notre site Web de commerce électronique depuis le début, les articles du blog ont été marqués comme écrits par l'utilisateur de l'éditeur générique. En regardant les directives de qualité et EAT, nous aimerions remplacer l'éditeur par le vrai nom de l'auteur du message. Ce type d'opération est-il positif ou pourrait-il potentiellement voir du spam ?
Réponse 21:48 - Je pense que c'est une bonne décision, surtout si vous savez qui a écrit l'article à l'origine et que vous pouvez le traiter comme une page de destination d'auteur, je pense que c'est une bonne décision. Même du simple point de vue de l'utilisateur, si quelqu'un va sur votre site Web et voit soudainement que ces articles ont été écrits par Barry au lieu d'un simple éditeur et que vous avez une page de destination pour cet auteur, cela pourrait être un signe que c'est mieux pour le utilisateur qui pourrait être quelque chose que les utilisateurs captent ou ils vont sur la page de destination de l'auteur et voient oh cet auteur est en fait un expert dans ce domaine et y est actif depuis quelques années, je pense toujours utile d'avoir sur un site Web dans général, et en ce qui concerne les classements Google, il est difficile de dire si cela aurait un effet direct. Mais au moins les effets indirects sont que les utilisateurs pourraient faire davantage confiance à votre contenu comme recommandé ou je pense que c'est quelque chose qui serait en quelque sorte attendu.
Question 22:58 - Balisage de schéma avec une version de bureau et amp, est-ce que ça va si la version de bureau est implémentée à l'aide de microdonnées mais que la version amp utilise json-ld ?
Réponse 23:09 - Bien sûr, c'est parfaitement bien. En ce qui concerne le format ou celui qui y est utilisé, je ne vois pas de problème avec cela, la seule chose à garder à l'esprit est que, pour autant que je sache, certains types de données structurées ne sont disponibles que dans json-ld. Il se peut donc que vous deviez revérifier les types de données structurées que vous utilisez, mais qu'une version de votre site utilise un type de données structurées sur l'autre version en utilisant un type différent, même dans le même ordinateur de bureau mobile variation d'application, c'est certainement possible, par exemple si vous avez un blog, peut-être un répertoire de produits, je ne sais pas, sur votre site Web et votre site de commerce électronique et que le site de commerce électronique a des avis qui utilisent json-ld et que votre blog utilise balisage d'article qui utilise des micro-données, je ne sais pas si c'est la bonne façon de le faire, mais ce serait parfaitement bien.
Question 24:19 - En ce qui concerne l'affichage de contenu caché : aucun n'est acceptable, le support Google a mentionné que la police blanche sur fond blanc ou la taille de police zéro serait contraire aux directives, mais qu'en est-il de l'affichage : aucun ?
Réponse 24:32 - Le contenu caché n'est généralement pas quelque chose que nous apprécions. En particulier, il apparaît que le site essaie de pousser des mots-clés dans l'index de Google qui ne sont pas réellement visibles sur la page elle-même. C'est donc quelque chose que j'éviterais vraiment. Vous avez mentionné la conception réactive et le reste de votre question, je pense que c'est le seul aspect qui entre en jeu ici. Donc, si vous utilisez une conception réactive pour rendre ce contenu visible pour les utilisateurs mobiles ou pour les utilisateurs de bureau, c'est parfaitement bien. Mais si ce contenu est essentiellement toujours invisible comme les polices par zéro ou la police blanche sur fond blanc ou la police noire sur fond noir, alors ce sont le genre de choses que nos systèmes capteront et diront peut-être que ce texte ici n'est pas aussi pertinent comme cela pourrait être le cas et d'un point de vue pratique, vous n'obtiendrez probablement pas d'action manuelle pour quelque chose comme ça. Mais autrement qu'en essayant de comprendre cela, ils essaieront en quelque sorte de dévaluer ce contenu en ce qui concerne la recherche. Ainsi, il est moins susceptible d'être affiché dans l'extrait de code, moins susceptible d'être traité comme vraiment important sur ces pages.
Question 25:55 - Après l'action manuelle des liens, combien de temps Google traite-t-il le domaine une fois la demande de réexamen acceptée mais n'a pas retrouvé son classement potentiel dans le trafic ?
Réponse 26:08 - Je pense donc qu'il y a deux aspects ici d'une part si l'action manuelle est résolue, alors à peu près directement ce site sera visible dans la recherche sans cette action manuelle. Il y a donc une exception ici où si un site est supprimé pour de pures raisons de spam, il sera essentiellement supprimé de notre index complètement. Donc, ce n'est pas que nous pouvons simplement le réactiver et le montrer à nouveau, cela nécessitera que nous réexplorions et que nous traitions ce site parfois cela prend quelques semaines, mais pour toutes les autres actions manuelles, c'est une chose où une fois que cette action manuelle est résolue et les choses sont de retour dans l'état précédent, ce n'est pas que Google garde rancune et dit bien qu'il y a eu une action manuelle ici ou alors je dois faire très attention c'est vraiment résolu c'est résolu. En ce qui concerne les liens, bien sûr, si votre site se classait artificiellement dans les résultats de recherche en raison de liens non naturels et que vous avez une action manuelle et que vous corrigez cela en supprimant ces liens non naturels, alors bien sûr, votre site ne sera pas artificiellement classé plus haut à cause de ces liens artificiels ont disparu maintenant. C'est donc quelque chose où il serait tout à fait normal de voir un changement de visibilité après avoir résolu quelque chose comme ça, de même si si un site était anormalement visible en raison d'autres éléments sur votre site Web et que vous résolvez cela en supprimant ces autres éléments, votre site sera évidemment être à nouveau visible naturellement, mais il ne sera pas anormalement visible en raison de ces éléments que vous avez supprimés, c'est donc quelque chose à garder à l'esprit.
Question 27:59 - In looking at some of our backlink profile we had found, I don't even know how our links ended up on these pages, like on pages that have just like 7,000 links and things like that. We disavowed them when we found them. Is there anything we need to be concerned about other than doing that with when we find stuff like that?
Answer 28:20 - No that's that's essentially the right move to do and especially if it's something that you're really worried about. So I think for most websites it doesn't make sense to go out there and disavow things that are just like iffy and weird because for the most part we just ignore those. So in particular with regards to links, if it's something that when you look at it you say well this could be seen as these links be being bought by us, like naturally placed there by us, if someone from the website team were to take a look at this manually and they would assume that, this is us doing something stupid, that's the kind of thing where I'd say probably disavowing them or getting them removed would be the right move there but otherwise if it's just an iffy link and it looks like it's something like there are millions of other links on there someone ran a tool and dropped tons of links into this forum then that's something our algorithms have figured out already. So that's not something I wouldn't worry about.
Question 30:06 - What do you suggest to tackle a low traffic, low quality pages on a site? There lots of suggestions regarding content pruning what recommendations do you have regarding that?
Answer 30:20 - So I think first off the assumption that a page that has low traffic is also low quality is something that I would question and sometimes pages just have low traffic because a lot of people search for them but they're still a really good truck pages. So II would question kind of the assumption that you can just go into analytics and sort of your pages by a number of page views and delete all of the lowest pages there because I don't think that necessarily picks up like that these pages are really low quality or not. So that's kind of a first assumption there, if you know your website then obviously you can combine different metrics to try to figure out where the low quality pages are but I would still recommend making sure that these are really low quality pages before you take any kind of harsh action on those pages. And then as a next step if you do know that these are low quality pages when whenever I talk to our engineers from the quality team they tell us not to tell web masters to just go off and delete those pages but instead to going to improve them. So if you know that they're low quality pages that probably means you know what is missing and that probably means you know there are ways to kind of make these higher quality pages. So that's kind of the direction I would take there and not just delete things that are low quality but figure out a way to make them more high quality instead. So that could be by combining pages maybe it's something where you see this one-page, its kind of thin but it matches this your page and you have otherwise on your website maybe combining them makes sense. So 301 redirecting them to kind of one shared URL instead that might be an option. Rewriting them to be higher quality is obviously a good idea obviously takes work so it's not this one simple magic trick to make number one. Then finally if it's really something that you can't resolve at all or that is such a big mass of pages that are low quality that you can't really fix then maybe deleting them is it right. So those are kind of the different variations there that are available but again I would strongly question the the assumption that low traffic equals low quality. So if you're looking even looking at a larger site don't just assume that because something has low traffic is sign that it's not important for your website or for the rest of the web.
Answered Cont' 34:03 - Yeah so I think one way you could look at this is to say given this state of content that you have what would be your preferred new website look like? So kind of saying like assuming I had all of this content and I had to create a new website out of it what would it look like and then to try to find a way to migrate your existing content into this new structure that you have in mind and like I said it could improve include combining pages, combining maybe tens of different pages together into one stronger page, it could be deleting pages where you say, well these don't make any sense for my website anymore maybe it was something that users cared about a couple years ago but now, I don't know, nobody is playing ingress anymore so all of those ingress pages on my website I have to make a hard decision and delete them. I can see the shocked faces everywhere in here now. But these kind of things happen over time and it makes sense to clean things up over time and sometimes it means deleting, sometimes that means combining, sometimes that just means rewriting and cleaning up. So it's it's hard to have one one answer that works for every side in every situation.
Question 36:36 - How to fix the crawl frequency of low priority pages within a website? Will Google crawl more of such pages because the quantity of these pages is more compared to the important pages?
Answer 36:49 - So I think this was your question as well in general you don't need things the the crawl rate of pages unless these are pages that are being changed more frequently than the crawl rate. So if you have an article that you wrote and it's being crawled once every three months and you're never changing this article that's that's perfectly fine we don't need to crawl it more often. There is no ranking bonus for being crawled more often. So crawling from our site is more of a technical thing where we say, this page has changed we should find a way to pick up this change as quickly as possible. It's not that we would say well the stage has been crawled twice in the last week therefore we will rank it higher those are completely separate parts of our algorithms.
Question 37:48 - I was checking the log files and 90% of our crawl budget is going to those specific URLs only and only 10% is crawling my product pages. So I was wondering I could make them crawl less frequently for those specific sections and maybe Google can start crawling or kind of giving more importance to my other sections of a set?
Answer 38:18 - Okay so you actually want to do the opposite which is I think a good move too. To have those pages crawled less frequently. So from from our point of view there's really no way to do that. So it's something that you would need to almost attack from the other way around to say, that I think these are other pages that are important on my website and therefore I'll link them prominently within my website. I'll make sure that all of my other pages refer to those pages, that they're specifying the sitemap file with the last modification page that we can confirm. So all of those signals to help us understand we need to be able to crawl these pages more frequently because there are changes on these pages. On the other hand if there are no changes on these pages we don't really to recall them for more free company so that's kind of be the other aspect there. If these are pages that are important for you but they are not changing frequently then there's no need to artificially force them to be crawled more often.
Question 40:11 - Can you tell if with redirection only link penalty passes or link penalty and content penalties both pass for example at website with pure spam manual action is redirected to another site so technically the URLs will be a soft 404, will it affect the redirected website?
Question 40:37 - So I'm not quite sure with which part of this question you're you're kind of focusing on. On the one hand if a random spammy website redirects to your website that's usually something we can recognize and just ignore. On the other hand if yours is that spammy website and you're redirecting to another website to try to escape that penalty then probably we will be able to follow that site migration and apply that manual action or algorithmic action to the new website as well. So my recommendation there would be instead of trying to get away by doing fancy redirects or other types of site moves. I would recommend just cleaning up the issues so that you don't have to worry about those anymore. So if there are link actions with regards to that website then clean up those those links so that you're in a clean state again. The reconsideration process is great for that because someone from the web spam team will take a manual look at your website and they'll say, this looks good this is fine like. You did good work and clean things up it's clear that you understand what you should be doing now so we can remove them. So I think that's really useful to have there from a practical point of view. So that would be kind of my recommendation if you're the website that has this problem. On the other hand if like I mentioned some random website redirects to your website and that's usually something that we can recognize, this is not a normal site move this is just the read website redirecting to you to another website and we can get that.
Question 42:30 - John two quick general questions one related to site load speed, we've read and heard various things including recently people saying that like every microsecond counts and things like that, what is the current policy I know in the past you said as long as it's not ridiculously long to load you're fine?
Answer 42:53 - What is the current policy? So speed is something that does matter quite a bit to us and it has a big effect on users so that's something that I would personally take quite seriously and I think the the nice part about speed is there various tools that gives you pretty objective measures there that you can actually work on. With regards to a lot of us or other issues around SEO like, I don't know the quality of their content things like that speed is something that that is quite measurable and something that you can kind of work on, and it should also be something we're used a direct effect from your users behavior within your website. So it's not just something that from from Google's point of view like we say speed is important it is rank tracker but it's something that you will see directly when users come to your website and your website is suddenly taking a couple seconds longer to load those users will react quite differently on your website and you'll have more trouble converting them into customers however you define customers on your website.
Question 44:08 - From the standpoint of like if it's 1.1 seconds versus 1.2 second that kind of thing would would you say that that's very important to try to really optimize those?
Answer 44:21 - I think the tricky part with speed is there's so many different measures in the meantime that it's hard for me to say like, load time is the only thing you should be thinking about, but there ways to to kind of determine how quickly the page is is generally accessible. How quickly they the content is visible on the page, even kind of ignoring the aspect that maybe the rest of the page below the fold is still rendering and still takes a bit of time to actually be ready, maybe the part that users care about is actually visible fairly quickly. So from from that point of view usually small differences are less of a thing but kind of like I mentioned speed is something where you can use these different tools who could come up with a different metrics and you can focus on those metrics and try to improve those and you can measure that yourself and you can kind of work on that without having to go through various Google tools and waiting for things to update in the index in these tools.
Question 45:47 - Can I use Google official videos in my blog or can I only link to them for example Matt Cutts videos about SEO. I will use Adsense on the blog when I have enough adsense my blog will be complete in 6 months.
Answer 46:03 - I don't think there are any restrictions with regards to embedding videos for a channel but if there were no restrictions then I think the embed option YouTube wouldn't be available there. So if the embed option is there then then go for it. I think in in general I'd be cautious about using just a video as the primary piece of content on a web page and you should really work to kind of use the video in a way that supports your primary content but not that it replaces your primary. So for example I wouldn't take any of these videos and just put them on a blog post and add a title to them and expect them to show up highly in search. But if you have specific content around that video if you have a transcription of that many don't you have some comments to that transcription to the content that are shown in the video or you're using that video as kind of a point of reference with regards to your content and I think that's a perfectly fine approach. But just purely using a video on a page is something that atleast in a web search point view makes it really hard for us to determine what is actually useful on this page and why should we show it in the search results.
Question 47:27 - If I pay for Google Ads will my ranking be better or worse?
Réponse 47:34 - Nous recevons donc cette question de temps en temps et la question ici est du genre, mon classement sera-t-il affecté, mais la meilleure ou la pire partie est quelque chose que nous entendons également certaines personnes dire, que votre classement ne sera pas mieux si vous utilisez Google Ads, certaines personnes disent que votre classement diminuera si vous utilisez Google Ads parce que nous voulons que vous achetiez plus d'annonces et aucune de ces deux choses n'est vraie. Ainsi, nos résultats de recherche sont totalement indépendants du fait que vous utilisiez ou non Google Ads, ils sont totalement indépendants des technologies que vous utilisez sur votre site Web. Donc, si vous utilisez quelque chose comme l'analyse ou un autre outil de suivi, cela dépend entièrement de vous. Si vous monétisez avec Adsense ou l'un de ces autres réseaux publicitaires, cela dépend entièrement de vous. Ainsi, que vous utilisiez ou non les produits Google au sein de votre site Web, l'utilisation d'autres services Google pour votre site Web dépend entièrement de vous. C'est quelque chose que nous préférons que ces services soient autonomes et si vous dites que c'est une raison particulière pour laquelle le service Google n'est pas génial, je ne veux pas l'utiliser, alors n'hésitez pas à utiliser autre chose. Nous ne voulons pas vous mettre dans cette boîte où vous êtes comme coincé entre vous concentrer sur votre site Web et faire ce que vous pensez être bon pour vos utilisateurs et devoir utiliser ce produit en particulier. Donc, c'est vraiment le cas que nous ne lions pas cela ensemble et nous le faisons explicitement et nous travaillons dur pour nous assurer que ces choses fonctionnent bien.
