Transcription du podcast SNYCU avec Marie et John Mueller
Publié: 2020-06-03Podcast SNYCU avec Marie et John Mueller
Une transcription du podcast SNYCU du MHC mettant en vedette John Mueller de Google le 3 juin 2020. Vous pouvez écouter l'épisode complet ici.
Si vous souhaitez vous abonner, vous pouvez trouver les podcasts ici :
iTunes | Spotify | jeu de Google
Ou regardez-le ici:
M : Alors bienvenue dans un épisode très spécial de Search News You Can Use et je suis le Dr Marie Haynes et j'ai mon tout premier invité sur le podcast ; John Mueller de Google. Bienvenue Jean.
J : C'est super d'être ici Marie.
M 0:15 - Alors John, dis-moi - Je pense que nous savons tous que tu es Webmaster Trends Analyst chez Google, depuis combien de temps travailles-tu chez Google maintenant ?
J 0:23 - Oh boy qu'est-ce que c'est... 12 ou 13 ans, quelque chose comme ça.
M 0:30 - Vraiment ? Donc, ma première introduction au référencement était dans le... vous souvenez-vous des forums de discussion SEO ? Je ne sais pas si vous en faisiez partie, mais c'était en quelque sorte en 2008. Et puis, à un moment donné, j'ai commencé à regarder vos vidéos Google Help Hangout. Les avez-vous lancés peu de temps après avoir rejoint Google ?
J 0:57 - Euh voyons voir. Je ne sais pas exactement quand nous avons commencé cela. Je pense que cela est venu à peu près lorsque Google plus est apparu, donc dès que toute la configuration était là et que nous pouvions faire ces lieux de rencontre publics et demander aux gens de se joindre à nous, tout cela, c'est en quelque sorte là que nous avons commencé à les faire. de les essayer pour voir ce qui fonctionne, ce qui ne fonctionne pas.
M 1:29 - Gotcha gotcha. Donc, tout d'abord, je veux dire merci pour, je veux dire de toute la communauté SEO, que vous êtes allé au-delà au fil des ans et je ne sais pas comment vous le faites. J'allais commencer par notre première question concernant les dossiers par rapport aux sous-domaines ou vous savez, mais je ne le suis pas, je ne le suis pas. Vous avez tellement couvert cela et donc je ne peux pas imaginer à quoi ça ressemble à chaque mot que vous dites, nous, en tant que communauté SEO, allons sauter dessus et dire "Eh bien, c'est ce que dit Google" et ça doit être très difficile à avoir chacun de vos mots analysé et c'est reparti ! Nous allons vous poser un tas de questions à analyser. Je pense que nous allons passer directement aux questions et nous verrons où vont les choses. À tout moment, si vous voulez intervenir et dire quelque chose, tout ce que vous voulez dire serait très utile. Je veux commencer par une question amusante et vous demander quel est le problème avec les bananes et le fromage ?
J 2:28 - Bananes et fromage.. Eh bien, je suppose que le fromage est une sorte d'évidence, c'est comme en Suisse il y a beaucoup de fromage donc c'est, je ne sais pas, c'est un peu la partie la plus facile là-bas. Je pense que ce tweet qui a tout déclenché, à partir de mon compte, était I love Cheese. Ce tweet, qui a en fait été fait par Gary, donc ce n'est pas ma faute. Je ne sais pas. Je suis allé prendre un café et Gary était comme "oh, twitter est ouvert" alors il est parti et a essayé de poster quelque chose. Il a probablement essayé de trouver quelque chose qui ne le ferait pas virer.
M : Ça aurait pu être bien pire, oui.
J: Et Bananas est, c'est plus aléatoire dans la mesure où je cherchais quelque chose à essayer avec Google Trends et Bananas n'était que le premier mot qui m'est venu à l'esprit et j'ai commencé à recevoir tous ces e-mails comme Google Trends pour les bananes montait ou allait vers le bas, c'était comme bien "D'accord".
M : C'est fantastique. Alors recevez-vous toujours les e-mails sur les tendances des bananes ?
J : Ouais, ouais.
M 3:52 La façon dont nous avons posé nos questions était que nous avons toute une équipe qui travaille pour moi et mon équipe s'entraîne en fait sur vos vidéos de hangout d'aide afin qu'ils les regardent et vous savez que quelque chose va arriver et vous savez, vous allez parler d'une étiquette canonique et mon équipe, mes nouveaux stagiaires diront "Eh bien, qu'est-ce que c'est" et bien commencer à parler de ces choses. Et donc beaucoup de mon équipe a posé des questions et certains de mes auditeurs de mon podcast ont également posé des questions. Parlons du nofollow et Google a annoncé l'année dernière qu'il y avait des changements à venir dans la façon dont vous pourriez utiliser le nofollow. Je crois qu'à l'époque vous nous avez donné rel=sponsored et rel=ugc. J'ai l'impression qu'il y a un peu de confusion sur la façon dont Google peut utiliser des liens non suivis et une partie de la confusion est. cela, et ce sont tous des liens non suivis. Ces liens non suivis peuvent-ils jamais être utilisés comme signaux pour Google ?
J 5:02 - Eh bien, nous ne les utilisons pas de manière négative. C'est donc quelque chose où si nous pouvons les utiliser pour découvrir du nouveau contenu, je pense que nous essayons de l'utiliser, mais ce n'est pas le cas où nous disons que ce sont des liens normaux sur le Web, nous les compterons donc à fond et si ce sont de mauvais liens sur le Web, ils compteront contre vous et ce genre de choses. Donc, si ce sont des liens que vous ne voulez pas associer à votre site et qu'ils sont avec un nofollow, c'est parfaitement bien. Je pense que beaucoup de publicités sur Internet sont également sans suivi, c'est quelque chose que nous ne verrions pas comme un lien payant simplement parce que nous comprenons maintenant un peu mieux les liens non suivis.
M 5:44 - Cela a du sens. Donc, je pense que l'une des préoccupations - une question que beaucoup de gens m'ont posée est de savoir s'ils devraient désavouer parce qu'il y a un nombre énorme de liens non suivis, alors vous savez, l'échelle pourrait indiquer quelque chose et nous avons toujours soutenu qu'il y a cela ne sert à rien de désavouer un lien non suivi, car le but du désaveu est de dire à Google "Je ne veux pas transmettre ces signaux", donc je pense que cela a du sens, n'est-ce pas ? Sommes-nous sur la bonne voie ?
J 6:11 - Oui, pas besoin de les renier.
M 6:15 - C'est une question dont nous avons parlé. La première et la seule fois où nous nous sommes rencontrés en personne, à New York au bureau de Google et j'aimerais que nous y revenions parce que je pense qu'il y a tellement de confusion quant à savoir qui devrait utiliser l'outil de désaveu. Donc, la question principale est que nous savons que l'outil de désaveu est là si vous avez une action manuelle et que nous essayons de supprimer les liens non naturels et ceux que nous ne pouvons pas supprimer, nous les mettons dans l'outil de désaveu. La chose dont nous avons parlé précédemment est qu'il existe une raison pour qu'un site qui n'a pas d'action manuelle utilise l'outil de désaveu. Alors commençons peut-être par ça
J 7:00 - Je pense qu'il y a deux moments où il serait peut-être judicieux d'utiliser l'outil de désaveu. D'une part, lorsque vous regardez les liens vers votre site, vous êtes à peu près certain que vous obtiendrez une action manuelle. Ainsi, par exemple, si le référenceur précédent faisait toutes sortes de choses étranges en ce qui concerne les liens vers votre site, s'il achetait des liens, faisait de la publication d'invités, un peu toutes les choses habituelles où nous dirions que c'est contre le directives et si vous n'avez pas encore reçu d'action manuelle pour cela, c'est quelque chose où si vous allez voir un site comme celui-ci et que vous voyez tout cela, cela ressemble à quelque chose que vous voudriez nettoyer de manière proactive. Donc, essentiellement, le genre d'activités que vous feriez lorsque vous recevez une action manuelle, faites-le de manière proactive à l'avance afin de ne même pas entrer dans tout ce problème d'action manuelle. Et c'est quelque chose où de temps en temps je rencontre des gens comme ça où peut-être qu'ils viendront dans l'un des lieux de rencontre des heures de bureau ou qu'ils publieront sur Twitter ou dans les forums d'aide où si vous regardez ces liens, vous pouvez disent bien qu'ils ont fait beaucoup de choses qu'ils n'auraient probablement pas dû faire et qu'il n'est pas clair s'ils les ont faites eux-mêmes ou s'ils ont embauché un référenceur pour le faire, cela n'a pas vraiment d'importance et peut-être qu'ils n'ont pas de action manuelle pour le moment, mais vous supposeriez que si l'équipe de spam Web tombait sur ce site, elle prendrait probablement des mesures. C'est donc le genre de chose où je dirais que vous pouvez vous en occuper vous-même avec le désaveu en nettoyant les liens autant que vous le pouvez, c'est je pense la plus évidente. L'autre est plus dans le sens de si vous n'êtes vraiment pas sûr de ce que les algorithmes de Google feront parce que nous essayons vraiment d'ignorer les liens spammés là-bas, nous essayons d'ignorer les liens aléatoires qui sont abandonnés dans les forums qui sont parfois juste automatiquement abandonné toutes sortes d'endroits. Et si vous ne savez vraiment pas si les algorithmes de Google vont les ignorer, vous pouvez simplement les mettre dans le fichier de désaveu et dire, eh bien j'ai fait ce que je pouvais faire, au moins je n'ai pas à m'en soucier.
M 9:26 - Le désaveu est un empêchement pour une action manuelle. Cela a du sens, non ? Si nous examinons un profil de lien qui est très ouvertement contraire aux directives de Google et que nous disons oh mon Dieu si l'équipe de spam Web regardait cela comme cela serait effrayant, nous devrions probablement le désavouer. Je pense que la confusion est ce que vous avez mentionné à propos des algorithmes de Google et je comprends qu'il y a certaines choses que vous ne pouvez pas partager pour des raisons évidentes. Nous avons eu des cas où nous avons vraiment l'impression d'avoir déposé un désaveu, le site n'avait pas d'actions manuelles, puis à un moment donné, quelques semaines ou quelques mois plus tard, le site commence à voir une augmentation du trafic et notre La pensée était, comme nous en avons parlé à New York, que les algorithmes de Google pourraient avoir moins confiance dans leur profil de lien et le type de désaveu a amélioré cette confiance et en a vu les avantages. Donc je pense que le principal, et encore une fois je peux comprendre si vous ne pouvez pas répondre à cela, donc nous savons que nous pouvons désavouer de manière préventive pour éviter d'obtenir une action manuelle, mais pouvons-nous voir les améliorations dans les classements Google, le trafic Google de désavouer même s'ils ne le font pas 't ont une action manuelle.
J 10:47 - Je pense que ce serait très rare. Donc, je pourrais théoriquement imaginer une situation où nos algorithmes sont vraiment contrariés par les liens vers un site et en désavouant vous pourriez nettoyer cela, mais c'est quelque chose où essentiellement ce serait une situation très similaire à celle si un membre de l'équipe de spam regardait le site. Donc, juste parce qu'il y a des liens aléatoires et que vous nettoyez les choses et que vous vous concentrez sur les liens que vous savez être bons, je ne m'attendrais pas à voir un changement dans la visibilité d'un site dans la recherche de quelque chose comme ça. C'est donc quelque chose où je suppose que c'est quelque chose comme ça, c'est que vous voyez très probablement les effets d'autres choses qui se passent dans la recherche, qui pourraient être des mises à jour d'algorithmes, peut-être des changements dans l'écosystème en général, toutes les choses habituelles qui peuvent monter et vers le bas dans la recherche.
M 11:38 - Cela a du sens. Il est toujours difficile de tester quoi que ce soit en SEO, n'est-ce pas ? Parce que quelque chose que nous avons changé aujourd'hui, ce n'est pas comme si nous n'allions rien changer demain ou le reste du mois ou quelque chose du genre. J'aimerais vous demander quelque chose à propos de - il y a un cas que nous avons maintenant où nous avons affaire à une action manuelle pour un client qui est venu utiliser des actions manuelles pour des liens non naturels et je repense au moment où j'ai commencé à aider les gens avec liens non naturels, c'était vraiment facile que nous puissions voir oh il y a ces répertoires de spam et PageRank R US ou quelque chose, c'était super évident. Et j'ai l'impression que les types de liens non naturels qui provoquent maintenant des actions manuelles sont ceux qui pourraient réellement déplacer l'aiguille pour les sites. Ce sont ceux qui fonctionnaient et les algorithmes de Google ne les géraient pas ou quoi que ce soit d'autre, donc l'équipe Webspam leur a donné une action manuelle. Ce client particulier qui est le nôtre, la plupart des liens qu'ils ont créés sont dans des articles. Et ils sont dans des articles dans des endroits relativement faisant autorité, comme des endroits, comme si ce n'étaient pas des articles ultra spammés et on peut voir quand on les regarde qu'ils sont très clairement faits pour le référencement mais ce sont des articles que les gens liraient. Et l'une des difficultés que nous rencontrons pour communiquer avec ce client est qu'il se classe toujours très bien pour ses principaux mots clés. Nous sommes donc entrés et avons dit "Écoutez, il y a cette liste de centaines de liens que nous savons que vous avez créés pour le référencement, vous avez une action manuelle et nous voulons que vous commenciez à les supprimer ou à les désavouer si vous ne pouvez pas" et ils sont en disant "Eh bien, nous classons pour tous ces termes, pourquoi voudrions-nous faire cela ?". Avez-vous des idées à ce sujet, avez-vous des conseils à nous donner à ce sujet ?
J 13:20 - Ce sont essentiellement des messages d'invités où s'ils créent les articles et qu'ils incluent un lien vers leur site, c'est quelque chose où l'équipe de spam Web dirait "Eh bien, c'est encore une fois, contre nos directives". En ce qui concerne leur classement pour ces mots-clés, je suppose que c'est un peu difficile à dire. Je veux dire que je ne connais pas la situation là-bas, mais c'est quelque chose où s'il y a une action manuelle, mon conseil général serait toujours d'essayer de nettoyer autant que possible et de ne pas le laisser là parce que ce n'est pas mal assez, genre de chose. C'est donc le genre d'endroit où j'essaierais de nettoyer si vous voyez que les gens lisent ces articles, cliquent sur votre site, puis mettent un nofollow sur ces liens et c'est tout aussi utile pour le trafic vers votre site et à en même temps, cela aide vraiment à montrer à l'équipe webspam que d'accord, vous avez vraiment compris que c'était problématique, vous mettez le nofollow là, vous les mettez en désaveu là où vous ne pouviez pas faire cela et les aide à dire 'd'accord, nous pouvons laisser ce site soit complètement naturel dans la recherche ».
M 14:36 - D'accord et je pense que c'est parfois le genre de lutte ; un site qui a des liens naturels assez bons combinés avec un site qui a fait de la « construction de liens de haut niveau », la construction de liens d'une manière que vous connaissez, certaines d'entre elles sont bonnes. Ce n'est pas toujours mal de demander un lien, c'est parfaitement acceptable, mais l'échelle peut être difficile, comme peut-être que cela peut être bon quand vous aviez cinq de ces liens mais maintenant que vous en avez 500, ce n'est pas si bon. L'une des choses qui déroute beaucoup de gens est que lorsque nous examinons les directives de Google sur les schémas de liens, elles sont un peu vagues sur les liens dans les articles. Ainsi, il est indiqué dans les directives "marketing d'articles à grande échelle ou campagnes de publication d'invités avec des liens de texte d'ancrage riches en mots clés" et ce que l'on constatait souvent ces jours-ci, c'est que ces actions manuelles qui obtenaient, les exemples de liens que Google nous envoie ne sont pas toujours des mots clés ancré et je pense qu'il n'est pas clair pour beaucoup de gens qu'un lien non naturel peut toujours être non naturel si l'ancre n'est pas un mot-clé, c'est correct, n'est-ce pas ?
J 15:46 - D'accord , je veux dire qu'en fin de compte, un lien est un lien, il peut transmettre des signaux à l'autre site et c'est un peu ce à quoi l'équipe du spam surveille.
M 15:57 - D'accord, oui, nous essayons toujours de pointer - nous appelons cela non naturel parce que les schémas de liens de Google disent cela et la plupart des liens que nous avons récupérés ces jours-ci comme exemples de liens sont des liens dans des articles. Ce ne sont pas tous nécessairement des messages d'invités. Ils sont 'Hé, j'ai écrit ce contenu, vous avez besoin de contenu alors laissez-moi vous le donner. Il n'y a pas d'argent en jeu et oh au fait, il y a un lien vers mon site dedans ». Donc, ce n'est pas naturel, non ?
J 16:25 - Oui
M : Oui, d'accord. C'est une lutte avec laquelle je pense que beaucoup de sociétés de référencement luttent; "tant que nous n'utilisons pas d'ancres de mots clés, nous sommes bons" et j'ai l'impression que c'est un risque.
M 16:38 - Nous allons arrêter les actions manuelles dans une minute, mais nous avons eu beaucoup de questions à ce sujet. Pouvez-vous nous dire s'il y a eu un retard dans la réponse aux actions manuelles en raison de la pandémie ?
J 16:51 - Je ne sais pas trop à propos d'un retard mais c'était beaucoup plus lent que d'habitude
M : Nous avons reçu des réponses maintenant, savez-vous si vous êtes de retour sur la bonne voie ?
J : Donc, hier, certains des membres de l'équipe Webspam ont vérifié que je ne disais rien de fou et il semble qu'ils soient sur la bonne voie. Je veux dire qu'il faut toujours un certain temps pour les examiner manuellement et, pour la plupart, nous essayons de les examiner manuellement et essayons de rendre ce processus un peu plus rapide. La seule chose que fait l'équipe de spam Web est d'essayer de trouver des moyens d'automatiser cela. Donc, en particulier, si un site est piraté, nous pouvons en quelque sorte automatiquement essayer de déterminer si le site est toujours piraté après la demande de réexamen et si nos algorithmes sont à peu près sûrs que cela est résolu, nous pouvons simplement laisser tomber. Et cela libère du temps pour le reste de l'équipe des actions manuelles qui travaille dans les files d'attente qu'elle reçoit.
M 18:00 - C'est logique. Êtes-vous en mesure de nous dire- Je sais que vous avez mentionné que toutes les actions manuelles sont examinées par des humains. Et cela a du sens pour les situations de piratage que vous voudrez peut-être utiliser une machine pour le faire. Pouvez-vous nous dire quelque chose sur le processus d'examen? Est-ce un membre de l'équipe Webspam qui effectue l'examen des actions manuelles ? Est-ce un processus en deux étapes où quelqu'un voit comme "Ils font quelques pas ici, passons cela à un membre senior". Y a-t-il quelque chose que vous pouvez partager avec nous à ce sujet ?
J 18:34 - Cela dépend en quelque sorte de la taille et de la complexité du problème. Donc, s'il y a quelque chose qui affecte une grande partie du Web, si c'est quelque chose de particulièrement complexe et c'est un peu limite et cela dépend de la façon dont vous le voyez, alors c'est le genre de situation où l'équipe de spam Web attirera souvent d'autres personnes pour essayez d'obtenir un deuxième avis pour cela. Et je pense qu'en général, cela a du sens. C'est aussi quelque chose que nous essayons de faire si une deuxième demande de réexamen arrive, que ce n'est pas toujours la même personne qui regarde le même site comme eh bien, ils n'ont pas beaucoup changé. Alors que si quelqu'un d'autre le regardait, il pourrait dire bien en fait, c'est assez loin par rapport à ce que nous attendons d'eux. Parfois, c'est un peu difficile de tracer cette ligne parce que lorsque vous la regardez manuellement, il y a certainement des choses où c'est une ligne claire, nous pouvons dire que tout ce qui est au-dessus doit être accepté et tout ce qui est en dessous est rejeté. Mais il y a beaucoup de cas, par exemple avec des liens ou avec un contenu de mauvaise qualité, et vous pouvez en quelque sorte dire qu'ils ont fait un travail important, mais comment le quantifier. Il n'est pas vraiment possible de dire qu'ils ont fait 17 % de ce qu'ils auraient dû faire. comme vous ne pouvez pas trouver un nombre.
M 19:57 - J'ai l'impression qu'on dit à nos clients que le but est de convaincre l'équipe webspam que vous comprenez le problème et que vous passez à autre chose, vous savez que vous ne faites pas la même chose. Cela peut parfois être difficile, en particulier pour ces sites qui ont un vrai mélange de « eh bien, cela vient de cet effort de référencement et cet effort de référencement peut-être que nous sommes allés trop loin » et il peut parfois être très difficile de faire supprimer ces éléments. Mais j'ai dit aux gens que parfois c'est bien d'en avoir un parce qu'alors vous savez que ce sont les problèmes, vous savez que vous devez aller de l'avant et passer à de meilleures façons d'obtenir des liens ou quoi que ce soit.
M 20:35 - Nous allons passer à un autre sujet amusant, le contenu fin, sur lequel nous avons fait des allers-retours en tant que référenceurs au fil des ans. Je vais lire cette question parce que je crois que c'est celle qui vient de mon équipe. "Vous avez mentionné dans le passé que lorsque Google évalue la qualité d'un site, il prend en compte toutes les pages indexées. Il y a un grand site avec plus de 100 000 pages indexées et, au fil du temps, bon nombre de ces pages ne sont plus pertinentes ou sont déjà minces. L'absence d'indexation ou de redirection pour réduire le nombre de pages augmenterait-elle la perception de la qualité de Google et permettrait-elle d'augmenter les classements, là encore avec l'UX restant la même. »
J 21:18 - Ouais, je pense que ce que je vois beaucoup là-bas avec ce genre de question, c'est que les gens voient parfois que toutes les pages sont égales alors que de notre point de vue, les choses sont très différentes en ce qui concerne l'importance d'une page pour un site Web. C'est donc quelque chose où il est vraiment difficile de dire bien, vous avez supprimé 1 000 pages donc les 90 000 autres pages sont bonnes. Donc, un exemple pourrait être que vous avez une salle de concert ou un site d'événement et en supposant que tout le monde retourne aux concerts, ce qui, j'en suis sûr, se produira à un moment donné, mais vous pourriez avoir ce site et un artiste très connu là-bas, vous en avez vraiment bon contenu sur les concerts là-bas et vous avez un calendrier des événements où vous pouvez essentiellement cliquer jusqu'à l'année 9999 et la plupart de ces jours vont être vides. Donc, en regardant quelque chose comme ça, vous pourriez avoir des centaines de milliers de pages vraiment vides et une poignée de très bonnes pages et ce n'est pas parce que vous avez des centaines de milliers de pages minces de mauvaise qualité que 90% de votre site Web est mauvais et vous devez nettoyer cela. Parce que ce qui va se passer de notre côté, c'est que nous essaierons de déterminer quelles sont les pages les plus importantes et nous essaierons de nous concentrer sur celles-ci. Et ce sont probablement les concerts actuels ou tout ce qui s'y passe. Et même si vous avez toutes ces autres pages de contenu mince, cela ne signifie pas nécessairement que votre site Web a en quelque sorte été en moyenne quelque chose de médiocre. Donc, de ce point de vue, cela n'a pas de sens de regarder les chiffres absolus ** mais quel est le contenu important pour votre site et ce contenu est-il réellement de haute qualité.

M 23:13 - D'accord, c'est vraiment intéressant parce que nous avons toujours soutenu qu'un site a.. Supposons que leur CMS crée ces pages d'images aléatoires et qu'elles entrent dans l'index.. Google devrait donc simplement ignorer celles-ci en termes de qualité pour le placer. Ce n'est pas comme supprimer, disons que 90 % des pages d'index étaient ces pages aléatoires qui n'auraient pas dû entrer dans l'index, la suppression de celles-ci de l'index peut-elle améliorer l'évaluation de la qualité de Google pour le reste de votre site ?
J 23:44 - Je ne sais pas. Souvent - comme si c'était quelque chose que nous aurions déjà ignoré, je ne pense pas que cela ferait une différence. La principale différence qui ferait est en ce qui concerne l'exploration du site Web et la possibilité de trouver le contenu nouveau et mis à jour un peu plus rapidement où si nous restons coincés dans un calendrier infini, nous partirions et passerions beaucoup de temps là-bas parce que Googlebot est très patient, mais ce n'est pas le contenu que vous avez vraiment besoin d'explorer pour votre site Web. Donc c'est en quelque sorte, je pense, la partie principale ici. Je pense qu'il y a de la place pour une sorte de terrain d'entente, pas nécessairement des choses complètement inutiles, mais une sorte de terrain d'entente où vous voyez que ce sont des pages qui reçoivent beaucoup de trafic de la recherche, mais quand je les regarde, elles sont vraiment pages pour lesquelles je ne veux pas être connu. C'est presque comme si je pouvais reconnaître que les algorithmes de Google pensent que ce sont des pages importantes, mais en réalité ce ne sont pas des pages importantes pour moi. Et si vous êtes dans cette situation, c'est une situation dans laquelle vous pouvez agir. Donc, pas nécessairement en regardant le nombre absolu de pages que vous avez, mais ce sont les pages qui génèrent du trafic à partir de la recherche et ce sont celles sur lesquelles je veux que Google se concentre, donc je vais essayer de me débarrasser des choses qui sont peut-être moins importantes pour les améliorer, quelque chose comme ça.
M 25:08 - Qu'en est-il d'une situation où un site Web plus petit, comme peut-être.. je veux dire il y a des années, on disait aux entreprises de bloguer tous les jours et il y a beaucoup de gens qui ont des blogs de très mauvaise qualité parce qu'ils sont comme voici mon café aujourd'hui, voici les bananes et John a reçu une alerte à ce sujet et des choses qui n'avaient peut-être pas besoin d'être dans l'index. Et puis disons bien, à partir de cette année, je me suis en quelque sorte mis la tête dans le jeu et je me suis dit oh tout ce que je mets dans mon blog doit être le meilleur du genre. Cela pourrait-il améliorer l'évaluation de Google sur la qualité globale de mon blog si je revenais et n'indexais pas certains de ces articles de blog dont personne ne se souciait ou Google gardait-il cela à l'esprit et se concentrait-il uniquement sur les nouveautés ?
J 25:52 - Je ne pense pas que cela ferait une différence significative, surtout si vous avez ce morceau important de très bon contenu, si vous commencez à publier du nouveau contenu. Ensuite, je ne pense pas que l'absence d'indexation de l'ancien contenu jouerait une grande différence. Mais similaire à un site de journal où vous publiez peut-être 20 articles par jour et 19 de ces articles qui après une semaine, ceux-ci ne seront plus pertinents, cela ne signifie pas que ces 19 articles sont automatiquement des choses que vous ne devriez pas indexer à un moment donné mais peut-être les déplacer vers une section d'archives où ils sont moins empathiques pour les utilisateurs et pour la recherche, mais vous pouvez toujours les conserver. Ce n'est pas que nous disons que c'est quelque chose de mauvais et que vous devez vous en débarrasser ou nettoyer.
M 26:40 - D'accord, c'est logique. Pouvez-vous nous donner des conseils sur la façon dont Google évalue la qualité des types de contenu pouvant être considérés comme de haute qualité. Google utilise-t-il BERT maintenant pour mieux comprendre maintenant si le contenu est bon ?
J 27:00 - Je n'ai donc pas vraiment d'idée sur la façon dont nous déterminons quand les choses sont un contenu de haute qualité, mais je suppose que la seule chose où les gens sont parfois déconcertés concerne le BERT, les algorithmes BERT, tous ces choses. Ce sont essentiellement des algorithmes pour mieux comprendre le contenu. Il ne s'agit pas tant de comprendre la qualité du contenu, mais plutôt de comprendre de quoi parle ce contenu, de quoi parle cette phrase, de quoi parle cette requête pour déterminer quelles sont les différentes entités qui pourraient être impliquées ici et comment sont-elles lié ici. Là où ce genre de chevauchement avec la qualité du contenu, c'est lorsque vous écrivez d'une telle manière qu'il est essentiellement impossible de comprendre ce que vous essayez de dire. Et c'est le genre de situation où les algorithmes BERT diront bien, je ne sais vraiment pas ce qu'ils essaient de dire et ce n'est pas tant que l'algorithme BERT suppose qu'il s'agit d'un contenu de mauvaise qualité, c'est plutôt que je ne sais pas quoi faire avec ça. Et parfois je soupçonne.. Je n'ai pas vu cela de première main ni essayé avec aucune page, mais je soupçonne que certaines des écritures SEO de la vieille école tombent dans le fait que vous échangez simplement tous les synonymes que vous peut éventuellement ajouter à une phrase et en tant qu'humain quand vous lisez que vous êtes comme ça, c'est tout simplement exagéré et je peux imaginer que nos algorithmes sont comme bien, cela ne se lit pas comme une phrase réelle, je ne le fais pas sait très bien sur quoi mettre l'accent. Par exemple, s'agit-il vraiment de ce sujet ou s'agit-il d'un sujet différent, comme quel est l'élément principal de cette phrase ou de ce paragraphe.
M 28:54 - Et est-ce quelque chose qui pourrait être considéré comme négatif ? Comme par exemple si nous avons un site de commerce électronique qui a une page de produit et que vous voyez souvent au bas de la page - nous l'appelons SEO-copy c'est vous savez, c'est écrit pour les moteurs de recherche et c'est juste un gros bloc de texte qui contient un tas de mots-clés et aucun humain ne le lira jamais. Donc, la façon dont je pense que BERT essaie de déterminer si cette requête correspond à cette page, peut-être que BERT se débat et dit que ce n'est pas pertinent ou quoi que ce soit. Ou Google pourrait-il considérer cela comme un négatif pour dire "oh, cette page a l'air d'avoir été optimisée pour le référencement, ces mots clés sont là pour Google et en font un véritable préjudice à la page
J 29:41 - J'ai vu quelques cas où cela se produit, mais c'est généralement dans le sens du bourrage de mots clés. Donc, pas tant qu'ils écrivent un article de wikipedia sur le sujet et le mettent au bas d'une page de chaussures, mais plutôt qu'ils ajoutent simplement des milliers de variantes des mêmes mots clés à une page, puis notre algorithme de bourrage de mots clés pourrait lancez-vous et dites bien en fait cela ressemble à du bourrage de mots clés, peut-être devrions-nous être plus prudents quant à la façon dont nous classons cette page individuelle. Ce n'est donc pas que BERT est confus et donc nos algorithmes sont confus et nous dirons que la page est mauvaise parce que nos algorithmes sont toujours confus, il y a toujours quelque chose sur le Web qui prête à confusion donc ce serait mal de dire que juste parce que quelque chose est déroutant, c'est de mauvaise qualité. Mais je suppose qu'en ce qui concerne BERT, l'une des choses qui pourrait être faite parce que beaucoup de ces algorithmes sont open-source, il y a beaucoup de documentation et de matériel de référence autour d'eux, c'est d'essayer des choses et de prendre une partie de ce SEO texte et jetez-le dans l'un de ces algorithmes et voyez si le contenu principal est extrait, les entités peuvent-elles être reconnues correctement et ce n'est pas la même chose pour la façon dont nous le ferions parce que je suis presque sûr que nos algorithmes sont basé sur des idées similaires mais probablement réglé différemment, mais cela peut vous donner un aperçu de ce qui est écrit de telle manière qu'il est en fait trop déroutant pour un système de comprendre de quoi il parle.
M 31:25 - D'accord, vous dites donc prenez le texte, mettez-le dans un processeur de langage naturel et voyez si l'outil peut comprendre "oh cette page parle de ça" et sinon, peut-être que nous devons le réécrire parce que si le l'outil ne peut pas le comprendre comme les humains le trouvent probablement ennuyeux ou ne veulent pas le lire ?
J 31:41 - Je ne pense pas que ce serait faisable au jour le jour, mais ce pourrait être une expérience intéressante juste pour prendre certaines de ces choses de texte SEO à l'ancienne et les jeter dans ces algorithmes modernes et voir ce que ça donne comprendre encore de quoi parle cette page et quelle est la différence si je réécris cet article de wikipedia en peut-être un résumé de deux phrases qui pourrait être lisible par un utilisateur, les algorithmes comprendraient-ils toujours qu'il s'agit de la même chose
M 32:16 - Alors plutôt que d'avoir ce texte SEO à la fin d'une page de commerce électronique, avez-vous des recommandations ? Je veux dire qu'il y a des choses évidentes que les utilisateurs voudraient, mais y a-t-il certaines choses qui seraient utiles en termes de ce que Google voudrait voir sur une page de commerce électronique que vous pouvez partager avec nous ?
J 32:35 - C'est difficile à dire. La seule chose que j'ai remarquée en discutant avec les spécialistes de l'indexation mobile, c'est que lorsque les pages de la catégorie e-commerce n'ont pas d'autre contenu que des liens vers les produits, il nous est très difficile de classer ces pages. Donc je ne dis pas que tout ce texte au bas de votre page est mauvais mais peut-être que 90%, 95% de ce texte est inutile mais une certaine quantité de texte est utile d'avoir sur une page afin que nous puissions comprendre ce que cette page est à propos. Et à ce stade, vous êtes probablement avec la quantité de texte qu'un utilisateur sera probablement capable de lire également, de comprendre également. C'est donc un peu là où je me dirigerais à cet égard. L'autre chose où je pourrais imaginer que nos algorithmes deviennent parfois confus, c'est quand ils ont une liste de produits en haut et essentiellement un article géant en bas lorsque nos algorithmes doivent comprendre l'intention de cette page. Est-ce quelque chose qui est destiné à des fins commerciales ou s'agit-il d'une page d'information ? Quelle est en quelque sorte la raison principale pour laquelle cette page existe et je peux imaginer que nos algorithmes sont parfois confus par ce gros morceau de texte où dirions-nous oh, ceci est une page d'information sur les chaussures mais je peux dire que les utilisateurs essaient acheter des chaussures pour ne pas les envoyer sur cette page d'information.
M 34:05 - D'accord et cela semble être .. Alors BERT est-il également habitué à comprendre la requête?
J 34:13 - Oui, donc nous utilisons ces algorithmes pour comprendre essentiellement le texte et cela vient sur la requête et cela vient sur les pages elles-mêmes.
M 34:24 - D'accord et je sais que cela a déjà été évoqué. Je pense que c'était la recherche de Bay Area, je pense que Gary a dit quelque chose qui m'a fait réfléchir à ce sujet. Sont la plupart des résultats de recherche.. Vous avez mentionné que Google veut déterminer si la personne veut acheter ceci. Are there a certain amount of spaces, like if Google has figured out oh this is probably a commercial query then we want to rank only sites that seem to be transactional or do you say well let's throw in a couple of informational ones? Or am I just simplifying things too much?
J 35:00 - I think you would see some amount of mixed there naturally where our algorithms tend not to be completely on or off where we say 'well this is clearly commercial in nature' and therefore we would only show commercial pages because we just don't know for sure what it is what the user is searching for. That's something where I think 10-15% of all queries are still new so these are things where even if we wanted to manually classify all these queries and say well this is clearly someone trying to buy shoes, that's something that we would never be able to do because people come and ask us in different ways all the time. So that's something where I suspect our algorithms will try to say 'well probably it's this or very very likely it's this' so we will try to include, in our search results page, I don't know 80% like this and a little bit like that just to cover those other variations.
M 36:08 - Okay that makes sense. Let's have another great subject that's fun to talk about; doorway pages. So sometimes a lot of websites struggle with location pages. So lets say a client came to us and they had a business that serviced 50-100 cities in their radius and what tends to happen is their location pages, they're unique in terms of words but really for the user, they could be all the same page. The services of the business are the same no matter the city. Is it within Google's guidelines for me to have 50 different city pages? Is there a better way to do it?
J 36:56 - A lot of times these tend to go into the doorway direction and tend to end up being low quality. And I'd say the quality aspect is almost a bigger issue there in that you have all of these pages on your site and you say well these are really important for my site but at the same time they're essentially terrible pages. Like you wouldn't be able to send a user there and say like well you're in this city therefore this page mentions your city name and the service that you're looking for so we should show that to you. So that's something where from the point of view I try to discourage that. Obviously if you have locations in individual cities, sometimes you have those addresses on separate pages with separate opening hours, all that. Another option is of course to list those different addresses on a single page, maybe by region with a map, a dynamic map, something like that. But otherwise I think it's really kind of tricky where if you're saying well I don't really have locations in these cities but anyone from any of these cities are welcome to call me up then making individual pages for all of those cities feels kind of tricky. And I realize sometimes these sites rank, sometimes these kind of pages rank well but it is something where I could imagine the search quality team saying well we need to figure out a way to deal with this better.
M 38:39 - Do you give many penalties or manual actions for doorways pages these days? It's been a while since I've seen one.
J: 38:46 - I don't know.
M: Yeah it's been a long time. I'm not saying you should by any means. If all of a sudden people start getting- I think they fell under thin content penalties, it's not my fault if that happens.
M: This is a subscribers question. I'm going to shorten it down because it's a long one but it's about… This person has a site that's YMYL, it competes with major brands and government websites so '.gov' websites. And something that we really noticed lately is that Google, for a lot of YMYL queries are really really favouring authoritative sites. So this person is saying that their content is better, I mean that's subjective, but their content is better, solves the user's query better, great videos, optimized to the fullest and they want to know, and I know this is hard because you haven't seen the site, I haven't seen the site but is it ever possible to outrank a giant authoritative website for a YMYL query.
J 39:53 - Sure, I mean it's possible to outrank these sites. It's not that any of these search results positions are hard coded and they can never change so that's something where I would say that's certainly possible but depending on the topic, depending on the competition, it can get hard so I wouldn't expect that to be something where you can just throw together a website, make some really nice looking pages, have someone rank some really good content for your page and to automatically have that rank above these authoritative sites. Especially on topics where it's kind of important that we make sure we are providing high quality, correct information to people. So technically, it's possible. Waiting it out is something I personally wouldn't recommend in cases like this. Obviously you need to continue working on your site, it's not something where you can just say okay I'll wait til my site is 10 years old then it'll be just as good as these other 10 year old sites. That's not the way it happens, you have to kind of keep at it all the time. And the other thing to keep in mind is that if these are really good websites then generally speaking you'd expect to see some traffic from other sources as well so obviously search is a big source of traffic but there are lots of other places where you can also get traffic and that's something where kind of combining all of that and continuing to work on your website, focusing maybe on other traffic sources if that's something that you can do and kind of growing out from there. But it's not that we would never rank these sites for these kinds of queries but it will be really hard, you have to prove that what you're providing is something of equal quality, equal relevance, equal correctness as maybe an official government website which depending on the government website might be hard, might be a little bit easier, it feels like government websites are generally getting better and better so that competition is not going to get less.
M 42:08 - Yeah I think in the past a lot of the time we'd say oh this .gov site page is ranking but it's horrible so if I can create something better then I can outrank it. Is this connected to EAT? Like let's say I went on a particular type of diet and it worked really well for me and I wanted to create a website about this diet but the people who are ranking on the first page are the mayo clinic and some government authoritative site. Can you give me any tips on what types of things would have to happen. Let's say I was a multimillionaire and I had access to any resource, what would it have to take for me to be able to compete with websites that are of authority like that?
J 43:03 - I don't know. I don't have any magic bullet where you can just say like be on national tv or be listed in wikipedia or something like that. It's really hard to say.
M: Can I get an 'it depends'?
J: It depends, sure. Like even if I knew a specific situation, it wouldn't be something where I'd be able to say oh you just need to tweak this one factor here and buy some gold plated network cables and then you're all set.
M 43:43 - Understandable and that was a bit of an unfair question. I think I ask it because people do that all the time, you know people come to us and say hey I want to dominate this and I've got investors. I think in the past if you had enough money you could buy links that would trick Google so we're trying to essentially tell people like you can't be the biggest authority unless you are the biggest authority and that's a struggle that SEO can't always generally fix.
M 44:14 - We're going to rap it up soon. This was an interesting one. We have a client whose site is used in the quality raters guidelines as an example of a low quality site and it's a screenshot from many years ago. And they've changed, the page is way better now. They wanted me to ask you is there anything they can do to appeal to Google to be taken out because it's not good for their brand. Any thoughts on that?
J 44:43 - I'm happy to pass something on if you have some examples of things like that but in general, the quality rater guidelines are not meant to be absolute in a sense that this particular URL should be rating like this but rather, this kind of problem should be rated like this when it comes to the general quality raters set up where were trying to figure out what are the best algorithms to use with regards to search ranking. So it's not something where I generally say like just because we have that particular site there doesn't mean that people should be watching out for that particular site and then be taking this action but rather.. this is a really obvious example of this one particular case and this is the kind of situation you need to watch out and not this is the exact URL you need to watch out for. I think the alternatives that we could use in a case like that… I mean I'm happy to pass that on..
M 45:48 - In all honesty I mean I hesitated to ask you that question because I don't Google to take away those examples. There is a lot to be learned to what you point out as high quality and potentially low quality so.. But I can see as well, I'd be quite upset if people were using my site as like 'oh Google says your site is low quality', nevermind that was something 10 years ago or whatever but fair enough.
M 46:15 - So John I hear you have your own podcast coming out soon? Tell us about that.
J 46:20 - We're working on it. We started looking into that I think at the beginning of the year. At some point we got all the equipment set up in the office and like ready to go and we recorded the trailer and all that went really well and then the office closed and everything went downhill so that kind of threw a wrench in the gears there. So we've started to pick that up again and I hope we can get the first episode or two out fairly soon. I don't know what the timing is there. But it is something where we thought we'd do something a little bit less formal and provide some human look behind the scenes of what's going on with regards to Google.
M 47:16 - Will it be something where we can ask questions like this sort of thing or is it more of a kind of fun, light..
J 47:23 - I don't know. We'll see how it evolves.
M: And we'll see how challenging it is as we pummel you with questions. I'm looking forward to it, I think it'll be good.
J: It's not meant to be a replacement for the office hangouts so it's not something where it's question, answer, question, answer type of thing but more where we realize people would kind of like to know what actually happens behind the scenes at Google when they make these kind of decisions and that's kind of what we'd like to bring in.
M 47:56 - There was a video that came out years ago of, I think it was Matt Cutts in a search meeting where the whole team was discussing 'well we could do this and it would take longer to load.' That was fascinating. I would love to see more stuff like that, what goes on behind the scenes. Just a thought. Is it going to be video? Or I guess you don't know right now right? Or is it a podcast.
J 48:22 - It's just a podcast.
M 48:24 - Alright was there anything else that you wanted to share with us at this point?
J 48:29 - Nope, it went pretty good.
M 48:31 - John, thank you so much for doing this. I can't tell you how much I appreciate it and thank you for being on twitter and putting up with all of our questions and humour too. Do you know how many times we throw into our slack channel 'oh John' because you're just such a great guy and very helpful. Anyways, I'll stop. I'm going to make you blush so thanks again John and I hope that everything's going okay for you in staying at home and all that. Hope to one day see you. We were supposed to meet again in Munich for SMX and that got cancelled like a week before we were going to be there so one day I'll see you again sometime.
J: It'll happen, don't worry.
M: Take care!
J: Thanks a lot bye.
