19 mars 2019 – Notes de Hangout de l'aide Google
Publié: 2019-03-28Dans ce Hangout d'aide aux webmasters, John Mueller a répondu à quelques bonnes questions. Voici ceux qui, selon nous, seraient les plus utiles.
Je suis actuellement en train de renommer et de migrer un segment de notre site vers un nouveau domaine. Ils sont actuellement bien classés. Google traitera-t-il ce contenu de la même manière qu'avant ou sera-t-il traité différemment ?
0:34

Vous pouvez également le faire sur un nouveau domaine. En général, ce qui se passera si vous divisez votre site Web en parties distinctes, c'est que nous devrons examiner ces parties individuellement. Nous aurions donc à réévaluer ces pages sur une sorte de pages par page. Donc, vous pouvez certainement vous classer comme ça, mais vous ne pouvez pas dire que vous vous classerez exactement de la même manière qu'avant, car ce sera une situation différente - vous aurez une configuration de site Web différente.
Résumé : Le contenu est dans un contexte différent et sera réévalué page par page. Vous pouvez à nouveau bien vous classer, mais il est possible que vous ne vous classiez pas exactement comme vous l'avez fait par le passé.
La mise à jour de l'algorithme de base du 12 mars a-t-elle quelque chose à voir avec la mise à jour du 1er août ?
20:20

Je ne sais pas comment cela se rapporterait aux mises à jour d'août. Donc, je veux dire en général, lorsque nous faisons des mises à jour d'algorithmes, nous essayons de travailler avec un état et de travailler vers un nouvel état et parfois nous améliorons les choses où nous reconnaissons que l'algorithme est peut-être allé un peu trop loin et parfois nous améliorons les choses où nous reconnaissons le l'algorithme n'est pas allé assez loin. Donc, ces types de changements algorithmiques, je pense qu'ils sont tout à fait normaux avec juste des mises à jour d'algorithmes en général.
Résumé : Ces types de changements algorithmiques sont tout à fait normaux. Parfois, Google essaie de peaufiner les choses pour améliorer les résultats de recherche. Mais ces deux ne sont pas liés.
Nous avons commencé à classer les termes non liés et les médicaments pharmaceutiques. Nous pensons avoir été piratés. Existe-t-il un moyen de vérifier si cela est vrai?
27:22

Donc, je soupçonne que vous avez peut-être été piraté après tout, donc je ne connais pas votre site Web, mais généralement ce n'est pas quelque chose qui se produit au hasard qu'un site Web commence à se classer pour les termes pharmaceutiques, mais plutôt peut-être qu'il a été piraté d'une manière qui n'est pas complètement évident de vous-même. Donc, ce que vous pouvez faire est d'aller dans la Search Console et dans la section d'analyse de recherche, consultez les pages qui se classaient pour celles-ci et utilisez l'outil d'inspection d'URL, l'option de récupération en direct pour vérifier à quoi ressemble cette page lorsque Googlebot regarde ces pages et parfois nous pouvons voir dans la partie visuelle parfois dans le HTML, vous pouvez voir qu'en fait quelqu'un a ajouté un tas de liens pharmaceutiques à ces pages et c'est une sorte de signe qu'il y a peut-être quelque chose qui a été piraté sur ces pages. Parfois, c'est aussi quelque chose qui persiste un peu lorsqu'un site Web a été piraté dans le passé et que vous avez nettoyé le piratage. Donc, ce sont en quelque sorte les directions que je regarderais là-bas, je ne supposerais pas qu'un site Web normal se classe soudainement pour les termes pharmaceutiques sans aucune raison. Donc généralement il y a quelque chose derrière.
Résumé : Dans la console de recherche, sous la section Search Analytics, vous pouvez voir quelles pages sont classées et si vous utilisez l'outil d'inspection d'URL, vous pouvez vérifier le code HTML et voir s'il y a des liens qui ont été ajoutés, cela pourrait être un signe que ces pages sont piraté. Il est possible que ceux-ci persistent après le nettoyage.
Lorsque nous désavouons des backlinks en plus de désavouer le backlink spam lui-même, devons-nous désavouer toutes les autres URL à partir desquelles il est référé ?
30:45

Non, donc si vous êtes un lien problématique, ce lien ne sera pas pris en compte. Si vous pensez que l'ensemble du site Web, tous les liens vers votre site Web à partir du site Web de quelqu'un d'autre sont problématiques, vous désavouez l'ensemble du domaine. C'est le moyen le plus simple de couvrir vos bases, mais vous n'avez pas besoin de suivre la chaîne jusqu'à tous les autres liens pointant vers cette page avec le mauvais lien. C'est vraiment souvent juste ce lien que vous devez désavouer. Et souvent, vous n'avez pas vraiment besoin de désavouer les choses, si ce n'est pas le cas que vous avez une action manuelle ou que vous regardez vos liens et dites, eh bien Google va me donner une action manuelle la semaine prochaine parce que ça a l'air si mauvais, alors généralement, vous n'avez pas du tout besoin d'utiliser l'outil de désaveu.
Résumé : Vous n'avez qu'à vous soucier de désavouer les liens non naturels des sites qui pointent vers vous.
Nous avons un site Web qui crée dynamiquement des pages. Si un utilisateur recherche des programmeurs à Oxford, nous avons une base de données qui crée une page qui extrait des informations sur les programmeurs et extrait des informations sur Oxford et les rassemble. Avez-vous des recommandations sur un site construit comme celui-ci?
38:56

Je serais un peu inquiet de la configuration que vous avez là-bas. Donc, cela ressemble beaucoup à vous prenez juste beaucoup de morceaux de la base de données et générez automatiquement des combinaisons de ces pages et j'ai l'impression que beaucoup de ces variations pourraient être très minces, de très mauvaise qualité et que peut-être vous ne Vous n'avez pas beaucoup de contenu pour ces variantes et vous vous retrouvez rapidement dans la situation où vous créez des milliers de pages avec toutes ces combinaisons et la quantité réelle de contenu est très minime. Donc, ce qui pourrait arriver du côté de Google, c'est que nous allons explorer et indexer toutes ces pages et nous pensons qu'il y a tellement de choses ici que nous pouvons en quelque sorte ramasser toutes ces choses, mais dans une deuxième étape, lorsque nous regardons le les détails étaient comme, en fait, il n'y a pas beaucoup d'informations vraiment utiles ici et surtout si vous prenez également les emplois peut-être à partir de flux existants d'autres sites Web. Ensuite, ce que nous voyons est essentiellement un mélange d'informations sur la ville, des informations sur les rôles, des listes d'emplois que nous avons déjà capturées ailleurs et nous examinons cela dans l'ensemble et disons, quelle est la valeur supplémentaire d'avoir votre page indexé en plus des choses que nous avons déjà indexées sur toutes ces combinaisons et c'est je pense que la partie délicate ici et c'est en quelque sorte là où vous devez intervenir et dire, en fait, la façon dont j'ai les choses combinées est complètement différente de tout autre. Il y a beaucoup de valeur que j'ajoute à travers ces pages que lorsque les gens vont sur ces pages, ils voient clairement que ce n'est pas simplement comme une combinaison de flux existants mais en fait il y a quelque chose de vraiment fantastique ici que personne d'autre n'a capturé jusqu'à présent.
Résumé : Soyez prudent si votre site est construit de cette façon. Lorsque Google va indexer ces pages, ils finissent par récupérer de petits morceaux de vos informations. Pour cet exemple, Google verrait quelques informations sur une ville et une description de poste. Ensuite, vous verriez cela sur l'ensemble de votre site. Cela pourrait éventuellement être considéré comme un contenu léger et peut choisir de ne pas l'indexer car il n'a aucune valeur supplémentaire pour les utilisateurs
Si vous aimez ce genre de choses, vous allez adorer ma newsletter !
Mon équipe et moi rendons compte chaque semaine des dernières mises à jour de l'algorithme Google, des actualités et des conseils SEO.
Succès!! Vérifiez maintenant votre e-mail pour confirmer votre abonnement à la newsletter Google Update.
Q 0:34 Question sur le changement de marque et le déplacement du site. Oui, voulez-vous qu'ils posent à nouveau la même question ? La question est donc - nous voulons migrer un segment ou une partie de notre site Web. Dites, 100-102 pages, vers un nouveau domaine à des fins de rebranding. À l'heure actuelle, nous nous classons bien pour ces segments, mais allons-nous bien, serons-nous en mesure de bien nous classer pour ces segments sur un nouveau domaine, ou est-il traité comme une entreprise / un site Web indépendant ou distinct de Google.
A 1:09 Vous pouvez également le faire sur un nouveau domaine. En général, ce qui se passera si vous divisez votre site Web en parties distinctes, c'est que nous devrons examiner ces parties individuellement. Nous aurions donc à réévaluer ces pages sur une sorte de pages par page. Donc, vous pouvez certainement vous classer comme ça, mais vous ne pouvez pas dire que vous vous classerez exactement de la même manière qu'avant, car ce sera une situation différente - vous aurez une configuration de site Web différente.
Q 1:54 Auparavant, lorsque nous utilisions GSC, il y avait l'option de "page de destination". Lorsque nous avons extrait une URL sur cette page de destination, nous avons pu voir quel mot clé ils classaient. Existe-t-il une alternative à cela maintenant?
A 2:14 Donc, en quelque sorte, voir quels mots-clés sont classés pour quelles requêtes ? Cela devrait être dans la section d'analyse de recherche. Cela ne devrait pas poser de problème.
Q 2:35 Dans la vue exacte de cette [manière] précédente, nous pouvions voir quelle page de destination dans la console de recherche.
A 2:45 Donc, voir quelle page de destination serait affichée ?
Q 2:52 Euh, pouvez-vous me laisser découvrir cela ?
A 2:52 Oui, parce qu'essentiellement dans le nouveau GSC, la fonction d'analyse de recherche est très similaire à la fonction d'analyse de recherche de l'ancienne console de recherche. Vous devriez donc pouvoir voir les pages de destination, les clics et les requêtes et impressions, la position...
Q 3:18 Oui, mais maintenant je ne peux voir que les informations de mes sites Web que j'ai soumises à la console de recherche Google. Alors qu'avant, je pouvais voir des informations sur tous les mots-clés de sites Web pour lesquels ce site Web était classé.
A 3:23 Non, non - ce n'était pas dans la console de recherche pour autant que je sache. Alors peut-être que vous regardiez ?...
Q 3:32 Non, car j'ai encore trouvé un compte que j'ai pour lequel cela fonctionne toujours. je vais te montrer ça
A 3:37 Ok, parce que vous avez vraiment besoin d'avoir un site vérifié pour que nous puissions vous montrer les données dans la console de recherche. Il ne serait donc pas possible que vous puissiez voir les données sur les clics et les impressions d'un site Web tiers que vous n'avez pas vérifié.
Q 3:54 Mais auparavant, je pouvais voir qu'il y avait
A 5:56 Pas dans la Search Console… Ouais, ça ne devrait pas être dans la Search Console et ça ne devrait pas non plus arriver sur la Search Console.
Q 4:15 Ok, une autre question : existe-t-il des directives concernant la pagination et la citation ?
A 4:17 Pagination, nous avons beaucoup de lignes directrices sur la pagination ! Il existe un article du centre d'aide sur la pagination. Il y a un…
Q 4:30 Pouvez-vous mettre le lien ici ?
A 4:30 Bien sûr, il ne devrait s'agir que de la pagination. Oui, cela s'appelle « indication de contenu paginé à Google. Oh super - Barry l'a posté. Cool.
Q 4:57 Bonjour John, d'accord, donc sur la nouvelle console de recherche, j'ai vu l'onglet des liens. J'ai eu un problème ces derniers mois où il y avait un site clone... Il créait beaucoup de backlinks car ce site clone utilisait tous mes sites et liens relatifs, créant des likes, toutes les news, créant des liens. Donc, en fait, j'ai des sites avec des liens principaux qui, même si je désavoue ce domaine, disent toujours que j'ai 986 000 liens. Le second est de 69 000. Donc, comme vous pouvez le voir, c'est dix fois les backlinks normaux pour le site par rapport au second. J'ai donc désavoué, et cela aurait probablement dû fonctionner, mais aussi je vois dans l'onglet lien qu'il y a un autre tableau qui montre l'ancre "meilleurs corps de plage" . C'est donc la question, ce tableau est modifié à cause de ces liens de retour, cela peut-il affecter mon classement de recherche ? Je peux me voir si je cherche cette ancre que je suis en première position.
A 7:58 Je ne pense donc pas que ce serait un problème, l'une des parties déroutantes pourrait être le nombre de liens que nous montrons ici. C'est probablement juste un signe qu'il s'agit d'un lien à l'échelle du site à partir du site Web. Cela ressemble donc à beaucoup de liens, mais il ne s'agit en fait que d'un seul site Web, donc ce n'est en fait pas problématique. De plus, si vous désavouez ces liens, nous ne les prendrons pas en compte. C'est donc assez facile à faire, il suffit de désavouer du domaine. Ce qui ne se passerait pas, c'est que les liens ne disparaîtraient pas [de GSC] à cause du désaveu. Ainsi, dans l'outil de liens, nous affichons tous les liens vers votre site Web, même ceux que nous ignorons. Donc, si vous avez désavoué ces liens, ils ne disparaîtront pas du SGC. (ainsi que les ancres)
Notes par CD (10-20 min)
Q 09:30 - [question résumée] pour un site qui diffuse des vidéos et héberge des vidéos à la demande, y a-t-il autre chose qu'un schéma qui l'aiderait à mieux apparaître dans les SERP ? De plus, quels types d'optimisations peuvent être apportées aux vidéos pour obtenir un extrait en vedette ?
A 11:58 - "Je ne sais pas avec certitude à cause du côté streaming, je pense que c'est quelque chose que je n'ai pas beaucoup étudié. Mais en général, je pense que la première chose que vous voudriez vérifier est le côté indexation, comme si nous pouvions réellement indexer les pages et le contenu - le contenu vidéo d'une part, les flux d'autre part - il on dirait que ce n'est pas vraiment un problème, que nous pouvons afficher ces vidéos dans la recherche… est-ce exact ? [Q asker répond "oui"] Donc, je pense que la base de base est déjà en place, c'est bien, donc nous pouvons récupérer le contenu, nous pouvons indexer les vidéos, c'est en quelque sorte la base là. Pour les données structurées en général, je pense que vous voudriez faire la différence entre les flux et le contenu enregistré. C'est une chose qu'il serait vraiment important de clarifier en ce qui concerne les données structurées. Ainsi, lorsque vous soumettez des vidéos, du contenu enregistré qui est disponible, par exemple, à tout moment, vous pouvez utiliser un balisage vidéo normal pour cela. Ou vous pouvez également utiliser les plans de site vidéo pour nous en dire plus sur ces vidéos. Par exemple, si le contenu vidéo n'est disponible que dans certains pays, vous pouvez nous en informer dans le plan du site vidéo. Pour les flux, c'est là que je ne sais pas vraiment quelle est la bonne approche. Je pense qu'il existe également l'API d'indexation que vous pourriez utiliser pour la vidéo, pour le contenu en direct - je ne suis pas sûr à 100 %, vous voudrez peut-être vérifier cela. Mais dans tous les cas, vous voulez vraiment différencier le contenu enregistré du contenu en direct, les traiter différemment et vous assurer qu'ils sont balisés séparément à leur manière. En ce qui concerne les extraits en vedette, je ne pense pas que nous montrons les flux en direct dans les extraits en vedette. Je pense, pour autant que je sache, que le type de prévisualisations vidéo que nous montrons dans les boîtes vidéo est davantage destiné au contenu enregistré. Je ne pense pas que nous montrerions des flux là-bas, mais si vous l'avez enregistré, c'est quelque chose qui serait éligible. [Q asker revient pour réitérer la deuxième partie de sa question, y a-t-il autre chose que le balisage de schéma pour que leurs vidéos soient extraites pour un extrait en vedette] . Vous n'avez pas besoin de faire quoi que ce soit de spécial après cela. Si nous pouvons récupérer le contenu vidéo et l'afficher pour les résultats de la recherche vidéo, par exemple, si vous passez en mode vidéo et effectuez une recherche, si nous pouvons afficher la vignette de la vidéo, cela signifie que nous avons en quelque sorte tous les détails dont nous avons besoin pour le contenu vidéo. Les parties importantes sont que nous pouvons explorer et indexer la vignette, de sorte que vous ayez une image de vignette qui n'est pas bloquée par robots.txt, et que le fichier vidéo auquel vous créez un lien soit également indexable.
Q 15:41 (c'est toujours le même gars qu'au dessus, je paraphrase encore) : il y a un tableau qui montre les résultats des matchs, qui fait partie des extraits présentés. D'où viennent-ils?
A 16:23 : "Je ne suis au courant d'aucun raccourci là-bas, c'est vraiment juste un classement de recherche normal. Pour une grande partie de ce type de contenu, si nous pouvons l'afficher sous forme de tableau, il est évident que le fait d'avoir ce type de contenu dans un tableau sur la page en HTML aide beaucoup. »
Q 17:14 : [Barry a une question SEO technique] Vous avez donc une URL, et dans l'URL, ils ont un paramètre qui indique d'où vous avez cliqué - ce que je ne recommande pas, mais ce site Web l'a - comme ils l'ont un paramètre qui montre que vous pouvez à partir de la "Section A" ou de la "Section B" affichée dans l'URL. Ils ont également, comme, page=1 d'un ensemble rel=next/rel=prev. Doivent-ils conserver le paramètre section dans l'URL, ainsi que rel=next/rel=prev ? Je pense qu'il est plus logique de probablement rel=canonical… vous pouvez utiliser canonical et rel=next/prev en même temps, n'est-ce pas ? [John dit "oui"] … donc, rel=canonical à l'URL principale sans le paramètre de section, puis rel=next/rel=prev devrait simplement exclure le paramètre de section ? [Jean dit « oui »].
A 18:08 : "Je pense que chaque fois que vous pouvez le simplifier afin d'avoir moins d'URL qui mènent au même contenu, alors c'est une approche que j'adopterais. [Barry ajoute que son approche numéro un aurait été de supprimer les paramètres de section, mais ils ont dit qu'ils ne pouvaient pas le faire à des fins de suivi] Ouais, parfois vous avez ces choses pour le suivi, alors vous devez faire avec ce que vous avez . Parfois, ce que vous pouvez faire est de le déplacer vers un fragment au lieu d'un paramètre de requête normal, ce qui signifie généralement que nous le supprimerons pour l'indexation [Barry dit : "J'ai suggéré cela aussi, mais ils ont dit non, donc la fin"].
Q 19:09 Étant donné que Google a confirmé qu'aucune des mises à jour de base ne correspondait à aucune des mises à jour de correspondance neuronale, est-il prudent de dire que les sites devraient vraiment chercher à améliorer la qualité et la pertinence à long terme, en ce qui concerne ces larges mises à jour de base ?
A 19h24 : "Je pense que c'est sûr à dire, quelles que soient les mises à jour, n'est-ce pas ? Comme, ça vaut toujours la peine d'améliorer les choses. Je n'ai aucune idée de ce que vous voulez dire avec les mises à jour de correspondance neuronale, cela ressemble à quelque chose de "machine-learning-y" [agite les mains autour] que quelqu'un essaie de retirer et de séparer. Nous utilisons l'apprentissage automatique dans de nombreuses parties de notre infrastructure, donc le retirer comme quelque chose de spécifique est parfois plus artificiel que vraiment utile.

Q 20:04 : Avec la mise à jour de l'algorithme de base du 12 mars, de nombreux autres sites ont enregistré des mouvements positifs qui ont fortement chuté lors de la mise à jour précédente. Y a-t-il eu un assouplissement avec tout ce qui s'est déroulé en août ?
A 20h20 : « Je ne sais pas comment cela se rapporterait aux mises à jour d'août. Donc, je veux dire en général, lorsque nous faisons des mises à jour d'algorithmes, nous essayons de travailler avec un état et de travailler vers un nouvel état et parfois nous améliorons les choses où nous reconnaissons que l'algorithme est peut-être allé un peu trop loin et parfois nous améliorons les choses où nous reconnaissons le l'algorithme n'est pas allé assez loin. Donc, ce genre de changements algorithmiques, je pense qu'ils sont tout à fait normaux avec juste des mises à jour d'algorithmes en général.
Q 20:51 : Etag versus if-modified-since, lequel des en-têtes HTTP suivants recommanderiez-vous d'utiliser pour l'optimisation du budget d'exploration et pourquoi ?
A21:03 : "Donc, je pense que ce sont deux choses distinctes. Comme if-modified-since est un en-tête que nous envoyons avec une requête et l'Etag est quelque chose qui envoie avec la réponse, donc je veux dire évidemment qu'il y a une correspondance là-dedans si if-modified-since est en quelque sorte basé sur une date et Etag est en quelque sorte un système de type IDE, en général les deux fonctionnent. Nous essayons de les utiliser quand il s'agit d'explorer, mais nous ne les utilisons pas tout le temps, alors réalisez que beaucoup de sites ne les implémentent pas ou les ont mal implémentés, donc c'est quelque chose qui ne change pas complètement la façon dont nous explorons le site Web. Cela nous aide un peu, mais pour la plupart, les sites n'ont généralement pas à se soucier de ce niveau en matière d'exploration. En ce qui concerne les utilisateurs, ce type d'optimisations peut faire une grande différence, en particulier avec les utilisateurs qui reviennent régulièrement, ils pourront en quelque sorte réutiliser le CSS ou le JavaScript et des choses comme ça.
Q 22:20 : Un récent article de blog central pour les webmasters sur les dates, Google a dit d'être cohérent dans l'utilisation, j'ai un client qui veut montrer une "date d'hérédité" (peut-être une hiérarchie) -- je dis probablement que c'est faux -- comme une date de publication dans les pages d'articles. Est-il acceptable de montrer cela dans les parties individuelles et d'utiliser des données grégoriennes et structurées ?
A 22h35 : "Oui, tu peux faire ça. Les différents formats posent moins de problèmes et les données d'infrastructure dont nous avons absolument besoin pour avoir les dates Google Rhian, vous devez donc les spécifier facilement oh, qu'est-ce que c'est Pete 601, je ne suis pas complètement sûr du code de langue que nous avons spécifié là. Vous devez utiliser ce code pour spécifier la date et l'heure idéalement également avec les fuseaux horaires afin que nous ayons ce genre de choses correctement. Mais si, dans la partie visuelle de la page, vous souhaitez utiliser votre format de date local, cela convient généralement. C'est quelque chose que nous devrions être en mesure de comprendre et d'acquérir également.
Q 23:15 : Nous sommes une nouvelle entreprise qui aide les entreprises à travailler avec des agences de tempérament dans tout le Royaume-Uni. Lorsque nous avons commencé, nous avons créé dynamiquement des pages pour des combinaisons de lieux et de fonctions, et en raison d'une erreur, nous avons créé 13 pages pour chaque combinaison. Nous essayons de supprimer tous ces éléments avec une balise méta noindex, mais ils sont toujours là. Que pouvons-nous faire pour résoudre ce problème ?
A 23:43 : « Donc, en général, la balise méta noindex est la bonne approche ici. Cela signifie que lorsque nous réexplorerons ces pages, nous les supprimerons de notre index. C'est parfait pour quelque chose comme ça. Ce que vous pouvez faire si vous pensez que vous devez les supprimer plus rapidement est soit d'utiliser les outils de suppression d'URL si vous avez un type de sous-répertoire propre que vous pouvez supprimer, soit d'utiliser un fichier sitemap pour nous dire que ces URL ont changé récemment avec une nouvelle date de dernière modification, puis nous essaierons de les analyser un peu plus rapidement. En général cependant, surtout s'il s'agit d'un site Web plus volumineux, il nous faut parfois des semaines et des mois pour tout réexplorer, en particulier si nous partons en exploration et indexons comme une facette obscure de votre site Web, ce sont probablement des URL que nous ne faisons pas. calendrier pour ramper fréquemment, donc c'est probablement quelque chose qui peut prendre environ six mois pour abandonner complètement. En pratique, cela ne devrait pas être un gros problème, car nous pouvons reconnaître les URL sur lesquelles vous souhaitez vous concentrer et nous nous concentrerons également sur celles-ci, de sorte que ces anciennes seront indexées pendant un certain temps jusqu'à ce que vous puissiez les traiter et les supprimer. eux, mais ils ne devraient pas affecter l'indexation du reste de votre site Web.
Q 25:04 : J'ai quelques clients dont le panneau de connaissances local est déclenché par des termes sans marque. Savez-vous quels signaux peuvent influencer cela ?
A 25h13 : "Je n'en ai aucune idée. Donc, ce genre de choses tombe dans l'entreprise locale générale, les résultats de Google My Business. Donc, je ne sais pas vraiment ce qui déclencherait cela. Probablement quelque chose avec la liste avec le site Web, mais je veux dire que je devine probablement comme vous le devineriez. Je vous recommande d'aller sur le forum d'aide de Google My Business et de vérifier ce que disent les autres experts.
Q 25:47 : La recherche d'images est-elle différente de la recherche sur le Web ? J'ai verrouillé une image à l'aide d'une image Googlebot non autorisée. Cela signifie-t-il que Googlebot par défaut n'explorera pas non plus l'image et ne s'affichera pas dans la recherche Web ?
A 25:59 : « Alors, oui c'est différent. J'aime un peu la façon dont vous avez mentionné que nous avons des directives différentes pour les différents spots. Si vous bloquez et imagez pour l'image Googlebot, nous ne l'afficherons pas dans la recherche d'images et nous ne l'utiliserons pas non plus pour la recherche sur le Web dans le type de résultats universels, car les résultats universels sont filtrés pour être bons pour l'image Recherche d'images Google résultats. Donc, si cette image est bloquée, nous n'utiliserons essentiellement pas cette image. Ce ne serait pas un problème pour vos résultats Web normaux, donc ce n'est pas le cas lorsque nous avons une page Web et que nous l'indexons pour la recherche sur le Web, nous devons avoir toutes ces images disponibles pour la recherche sur le Web parce que nous faisons quelque chose de fantaisiste ou quelque chose autour de cela avec les images, mais c'est vraiment juste une question de savoir si nous ne pouvons pas explorer ces images, nous ne pouvons donc pas les afficher dans la recherche d'images, vous n'avez aucun effet secondaire positif ou négatif si les images ne sont pas disponibles sur le Web normal chercher. Donc, pour le type normal de recherches de type texte.
Q 27:05 : Nous avons commencé à classer les ingrédients non apparentés que nous ne vendons pas et n'avons pas le contenu de médicaments pharmaceutiques similaires. Nous n'avons pas été piratés, nous n'avons pas de texte d'ancrage entrant avec ces termes. Est-ce un problème, et si oui, que puis-je vérifier ?
A 27:22 : "Donc, je soupçonne que vous avez peut-être été piraté après tout, donc je ne connais pas votre site Web, mais généralement ce n'est pas quelque chose qui se produit au hasard qu'un site Web commence à se classer pour les termes pharmaceutiques, mais plutôt peut-être qu'il a été piraté d'une manière qui n'est pas complètement évidente de vous-même. Donc, ce que vous pouvez faire est d'aller dans la Search Console et dans la section d'analyse de recherche, consultez les pages qui se classaient pour celles-ci et utilisez l'outil d'inspection d'URL, l'option de récupération en direct pour vérifier à quoi ressemble cette page lorsque Googlebot regarde ces pages et parfois nous pouvons voir dans la partie visuelle parfois dans le HTML, vous pouvez voir qu'en fait quelqu'un a ajouté un tas de liens pharmaceutiques à ces pages et c'est une sorte de signe qu'il y a peut-être quelque chose qui a été piraté sur ces pages. Parfois, c'est aussi quelque chose qui persiste un peu lorsqu'un site Web a été piraté dans le passé et que vous avez nettoyé le piratage. Donc, ce sont en quelque sorte les directions que je regarderais là-bas, je ne supposerais pas qu'un site Web normal se classe soudainement pour les termes pharmaceutiques sans aucune raison. Donc, généralement, il y a quelque chose derrière.
Résumé : Dans la console de recherche, sous la section Search Analytics, vous pouvez voir quelles pages sont classées et si vous utilisez l'outil d'inspection d'URL, vous pouvez vérifier le code HTML et voir s'il y a des liens qui ont été ajoutés, cela pourrait être un signe que ces pages sont piraté. Il est possible que ceux-ci persistent après le nettoyage.
Q 28:41 : En parlant de ce planificateur de mots-clés précédent, vous voyez quand je clique sur -- [John :] c'est l'outil AdWords. [Question] : Je vais demander dans la nouvelle infrastructure, cette option n'est pas disponible. Existe-t-il une alternative à cela?
A 29:16 : « Je ne sais pas. C'est donc l'outil de planification de mots clés d'Adwords, donc je ne sais pas quels sont les plans du côté d'Adwords. Ce n'est pas quelque chose qui est lié à la Search Console. C'est vraiment purement un de l'équipe publicitaire.
Q 30:45 Lorsque nous désavouons des backlinks en plus de désavouer le backlink spam lui-même, devons-nous désavouer toutes les autres URL à partir desquelles il est référé ?
A 30:55 Non, donc si vous êtes un lien problématique, alors ce lien ne sera pas pris en compte. Si vous pensez que l'ensemble du site Web, tous les liens vers votre site Web à partir du site Web de quelqu'un d'autre sont problématiques, vous désavouez l'ensemble du domaine. C'est le moyen le plus simple de couvrir vos bases, mais vous n'avez pas besoin de suivre la chaîne jusqu'à tous les autres liens pointant vers cette page avec le mauvais lien. C'est vraiment souvent juste ce lien que vous devez désavouer. Et souvent, vous n'avez pas vraiment besoin de désavouer les choses, si ce n'est pas le cas que vous avez une action manuelle ou que vous regardez vos liens et dites, eh bien Google va me donner une action manuelle la semaine prochaine parce que ça a l'air si mauvais, alors généralement, vous n'avez pas du tout besoin d'utiliser l'outil de désaveu.
Notre note : Google est vraiment doué pour analyser et trouver des liens de spam et les ignorer. La chose la plus importante à surveiller est si vous avez des liens non naturels qui ont été créés à des fins de référencement.
Q 31:45 Comment Google traite-t-il les backlinks des sites d'analyse de sites Web ou des profils d'utilisateurs ou du contenu généré par les utilisateurs, des sites de contenu générés automatiquement ?
A 32:00 Pour la plupart, nous les ignorons, car ils sont liés à tout et c'est facile à reconnaître, c'est donc quelque chose que nous ignorons essentiellement.
Q 32:10 Notre activité concerne le développement de logiciels et les services DevOps, nous avons une page distincte pour les services que nous fournissons et les pages de blog. Les articles du blog traitent de divers sujets, allant de la façon d'embaucher une bonne équipe de programmeurs à la façon de vaincre la procrastination et le rôle des femmes dans les affaires. Je crains qu'un si large éventail de sujets puisse diluer les sujets généraux de notre site Web et, par conséquent, il pourrait être difficile de se classer pour nos mots clés transactionnels qui vendent notre service. Est-ce un problème?
A 32:50 Non, je ne pense pas que ce serait un problème. Je pense que vaguement tout cela est lié. La chose sur laquelle je me concentrerais davantage est que si les gens vont sur ces pages et que vous n'avez absolument aucune valeur pour ces utilisateurs qui vont sur ces pages, alors peut-être que ce n'est pas une bonne correspondance d'un point de vue commercial.
Q 33:45 Question sur les rich snippets : Notre entreprise et nos offres basées en Suisse dans notre cas c'est souvent que nous voyons des sites internet d'Allemagne avec des prix en Euro. De mon point de vue, ce n'est pas vraiment utile, pouvons-nous utiliser des données structurées pour apparaître à la place de ces autres sites ?
A 34:15 En tant que Suisse, je suis un peu d'accord sur le fait que parfois, voir beaucoup de sites allemands n'est pas très utile. Mais essentiellement, si nous n'avons pas un bon contenu local et si nous ne pouvons pas dire que nous l'utilisons pour rechercher quelque chose d'un point de vue local, il nous est difficile de dire que ces pages ne devraient pas être affichées dans les résultats de recherche . Ainsi, par exemple, si nous pouvons reconnaître que l'utilisateur recherche vraiment quelque chose de local et que nous avons du contenu local, nous essaierons de le montrer. Mais s'ils ne peuvent pas le dire et qu'ils recherchent des informations sur un certain sujet, nous devrions peut-être simplement afficher des informations sur ce sujet, qu'il s'agisse ou non de l'Allemagne, de la Suisse ou d'un autre pays. Ce n'est donc pas quelque chose que vous pouvez clairement spécifier comme étant des données structurées. Ce que vous pouvez faire est d'utiliser le balisage Hreflang si vous avez plusieurs versions linguistiques et nationales, vous pouvez spécifier cela pour l'utilisation et vous pouvez également utiliser le ciblage géographique présenté dans la console de recherche pour nous dire que votre site Web cible spécifiquement l'Allemagne ou plus spécifiquement cible Suisse et nous en tiendrons compte lorsque nous reconnaîtrons qu'un utilisateur recherche quelque chose de local.
Q 35:50 Je vois une quantité inquiétante de réseaux de liens et de schémas de création de liens néfastes utilisés par les entreprises de vapotage. Je les ai signalés comme suggéré, mais y a-t-il autre chose que nous puissions faire ?
A 36:00 Donc, signalez-les dans la console de recherche, formulaire de rapport de spam, c'est un bon endroit où aller. Cela nous aide à mieux comprendre que ces pages doivent être examinées du point de vue du spam Web manuel. Il n'est jamais vraiment garanti que nous abandonnions complètement ces pages. Donc, en ce qui concerne les domaines concurrentiels, ce que nous verrons souvent si ces sites Web font très bien certaines choses et d'autres très mal et nous essayons de prendre une vue d'ensemble et de l'utiliser pour le classement général. Par exemple, il se peut qu'un site utilise le bourrage de mots clés d'une manière vraiment terrible, mais l'entreprise est vraiment fantastique et les gens aiment vraiment y aller, ils aiment le trouver dans la recherche, nous avons beaucoup de très bons signaux pour ce site, donc nous pourrait toujours les afficher au premier rang même si nous reconnaissons qu'ils font du bourrage de mots clés. Souvent, ce qui se passera, c'est aussi que nos algorithmes reconnaîtront ce genre de "mauvais états" et essaieront de les ignorer. Donc, nous le faisons spécifiquement en ce qui concerne les liens, également le bourrage de mots clés, certaines autres techniques également où si nous pouvons reconnaître qu'ils font quelque chose de vraiment bizarre avec des liens ou avec du bourrage de mots clés, alors nous pouvons en quelque sorte ignorer cela et nous concentrer sur les bonnes parties où nous avons des signaux raisonnables que nous pouvons utiliser pour le classement. Donc, que pourrait-il se passer ici, je n'ai pas regardé ces sites ou spécifiquement ce qui a été rapporté, mais ce qui pourrait se passer, c'est qu'ils font des trucs de création de liens vraiment terribles, nous ignorons la plupart de cela et ils font quelque chose d'assez bien sur le côté et en fonction de ce qu'ils font assez bien, nous essayons de les classer de manière appropriée dans les résultats de recherche. C'est un peu frustrant quand on regarde ça et qu'on se dit, je fais tout bien et pourquoi ces gars-là se classent au-dessus de moi, d'un autre côté, nous essayons de voir la situation dans son ensemble et d'essayer de comprendre un peu mieux la pertinence. Et c'est parfois quelque chose qui joue aussi en votre faveur parce que peut-être que vous ferez quelque chose de vraiment terrible sur votre site Web et que les algorithmes de Google regardent cela et disent "oh, cela ressemble à une erreur, peut-être que nous pouvons simplement ignorer cela et nous concentrer sur le good parts of the website and not remove that site completely from search because they found some bad advice online'.
Q 38:56 - We help companies find recruitment agencies to work with and broadly what we have on our site is it dynamically creates pages for combinations of jobs and locations. So you might type in a programmer in Oxford and it'll show you a page saying program in Oxford. And so I had these dynamic pages created and I put them into the search engine and when I first did this I saw a real uptick in volume coming from search because previously I've been relying on paid clicks. Then we made this mistake where we had every single link had 13 different pages and I've tried to get them out. What's happened as I seem like you know my impressions just go down over time to zero and literally the only thing I'm coming up for is my brand name. I went to the old version a search console and said can you ignore these web links for me and it still hasn't made any difference. I still seem to be having nothing coming in and I'm kind of very nervous about what you said, saying it could take months for this to come through, because as a start-up I know it's not Google's business but it's very hard for me to get traffic in. Is there anything could be doing?
The second part of this question, the way I do my pages is I have in my database I have a little bit written about a role and a little bit written about a town and I combine them together on a page to say, here are programmers in Oxford. So a programmer or job spec will say these things and you should pay, this amount of money for a programmer, and about employment in Oxford. But of course, the piece about Oxford is repeated on every single job role and then the piece about programmers is repeated on every single location. Does that mean those pages will get deranked?
A 40:52- I would be kind of worried about the setup that you have there. So that sounds a lot like you're just taking a lot of chunks from the database and just automatically generating combinations of those pages and it feels to me that a lot of these variations could be very thin, very low quality and that maybe you don't have a lot of content for those variations and you quickly run into the situation where you create thousands of pages with all these combinations and the actual amount of content there is very minimal. So what could happen on Google side is, we go off and crawl and index all of these pages and we think oh like there's so much stuff here we can kind of pick up all of this stuff but in a second step when we look at the details were like, actually there's not a lot of really useful information here and especially if you're also taking the jobs maybe from existing feeds from other websites. Then what we see is essentially just a mix of like some some city information, some role information, job listings which we've already captured somewhere else and we kind of look at that overall and say like, what's the additional value of having your page indexed in addition to the things we already have indexed about all of these combinations and that's I think the tricky part there and that's kind of where you need to jump in and say, actually the might the way I have things combined are completely different from everything else. There's a lot of value that I add through these pages that when people go to these pages they clearly see that this is not just like a combination of existing feeds but actually there's something really fantastic here that nobody else has captured so far.
Barry chimes in about a similar story.
I could imagine for ads maybe that's that's slightly different than if you were if you have ads landing pages but especially from an indexing from a quality point of view that's something where I would expect that you would have a really tough time unless you're really providing a lot of like really strong value in addition just to those listings there.
I think what you really want to do especially for search, is make sure that you have a significant amount of value there that's much more than what other people have for that kind of content. So in particular one approach I usually take is like, if you bring this problem to me and you say that your site is not ranking well and I take that problem to the search ranking engineers and they say, well actually we have this combination already index five times why should we add this other variation and I don't have a good reason to tell them like, instead of these five you should take this new one. Then that's something that's that's really hard for me to justify and that means that in the end you'll be competing against a lot of kind of established players in that scene and you're kind of a new player in that scene and you don't have significant unique value that you're adding to that. So it's really from our algorithmic point of view it's like why should we spend time on this website that's not significantly changing the web for our users.
Q 49:15 - This is relating to structure kind of website this is a magazine you know they have is in a Drupal site in its I'm trying to figure out the best structure since there is articles and every category and those articles could be repeated through categories but there's also landing pages for each category and subcategory so I'm kind of trying to avoid such a big mess and try and condense that do you have any advice for that
A 49:52 -I guess in general what you want to make sure is that the pages that you do have index for search that they're able to stand on their own. So if you have all of these different combinations of like categories and landing pages and things like that. Then I try to figure out which of those variations you think you want to keep first switch and no index the other ones.
