Heures de bureau SEO, 26 novembre 2021
Publié: 2021-12-01Ceci est un résumé des questions et réponses les plus intéressantes des heures de bureau Google SEO avec John Mueller le 26 novembre 2021.
Formats JPEG et WebP vs classement
06:44 "J'ai un site Web qui […] est assez gonflé, et il a été durement touché par les changements de l'été et au-delà sur les Core Web Vitals. Je suis donc en train de repenser ce site Web en pages AMP et je convertis toutes mes images au format WebP. […] J'essaie d'utiliser les mêmes URL. Les images sont actuellement classées, mais si je convertis JPEG en WebP, cela aura-t-il un impact sur ces classements ? »
John a dit : « Potentiellement. Ce que j'ai vu, c'est que certaines personnes utilisent les mêmes extensions d'image et en font des fichiers WebP, et si cela fonctionne, cela vous éviterait essentiellement des ennuis car vous échangez alors le contenu mais conservez les mêmes URL, et tout cela continue de travailler. Alors que, si vous modifiez les URL des images, ou si vous modifiez les URL des pages de destination des images, alors évidemment, pour la recherche d'images, cela prend un peu plus de temps à récupérer. Mais la chose à garder à l'esprit est que tous les sites ne reçoivent pas un trafic important de la recherche d'images. Donc, parfois, c'est quelque chose où théoriquement c'est un problème si vous faites ces changements et cela prend du temps. Mais si, d'un point de vue pratique, vous obtenez peut-être 5 % de votre trafic grâce à la recherche d'images, alors ce n'est peut-être pas votre priorité absolue. "
Suppression de JavaScript par rapport aux problèmes d'exploration
11:27 "Si nous supprimons tout le JavaScript sur une page pour Googlebot, pas pour les utilisateurs, y aura-t-il des problèmes d'exploration ou d'autorité de notre site ? Nous craignons que Googlebot puisse explorer notre page [et] simuler l'utilisateur final, et ainsi il remarquera qu'il n'y a peut-être pas de fonctions interactives. Est-ce que ce sera un problème ? »
Jean a répondu : « Probablement pas . Si JavaScript n'est pas requis pour vos pages, le contenu et les liens internes, cela ne change probablement rien. Je ne pense pas que cela améliorerait significativement les choses de votre côté, donc je serais prudent avant de faire ce changement.
C'est également délicat car une fois que vous avez emprunté cette voie pour créer des pages plus simplifiées pour Googlebot, il est très facile de tomber dans une situation où Googlebot voit quelque chose de très différent de ce que vos utilisateurs voient habituellement, ce qui peut rendre très difficile le diagnostic des problèmes. Donc, s'il y a un bogue qui n'affecte que la version Googlebot du site, vous ne le verriez pas si les utilisateurs voyaient toujours un site Web fonctionnel.
13:03 « En ce moment, il existe de nombreuses fonctions comme Ajouter au panier ou Acheter maintenant ainsi que des fonctions de localisation comme Sélectionner la langue et Sélectionner la devise. Ceux-ci sont tous réalisés par JavaScript. En ce qui concerne le temps de réponse, nous souhaitons également réduire le temps de chargement. Nous voulons donc savoir si nous pouvons désactiver ce JavaScript sur la page ? »
John : « Probablement que vous le pouvez. Je ne connais pas les détails de votre site, comment il utilise réellement JavaScript, mais vous pouvez désactiver JavaScript dans votre navigateur et essayer le site Web, puis vous verrez ce que Googlebot y verrait. La seule chose que vous avez mentionnée à laquelle je ferais attention est, je pense, la recherche de produits. Nous vérifions parfois ce qui se passe lorsque vous ajoutez quelque chose à votre panier pour vérifier que le prix et des choses comme ça sont les mêmes. Si vous supprimez complètement la fonctionnalité Ajouter au panier pour les robots d'exploration, cela affectera peut-être les vérifications effectuées par la recherche de produits. Mais je ne connais pas les détails de ce que recherche exactement la recherche de produits.
[…] Nous essayons de rendre la page pour voir s'il manque quelque chose. Mais nous n'interagissons pas avec la page parce que je pense que cela prendrait trop de temps pour parcourir le Web si nous devions cliquer partout pour voir ce qui s'est réellement passé.
Extraits en vedette pour différents pays avec la même langue
16:44 « Sur notre plateforme, nous avons des références de prix B2B pour divers produits et services qui affichent les prix, en particulier pour la Suisse. Ce que nous avons trouvé maintenant, c'est que si l'utilisateur recherche, par exemple, "Quel est le coût du système de caisse en Suisse?", nous n'avons aucun problème à apparaître dans les extraits présentés. Mais si l'utilisateur en Suisse recherche [cette requête], nous avons constaté que les extraits présentés sont toujours en euros et proviennent de plateformes en Allemagne qui ciblent le marché allemand, pas le marché suisse. Y a-t-il quelque chose que nous puissions faire de notre côté […] pour être montré dans ce contexte de la Suisse, même si [les utilisateurs] ne tapent pas « en Suisse » mais ils viennent de Suisse ? […] »
Selon John, "En général, l'extrait de code est, de notre point de vue, un résultat de recherche normal, donc je ne me concentrerais pas trop sur le fait qu'il soit affiché ou non dans l'extrait de code. […] Il contient un petit extrait plus gros, un peu plus d'informations, mais sinon, c'est un résultat de recherche normal.
De notre point de vue, nous essayons de faire deux choses en ce qui concerne les recherches. D'une part, nous essayons de reconnaître quand un utilisateur veut trouver quelque chose de local et quand nous reconnaissons que l'utilisateur veut trouver quelque chose de local, nous utiliserons les informations de ciblage géographique que nous avons des sites Web pour déterminer lesquels sont probablement les résultats plus locaux qui seraient pertinents pour l'utilisateur. […]
Je pense que l'aspect local est quelque chose qui aide à promouvoir les sites locaux, mais cela ne veut pas dire qu'ils remplaceront toujours tout ce qui est global. Donc, ce que nous voyons probablement, ce sont ces plus gros sites Web allemands. […] Et, d'autre part, nous avons les résultats locaux du même pays. Et selon la façon dont nous comprenons la requête, nous pourrions afficher plus de résultats locaux, nous pourrions afficher moins de résultats locaux. Je veux dire pas moins mais plus de résultats de recherche globaux. Et probablement ce qui se passe quand quelqu'un recherche « en Suisse » alors, bien sûr, nous reconnaissons, oh, ils veulent quelque chose de Suisse, et alors nous pouvons fortement promouvoir les résultats locaux de Suisse. Mais sans cet ajout, il nous est parfois difficile de déterminer si le contexte local est critique ici ou non. Et parfois, nous prendrons des résultats globaux dans un cas comme celui-là. Ce n'est pas quelque chose que vous, en tant que propriétaire du site, pouvez influencer. C'est ce que nous avons appris des utilisateurs au cours des milliards de recherches qu'ils ont effectuées. Et cela peut aussi changer avec le temps, où si nous reconnaissons que les utilisateurs en Suisse ont tendance à se rendre davantage sur les sites Web suisses pour ce type de requête, alors nous devrions peut-être ajuster nos systèmes pour l'apprendre également. Mais ce n'est pas quelque chose que vous pouvez forcer.

La seule chose que vous puissiez faire là-bas est d'utiliser le lien de rétroaction au bas des résultats de recherche et de dire, oh, je cherchais quelque chose en Suisse, et vous m'avez montré des trucs en allemand.
Réévaluer un site web
22:37 " Existe-t-il des situations où Google nie l'autorité d'un site qui ne peut pas être récupérée même si la cause a été corrigée ? En supposant que la cause était des turbulences à court terme avec des problèmes techniques ou des changements de contenu, combien de temps pour que Google réévalue le site Web et rétablisse la pleine autorité, la position de recherche et le trafic ? Google a-t-il une mémoire en tant que telle ?
John a déclaré : « Pour les questions techniques, je dirais que nous n'avons pratiquement aucune mémoire, dans le sens où si nous ne pouvons pas explorer un site Web pendant un certain temps, ou si quelque chose manque […] et qu'il revient, alors nous avons ce contenu à nouveau. […] C'est quelque chose qui reprend instantanément. C'est quelque chose que je pense que nous devons avoir car Internet est parfois très instable, et parfois les sites se déconnectent pendant une semaine ou même plus, et ils reviennent, et rien n'a changé, mais ils ont réparé les serveurs. Nous devons faire face à cela, et les utilisateurs recherchent toujours ces sites Web.
Je pense que c'est beaucoup plus compliqué quand il s'agit de choses autour de la qualité en général, où évaluer la qualité globale et la pertinence d'un site Web n'est pas très facile. Il nous faut beaucoup de temps pour comprendre comment un site Web s'intègre par rapport au reste de l'Internet. Cela signifie, d'une part, qu'il nous faut beaucoup de temps pour reconnaître que quelque chose n'est peut-être pas aussi bon que nous le pensions. De même, il nous faut beaucoup de temps pour réapprendre le contraire. C'est quelque chose qui peut facilement prendre quelques mois, […] parfois même plus de six mois, pour que nous reconnaissions des changements significatifs dans la qualité globale du site, car nous veillons essentiellement à la manière dont ce site Web s'intègre dans le contexte de la toile globale. Et cela prend beaucoup de temps. C'est donc quelque chose où je dirais que, par rapport aux problèmes techniques, il faut beaucoup plus de temps pour que les choses soient rafraîchies à cet égard.
L'autre chose que j'ai très rarement vue, c'est qu'un site reste coincé dans une étape intermédiaire étrange de nos systèmes. À un moment donné, nos algorithmes ont examiné le site Web et l'ont trouvé absolument terrible, et pour une raison quelconque, ces parties des algorithmes ont mis très longtemps à être mises à jour à nouveau. Cela peut parfois prendre plusieurs années. Ce sont des choses que j'ai vues de temps en temps, mais elles sont extrêmement rares. Ainsi, la probabilité qu'un site Web aléatoire tombe sur est assez faible. Mais c'est quelque chose où si vous avez du mal et que vous voyez que vous faites beaucoup de choses correctement et que rien ne semble fonctionner, alors contactez-nous et voyez s'il y a quelque chose de notre côté qui pourrait être bloqué. Mais je dirais, au moins les choses techniques, qu'elles se résolvent très rapidement. […] Mais surtout si quelque chose s'est passé il y a cinq ou dix ans et que votre site est coincé dans un état de limbes étrange, alors c'est quelque chose où tendre la main et voir s'il y a quelque chose de bizarre vaut toujours la peine.
Mises à jour régulières lors des mises à jour principales
30:21 « Google met à jour plus de dix fois par jour. Pendant la période de mise à jour principale, effectuez-vous les mêmes mises à jour que les jours normaux ? Si les changements dans la mise à jour principale sont subtils, il est impossible de les distinguer d'une mise à jour régulière.
John a répondu: «Je ne pense pas que nous retenions les mises à jour normales pendant cette période de mise à jour principale ou lorsque nous la déployons. Les mises à jour de base prennent généralement une semaine environ pour être déployées, donc j'imagine que le déploiement maintenant sera probablement bientôt terminé. Nous avons tendance à ne pas retenir [les mises à jour normales] pendant cette période, car nous effectuons de nombreuses mises à jour au fil du temps.
Les choses que nous retiendrions un peu sont peut-être d'autres mises à jour plus importantes que nous voulons informer les gens. Donc, essentiellement, si nous avons une mise à jour plus importante impliquant des données structurées dont nous voulons parler, nous essaierons probablement de la retenir un peu afin que ce ne soit pas une mise à jour après l'autre, mais plutôt que nous puissions parler de la mise à jour un peu plus clair, et qu'il soit un peu plus facile pour les gens de comprendre exactement ce qui change. Mais les mises à jour normales que nous faisons tout le temps, comme déplacer légèrement l'interface utilisateur de quelques pixels, changer les couleurs ou, des choses comme ça, ce sont toutes des mises à jour que nous pouvons faire indépendamment.
Contenu non indexé
33:10 « Il y a un blog sur un site Web de commerce électronique de nos clients, et pour une raison quelconque, un article en particulier ne sera tout simplement pas indexé depuis trois mois maintenant. […] Des idées sur ce qui pourrait se passer et sur ce que nous pouvons faire ?
John : « En général, nous n'indexons pas tout sur le Web , c'est donc la situation standard là-bas. C'est quelque chose que nous n'indexons tout simplement pas. Si c'est quelque chose où vous voyez que tout le reste a tendance à être indexé à partir de cette partie du site Web, par exemple, si vous avez dix articles de blog et qu'un seul d'entre eux n'est pas indexé au hasard, je soupçonnerais que peut-être là était un problème technique à un moment donné. Cela prend un peu de temps à résoudre, mais c'est aussi très difficile à dire. En général, nous ne garantissons pas l'indexation, et même pour un site Web plus petit ou en tant que section d'un site Web plus grand, il peut arriver que nous possédions tout l'index.
Pages en rupture de stock vs classement
44:28 « Comment Google détermine-t-il une page [produit] en rupture de stock ? Google prendra-t-il des mesures sur la page en rupture de stock, par exemple, crawlera-t-il moins et fera-t-il baisser le classement ? Les données structurées ont été supprimées, elles ne seront donc pas affichées en rupture de stock dans les résultats de recherche.
John a déclaré : "Nous essayons de comprendre quand une page n'est plus pertinente en fonction du contenu de la page. Ainsi, en particulier, un exemple courant est une page soft 404, où vous nous servez une page qui ressemble à une page normale, mais c'est essentiellement une page d'erreur qui dit : cette page n'existe plus. Nous essayons également de ramasser des choses comme ça pour le commerce électronique. C'est donc quelque chose où vous pourriez voir que les produits en rupture de stock sont considérés comme des pages 404 souples. Lorsqu'elles sont considérées comme des pages 404 souples, nous les supprimons complètement de la recherche. Si nous gardons la page indexée, malgré la rupture de stock, nous ne modifierons pas le classement. Il sera classé normalement. Il est également toujours classé normalement si vous modifiez les données structurées et dites que quelque chose est en rupture de stock. De ce point de vue, ce n'est pas que la page chuterait dans le classement. C'est plus que soit c'est vu comme un logiciel ou une page 404, soit ce n'est pas le cas. Si c'est vu comme un logiciel ou une page 404, c'est toujours une page normale.
