8 de fevereiro de 2019 – Notas do Hangout da Ajuda do Google

Publicados: 2019-02-14

Esta semana, John teve uma ótima visão sobre o Guia de Avaliadores de Qualidade, do qual somos grandes fãs, quando se trata da confiabilidade de um site. Abaixo estão as perguntas e respostas escolhidas a dedo que pensamos serem as mais úteis para SEOs. Vídeo completo e transcrição abaixo!

Como o Google interpreta uma página quando as tags h são usadas em vez de <p>?

4:34

Hangout de ajuda de John Mueller 8 de fevereiro de 2019

Não vejo um grande problema com isso, quero dizer, obviamente, como você, já que você percebe, provavelmente é algo que faria sentido limpar, mas não é que diríamos que isso é um efeito negativo, mas sim o que você está fazendo lá ao dizer que tudo é importante, você está nos dizendo que tudo tem a mesma importância. Então é como se tudo fosse importante, portanto, nada é particularmente importante. Portanto, temos problemas para entender o contexto dentro da página. Então é por isso que principalmente eu limparia isso. Podemos descobrir quais partes são realmente importantes e quais partes estão no texto normal e assim podemos entender um pouco melhor essas páginas. Não sei se você veria uma mudança direta na classificação por causa da correção disso, mas torna mais fácil descobrir sobre o que é realmente a página. Eu não acho que isso seria algo que veríamos como um spam ou algo que veria como problemático, é realmente apenas você não está nos dando tanta informação quanto poderia nos dar dizendo que isso é realmente importante e este é um tipo de conteúdo normal


Resumo: Isso provavelmente não é grande coisa. No entanto, John confirmou que o Google pode usar tags h para determinar qual conteúdo da página é importante e sobre o que é a página.


Por que o Google às vezes não honra o canônico no conteúdo sindicado?

8:56

Hangout de ajuda de John Mueller 8 de fevereiro de 2019

Acho que essa é sempre uma situação complicada, tentamos descobrir qual página é a mais relevante para algumas dessas consultas e direcionar os usuários diretamente para lá, mas se forem sites completamente separados e estiverem apenas postando o mesmo artigo, há também muito valor adicional do resto do site e isso pode ser uma informação nessa página específica, pode ser um tipo de valor adicional que o resto do site traz onde, quando alguém acessa esse artigo, talvez ele saia e veja outras coisas nesse site porque fora isso também foi muito legal. Então isso é algo que sempre pode acontecer e se você está distribuindo conteúdo é algo que você precisa levar em consideração que pode acontecer que o conteúdo que você distribuiu para algum outro site acabe sendo classificado acima do seu conteúdo que nem sempre é completamente evitável . Então, esses são tipos de trocas que você tem que olhar lá, eu acho que o canônico é uma boa maneira de nos informar que essas duas páginas pertencem uma à outra, mas também é o caso de um canônico não estar realmente correto em qualquer caso, como isso porque as próprias páginas podem ser completamente diferentes. Pode ser que haja esse bloco de texto que é o mesmo em ambas as páginas, mas pode ser que haja muitos outros conteúdos em torno dessa página que são completamente diferentes, que podem ser comentários de usuários, que podem ser o resto o próprio site. Então, novamente, isso é uma espécie de troca que você precisa analisar, faz sentido trazer as informações para um público mais amplo distribuindo o conteúdo, mas, por outro lado, você deve levar em consideração que talvez esses outros sites sejam classificados acima seu site quando se trata de pesquisar esse conteúdo específico.


Resumo: se você estiver distribuindo conteúdo, o Google pode optar por indexar o conteúdo nos sites de republicação em vez dos seus próprios. Se houver muitos outros conteúdos (como comentários) em uma dessas páginas, o Google pode não respeitar o canônico.


O Google sempre reconhece a marcação de dados estruturados?

26:58

Hangout de ajuda de John Mueller 8 de fevereiro de 2019

Não sei o que você quer dizer com organização de dados estruturados, mas em geral temos algoritmos que tentam descobrir quando faz sentido mostrar dados estruturados como resultados avançados nos resultados de pesquisa e quando sentimos que talvez não faça sentido sentido ou quando sentimos que talvez não tenhamos cem por cento de certeza sobre este site ou sobre a maneira como os dados estruturados são implementados neste site e seremos um pouco mais cautelosos. Portanto, isso é algo em que, se você fornecer uma marcação válida de dados estruturados, não é uma garantia de que sempre será mostrado exatamente assim nos resultados da pesquisa.


Resumo: se os dados estruturados não estiverem produzindo resultados avançados para você (como estrelas nos resultados da pesquisa), pode ser que eles não tenham sido implementados corretamente. Mas também pode ser porque os algoritmos do Google decidiram não mostrá-lo.


O Google sempre reconhece a marcação de dados estruturados?

53:46

Hangout de ajuda de John Mueller 8 de fevereiro de 2019

Eu acho que isso é sempre um pouco complicado, geralmente há dois aspectos envolvidos lá. Um é mais um problema, especialmente com sites mais recentes, onde o nome do site ou o nome da empresa é mais parecido com uma consulta genérica. Então, se, por exemplo, o nome do site é “Best Lawyers in Pittsburgh” ou algo assim. Então, por um lado, esse pode ser o nome da empresa, por outro lado, se alguém digitasse isso na pesquisa, provavelmente presumiríamos que eles não estão procurando por essa empresa específica, mas sim por informações para essa consulta . Então, isso é especialmente com empresas mais novas que é algo que vemos de vez em quando. Vemos que os fóruns ou pessoas lá dizendo, oh, eu não estou classificando para o meu nome de domínio, e então o nome de domínio deles é algo como eu não conheço os melhores provedores de VPN.com é como bem, é um nome de domínio, mas não não significa que você irá classificar para essa consulta. Então, isso é uma coisa quando se trata de sites um pouco mais estabelecidos que já estão por aí, geralmente é mais um sinal de que não confiamos mais tanto naquele site. Então, isso é algo em que podemos reconhecer que, na verdade, as pessoas estão procurando por essa empresa, mas sentimos que talvez o site da empresa em si não seja o resultado mais relevante aqui, talvez sintamos que há informações auxiliares sobre essa empresa que são mais importantes que os usuários veja primeiro onde o que poderia resultar em algo assim acontecendo. Normalmente, isso é mais uma questão de coisas meio que se mexendo nas primeiras uma ou duas páginas nos resultados da pesquisa. Seria muito raro que algo assim resultasse em um site não aparecendo nas primeiras páginas dos resultados da pesquisa. Acho que é isso que você destacou lá com sua pergunta e é algo que eu acho bem, mesmo que não confiemos mais neste site, devemos pelo menos tê-lo em algum lugar nos resultados da pesquisa, porque se pudermos dizer que alguém está procurando explicitamente por esse site, seria um desserviço para o usuário não mostrá-lo. Como talvez para consultas genéricas, pode-se argumentar que talvez não seja o resultado perfeito, mas se pudermos dizer que eles estão realmente procurando por esse site, pelo menos deveríamos dar ao usuário a chance de ver esse site também. Então é por isso que eu peguei isso e disse bem, talvez devêssemos pegar isso um pouco melhor e eu não sei se nossos algoritmos estão entendendo corretamente o quão confiável seu site seria. Eu não conheço o site, então é muito difícil para mim julgar, mas mesmo se pensarmos que não era confiável, talvez ainda devêssemos mostrá-lo em algum lugar nos resultados da pesquisa na primeira página. A outra coisa a ser observada, se você ainda não o fez, é dar uma olhada nas diretrizes do avaliador de qualidade que temos e há muitas informações sobre o tipo de confiabilidade lá. Algumas dessas coisas valem a pena com um grão de sal, não é que pegamos esse tipo de um para um e usamos isso como um fator de classificação, mas há muitas ideias, especialmente quando você está falando sobre um tópico esse é um tipo de site jurídico ou site médico, então faz sentido mostrar aos usuários por que você está fornecendo essas informações por que eles deveriam confiar em você.


Resumo: Se você tem uma nova marca que tem palavras-chave no nome da marca e no URL, isso não significa que você deve classificar automaticamente essas palavras-chave. No entanto, se os algoritmos do Google não confiarem no seu site, ele não terá uma boa classificação. John nos indica as Diretrizes dos Avaliadores de Qualidade para obter mais informações. Nossa observação: também há boas informações aqui sobre como achamos que as atualizações recentes de algoritmos estão conectadas à confiança.


Se você gosta de coisas assim, vai adorar minha newsletter!

Minha equipe e eu relatamos todas as semanas as últimas atualizações de algoritmos do Google, notícias e dicas de SEO.

Sucesso!! Agora, verifique seu e-mail para confirmar sua assinatura do boletim informativo do Google Update.

Ocorreu um erro ao enviar sua assinatura. Por favor, tente novamente.

Vídeo completo e transcrição

Nota de João 0:33 - Eu só queria falar brevemente sobre uma coisa antes de passarmos para as perguntas. Como você já deve ter visto, fizemos uma postagem no blog sobre o Search Console, algumas das mudanças que estão surgindo no Search Console. No ano passado, começamos a mudar para uma nova plataforma no console de pesquisa e para nós, a equipe do console de pesquisa, isso é algo em que eles estão trabalhando há algum tempo e é algo que temos que concluir mais ou menos no o mais tardar no final do ano. Portanto, nosso objetivo com a postagem do blog com algumas das mudanças que estão por vir é garantir que informamos a todos o mais cedo possível. Para que, quando as coisas mudarem ou desaparecerem de maneiras que achamos que podem afetá-lo, queremos informá-lo o mais cedo possível. A mudança, eu acho, é sempre um pouco complicada, especialmente quando você tem processos que funcionam razoavelmente bem e alguém muda as ferramentas ou altera os dados fornecidos nas ferramentas, é sempre um pouco frustrante. Portanto, algumas dessas mudanças não podemos evitar algumas delas achamos que deveríamos ter feito isso no começo quando começamos com o console de pesquisa sabendo agora se sabíamos então o que sabemos agora é algo como a mudança canônica que anunciamos essa semana. Então, eu percebo que às vezes isso é um pouco frustrante, mas esperamos que tenhamos um caminho bastante bom daqui para frente e queremos realmente informá-lo com antecedência e permitir que você experimente as coisas mais cedo para que não fique muito surpreso quando as coisas mudarem. Também temos muitas coisas realmente legais alinhadas e, mudando para uma nova plataforma e removendo alguns dos recursos antigos, uma equipe tem muito mais tempo para avançar e criar coisas novas e sofisticadas. Tão bem que você pode fazer isso se você se sentir forte sobre certas coisas que estão desaparecendo ou que estão faltando ou que você gostaria de ver em uma nova ferramenta, certifique-se de usar um recurso de feedback no console de pesquisa e não apenas vá lá e diga como eu realmente quero isso, mas dê-nos algumas informações sobre o que você gostaria de ver disso, como o que você está tentando alcançar com esse novo recurso ou com a mesma coisa que tínhamos no antigo no novo porque nos dar um pouco mais de informação lá nos ajuda a descobrir como precisamos priorizar isso é algo que talvez tenhamos perdido algo que deveríamos ter pensado antes. Isso é algo que talvez possamos fornecer uma maneira melhor de fornecer essas informações ou ajudá-lo a fazer isso do que tínhamos na ferramenta antiga. Portanto, certifique-se de acessar a ferramenta de feedback envie-nos informações, dê-nos feedback sobre o que você acha que gostaria de ver de maneira diferente algumas dessas coisas que poderemos fazer algumas delas podem demorar um pouco mais porque realmente precisamos primeiro tipo de limpar todas essas coisas antigas que coletamos ao longo dos anos e mover tudo para a nova plataforma. Então, para alguns, eu amo um pouco de paciência, mas também não há problema em nos informar vocalmente se há algo que você sente muito fortemente, então não seja muito tímido.

Pergunta 4:34 - Encontramos um dos sites de nossos clientes, do jeito que eles construíram o site não há texto de parágrafo todos são tags h1 h2 h3 h4. Portanto, eles usam a tag do título 4 em vez da tag P. Seu conteúdo principal do site eles usam a tag do título 4 para o conteúdo principal do site. Isso tem algum impacto negativo em sua classificação?

Resposta 4:40 - Não vejo um grande problema nisso, quero dizer, obviamente, como você, já que você percebe, provavelmente é algo que faria sentido limpar, mas não é que diríamos que isso é um efeito negativo, mas sim o que você está fazendo lá dizendo que tudo é importante você está nos dizendo que é tudo a mesma importância. Então é como se tudo fosse importante, portanto, nada é particularmente importante. Portanto, temos problemas para entender o contexto dentro da página. Então é por isso que principalmente eu limparia isso. Podemos descobrir quais partes são realmente importantes e quais partes estão no texto normal e assim podemos entender um pouco melhor essas páginas. Não sei se você veria uma mudança direta na classificação por causa da correção disso, mas torna mais fácil descobrir sobre o que é realmente a página. Eu não acho que isso seria algo que veríamos como um spam ou algo que veria como problemático, é realmente apenas você não está nos dando tanta informação quanto poderia nos dar dizendo que isso é realmente importante e este é um tipo de conteúdo normal

Pergunta 7:03 - Continuamos recebendo links quebrados aleatórios no console de busca Eu me pergunto o que deveríamos estar fazendo redirecionando-os ou deixando-os como estão?

Resposta 7:15 - Eu não sei quais links quebrados aleatórios você está vendo lá que podem ser algo para postar no fórum para obter alguns conselhos também, mas em geral se você vir um link apontando para o seu site que não não funcionar, então não há problema em retornar 404 para um URL que não existe. É para isso que serve o código de status 404 e é algo com o qual nossos sistemas funcionam bem. Portanto, se houver uma URL que nunca existiu, retorne 404, tudo bem. Por outro lado, se você vir que há links chegando ao seu site que estão apontando para outro lugar, você pode adivinhar o que eles significavam e talvez eles tenham apenas um erro de digitação ou um ponto extra no final ou algo assim, então isso pode fazer sentido para redirecionar, especialmente quando você vê pessoas passando por esses links porque parece que algo ou alguém tenta recomendar seu site, mas eles não acertaram perfeitamente. Portanto, pode fazer sentido redirecioná-los para a página correta. Acho que para essas duas situações é algo em que você também pode olhar um pouco para o tráfego por meio desses URLs, se muitas pessoas acessarem esses URLs, de alguma forma, isso é encorajador, porque as pessoas estão querendo ir para suas páginas, então pode fazer sentido para descobrir uma maneira de determinar o significado desse link e para onde eu poderia apontá-lo, para onde eu poderia redirecionar as pessoas.

Pergunta 8:56 - Quais fatores podem fazer com que um conteúdo distribuído em um site parceiro tenha uma boa classificação. Isso apesar do fato de que o canônico está definido para o conteúdo original do meu lado e está lá há vários meses. É uma questão de site ou nicho ou autoridade. O que poderíamos fazer lá?

Resposta 9:19 - Acho que essa é sempre uma situação complicada, tentamos descobrir qual página é a mais relevante para algumas dessas consultas e direcionar os usuários diretamente para lá, mas se forem sites completamente separados e eles estiverem apenas postando o mesmo artigo, então também há muito valor adicional do resto do site e isso pode ser uma informação nessa página específica, pode ser um tipo de valor adicional que o resto do site traz para onde quando alguém acessa esse artigo talvez eles saiam e vejam outras coisas nesse site porque, de outra forma, isso também foi muito bom. Então isso é algo que sempre pode acontecer e se você está distribuindo conteúdo é algo que você precisa levar em consideração que pode acontecer que o conteúdo que você distribuiu para algum outro site acabe sendo classificado acima do seu conteúdo que nem sempre é completamente evitável . Então, esses são tipos de trocas que você tem que olhar lá, eu acho que o canônico é uma boa maneira de nos informar que essas duas páginas pertencem uma à outra, mas também é o caso de um canônico não estar realmente correto em qualquer caso, como isso porque as próprias páginas podem ser completamente diferentes. Pode ser que haja esse bloco de texto que é o mesmo em ambas as páginas, mas pode ser que haja muitos outros conteúdos em torno dessa página que são completamente diferentes, que podem ser comentários de usuários, que podem ser o resto o próprio site. Então, novamente, isso é uma espécie de troca que você precisa analisar, faz sentido trazer as informações para um público mais amplo distribuindo o conteúdo, mas, por outro lado, você deve levar em consideração que talvez esses outros sites sejam classificados acima seu site quando se trata de pesquisar esse conteúdo específico.

Pergunta 11:24 - O Google está relatando nossas páginas de produtos expirados como soft 404 para esses URLs redirecionados para produtos alternativos relevantes com uma mensagem informando que o produto desejado não está disponível. O redirecionamento está causando um soft 404 ou o conteúdo da página de redirecionamento?

Resposta 11:47- Eu suspeito que o que está acontecendo aqui é que nossos algoritmos estão olhando para essas páginas e estão vendo que talvez haja um banner nesta página dizendo que este produto não está mais disponível e eles assumem que isso se aplica à página de o usuário acabou. Então isso às vezes não é realmente evitável lá. Se você estiver realmente substituindo um produto por outro, pode fazer sentido apenas redirecionar.

Pergunta 12:32 - Quanto tempo leva para o Google reconhecer as tags Hreflang? É possível que o Google indexe primeiro da Suíça e mostre uma versão CH de um site sob o TLD alemão?

Resposta 13:02 - Portanto, não indexamos primeiro o conteúdo da Suíça, nossos rastreadores e nossos sistemas estão mais localizados nos EUA do que na Suíça. Portanto, não acho que priorizaríamos o conteúdo suíço sobre outros conteúdos, mas o que acontece com os links hrefLang em geral é um processo de várias etapas. Primeiro, temos que rastrear e indexar essas diferentes versões da página. Em seguida, temos que indexá-los com o mesmo URL que você especificou na marcação hreflang e, em seguida, precisamos ser capazes de seguir essa marcação hreflang entre essas diferentes versões da página e, para fazer isso, precisamos ter essa confirmação de volta também . Portanto, é algo que demora um pouco mais do que apenas o rastreamento e a indexação normais, temos que entender a rede entre essas diferentes páginas que deveriam fazer parte desse conjunto de páginas hreflang. Então isso é algo que provavelmente é normal para nós levarmos, eu não sei, talvez duas ou três vezes mais do que simplesmente rastrear e indexar uma página individual para que possamos entender o link entre as versões hreflang. Novamente, não há preferência pela Suíça sobre outros países da Europa, acho que seria bom apenas para mim, pessoalmente, de um ponto de vista egoísta, mas não faria sentido no tipo de área global em geral. Nós tentamos tratar todos os sites da mesma forma. Então, só porque um site tem uma versão CH, não significa que seria automaticamente classificado acima de uma versão alemã. Então, a outra coisa com o hreflang é que, na maioria das vezes, ele não altera os rankings, apenas troca os URLs.

Pergunta 15:12 - Recentemente mudei o domínio do meu site deste para outro redirecionamento 301 em vigor. A mudança de endereço foi iniciada, ainda estou vendo os URLs antigos e já se passaram mais de três semanas, isso é normal? Eu tive alguns problemas com 301s que não estavam ativos por uma semana após a migração, mas eles estão ativos agora. Para algumas consultas, o site antigo e o novo aparecem nos resultados da pesquisa. O que eu poderia estar fazendo de diferente aqui?

Resposta 15:46 - Portanto, o redirecionamento 301 é realmente o que você deve observar. É importante para nós que o redirecionamento 301 seja por página. Portanto, todas as páginas antigas redirecionam para a mesma página no novo site. Temos tudo isso abordado em nossas informações na Central de Ajuda para mudanças de site, então eu verificaria isso e passaria pelo passo a passo e URL por URL até mesmo para ver se isso está realmente funcionando da maneira que deveria estar funcionando . Outra coisa a ter em mente é que rastreamos e indexamos URLs individualmente. Portanto, não rastreamos todo o site de uma vez e depois trocamos as coisas, fazemos isso passo a passo e algumas dessas páginas são rastreadas e indexadas muito rapidamente em algumas horas, algumas delas demoram muito mais para serem re- rastreado e reindexado e isso pode levar vários meses. Então, isso é algo que pode estar desempenhando um papel aqui também, onde talvez não tenhamos tido a chance de rastrear, indexar e processar o redirecionamento de todas essas páginas, então ainda há algumas que vimos apenas no site antigo e alguns que já vimos no novo. Isso pode estar desempenhando um papel aqui também, especialmente se você estiver olhando para um período de três ou quatro semanas e isso seria meio normal e, finalmente, o que também desempenha um pouco nisso é algo que os SEOs e webmasters acham muito confuso que mesmo depois de processarmos esse redirecionamento, se alguém procurar explicitamente o URL antigo, mostraremos o URL antigo. Isso é um pouco confuso, nossos sistemas estão tentando ser úteis aqui e dizem que sabemos que esse URL antigo existia e temos o novo conteúdo aqui, mas mostraremos a você porque é possivelmente o que você está procurando. Por exemplo, se você fizer uma consulta de site para o URL antigo, mesmo aqui, depois de mover seu site, ainda podemos mostrar alguns dos URLs de seu site antigo com uma consulta de site, mesmo que já tenhamos processado o redirecionamento para esses URLs . Então, quando você alterar o nome do seu site, por exemplo, você verá na consulta do site, você verá os URLs antigos com o novo nome do site mencionado lá e, do nosso ponto de vista, isso está funcionando conforme o esperado, estamos tentando ajudar o o usuário médio que está procurando um URL. Para um webmaster que acabou de fazer uma mudança de site, isso é um pouco confuso. Então eu não sei se isso é algo que vamos mudar, mas em geral eu acho que isso faz sentido.

Pergunta 21:46 - Como o bot de pesquisa do Google visualiza a personalização do site? Temos uma nova camada de produto que o site permite a personalização com base na localização da indústria, mesmo para uma única empresa, o que nos permite realmente ajustar o conteúdo.

Resposta 22:12 - Acho que analisamos isso uma última vez também, mas apenas para dar uma resposta rápida aqui, a parte importante é que o Googlebot rastreia principalmente dos EUA. Portanto, se você veicular conteúdo diferente para países diferentes, o Googlebot provavelmente verá apenas a versão americana do conteúdo. Não poderíamos indexar versões diferentes do conteúdo para locais diferentes. Portanto, se houver algo que você deseja indexar, certifique-se de que esteja na parte genérica do seu site para que o Googlebot possa pegá-lo. Você pode usar a personalização para adicionar informações adicionais em toda a página, mas se quiser que algo seja indexado, deve estar na parte da página que não está vinculada à personalização.

Pergunta 22:59 - Gostaria de saber o quanto uma taxa de desempenho muito baixa em web.div está afetando a classificação de um site no Google?

Resposta 23:06 - Não sei. Então web.dev é uma ferramenta muito legal que reúne os diferentes testes que temos no lighthouse e te dá pontuações sobre eles e te guia pelo processo de melhorar essas pontuações. Então, quando se trata de acelerar as coisas, você precisa estar atento às coisas que você pode tentar e, ao longo do tempo, acompanhar o progresso do seu site e como você está passando pelos diferentes conteúdos que estão na ferramenta. Então, isso é algo que eu acho que geralmente é uma boa prática para passar e trabalhar, mas também é algo que essas são boas práticas a serem seguidas, mas isso não significa que elas resultarão automaticamente em uma classificação mais alta. Da mesma forma, se você tiver pontuações baixas aqui, isso não significa que seu site está com uma classificação terrível porque não está seguindo as práticas recomendadas. Portanto, há um aspecto de, por um lado, se o seu site é tão ruim que não podemos indexá-lo corretamente, o que pode ser o caso de uma pontuação de SEO muito baixa no farol, onde não podemos acessar os URLs ou não há URLs nesta página e é apenas um shell JavaScript para o qual não podemos processar o JavaScript. Que eu poderia ter um efeito severo no seu SEO, mas por outro lado, se for apenas uma questão de seu site ser um pouco lento ou não estar perfeitamente otimizado, não sei se isso causaria um efeito significativo no seu site. Então, minha recomendação aqui é olhar para os conselhos que são dados em ferramentas como web.dev e pensar sobre o que você pode implementar, pense nas partes que você acha que são importantes para o seu site, por um lado, para os mecanismos de pesquisa, é claro, se você estiver perguntando isso aqui, por outro lado, também para seus usuários, porque, em última análise, se você estiver fazendo algo que melhore as coisas para seus usuários, isso também terá um tipo de efeito de gotejamento de longo prazo no restante do seu site.

Pergunta 26:58 - O Google pode decidir se mostra ou não informações da organização de dados estruturados.

Resposta 27:05 - Não sei o que você quer dizer com organização de dados estruturados, mas em geral temos algoritmos que tentam descobrir quando faz sentido mostrar dados estruturados como resultados avançados nos resultados da pesquisa e quando sentimos que talvez não faz sentido ou quando sentimos que talvez não tenhamos cem por cento de certeza sobre este site ou sobre a maneira como os dados estruturados são implementados neste site e seremos um pouco mais cautelosos. Portanto, isso é algo em que, se você fornecer uma marcação válida de dados estruturados, não é uma garantia de que sempre será mostrado exatamente assim nos resultados da pesquisa.

Pergunta 28:31 - Pergunta sobre a estrutura do site e configuração multirregional multilíngue devo me preocupar com a configuração dos parâmetros de URL ao dividir os domínios por pastas para separar os serviços no console de pesquisa.

Resposta 28:52 - Então, por um lado, acho bom que você esteja analisando esses tipos de problemas, por outro lado, estou meio preocupado que você tenha configurações diferentes para um site por subdiretório, porque isso soa como talvez você não esteja fazendo algo tão limpo com os parâmetros de configuração de URL em geral no site. Então, isso é algo em que, eu não conheço o site aqui especificamente, então é muito difícil dizer, mas parece que você tem parâmetros diferentes que significam coisas diferentes ou que podem ser ignorados ou que não devem ser ignorados dependendo do tipo individual de subdiretório em seu site. Por um lado, isso deve ser possível, devemos ser capazes de lidar com isso, por outro lado, se houver situações em que podemos ignorar completamente parâmetros de URL individuais e em outros casos em que esses mesmos parâmetros são críticos para o conteúdo, isso parece como algo em que nossos algoritmos podem ficar confusos e dizer, bem, sempre precisamos manter esses parâmetros ou nunca precisamos manter esses parâmetros e, de repente, partes do seu conteúdo estão faltando ou partes do seu conteúdo são indexadas várias vezes. Portanto, usar a ferramenta de parâmetro de URL definitivamente nos ajuda em um caso como esse, mas parece que provavelmente faria mais sentido tentar limpar esses parâmetros de URL em geral e encontrar uma maneira de ter uma estrutura consistente para os URLs de seus sites para que que os algoritmos não precisam adivinhar, que os algoritmos não precisam descobrir, Oh neste caminho em particular este parâmetro é importante e nesses outros caminhos podemos ignorá-lo. Sempre que você adiciona tanta complexidade adicional ao rastreamento e à indexação do site, você se depara com a situação em que talvez as coisas dêem errado. Portanto, quanto mais fácil você puder mantê-lo, quanto mais limpo você puder mantê-lo, quanto mais simples e você puder mantê-lo dentro de sua estrutura de URL, maior a probabilidade de rastrear e indexar esse site sem ter que pensar duas vezes e como sempre existem outros motores de busca lá fora, eles não têm a ferramenta de configuração de URL. Que os dados que temos lá para que eles não possam ver isso e você pode estar causando problemas nesses outros mecanismos de pesquisa ou talvez também desempenhe um papel na forma como seu conteúdo é compartilhado nas mídias sociais. Então, todas essas coisas meio que entram em jogo aqui. Minha recomendação geral aqui seria não gastar muito tempo tentando ajustar a ferramenta de manipulação de parâmetros de URL para todos esses subdiretórios diferentes, mas sim aproveitar esse tempo e investi-lo pensando no que você gostaria de ter como URL estrutura para o longo prazo e pensando nas etapas que você precisaria para chegar a essa estrutura de URL mais limpa.

Pergunta 32:17 - Espero obter algumas informações sobre um problema que postei relacionado ao conteúdo sendo o índice como URL enviado duplicado não selecionado como canônico.

Resposta 33:04 - Então, em geral, o que eu acho que está acontecendo aqui é, por qualquer motivo, nossos algoritmos acreditam que essas páginas são equivalentes e que podemos dobrá-las e, por isso, escolhemos um canônico de uma dessas páginas e parece como olhar para as páginas manualmente em um navegador que elas são realmente páginas bem diferentes, então dobrá-las juntas não faria sentido, portanto, selecionar um canônico desse recurso também não faria sentido. Uma das coisas que vi no passado que levaram a algo assim é quando não conseguimos renderizar o conteúdo corretamente. Quando não podemos realmente acessar o conteúdo corretamente, quando basicamente vemos uma página vazia que dizemos, oh bem, isso é o mesmo que a outra página vazia que vimos, talvez possamos dobrá-las. Então, de imediato, essa é a direção que eu tomaria para pensar em como o Google está pensando que essas páginas são equivalentes, é possível que talvez no teste de compatibilidade com dispositivos móveis elas não tenham conteúdo real. Será que estou mostrando um intersticial para o acidente do Googlebot e apenas esse intersticial está sendo indexado, o que pode estar acontecendo aqui? Eu não tive a chance de olhar para isso com muitos detalhes aqui ainda, então pode ser que algo assim esteja acontecendo do seu lado, pode ser que algo estranho esteja acontecendo do nosso lado e precisamos consertar isso, mas isso é gentil da direção que eu tomaria em um caso como este.

Pergunta 34:41 - Quero navegar um pouco melhor pelos meus clientes no meu site. Quero ter certeza de que isso não confundirá o Google. Eu gostaria de configurar minha estrutura de URL para ter um domínio e depois uma categoria e depois um produto em um caminho ou talvez eu configure de forma diferente o que devo fazer, qual estrutura de URL devo escolher?

Resposta 35:13 - Do nosso ponto de vista, você pode usar qualquer estrutura de URL. Então, se você estiver usando um tipo de estrutura de subdiretório de subdomínio de caminho que está perfeitamente bem, é importante para nós não corrermos para espaços infinitos. So if you use URL rewriting on your server that it's not the case that you can just add like the last item in your URL and just continue adding that multiple times and just it always shows the same content but it should be a clean URL structure where we can crawl from one URL to the other without getting lost in infinite spaces along the way. You can use your URL parameters if you want but if you do decide to use your URL parameters like I mentioned in one of the previous questions try to keep it within a reasonable bound. So that we don't again run off into infinite spaces where lots of URLs lead to the same content but whether or not you put the product first or the category first or you use an ID for the category or write out the category as text that's totally up to you. That doesn't have to be a line between your ecommerce site on your blog that can be completely different on both of these. So I think it's good to look at this but on the other hand I lose too much sleep over this and rather define the URL structure that works for you in the long run in particular one that you don't think you need to change in the future. So try not to get too narrow down and pick something that works for you, works for your website.

Question 37:43 - We're developing an application for angular Universal with some sections we want to change the appearance of the URLs in the browser but keep it the same on the server side. So for the server it would be luxury goods leather bags but the user would see just leather bags. Is there any problem with this in angular Universal using dynamic rendering?

Answer 38:08- So just from from a practical point of view Googlebot doesn't care what you do on the server you can track that however you want on your server. The important part for us is that we have separate URLs for separate pages that we have links that Googlebot can click on that are in kind of a elements with an href pointing to a URL that we can follow and that we can access these URLs without any history is with them. So if we take one URL from your website we can copy and paste it into an incognito browser and it should be able to load that content and if it loads that content if you have proper links between those pages then from our point of view how you handle that on your server is totally up to you. Using angular Universal with dynamic rendering or if you have something of your own that you set up that's all totally up to you that's not something that we would care about. It's not something we would even see because we see the HTML that you serve us and the URLs that you serve us.

Question 39:18 - My website fetches individual web pages which are not interlinked through an API but no links are displayed through clicks. It has a search box where every individual page shows search results is Google is successfully crawling all links as valid via sitemap does Google see this is a valid practice because links and millions will harm rankings or increase ranking.

Question 39:48 - So there are lots of aspects in this question where I say this sounds kind of iffy there is some things that sound kind of ok. So if Google is already indexing these pages then something is working out right. In general I I'd be careful to avoid setting up a situation where normal website navigation doesn't work. So we should be able to crawl from one URL to any other URL on your website just by following the links on the page. If that's not possible then we lose a lot of context. So if we're only seeing these URLs through your sitemap file then we don't really know how these URLs are related to each other and it makes it really hard for us to be able to understand how relevant is this piece of content in the context of your website, in the context of the whole web. So that's that's one thing to kind of watch out for and the other thing to watch out for. The other thing too watch out for I think is if you're talking about millions of pages that you're generating through an API with a search box and just so many of those via sitemap files. I may be kind of cautious there with regards to the quality of the content that you're providing there. So in particular if you have like product feeds if you're using RSS feeds to generate these pages, if you're doing anything to automatically pull content from other websites or from other sources and just kind of republishing that on your site then that's something where I could imagine our quality algorithms maybe not being so happy with that. Similarly if this is all really completely republished from other web sites I could imagine the web spam team taking a look at that as well and saying well why should we even index any of this content because we already have all of the content indexed from from the original sources. Like what is the value that your website is providing that the rest of the web is not providing. So that's one thing to kind of watch out for. I don't want to kind of suggest that your website is spammy I haven't seen your website but it is something that we do see a lot and it's something where as a developer you go, oh I have all of these sources and I can create code therefore I can combine all of these sources and create HTML pages and now have a really large website without doing a lot of work, and that's really tempting and lots of people do that, lots of people also buy frameworks that do this for you but it doesn't mean that you're creating a good website. It doesn't mean that you're creating something that Google will look at and say oh this is just what we've been waiting for we will index it and ranked it number one for all of these queries. So it might mean that it looks like very little work in the beginning because you could just combine all of these things but in the end you spend all this time working on your website when actually you're not providing anything of value then you end up starting over again and trying to create something new again. So it looks tempting to save a lot of work in the beginning but in the long run you basically lose that time. So it might make more sense to figure out how can you provide significant value of your own on your website in a way that isn't available from other sites.

Question 43:34 - We're facing an issue where lots of resources couldn't load through the to the same page not getting rendered in the snapshot for Googlebot while debugging these issues we couldn't find a solution and Google is marking them as other error. What could that be?

Answer 43:51 - So this is also a fairly common question what is essentially happening here is we're making a trade-off between a testing tool and the actual indexing and within the testing tool we try to get information as quickly as possible directly from your server but at the same time we also want to give you an answer fairly reasonably quickly so that you can see what is happening. What what tends to happen here is if you have a lot of resources on your pages that need to be loaded in order for your page to load then it could happen that our systems essentially timeout and we try to fetch all of these embedded resources but we don't have enough time because we want to provide an answer to you as quickly as possible. So you end up seeing these embedded resources not being pulled and you see an error in the live rendering of the page like that. When it comes to indexing our systems are quite a bit more complex though we cache a lot of these resources. So if we try to index an HTML page we'll know all of these CSS files we've seen before we can just pull them out of our cache we don't have to fetch them again we can render those pages normally and that just works. One thing you can do or maybe they're two you can do to to kind of help improve that for the testing tool and for users in general. On the one hand you can reduce the number of embedded resources that are required on your pages. So instead of having a hundred CSS files you've you kind of throw them into the tool you create one CSS file out of that that's one thing that you can do that makes sense for both users and for search engines. You can do that for JavaScript as well you can minify the JavaScript you can combine things and kind of make packages rather than individual files I think that's a good approach. The other thing is if you're seeing this happening for your pages and you don't have a lot of embedded content then that's kind of a hint that your server is a bit slow and that we can't kind of fetch enough content from your server to actually make this work. So that might be a chance to look at your server your network connectivity and to think about what you can do to make that a little bit faster so that these tools don't time out so that it's also faster for users as well. So in both of these cases the net effect is that users will mostly be seeing the speed improvement but the side effect will also be that you'll be able to use these tools a little bit better because they tend not to time out as much.

So what what I would do there is try to use some other tools to figure out is this really a problem on your side somehow that things are a little bit slow or is this something just on Google side that we we tend not to have as much time to fetch all of these individual resources so what you could do is use the the chrome developer tools what is it the network tab that you have there and to figure out like how many of these resources are being loaded how long does it take you can use webpagetest.org it also creates a kind of a waterfall diagram for your content also listing the the time that it takes for those test URLs and the size of the resources that were to return and by using those two you can kind of figure out is is it the case that it just takes 20 seconds to load my page with all of the embedded content with all of the high resolution images or is it the case that these testing tools say my page loads in 3 or 4 seconds with all of the embedded content therefore it's probably more an issue on Google side I don't have to worry about it.

Question 53:46 - I've noticed as a result of the last several updates that have been coined the the medic update. I've seen some websites that no longer show on the first page of search results for their own company, for their own brand, and I was wondering why in general what would that be?

Answer 54:35 - I think that's that's always a bit tricky there usually are two aspects that are involved there. One is more an issue especially with newer websites where the website name or the company name is more like a generic query. So if for example the the website's name is “ Best Lawyers in Pittsburgh” or something like that. Then on the one hand that might be the company name, on the other hand if someone were to type that into search, we would probably assume that they're not looking for that specific company but rather they're looking for information for that query. So that's especially with newer companies that's something that we see every now and then. We see that the forums or people there saying, oh I'm not ranking for my domain name, and then their domain name is something like I don't know best VPN providers.com it's like well, it's a domain name but it doesn't mean that you will rank for for that query. So that's one thing when it comes to sites that are a little bit more established that are out there already usually it's more a sign that we just don't really trust that website as much anymore. So that's something where we might recognize that actually people are searching for this company but we feel maybe the company website itself is not the most relevant result here, maybe we feel that there is kind of auxiliary information about that company which is more important that users see first where which could result in something like this happening. Usually that that's more a matter of things kind of shuffling around on the first one or two pages in the search results. It would be really rare that that's something like that would result in a website not showing up at all the first couple pages of the search results. I think that's that's kind of what you highlighted there with your question and that's something where I think well, even if we didn't trust this website as much anymore then we should at least have it somewhere in the search results because if we can tell that someone is explicitly looking for that website it would be a disservice for the user to not show it at all. Like for maybe for generic queries one could argue maybe it's not the perfect result but if we can tell that they're really looking for that website at least we should give the user a chance to see that website as well. So that's kind of why I took that and said well maybe we should be catching this a little bit better and II don't know if our algorithms are correctly kind of understanding how trustworthy your website there would be. I don't know the website so that's really hard for me to judge but even if we think that it wasn't trustworthy at all maybe we should still show it somewhere in the search results on the first page. The other thing to maybe look at if you haven't done so already is look at look at the quality rater guidelines that we have and there's a lot of information about kind of trustworthiness in there. Some of that is worth taking with a grain of salt it's not that we take that kind of one-to-one and use that as a ranking factor but there there are a lot of ideas in there especially when you're talking about a topic that's a kind of legal website or medical website then it does make sense to show users like why are you providing this information why should they trust you.