Horário de Atendimento SEO – 17 de setembro de 2021
Publicados: 2021-09-21Este é um resumo das perguntas e respostas mais interessantes do Google SEO Office Hours com John Mueller em 17 de setembro de 2021.
Limites de palavras
09:05 “Qual é o limite para as palavras que temos que usar nas páginas da [categoria]?”
John afirmou que não existem tais limites e acrescentou que “[…] especialmente com páginas de categoria, você precisa ter algumas informações na página para que possamos entender qual é o tópico. Mas isso é geralmente muito pouca informação. E, em muitos casos, entendemos isso dos produtos que você listou de qualquer maneira, se os nomes dos produtos forem claros o suficiente para entendermos. […] Mas às vezes os nomes dos produtos são um pouco difíceis de entender, e então pode fazer sentido adicionar algum contexto lá. Mas geralmente é um contexto adicional no tamanho de talvez uma ou duas ou três frases.”
Nenhuma alteração nas métricas de cobertura do índice
10:57 “Estou trabalhando em um grande site com alguns milhões de páginas. Fizemos um redirecionamento entre dois idiomas. […] Então a migração está indo bem, o tráfego está saindo do segundo caminho. Só para esclarecer, é uma projeção entre duas subpastas ou tudo dentro do mesmo domínio. O que eu quero levantar aqui é que não estamos vendo nenhuma mudança nas métricas de Cobertura depois de quase três semanas de redirecionamento. […] Sem deixar cair as páginas válidas, sem aumentar as páginas excluídas por causa de redirecionamentos ou algo assim. Devemos nos preocupar com isso?”
“Não acho que haja um cronograma fixo para que esse tipo de coisa seja visível. […] Rastreamos páginas em uma velocidade diferente em um site. E algumas páginas serão rastreadas todos os dias e outras páginas serão rastreadas talvez uma vez por mês ou a cada poucos meses. Portanto, se o conteúdo dessas pastas que você está mesclando for um conteúdo que raramente é rastreado, levará muito tempo para que isso seja refletido. Considerando que, se for um conteúdo que está sendo rastreado muito ativamente, você deverá ver as alterações em, geralmente, não sei, uma semana ou mais.”
Atualizações do relatório Cobertura do índice
13:25 Ao mesclar duas subpastas, “[…] o tráfego está indo de uma parte do site para a outra. Tudo está indo bem, e também estamos vendo isso nos arquivos de log. […] Mas não estamos vendo isso nas métricas de Cobertura. Estamos preocupados que isso possa ser um bug de relatório ou que deveríamos esperar o dia todo?”
John respondeu como “[…] O relatório de Cobertura do Índice é atualizado talvez duas vezes por semana. […] Muitos dos relatórios no Search Console são uma ou duas vezes por semana, então isso pode ser algo em que é apenas um atraso. Mas se você está vendo o tráfego indo para as páginas certas, se você está olhando para o Relatório de Desempenho e está vendo esse tipo de mudança, então eu acho que está perfeitamente bem. Acho que você não precisa ficar atento ao relatório de Cobertura do Índice para algo assim. Porque o que geralmente acontece quando você mescla páginas como essa é que nossos sistemas primeiro precisam descobrir que precisamos encontrar um novo canônico para essas páginas. Então você pega duas páginas, você as dobra em uma. Então vemos que este é um conjunto de páginas, temos que escolher um canônico, e esse processo leva um pouco de tempo. E então leva um pouco de tempo para que isso seja refletido nos relatórios. Considerando que, se você fizer algo como uma mudança de site limpa, podemos simplesmente transferir tudo. Não temos esse processo de canonização que temos que descobrir. Então, eu poderia imaginar que leva mais tempo para ser visível lá.”
Entendendo a qualidade do site
15:22 “Minha pergunta é sobre […] especificamente os algoritmos com novas páginas […] quando o Google aparece e chama e procura entender. Ele então compara essas páginas com páginas legadas mais antigas no site e diz, ok, bem, essas páginas são ótimas, mas essas páginas muito mais antigas são realmente um lixo. Para que isso afete a qualidade das páginas mais recentes e das páginas de categoria. Isso é algo que os algoritmos fazem […] para realmente entender a qualidade do site?”
John disse que “[…] Quando tentamos entender a qualidade geral de um site, é apenas um processo que leva muito tempo. E tem – eu não sei – um tempo de espera bastante longo lá. Então, se você adicionar cinco páginas a um site que já tem 10.000 páginas, provavelmente vamos nos concentrar na maior parte do site primeiro e, com o tempo, veremos como isso se ajusta ao novo conteúdo; lá também.”
Passando a equidade do link
17:06 “Se você obtiver um backlink, [o Google] não irá apenas assumir que é um backlink de boa qualidade e, portanto, apenas passará o valor do link para o site cegamente. Então, o Google, quando está rastreando esses backlinks, olha para o tráfego de referência e joga isso no algoritmo? Ou se ele não vê essa informação, ele tenta, eu acho, avaliar se há uma alta propensão a clicar nesse link? E, então, se houver uma alta propensão a clicar nesse link, eles passarão o patrimônio do link? Se não houver, então diga que você sabe, […] você poderia literalmente criar um blog e criar um link agora. Nesse caso, o Google diz, bem, na verdade, não há tráfego; não há muita coisa acontecendo aqui, então por que devemos passar qualquer forma de equidade de link? […] Esse tipo de alimentação influencia se o valor do link é ou não repassado para um site?”
"Eu não acho. Não usamos coisas como tráfego através de um link ao tentar avaliar como um link deve ser valorizado. Até onde sei, também não analisamos coisas como a probabilidade de alguém clicar em um link com relação a como devemos valorizá-lo. Porque às vezes os links são essencialmente apenas referências, e não esperamos que as pessoas cliquem em todos os links de uma página . Mas se alguém estiver se referindo ao seu site e dizendo, estou fazendo isso porque esse especialista aqui disse para fazer isso. Então as pessoas não vão clicar nesse link e sempre […] olhar para o seu site e confirmar o que está escrito lá. Mas eles verão isso quase como uma referência. […] Se eles precisassem buscar mais informações, eles podiam ir até lá. Mas eles não precisam. E, desse ponto de vista, não acho que levaríamos isso em consideração quando se trata de avaliar o valor do link.”
Migração de sites de domínio
20:53 “ Fizemos uma migração de domínio do site de um domínio para um novo e seguimos todos os requisitos e recomendações de migração. Atualizamos redirecionamentos, tags canônicas e testamos em um ambiente de desenvolvimento antes. Adicionamos a nova propriedade e verificamos o novo domínio no Google Search Console. Ao fazer a mudança de endereço, recebemos um erro de falha de validação dizendo que há um redirecionamento 301 da página inicial e não foi possível buscar o domínio antigo. Como passamos na validação da ferramenta de mudança de endereço?”
“Em primeiro lugar, o mais importante a ter em mente é que a ferramenta Change of Address é apenas um sinal extra que usamos em relação às migrações. Não é um requisito. Portanto, se, por qualquer motivo, você não conseguir que a ferramenta Change of Address funcione para o seu site, se você tiver o redirecionamento configurado corretamente, todas essas coisas, você deve estar configurado. Não é algo que você absolutamente precisa fazer. Imagino que a maioria dos sites […] na verdade não usa essa ferramenta. É algo mais como aqueles que conhecem o Search Console e aqueles que conhecem todos esses tipos de coisas extravagantes, eles podem estar usando. Com relação ao motivo pelo qual pode estar falhando, é muito difícil dizer sem saber o nome do seu site ou os URLs que você está testando lá.
Uma coisa que eu vi é se você tem uma versão www e uma versão não www do seu site e você redireciona passo a passo através disso. Assim, por exemplo, você redireciona para a versão não www e, em seguida, redireciona para o novo domínio. Então isso pode acontecer que nos desanima se você enviar a Mudança de Endereço na versão do site que não é a versão principal. Então, isso pode ser uma coisa, verificar novamente em relação à ferramenta de alteração de endereço que você está enviando a versão que está ou que foi indexada no momento, ou está enviando talvez a versão alternativa no Search Console. ”
Adicionando vários tipos de esquema
23:36 “Posso adicionar vários tipos de esquema a uma página? Se sim, qual seria a melhor maneira de combinar o esquema de perguntas frequentes e o esquema de receita em uma página?”

“ Você pode colocar quantos dados estruturados quiser em sua página. Mas, na maioria dos casos, quando se trata das pesquisas aprimoradas que mostramos nos resultados de pesquisa, tendemos a escolher apenas um tipo de dados estruturados ou um tipo de pesquisa aprimorada e focar apenas nele. Portanto , se você tiver vários tipos de dados estruturados em sua página, há uma chance muito grande de escolhermos apenas um desses tipos e mostramos isso. Então, se você quiser que qualquer tipo específico seja mostrado nos resultados da pesquisa e você vir que não há usos combinados quando você olha para os resultados da pesquisa, então eu tentaria focar no tipo que você deseja, e não apenas combiná-lo com outras coisas. Então, idealmente, escolha um que você realmente queira e concentre-se nisso.”
404s vs. rastreabilidade e indexabilidade
24:39 “ Nosso relatório de estatísticas de rastreamento do GSC está mostrando um aumento constante de 404 páginas que NÃO fazem parte do nosso site (elas não existem em nosso mapa do site, nem são geradas por pesquisa interna). Parecem ser pesquisas do Google que estão sendo anexadas aos nossos URLs, e o Google está tentando rastreá-las. No detalhamento da resposta de rastreamento, esses 404s representam mais de 40% da resposta de rastreamento. Como podemos garantir que isso não afete negativamente nossa rastreabilidade e indexabilidade?”
“Em primeiro lugar, não criamos URLs, então não é que façamos pesquisas no Google e depois criemos URLs em seu site. Eu acho que esses são apenas links aleatórios que encontramos na web. […] Então isso é uma coisa que acontece o tempo todo. E encontramos esses links e os rastreamos. Vemos que eles retornam 404 e começamos a ignorá-los. Então, na prática, isso não é algo que você tem que cuidar. […] Normalmente, o que acontece com esses tipos de links é que tentamos descobrir em geral para o seu site quais URLs precisamos rastrear e quais URLs precisamos rastrear em qual frequência. E então levamos em consideração depois de termos trabalhado o que absolutamente precisamos fazer, o que podemos fazer adicionalmente. E nesse bucket adicional, que também é como um conjunto de URLs muito, eu acho, classificado, essencialmente que também incluiria […] links aleatórios de sites de raspagem, por exemplo. Então, se você está vendo que estamos rastreando muitos URLs em seu site que vêm desses links aleatórios, basicamente, você pode supor que já terminamos o rastreamento das coisas que nos interessam e que achamos que seu site é importante para. Nós apenas temos tempo e capacidade em seu servidor, e vamos tentar outras coisas também. Portanto, desse ponto de vista, não é que esses 404s estejam causando problemas com o rastreamento do seu site. É quase mais um sinal de que, bem, temos capacidade suficiente para o seu site. E se você tiver mais conteúdo do que realmente vinculou em seu site, provavelmente rastrearíamos e indexariamos isso também. Então, essencialmente, é quase como um bom sinal, e você definitivamente não precisa bloqueá-los pelo robots.txt, não é algo que você precisa suprimir […]”
Bloqueando o tráfego de outros países
27:34 “ Temos um site de serviços operando apenas na França. E estamos tendo muito tráfego vindo de outros países que têm largura de banda muito ruim, o que faz com que nossas pontuações de CWV diminuam. […] Como não operamos fora da França, não temos utilidade para o tráfego fora dela. É recomendado bloquear o tráfego de outros países?”
Aqui está o que John disse: “Eu tentaria evitar bloquear o tráfego de outros países. Eu acho que é algo em que, em última análise, depende de você. É o seu site; você pode escolher o que quer fazer. […] Nesse caso, uma das coisas a ter em mente é que rastreamos quase todos os sites dos EUA. Portanto, se você estiver localizado na França e bloquear todos os outros países, também estará bloqueando o rastreamento do Googlebot . E então, essencialmente, não poderíamos indexar nenhum de seus conteúdos. Desse ponto de vista, se você deseja bloquear outros países, certifique-se de que, no mínimo, não esteja bloqueando o país de onde o Googlebot está rastreando. Pelo menos, se você se preocupa com a pesquisa.
Reagrupamento de páginas
35:38 “ O Google recentemente reagrupou mais de 30.000 páginas em nosso site que são páginas visivelmente diferentes para pontuações CWV. […] Isso elevou o LCP médio para essas páginas para 3,4s, apesar de nossas páginas de produtos terem uma média de 2,5s antes do reagrupamento. Estávamos trabalhando para que as páginas ficassem 2,5 segundos abaixo do limite, mas nossas táticas agora parecem insignificantes demais para nos levar à pontuação que precisamos atingir. O agrupamento é definido e, em seguida, uma média de pontuação é obtida ou a pontuação é obtida e, em seguida, o agrupamento é definido? – (isso nos ajudará a estabelecer se colocar essas páginas de produtos na versão 2.5s ajudará a resolver o problema ou não).”
“[…] Não temos uma definição clara ou exata de como fazemos o agrupamento porque isso é algo que tem que evoluir um pouco com o tempo dependendo da quantidade de dados que temos para um site. Portanto, se tivermos muitos dados para muitos tipos diferentes de páginas em um site, é muito mais fácil para nossos sistemas dizer que faremos um agrupamento um pouco mais refinado do que antes. Considerando que, se não tivermos muitos dados, acabamos chegando a uma situação em que tomamos todo o site como um grupo. Então essa é a única coisa. A outra coisa é que os dados que coletamos são baseados em dados de campo. Você também vê isso no Search Console, o que significa que não é tanto que pegaríamos a média de páginas individuais e apenas a média pelo número de páginas. Mas sim, o que aconteceria na prática é que é mais uma média ponderada de tráfego no sentido de que algumas páginas terão muito mais tráfego e teremos mais dados lá. E outras páginas terão menos tráfego e não teremos tantos dados lá. Então isso pode ser algo em que você está vendo esses tipos de diferenças. Se muitas pessoas estão acessando sua página inicial e não tantas para produtos individuais, pode ser que a página inicial tenha um peso um pouco maior apenas porque temos mais dados lá. Então, essa é a direção que eu seguiria e, na prática, isso significa que, em vez de focar tanto em páginas individuais, eu tenderia a olhar para coisas como seu Google Analytics ou outras análises que você precisa descobrir quais páginas ou quais tipos de página estão recebendo muito tráfego. E então, ao otimizar essas páginas, você está essencialmente tentando melhorar a experiência do usuário […], e isso é algo que tentaríamos pegar para a pontuação do Core Web Vital lá. Então, essencialmente, menos a média do número de páginas e mais a média do tráfego do que as pessoas realmente veem quando acessam seu site.”
O algoritmo MUM
42:44 “ Com o advento do algoritmo MUM , os resultados da pesquisa serão uma resposta a várias fontes? Quer dizer, é quando o usuário procura por um tópico, as respostas são selecionadas de várias fontes e fornecidas a ele como um pacote? Acreditamos que a competição no futuro se tornará um tipo de interação entre concorrentes. Juntos, eles podem atender às necessidades de um pesquisador. Os sites se concentram em serviços que podem fornecer melhor. Vários concorrentes podem atender às necessidades dos pesquisadores. O portfólio de necessidades do usuário é completado por diversos sites que concorrem pelo melhor serviço, onde são mais conhecidos.”
John respondeu: “Não sei; talvez isso aconteça em algum momento. Nós temos uma noção de tentar fornecer um conjunto diversificado de opções nos resultados da pesquisa, onde podemos dizer que talvez existam coisas como opiniões muito fortes ou diferentes sobre um tópico específico . E é uma questão de quais opiniões existem por aí. Então pode fazer sentido fornecer algo como um conjunto diversificado de resultados que cobrem diferentes ângulos para esse tópico. Não acho que isso se aplique à maioria das consultas, mas às vezes é algo que tentamos levar em consideração.”
Migração do site
47:11 “ E se ao fazer uma migração de site e no dia em que puxarmos o gatilho, nós: robots.txt bloquear ambos os domínios […], fazer 302 redirecionamentos temporários (em alguns dias ou semanas mudar para 301s depois que os desenvolvedores não tiverem certeza de nada quebrado) e servir o status HTTP 503 em todo o site por um dia ou algumas horas enquanto os desenvolvedores verificam se há algo quebrado?“
De acordo com John, “[…] Estas são todas situações separadas. E não é o caso de dizermos, bem, esta é uma mudança de site com essa variação. Mas se você está bloqueando as coisas, se as coisas estão quebradas, então, antes de tudo, veríamos isso como algo que está quebrado. E se em um estágio posterior virmos que eles são realmente redirecionados, então diríamos, bem, agora o site está redirecionando. E nós os trataríamos como estados separados. Então se no dia que você quiser fazer a mudança do site, algo quebrar e tudo estiver quebrado no seu servidor, então vamos ver bem, tudo está quebrado no servidor. Não saberíamos que sua intenção era fazer uma mudança de site porque veremos que tudo está quebrado. Então, desse ponto de vista, eu os trataria como estados separados. E, claro, tente consertar qualquer estado quebrado o mais rápido possível e, essencialmente, passe para a migração o mais rápido possível depois disso.”
Removendo conteúdo antigo de um site de notícias
49:42 “Vale a pena olhar para remover/não indexar/não permitir notícias antigas em um site de notícias? Notícias como 10+ anos? Isso afeta a qualidade do site em geral e otimiza o orçamento de rastreamento? É um site com mais de 3 milhões de páginas. Faz alguma coisa com isso?”
“Eu não acho que você obteria muito valor removendo apenas notícias antigas. Também não é algo que eu recomendaria para sites de notícias porque às vezes toda a informação ainda é útil. Desse ponto de vista, eu não faria isso por motivos de SEO. Se as razões pelas quais você deseja remover o conteúdo ou colocá-lo em uma seção de arquivo em seu site por motivos de usabilidade ou manutenção […], isso é algo que você definitivamente pode fazer. Mas eu não removeria cegamente o conteúdo antigo porque é antigo.”
