Horário de Atendimento SEO, 25 de fevereiro de 2022

Publicados: 2022-03-09

Este é um resumo das perguntas e respostas mais interessantes do Google SEO Office Hours com John Mueller em 25 de fevereiro de 2022.

Conteúdo ocultar
1 Relatório de links no Search Console
2 Links de rodapé não contextuais vs. estrutura do site
3 Todo o texto oculto é contra as diretrizes do Google?
4 A importância dos nomes dos arquivos de imagem para a classificação do site
5 Segmentação de duas páginas diferentes com a mesma palavra-chave
6 Existe uma boa proporção para páginas indexadas versus não indexadas?
7 resultados de pesquisa em sites versus classificação
Atualização da experiência de 8 páginas na área de trabalho vs. classificação
9 Conteúdo traduzido não indexado

Relatório de links no Search Console

05:41 “Havia um domínio onde havia um site nele, e então […] foi deletado. [Se] houver um novo site em algum momento, os links para o site antigo não contam mais, o que parece bastante lógico. […] No Search Console, vejo pelo menos um link do antigo proprietário que ainda está lá. [isso] significa que esse link ainda contaria [se] o Search Console […] mostrar isso?”

John respondeu: “Não sei se isso contaria, mas a parte importante do Search Console e do relatório de links é que tentamos mostrar todos os links que conhecemos para esse site. Não é um sinal de que achamos que esses links são importantes ou que contam. Em particular, coisas como links nofollow ainda seriam listados, links de rejeição ainda seriam listados, links que ignoramos por outros motivos ainda poderiam ser listados também. Então , só porque está listado não significa que seja um link irrelevante ou útil para o site.”  

Links de rodapé não contextuais vs. estrutura do site

09:13 “Adquirimos um site que vinha com muitos links internos no rodapé de cada página. Alguns desses links não são tão relevantes. […] É provável que seja visto como problemático pelo Google porque os links não são necessariamente contextuais? […] Eles são apenas misturados no rodapé, e são selecionados por um plugin. Estamos com medo de que removê-los de centenas de páginas possa atrapalhar a estrutura do site.”

John disse: “Suspeito que, na maioria das vezes, isso não causaria nenhum problema. Eu veria isso mais, pois esses links nessas páginas são links internos normais.

Veja do ponto de vista: isso ajuda […] a dar contexto ao resto das páginas do site? Por exemplo, se você tem um site maior e, essencialmente, todas as páginas estão vinculadas a todas as outras páginas, não há contexto real, então é difícil para nós entender qual é a estrutura geral, quais dessas páginas [são] mais importantes. Porque se você está ligando para tudo, então é como se tudo não fosse importante. Esse é o elemento que eu tomaria cuidado. Se eles estão ou não no rodapé, isso, do meu ponto de vista, é irrelevante. Se eles são gerados por um plugin ou adicionados manualmente, acho que isso também não importa. Eu ficaria atento do ponto de vista estrutural: faz sentido ter esses links? Alguma quantidade de reticulação faz sentido. Se você tem uma configuração onde você tem páginas relacionadas com links cruzados, isso, do meu ponto de vista, sempre faz sentido. Cross-linking extremo onde você está cruzando todas as páginas com todas as outras páginas, do meu ponto de vista, não faz sentido.”

11:10 “[…] Se desabilitarmos o plugin e todos esses links de repente […] perderem a página, isso afetaria o site de alguma forma? Ou devemos tentar remover lentamente os links de uma página de cada vez?”

John: “Meu palpite é que isso afetaria a forma como é mostrado na pesquisa, mas é impossível dizer se será um efeito positivo ou negativo. Acho que essa é a parte complicada aí.

O que eu faria para tentar entender qual é a situação atual e qual seria o próximo passo é executar um rastreador no seu site. Muitos dos rastreadores de sites que existem geram um gráfico de como suas páginas estão vinculadas. Então você pode desabilitar o plug-in, talvez em uma versão de teste do seu site, talvez até na versão ao vivo por um curto período de tempo. Rastreie novamente e compare esses gráficos e veja, esse rastreador ainda consegue encontrar todo o conteúdo? Parece que há ligações cruzadas insuficientes lá? Nesse caso, isso lhe dá um pouco mais de confiança de que apenas desabilitar o plug-in estará bem. Do nosso ponto de vista, não importa se esses links são colocados automaticamente ou por um plugin ou por aprendizado de máquina. […] São apenas links que encontramos em seu site.”

Todo o texto oculto é contra as diretrizes do Google?

13:22 “Todos os textos ocultos são contra as diretrizes para webmasters? […] Temos alguns elementos que incluímos em várias páginas junto com identificadores atribuídos internamente para cada elemento, então esses identificadores não significam nada para os usuários […], mas como SEO, pode facilitar muito minha vida. […]”

A resposta de John foi: “Não acho que isso seria problemático. O texto oculto, do nosso ponto de vista, é mais problemático quando se trata realmente de enganar os mecanismos de pesquisa em relação ao que realmente está em uma página. Então, o exemplo extremo seria que você tem uma página sobre sapatos e há muito texto oculto lá que é sobre as Olimpíadas […] e, de repente, sua página de sapatos começa a ser classificada para esses termos olímpicos. Mas, quando um usuário vai, não há nada sobre as Olimpíadas, e isso seria problemático do nosso ponto de vista.

Acho que fazemos um trabalho razoável ao reconhecer o texto oculto e tentar evitar que isso aconteça, mas é por isso que temos esse elemento nas diretrizes para webmasters. Usá-lo para exibir algo que você não necessariamente quer enganar ninguém para isso, do meu ponto de vista, está perfeitamente bem. Além disso, a acessibilidade é um motivo comum para o texto oculto em uma página onde você tem os alvos de toque configurados de forma que você possa tocar neles e, em seguida, seu leitor de tela dirá algo sobre isso. Mas eles não são visíveis diretamente na página, e isso também está perfeitamente bem, então eu não teria nenhum medo ou dúvida de que essa configuração que você descreveu funcionaria.”

A importância dos nomes dos arquivos de imagem para a classificação do site

24:56 Estamos usando um provedor de CDN inteligente que vem substituindo os nomes dos arquivos de imagem por números exclusivos. Percebemos que todas as imagens são 404s no Search Console. A desativação do CDN degradaria significativamente o desempenho geral do site. O texto alternativo e as legendas da imagem serão suficientes para o Google entender sem um nome de arquivo ou título apropriado?”

De acordo com John, “Há duas coisas aqui que eu gostaria de olhar. Por um lado, se forem imagens que você precisa indexar na pesquisa de imagens, verifique se possui um nome de arquivo estável para suas imagens. Esse é o elemento mais importante aqui.

Você não menciona que esses números ou esses URLs mudam, mas às vezes esses CDNs fornecem essencialmente um ID baseado em sessão para cada imagem. Se o URL da imagem mudar toda vez que rastrearmos, essencialmente, nunca poderemos indexar essas imagens corretamente. Isso ocorre principalmente porque, para imagens, tendemos a ser um pouco mais lentos em relação ao rastreamento e à indexação. Então, se virmos uma imagem uma vez e dissermos que devemos dar uma olhada nela, e tentarmos rastreá-la novamente em algum estágio posterior, e o número tiver mudado até então, vamos remover essa imagem de nossos resultados de pesquisa, de as classificações de imagem. Essencialmente, diremos, bem, essa imagem que pensávamos estar aqui não está mais aqui. A parte mais importante aqui é descobrir que você se importa com a pesquisa de imagens? Nesse caso, você precisa ter um URL estável para todas essas imagens. Não importa se é um número ou se é um texto ou qualquer coisa assim. Deve ser apenas estável. Essa é a parte mais importante aqui.

A outra parte que você mencionou é o texto alternativo da imagem e as legendas, o que sugere que você está interessado em pesquisa na web, não necessariamente em pesquisa de imagens. Para a pesquisa na web, não precisamos ser capazes de rastrear e indexar as imagens porque essencialmente olhamos para as próprias páginas da web. Então, coisas como o texto alternativo, quaisquer legendas, títulos na página, tudo isso contribui para a compreensão desta página um pouco melhor. Para pesquisa na web, isso é tudo que precisamos. Se todas as imagens fossem, por exemplo, 404 o tempo todo ou bloqueadas por robots.txt ou pesquisa na web, ainda trataríamos essa página exatamente como se pudéssemos indexar todas essas imagens. Na própria pesquisa de imagens, é aí que precisamos indexar essas imagens e entender que existem URLs estáveis ​​e entender como eles se conectam ao restante do seu site.”

Segmentação de duas páginas diferentes com a mesma palavra-chave

29:36 “Uma [página] é uma página de recurso e a outra é uma peça informativa sobre esse recurso. Tudo bem segmentar a mesma palavra-chave principal nessas duas páginas diferentes?”

John disse: “Em primeiro lugar, não há problema em segmentar as palavras-chave que você deseja. Do nosso ponto de vista, não vamos detê-lo.

A única coisa que eu tomaria cuidado é como você está competindo com você mesmo? E isso é quase mais uma questão estratégica do que uma questão de SEO pura e não algo em que diríamos que existem diretrizes de que você não deve fazer isso. Mas é mais que, se você tiver vários conteúdos classificados para a mesma consulta com a mesma intenção, estará essencialmente diluindo o valor do conteúdo que está fornecendo em várias páginas. Eles estão competindo entre si, e isso pode significar que essas páginas individuais não são tão fortes quando se trata de competir com sites de outras pessoas. Então, às vezes é o que eu tomaria cuidado.

Se você tem duas páginas e ambas estão segmentando a mesma palavra-chave e têm intenções muito diferentes, então, do meu ponto de vista, isso parece razoável porque as pessoas podem estar pesquisando essa palavra-chave com texto extra adicionado para uma intenção e mais texto adicionado para a outra intenção. E são essencialmente páginas únicas. Pode fazer sentido que ambos apareçam na pesquisa ou o melhor correspondente apareça na pesquisa. […] E como eu disse, não é algo que exigimos ou que está bem ou não. É uma questão de seu posicionamento estratégico sobre como você quer aparecer nas buscas.”

Existe uma boa proporção para páginas indexadas versus não indexadas?

31:26 “As posições das páginas de classificação de alto tráfego são prejudicadas por muitos, digamos 50%, do total de páginas em um domínio não indexado ou indexado, mas não recebendo tráfego?”

John respondeu: “Acho que a questão é mais sobre eu tenho um conjunto de páginas que são muito populares e muitas páginas que não são muito populares. E isso descreve o site médio onde você tem uma variedade de conteúdo, e alguns deles são muito populares, e outros não são tão populares. Então, do nosso ponto de vista, tudo bem.

Além disso, apenas o número de páginas em massa é uma métrica enganosa porque é fácil ter muitas páginas que não estão sendo vistas é muito importante, e então elas não aparecem muito na pesquisa, e isso pode ser perfeitamente bom. Se você tem cinco páginas assim ou cem […] ou mil páginas, [e] se elas não estão aparecendo na pesquisa, elas também não estão causando nenhum problema. Desse ponto de vista, às vezes é complicado analisar o número de páginas em massa versus as páginas que estão sendo exibidas nos resultados da pesquisa.

A outra coisa, talvez também para ter em mente com uma pergunta como essa, é que às vezes faz sentido se concentrar mais em menos páginas para obter a vantagem estratégica de ter menos páginas mais fortes, em vez de ter muitas páginas onde você estão essencialmente diluindo o valor. Por exemplo, se você tiver mil páginas e cada uma delas fornecer um pequeno detalhe da imagem maior, essas mil páginas provavelmente terão dificuldades na pesquisa. Considerando que, se você puder combinar muito disso em […] talvez dez páginas, essas dez páginas terão muitas informações sobre elas e talvez muito valor em relação ao resto do seu site e talvez tenham mais facilidade para classificar termos de pesquisa mais amplos em torno desse tópico.”

Resultados de pesquisa em sites versus classificação

37:49 “Estou tentando garantir que nossas classificações de SEO não sejam afetadas enquanto lançamos uma nova página de resultados de pesquisa. […] Nossas buscas podem resultar em 10.000 resultados e possuem funcionalidades de filtragem e ordenação. Como o Google trata essas páginas de resultados de pesquisa em sites [e] como esses resultados de pesquisa afetam a classificação geral do site? É suficiente apenas enviar mapas do site para classificação ou devemos levar em consideração outras considerações para ajudar o Googlebot a coletar URLs acessíveis?”

John respondeu: “[…] Eu não confiaria em sitemaps para encontrar todas as páginas do seu site. Os Sitemaps devem ser uma forma de fornecer informações adicionais sobre o seu site. Não deve ser a principal forma de fornecer informações sobre o seu site. Portanto, em particular, os links internos são super importantes e algo que você deve observar e certifique-se de que, independentemente de como você configure as coisas quando alguém rastreia seu site, eles possam encontrar todo o seu conteúdo e não que dependam do mapa do site arquivo para obter todas essas coisas.

Desse ponto de vista, poder acessar essas páginas de categorias e encontrar todos os produtos que estão em categorias individuais, acho que é super útil. Ser capaz de rastrear as páginas da categoria até o produto também é muito importante. As páginas de resultados de pesquisa são um pouco exclusivas porque alguns sites usam páginas de categoria essencialmente como páginas de resultados de pesquisa, e você está nessa situação em que as páginas de resultados de pesquisa são essencialmente como páginas de categoria. Se for esse o seu caso, eu tomaria cuidado com tudo o que você faria com as páginas de categoria.

A outra coisa com as páginas de resultados de pesquisa é que as pessoas podem inserir qualquer coisa e pesquisar algo e seu site tem que fazer todo o trabalho para gerar todas essas coisas. Isso pode resultar facilmente em um número infinito de URLs que teoricamente podem ser encontrados em seu site, porque as pessoas podem pesquisar de várias maneiras diferentes. E como isso cria esse conjunto de páginas infinitas em seu site, é algo que tentamos desencorajar quando diríamos definir essas páginas de resultados de pesquisa como noindex ou usar robots.txt para bloquear o rastreamento dessas páginas de resultados de pesquisa para que possamos concentre-se na estrutura normal do site e nos links internos normais. Eu acho que esses são os aspectos primários lá.

Se você deseja que suas páginas de resultados de pesquisa sejam indexadas, minha dica seria garantir que, por um lado, você tenha uma ordem de classificação primária e configuração de filtragem configurada como canônica. Portanto, se você optar por fornecer suas páginas por relevância, se tiver um filtro de classificação por preço para cima ou para baixo, eu definiria o rel=”canonical” desses filtros para sua ordem de classificação principal. Da mesma forma, para filtragem, talvez eu removesse o filtro com o rel=”canonical”. Ao fazer isso, certifique-se de que podemos nos concentrar mais na versão principal das páginas e rastreá-las corretamente, em vez de nos distrairmos com todas essas variações das páginas de resultados de pesquisa.

A outra coisa que eu tomaria cuidado é que você crie algum tipo de lista de permissões ou […] um sistema em seu site com relação ao tipo de consultas de pesquisa que você deseja permitir que sejam indexadas ou rastreadas. Por exemplo, se alguém for ao seu site e pesquisar "farmacêuticos canadenses" ou algo parecido, e você não for um site farmacêutico, provavelmente não desejará que essa página de pesquisa seja indexada. Mesmo que você não tenha nenhum produto disponível que corresponda a essa consulta, provavelmente não deseja que isso seja indexado. Portanto, ter uma lista das pesquisas permitidas que você permite indexar torna isso muito mais fácil . Certifique-se de não se deparar acidentalmente com essa situação de spam em que alguém está enviando spam para seus resultados de pesquisa e, em seguida, você precisa limpar milhões de páginas indexadas e se livrar delas de alguma forma.”

Atualização da experiência da página no computador vs. classificação

42:20 Meu site teve uma queda no número de visitantes devido aos pobres Core Web Vitals. Agora estou de volta aos trilhos, mas soube que a atualização do Page Experience está sendo lançada lentamente para desktop. Qual é a classificação da experiência da página para desktop e qual é a sua importância, em comparação com outros sinais de classificação?”

De acordo com John, “Como no celular, o fator de classificação da experiência da página é essencialmente algo que nos dá um pouco de informação extra [sobre] essas diferentes páginas que podem aparecer nos resultados da pesquisa. Em situações em que temos uma intenção clara da consulta em que podemos entender que eles realmente querem fazer isso com este site, então, desse ponto de vista, podemos facilitar o uso da experiência da página como um fator de classificação. Por outro lado, se todo o conteúdo for muito semelhante na página de resultados de pesquisa, provavelmente usar a Experiência de página ajuda um pouco a entender quais dessas páginas são rápidas ou razoáveis ​​em relação à experiência do usuário e quais delas são as páginas menos razoáveis ​​para serem exibidas nos resultados da pesquisa. Essa situação nos ajuda lá.

Com relação ao lançamento para desktop, acredito que será um lançamento mais lento novamente ao longo de um mês, o que significa que você não verá um efeito forte de um dia para o outro, mas verá que efeito ao longo de um período de tempo. Você também já veria isso no Search Console nos relatórios da experiência da página e do Core Web Vitals. Você também já veria isso na área de trabalho que tudo é vermelho, por exemplo, e que você precisa se concentrar nisso. A partir desse ponto de vista, com a mudança de classificação do desktop como no mobile, eu não esperaria um salto drástico nos resultados da pesquisa de um dia para o outro, à medida que lançamos isso. No máximo, se as coisas estiverem realmente ruins para o seu site, você verá uma queda gradual lá.”

Conteúdo traduzido não indexado

53:15Eu trabalho em um grande site multilíngue. Em abril do ano passado, […] todo o nosso conteúdo traduzido passou de Válido para Excluído, Rastreado – atualmente não indexado , e permanece desde abril. […] Porque aconteceu tudo de uma vez, pensamos que talvez houvesse alguma mudança sistêmica do nosso lado. […] Limpamos nossos hreflangs, canônicos, parâmetros de URLs, ações manuais e todas as outras ferramentas listadas em developers.google.com/search. […] Não sei o que aconteceu ou o que fazer a seguir para tentar corrigir o problema, mas gostaria de colocar nosso conteúdo traduzido de volta no índice.”

A resposta de John foi: “[…] acho que às vezes é complicado [se] você tiver o parâmetro no final com o código do idioma. […] Do nosso ponto de vista, o que pode acontecer é que , quando reconhecemos que há muitos desses parâmetros lá que levam ao mesmo conteúdo, nossos sistemas podem ficar presos em uma situação, bem, talvez esse parâmetro não seja muito útil, e devemos ignorá-lo. Para mim, parece muito que algo em torno dessa linha aconteceu. Parcialmente, você pode ajudar com a ferramenta Parâmetros de URL no Search Console para garantir que esse parâmetro esteja definido. Quero que tudo seja indexado. Parcialmente, o que você também pode fazer é rastrear uma parte do seu site com […] o rastreador local para ver quais URLs de parâmetro realmente são selecionadas e, em seguida, verificar novamente se essas páginas realmente têm conteúdo útil para esses idiomas.  

Em particular, […] [coisa] comum que eu vi em sites é que talvez você tenha […] todos os idiomas vinculados, e a versão em japonês diz oh, não temos uma versão em japonês, aqui está a nossa em inglês, então nossos sistemas poderiam dizer, bem, a versão japonesa é a mesma que a versão em inglês - talvez haja alguns outros idiomas iguais à versão em inglês. Devemos ignorar isso. Às vezes isso é de links dentro do site, às vezes também são links externos, pessoas que estão linkando para o seu site. Se o parâmetro estiver no final do seu URL, é muito comum que também haja algum lixo anexado ao parâmetro. E se rastrearmos todos esses URLs com esse lixo e dissermos, bem, este não é um idioma válido, aqui está a versão em inglês, então reforça novamente esse loop em que os sistemas dizem, bem, talvez esse parâmetro não seja tão útil. A abordagem mais limpa seria se você tivesse parâmetros de lixo para redirecionar para os mais limpos ou talvez até mostrar uma página 404 e dizer, bem, não sabemos do que você está falando com esse URL e fazer de forma limpa certeza de que quaisquer URLs que encontrarmos, obteremos algum conteúdo útil que não seja o mesmo que outro conteúdo que já vimos.”