Desvendando os segredos do SEO: indexação, qualidade do site e meta-tags

Publicados: 2019-09-04

A otimização de mecanismos de pesquisa é um tópico complexo. Existem inúmeras recomendações, guias e listas de verificação por aí que tentam cobrir e explicar todos os vários aspectos diferentes do SEO. Para este artigo, ouvimos você para que possamos abordar os problemas mais importantes para você. O que você deve estar ciente em relação à indexação de suas páginas? Como o Google avalia a qualidade do site? E qual é o problema com palavras-chave em meta-tags?

Se você deseja explorar o potencial de SEO do seu site, solicite uma consulta com nosso Grupo de Estratégias Digitais e veja como podemos ajudá-lo:

Marque uma consulta

Os tópicos deste artigo são baseados no feedback dos participantes de um webinar (alemão) que realizamos recentemente. Respondi às perguntas mais importantes – com o suporte especializado de Marcus Pentzek, que, como Consultor Sênior de SEO do Searchmetrics Digital Strategies Group, é responsável por aconselhar nossos clientes e ajudá-los a melhorar o desempenho de seus mecanismos de pesquisa.

As perguntas tratam das seguintes áreas de SEO:

  • Rastreamento e indexação do GoogleBot
  • URLs, metatags e palavras-chave
  • Sinais do usuário e intenção de pesquisa
  • Qualidade do site: Como posso melhorar meus rankings?
  • Google Analytics

Rastreamento e indexação do GoogleBot

Ter um site que possa ser rastreado é o primeiro pré-requisito para ser escolhido pelo Google e, portanto, ter a chance de aparecer nos resultados da pesquisa. Você também pode tomar decisões sobre quais páginas são incorporadas ao índice do Google e quais não são.

Como posso garantir que o GoogleBot visite meu site regularmente?

O GoogleBot visita sites com a frequência necessária:

  • Um fator é o tamanho do site, desde que o grande número de URLs que um grande site possui sejam de valor. Se um site tiver muitas páginas com conteúdo de baixa qualidade, o Google não ficará tentado a visitar com mais frequência apenas com base no grande número de páginas.
  • Se um site é frequentemente vinculado a outros, dando a ele um PageRank forte, ele será visitado com mais frequência.
  • Outro fator é a quantidade de conteúdo novo que o site publica. Se, por exemplo, houver 20 postagens novas (ou atualizadas) no blog todos os dias, isso pressionará o Google a acompanhar e rastrear o site com mais frequência do que se houvesse apenas uma postagem nova por semana.

Posso usar o sitemap XML para dizer ao GoogleBot o que ler e o que não ler?

Não. É para isso que serve o robots.txt. O sitemap XML é principalmente para URLs que o Google deve rastrear e (geralmente) indexar.

O Google pode avaliar o quanto eu influenciei a indexação do GoogleBot? E isso pode afetar a forma como meu site é avaliado?

Você só pode dar recomendações ao Google sobre o que ele deve rastrear. Você não pode influenciá-lo diretamente e, portanto, isso não afetará a avaliação do seu site.

Faz sentido ter uma página de impressão/aviso legal indexada?

Sim. Qualquer empresa respeitável deve ser aberta e orgulhosa de seu nome e de quem é. A impressão normalmente não canibaliza outras páginas no site, portanto, não é um problema se estiver indexada.

Até que ponto os erros de digitação afetam a indexação ou as classificações do mecanismo de pesquisa?

Os mecanismos de pesquisa são bons em reconhecer e entender erros de ortografia e devem retornar o mesmo resultado do termo de pesquisa escrito corretamente. Para mim e meu site, isso significa que não há razão para incluir deliberadamente palavras-chave com erros ortográficos em meu conteúdo. Na verdade, isso criaria uma impressão altamente não profissional e poderia ter um impacto negativo nos sinais do usuário (como a taxa de rejeição).

Se o Google acredita que determinadas consultas de pesquisa são melhor atendidas por conteúdo de alta qualidade, os erros de digitação podem até levar a uma queda nos rankings, com uma página suplantada por sites que oferecem textos de alta qualidade.

Como a indexação “boa” afeta a avaliação de um site pelo Google?

A indexação foi bem feita se apenas as páginas indexadas deveriam ser encontradas por meio de pesquisa na web. O impacto dessa indexação na avaliação de um site surge porque o Google vê apenas as áreas relevantes de um site. Isso significa que o Google não precisa pesar conteúdo relevante e não relevante ao determinar as classificações.

Pode prejudicar as classificações de um site se muitas páginas forem indexadas?

Isso é melhor explicado com um pequeno experimento mental: para cada domínio, o GoogleBot recebe um orçamento limitado com o qual pode rastrear o site. Se eu tiver mais páginas do que o orçamento permite, levará muito mais tempo para que todo o meu conteúdo seja rastreado. E se eu atualizar algum conteúdo, também levará mais tempo para que esse novo conteúdo seja selecionado.

Há outro ponto importante. Se eu tiver muito conteúdo, mas ele não for otimizado para termos de pesquisa específicos, provavelmente existirá um grande número de páginas consideradas de baixa qualidade pelo Google. Isso pode ter um impacto negativo em todo o domínio. Além disso, se eu tiver muitas páginas, pode acontecer facilmente que eu tenha conteúdo muito semelhante em páginas diferentes cobrindo os mesmos tópicos. Isso é o que chamamos de canibalização e geralmente resulta em nenhuma dessas páginas classificadas como eu gostaria.

Por que não devo querer que uma página de destino de uma campanha de mídia social esteja no índice? Isso tem um impacto negativo no orçamento de rastreamento?

Boa pergunta! Eu sempre aconselho você a considerar o propósito de uma página de destino. Se eu tiver uma página de destino que só existe para reunir os leads de uma campanha – pode ser uma página que contém nada mais do que um formulário de contato – o conteúdo dessa página de destino será considerado de baixa qualidade e será mal avaliado por Google. Se eu tiver muitas páginas como essa e permitir que o Google as indexe, isso pode prejudicar a avaliação geral do meu site.

Se, no entanto, eu preencher minha página de destino de mídia social com conteúdo e otimizá-la para palavras-chave diferentes para minhas páginas de destino de SEO, pode fazer sentido ter essa página indexada. Mas cuidado: se as landing pages forem muito parecidas, elas podem acabar brigando entre si pelos mesmos rankings.

Isso significa que não existe uma resposta certa. Para estar no lado seguro (para evitar a canibalização), você pode garantir que apenas permita que o Google rastreie e indexe o conteúdo especificamente projetado para essa finalidade.

O que significa o último anúncio do Google sobre noindex ser o padrão?

O anúncio do Google de que, a partir de 1º de setembro de 2019, a regra noindex no robotos.txt não será mais aplicada, altera a forma como posso usar o robots.txt. Em primeiro lugar, devo estar ciente do fato de que todas as páginas que excluí apenas da indexação por meio do robots.txt agora acabarão no índice do Google.

No entanto, ainda posso desindexar páginas das seguintes maneiras:

  • noindex na meta-tag robots ainda funciona e é a opção mais simples
  • usando disallow no robots.txt, ainda posso impedir que bots rastreiem determinado conteúdo no meu site

Devo não indexar páginas com “conteúdo ruim” e como determino qual conteúdo é “ruim”?

Como regra, devo procurar apenas desindexar conteúdo que não seja relevante para termos de pesquisa para os quais desejo ser encontrado. O conteúdo é “ruim” se não corresponder a uma consulta de pesquisa. Isso significa que o melhor método é avaliar qual conteúdo preciso para os termos de pesquisa desejados e ver se posso fornecê-lo.

Faz diferença para o SEO se eu tiver conteúdo como uma página ou uma estrutura de site mais complexa? Ou um one-pager pode ser indexado pelo Google sem dificuldade?

Em termos de indexação, uma página de uma página não deve ser um problema. Tem a estrutura de site mais simples possível. Uma vez na página inicial, isso pode ser indexado e todo o link juice que é transferido para o meu site por meio de links é focado nesta página.

No entanto, se eu quiser ser encontrado para mais tópicos do que corresponder diretamente ao meu tópico principal, fica mais difícil com uma página. Considere o exemplo de um site que oferece serviços terapêuticos. A página inicial é otimizada para todos os termos de pesquisa relevantes que estão diretamente ligados a esta área de trabalho. Mas agora quero alcançar usuários que procuram problemas de saúde específicos, para os quais meus serviços podem fornecer uma solução. Nesse caso, faria sentido criar novos conteúdos para novas subpáginas que apresentem meu conhecimento e experiência e que também atendam às consultas de pesquisa relevantes. Claro que, com mais páginas, a complexidade do site também aumenta.

Outro ponto a ser considerado é que, dependendo da intenção do usuário por trás de uma consulta de pesquisa, o Google define se textos mais curtos ou mais longos são mais adequados. Com base nisso, pode ser aconselhável criar uma página mais longa e mais holística (cf. Pillar Page) sobre o tópico – ou pode fazer mais sentido criar páginas mais pequenas, cada uma com um foco mais claro e otimizada para palavras-chave individuais. Se estiver fazendo o último, eles obviamente precisam ser organizados em uma estrutura lógica de site.

Se essa distinção não parece importante para o seu cenário específico, os one-pages têm a vantagem adicional de que, devido ao grande número de termos que aparecem na página, muitas vezes a alguma distância, eles têm mais chances de alcançar classificações por longos palavras-chave de cauda que são compostas por vários termos diferentes.

URLs, palavras-chave e metatags

Os motores de busca estão cada vez mais inteligentes, tornando o SEO cada vez mais complexo. Isso deixa muitas pessoas perguntando o quão importantes favoritos antigos como palavras-chave e meta-tags ainda são.

É inútil usar palavras-chave como meta-tags?

Ao otimizar para o mecanismo de busca do Google: sim. Isso foi confirmado por Matt Cuts do Google em 2009. E neste caso: o que era verdade há 10 anos ainda é verdade hoje.

No entanto, para mecanismos de pesquisa secundários, o uso de metatags ainda pode ser útil. Como regra geral para a metatag de palavras-chave, você deve definir de 2 a 3 termos de pesquisa para cada URL para o qual esse URL é relevante. E evite a sobreposição com outros URLs.

Qual a importância de fatores como a estrutura da página, por exemplo, com títulos h1, h2 ou h3, metatags e alt-tags?

Uma página bem estruturada sempre pode ajudar, mas existem vários benefícios diferentes. Os títulos tornam o texto mais digerível, dão ao conteúdo uma estrutura clara e facilitam a abordagem de subtópicos.

Meta-tags são mais variadas. O meta-título é um elemento importante que é usado para mostrar aos mecanismos de pesquisa qual é o tópico principal da URL e para qual termo de pesquisa o conteúdo foi escrito. A meta descrição é importante principalmente na página de resultados de pesquisa, porque é o primeiro texto da minha página que um usuário vê – e essa é a base para a decisão do usuário de clicar ou não.

As Alt-tags, por outro lado, são muito importantes para a pesquisa de imagens do Google.

Falando URLs: Qual é o URL perfeito?

Este poderia ser o tema de um workshop inteiro. A resposta curta é que um URL deve refletir a estrutura do site e cada elemento deve comunicar ao usuário o que ele pode esperar da página.

Ainda vale a pena operar domínios de palavras-chave especiais que possam classificar bem e vincular à minha página para que isso obtenha um PageRank aprimorado?

Atualmente, os domínios não obtêm nenhum benefício de classificação apenas por incluir a palavra-chave exata no título do domínio. Então, em respeito, a resposta é “não”.

Fortalecer o PageRank do seu site principal usando links desses domínios de palavras-chave só pode funcionar se os domínios de palavras-chave forem valiosos por si só. Se forem domínios recém-registrados, eles inicialmente não terão nenhum valor – portanto, não terão nenhum PageRank para transmitir. Isso pode melhorar se um perfil de backlink for criado para os domínios de palavras-chave.

Manipular backlinks como fator de classificação tornou-se mais difícil do que costumava ser, e construir um perfil de backlink é menos “simples”. Hoje, os backlinks são mais valiosos quando surgem naturalmente (ou seja, quando são “recomendações” genuínas), quando estão ligados ao tema e quando têm uma “história”. Um link tem que ter uma razão de existir para ser considerado natural. Com isso em mente, é mais fácil para um site de alta qualidade coletar backlinks naturais, porque geralmente classifica os termos de pesquisa relevantes e, portanto, atende à intenção do usuário de um webmaster que está procurando uma fonte relevante.

Em vez de focar nessa estratégia, prefiro investir tempo e recursos na otimização do conteúdo do seu site (para os usuários), para que mais tarde se torne o alvo natural de novos backlinks. Se você tentar criar links artificialmente, corre o risco de receber uma penalidade manual do Google. Outras estratégias (por exemplo, conteúdo otimizado e focado no usuário) podem levar a um sucesso muito maior a longo prazo.

Sinais do usuário e intenção de pesquisa

A intenção de pesquisa descreve o que o usuário espera de sua pesquisa. Eles querem ler um texto longo, receber uma resposta rápida ou preferem assistir a um vídeo? Isso está relacionado aos sinais do usuário que são criados pelas ações do usuário. Com que frequência os usuários clicam em um resultado de pesquisa, quanto tempo passam na página e com que frequência clicam de volta para os resultados da pesquisa? A otimização de mecanismos de pesquisa bem-sucedida deve sempre considerar o usuário e seu comportamento.

Tenho muitas páginas de conteúdo, onde o usuário passa algum tempo lendo, mas sai sem nenhuma interação adicional. Essa taxa de rejeição de 100% afetará negativamente meus rankings ou o Google leva em consideração que esta é uma página de conteúdo puro?

Você tem razão. No Google Analytics, isso seria uma taxa de rejeição de 100%. O Google afirma em suas diretrizes que uma página não precisa de uma taxa de rejeição baixa, mas eu ainda diria que é raro você não querer manter os usuários em seu domínio.

O exemplo da Wikipedia nos mostra que há mais a oferecer do que apenas o conteúdo da página. A Wikipedia oferece aos usuários inúmeros caminhos a seguir, onde eles podem acessar mais conteúdo e se informar sobre temas relacionados.

O Google não usa a taxa de rejeição como um fator de classificação. Em vez disso, o Google mede a métrica relacionada, “taxa de retorno ao SERP”. Aqui, o Google analisa mais de perto quanto tempo leva para um visitante da página retornar à página de resultados do mecanismo de pesquisa. E isso não precisa ser um sinal negativo. Se um usuário encontrou o que estava procurando, não precisará voltar à consulta de pesquisa inicial. Mas se eles não encontrarem o que estavam procurando, eles terão que clicar em um resultado de pesquisa alternativo ou inserir uma nova consulta de pesquisa mais precisa que pode retornar resultados mais adequados.

Se acreditarmos nas declarações feitas por John Mueller (analista de tendências do webmaster do Google, os sinais do usuário não são relevantes para as classificações e são usados ​​apenas para ajudar a treinar os algoritmos do Google.

O webinar não abordou a intenção de pesquisa local e de navegação. Por que não?

Isso foi apenas para manter o exemplo simples no tempo disponível. É claro que a intenção de pesquisa não se limita a consultas transacionais e informativas. Eu também diria que, dentro de cada categoria de intenção de pesquisa, existem nuances mais precisas que podem ajudá-lo a adaptar seu conteúdo mais de perto às necessidades dos usuários.

Qualidade do site: Como posso melhorar meus rankings?

Não existe uma maneira rápida e fácil de obter melhores classificações. Mas sabemos um pouco sobre o algoritmo de classificação do Google. De primordial importância é o fato de que o Google avalia a qualidade do conteúdo de um site e que isso desempenha um papel importante no cálculo da posição da página nos resultados da pesquisa. Mas como é medida a qualidade dos sites?

Quem avalia meu site e decide se é bom ou ruim?

As avaliações do site são conduzidas pelo algoritmo do mecanismo de busca. O algoritmo – por exemplo, o do Google – analisa vários fatores diferentes, incluindo conteúdo, links, sinais do usuário ou aspectos técnicos, e os usa para decidir quais URLs são mais relevantes para uma consulta de pesquisa. Isso é altamente complexo, mas basicamente um site deve ser tecnicamente bem otimizado e oferecer o conteúdo mais relevante possível para ter a melhor chance de alcançar classificações altas.

O que posso fazer para influenciar diretamente os fatores de classificação do meu site?

Esta é uma pergunta extremamente ampla que não pode ser respondida em apenas algumas frases. Existem mais de 200 fatores de classificação que podem ter vários graus de influência. Observar os fatores individuais e examinar formas de otimizá-los pode ser o assunto de um futuro webinar. Ou de 200.

Mas um lugar para começar seria a tag de título, que é um dos fatores de classificação mais importantes na página. Usar suas principais palavras-chave no título da página é uma das maneiras mais diretas de influenciar.

Quais resultados de pesquisa obtêm um snippet em destaque e como posso influenciar isso?

Fica a critério dos mecanismos de pesquisa se um Featured Snippet é exibido ou não. Assim como eles determinam qual conteúdo do site relevante é exibido. Para obter informações detalhadas sobre os snippets em destaque, recomendo ler as perguntas e respostas de Malte Landwehr e Izzi Smith sobre o assunto ou assistir ao webinar deles.

Google Analytics

Quanto mais dados você tiver, melhor será capaz de entender seu desempenho online. Portanto, é bom conectar os dados da sua plataforma de otimização de mecanismos de pesquisa (como o Searchmetrics Suite) com os dados do usuário de uma ferramenta como o Google Analytics.

Se eu tiver uma página forte, você recomendaria usar o Google Analytics para que o Google possa ver como os usuários estão se comportando no site?

Geralmente, é uma boa ideia usar um programa de análise. É uma boa ideia porque fornece informações sobre o comportamento de seus usuários, que você pode usar para ajudar a tomar decisões. No entanto, o Google deixa claro em seus T&C – e eu não sugeriria de forma alguma que o Google esteja agindo de outra forma – que não usa dados do Google Analytics para avaliar sites.

Quer começar a aplicar seus conhecimentos de SEO na prática? Então organize sua demonstração pessoal do software Searchmetrics Suite hoje mesmo:

Solicite uma demonstração