19 problemas técnicos comuns de SEO (com soluções recomendadas)
Publicados: 2020-08-19Na Semetrical, nossos especialistas em SEO realizaram inúmeras auditorias técnicas de SEO ao longo dos anos e encontraram problemas técnicos comuns que os sites sofrem em vários setores. Nosso guia descreve os problemas técnicos de SEO mais comuns com soluções recomendadas.
Abaixo lista os problemas técnicos de SEO mais comuns:
- Regras que não diferenciam maiúsculas de minúsculas em Robots,txt
- Duplicação de URL em maiúsculas e minúsculas
- HTTP 302 redirecionando para HTTPS
- URLs canônicos que afetam links internos
- URLs canônicos com links para URLs 404
- Várias tags canônicas
- Duplicação da página inicial
- Versão móvel e desktop de sites diferentes
- Detecção de IP internacional
- Duplicação de site internacional
- Sitemap XML incluindo URLs históricos e URLs de teste
- Site de teste sendo indexado causando duplicação
- Pesquisa interna sendo indexada
- Parâmetros que causam duplicação
- Duplicação de URL do produto
- Profundidade de um site
- JavaScript
- Uso incorreto de Meta Robots NOINDEX
- Páginas 404 suaves
1. Regras que não diferenciam maiúsculas de minúsculas em Robots,txt
Questão:
Ao realizar auditorias técnicas de SEO, geralmente descobrimos que as regras de proibição no robots.txt não atendem às regras de maiúsculas e minúsculas.
Por exemplo, em sites de comércio eletrônico, os caminhos da cesta geralmente são executados em /basket/ e /Basket/, mas apenas o caminho em letras minúsculas é incluído como regra no robots.txt. Isso significa que as URLs com /Basket/ ainda seriam indexáveis e isso causaria duplicação de conteúdo, o que você deve evitar para melhorar a indexação do seu site nos mecanismos de pesquisa.
Regras do Robots.txt:
Não permitir: /basket/
Não permitir: /basket/*
Solução:
Audite seu site e verifique se há versões maiúsculas e minúsculas de um caminho que precisa ser bloqueado. Você pode fazer isso usando um rastreador da web, como nossos amigos do DeepCrawl. Se houver ambas as versões ativas no site, adicione uma segunda regra no robots.txt para atender ao caminho maiúsculo a ser bloqueado. Por exemplo, não permitir: /Basket/*
Se você não tiver acesso a um rastreador da Web, uma pesquisa de protocolo de site pode ser muito útil para ver se as versões maiúsculas e minúsculas estão sendo indexadas.
2. Duplicação de URL em maiúsculas e minúsculas
Questão:
Um problema comum que encontramos é a duplicação de URLs que não diferenciam maiúsculas de minúsculas sendo vinculados em um site e o Google vê que são dois URLs diferentes. Por exemplo:
Isso pode ocorrer devido a editores em uma postagem de blog adicionarem um link direto para uma página de produto, mas eles digitaram uma letra maiúscula em vez de minúscula.
Também vimos isso acontecer devido a módulos de links internos terem um bug em que links de produtos populares são vinculados por meio de letras maiúsculas.
Solução:
Recomendamos configurar uma regra no nível do servidor em que todas as URLs em maiúsculas redirecionam para minúsculas por meio de um redirecionamento 301. Isso protegerá o site de qualquer duplicação futura em que um URL em maiúsculas e minúsculas esteja sendo vinculado.
Adicionar uma regra de redirecionamento 301 também consolidará qualquer equidade de link em que um site externo possa vincular ao seu site por engano por meio de uma letra maiúscula.
Se um redirecionamento 301 não for possível, recomendamos adicionar uma tag canônica no código-fonte dos URLs em maiúsculas para fazer referência à versão do URL em minúsculas.
3. HTTP 302 redirecionando para HTTPS
Questão:
As empresas geralmente migram seus sites para URLs HTTPS seguros, mas nem sempre implementam uma regra de redirecionamento 301 e, em vez disso, implementam um redirecionamento 302, então isso, em teoria, informa aos mecanismos de pesquisa que a versão HTTP de um URL foi movida apenas temporariamente em vez de permanentemente. Isso pode reduzir o valor do link e a autoridade geral do seu site, pois os URLs HTTP que adquiriram backlinks ao longo do tempo não passarão totalmente o valor do link para a versão HTTPS, a menos que um redirecionamento 301 esteja em vigor.
Solução:
Recomendamos configurar uma regra no nível do servidor em que todos os URLs HTTP 301 redirecionam para a versão HTTPS.
4. URLs canônicos que afetam os links internos
Questão:
Em vários sites de comércio eletrônico, vimos produtos com várias variações de URL de produto, mas cada variação vinculando a um URL de produto canônico para evitar duplicação. No entanto, a página do produto canônico só pode ser encontrada por meio de tags canônicas e nenhum outro link interno.
Além disso, a página do produto canônico não inclui migalhas de pão que afetem os links internos no site.
Essa configuração canônica de links internos às vezes impediu que os mecanismos de pesquisa pegassem a versão canônica do URL devido a ignorar a instrução porque os links internos em todo o site estão enviando sinais mistos. Isso pode resultar na indexação de versões não canônicas de produtos, o que causa canibalização de URL – impactando negativamente seu desempenho de SEO.
Solução:
Para ajudar os URLs canônicos a serem indexados, os sites devem:
Adicione os URLs canônicos ao mapa do site XML e não as outras variantes de URL
Vincule internamente às versões de URL canônicas em módulos de links internos em todo o site, como "produtos populares"
Adicione uma estrutura de breadcrumb primária à página de URL canônica.
5. URLs canônicos com links para URLs 404
Questão:
URLs canônicos ocasionalmente fazem referência a URLs 404, mas isso envia sinais confusos para pesquisa
motores. O URL canônico está instruindo um rastreador do URL preferencial para indexar, mas o URL preferencial atualmente não existe mais.
Solução:
Em primeiro lugar, você deve estabelecer se o URL canônico deve ser um 404 ou se deve ser restabelecido. Se ele for restabelecido, o problema será corrigido; no entanto, se o URL canônico for um 404, você deverá escolher um novo URL canônico ou atualizar o canônico para ser auto-referenciado.
6. Várias tags canônicas
Questão:
Às vezes, no código HTML de uma página da Web, podem ser encontradas duas tags canônicas. Isso pode enviar mensagens conflitantes para um mecanismo de pesquisa e apenas o primeiro canônico será contado e usado.
Solução:
Alguns rastreadores de sites podem sinalizar várias tags canônicas; no entanto, se esse não for o caso, você deverá configurar uma extração personalizada ao rastrear o site para procurar várias tags canônicas.
As páginas da Web com várias tags canônicas no código HTML precisam ser atualizadas onde uma é removida e apenas a tag canônica correta permanece.
7. Duplicação da página inicial
Questão:
Os sites ocasionalmente têm vários URLs de página inicial, o que causa duplicação e pode causar uma divisão do patrimônio do link. URLs de duplicação de página inicial comuns incluem:
www.exemplo.com
www.example.com/home
www.example.com/index.html
www.example.com/home.html
Solução:
Se o seu site tiver vários URLs de página inicial, recomendamos configurar um redirecionamento 301 em que todas as versões de duplicação redirecionam para a versão da página inicial principal.
8. Versão móvel e desktop de sites diferentes
Questão:
Os sites para celular devem conter o mesmo conteúdo que a versão para computador de um site. Ao realizar auditorias de sites e comparar rastreamentos de sites para computadores e dispositivos móveis, encontramos diferenças de conteúdo em que a versão móvel contém menos conteúdo do que a versão para computador em determinadas páginas.
Isso pode causar problemas porque quase toda a indexação de um site vem da versão móvel e, se faltar conteúdo prioritário, as classificações podem começar a cair.
Solução:
A versão para celular de um site deve conter o mesmo conteúdo que a versão para computador e o conteúdo ausente deve ser adicionado ao site para celular.
9. Detenção de PI internacional
Questão:
Para sites que implementaram redirecionamentos de IP geográficos, o problema mais comum é que a implementação redireciona para todos os usuários, o que inclui bots.
O Googlebot geralmente rastreará de um IP dos EUA e, se os bots estiverem sendo redirecionados com base na localização geográfica, o Googlebot rastreará e indexará apenas a versão dos EUA de um site. Isso impedirá que outras versões geográficas do site sejam rastreadas e indexadas.
Além disso, isso pode causar problemas para marcação de esquema de preços de produtos em sites de comércio eletrônico em que os preços são atualizados com base na localização geográfica, pois apenas o preço dos EUA aparecerá em todos os mercados. Por exemplo, o snippet abaixo mostra os preços dos EUA na versão do Reino Unido de um site no Reino Unido.
Solução:
Se você precisar implementar redirecionamentos de IP geográficos, recomendamos excluir todos os bots das regras de redirecionamento, pois isso permitirá que bots como o Googlebot rastreiem e indexem todas as versões internacionais.
Se você não implementar redirecionamentos de IP geográficos, recomendamos manter seus sites abertos a todos os usuários de qualquer localização geográfica e exibir um banner JavaScript amigável que permite aos usuários selecionar seu próprio idioma/local.
Esse é um recurso de UX útil se um usuário acessar a versão incorreta do site internacional. O pop-up aparecerá com base na detecção de IP, por exemplo, se um usuário acessar o site dos EUA a partir de um IP do Reino Unido, o banner aparecerá informando ao usuário que o site do Reino Unido pode ser mais adequado.
10. Duplicação de site internacional
Questão:
É comum ver várias versões de um site quando as empresas operam em diferentes países ao redor do mundo. Essa é uma prática comum, pois, idealmente, você deseja fornecer a melhor experiência do usuário e, para isso, os sites específicos de cada país permitem que as empresas personalizem a jornada do usuário com base em onde o usuário está no mundo.
No entanto, as empresas podem cometer o erro de criar várias versões de seu site, mas não enviar nenhum sinal aos mecanismos de pesquisa para indicar qual site deve segmentar um país ou região específica.
Quando os proprietários de sites criam várias versões de sites sem instruções para os mecanismos de pesquisa, isso pode causar caos, como duplicação de sites e canibalização entre domínios.
Solução:
Ao criar versões internacionais do seu site, as tags Hreflang devem ser usadas para ajudar a sinalizar aos mecanismos de pesquisa, como o Google, a página da Web correta a ser veiculada a um usuário com base em sua localização e idioma.
As tags Hreflang também impedem que as versões internacionais de um site sejam vistas como duplicatas para os mecanismos de pesquisa, pois a tag Hreflang indica essencialmente que uma página específica é necessária para atender a um usuário no local X com a configuração de idioma X.
Configurar e mapear as tags Hreflang pode ficar confuso e é uma grande tarefa dependendo do tamanho do seu site. Se configurado incorretamente, pode ser prejudicial ao tráfego do seu site.
Visite nossa página de serviços internacionais de SEO se estiver planejando a expansão de um site internacional ou se estiver tendo problemas com seus sites internacionais.
11. Sitemap XML incluindo URLs históricos e URLs de teste
Questão:
Um problema interessante que encontramos com mais frequência do que você imagina é que sites com URLs antigos em seus mapas de site XML ou URLs de teste de alguma forma se espremendo em um mapa de site XML.
Isso pode causar problemas, como se os URLs de teste aparecerem em seus mapas do site e seu site de teste não puder ser bloqueado pelos mecanismos de pesquisa, esses URLs podem começar a ser indexados e, por sua vez, causar duplicação desnecessária.
URLs históricos em seu sitemap que agora exibem um código de status 4xx ou 3xx podem enviar sinais confusos para os mecanismos de pesquisa em quais páginas você deseja rastrear ou indexar.
Solução:
Certifique-se de auditar seu sitemap XML regularmente, observando o Search Console e monitorando os erros que aparecem ou configurando um rastreamento regular em uma ferramenta como o Deepcrawl.
Configurar um rastreamento regular de sitemaps XML no Deepcrawl é muito útil, pois pode sinalizar rapidamente quaisquer URLs que não deveriam aparecer no seu sitemap e permite que você fique atento a esse possível problema.
12. Site de teste sendo indexado causando duplicação
Questão:
Surpreendentemente, várias empresas têm seus sites de teste indexados em mecanismos de busca como o Google, não de propósito, mas por engano. Isso pode causar uma duplicação significativa, pois o site de teste geralmente será uma réplica do seu ambiente ao vivo. Ao fazer uma simples pesquisa de protocolo de URL no Google, existem milhões de páginas da Web de teste ao vivo e indexáveis.

Solução:
Na Semetrical, recomendamos adicionar uma camada de autenticação onde você precisa inserir um nome de usuário e senha para acessar o site de teste. Adicionar uma regra de não permissão também é uma opção para evitar que os ambientes de teste sejam indexados, mas é melhor implementar isso se o site de teste ainda não tiver sido indexado. Por exemplo:
Agente de usuário: *
Não permitir: /
A maioria das ferramentas de rastreador de sites tem uma funcionalidade de substituição do robots.txt para que você possa substituir facilmente a regra de não permissão ao realizar testes em seu ambiente de teste.
13. Pesquisa interna sendo indexada
Questão:
Os URLs de pesquisa interna em sites podem ser ótimos para SEO, pois permitem que os sites classifiquem as consultas de pesquisa de cauda hiperlonga ou classifiquem as palavras-chave onde eles não têm um URL principal para classificar.
No entanto, em muitos casos, as páginas de pesquisa internas podem causar muita duplicação em sites e também podem causar problemas de orçamento de rastreamento em sites de grande escala. Para este guia, vamos nos concentrar no lado negativo da pesquisa interna.
As páginas de busca interna costumam ter uma qualidade muito baixa, pois não serão otimizadas e, em muitas ocasiões, serão classificadas como conteúdo fino, pois abrigarão um número baixo de resultados, como produtos.
Solução:
Antes de decidir bloquear páginas de pesquisa interna, é aconselhável verificar se essas páginas atualmente não classificam para nenhuma palavra-chave ou trazem tráfego regular.
Além disso, verifique se esses URLs não criaram backlinks ao longo dos anos. Se suas páginas de pesquisa internas não tiverem backlinks de autoridade e não gerarem tráfego orgânico, na Semetrical, recomendamos duas etapas:
Primeiro passo: adicione as tags NOINDEX,FOLLOW a todas as páginas de pesquisa para permitir que os mecanismos de pesquisa desindexem essas páginas. Depois que essas páginas forem desindexadas em alguns meses, implementaremos a etapa dois.
Etapa dois: adicione o diretório de pesquisa interno ao arquivo robots.txt, como Disallow: */search*
14. Parâmetros que causam duplicação
Questão:
A duplicação de parâmetros de classificação e filtragem pode ser um problema comum ao auditar sites. Muitos sites usarão filtros, pois podem melhorar a experiência do usuário e permitir que os usuários filtrem seus resultados de pesquisa. No entanto, o principal problema é quando os sites mantêm os filtros indexáveis, pois isso gera uma quantidade significativa de duplicação no site. Por exemplo:
Ocasionalmente, encontraremos sites que adicionam parâmetros de rastreamento ao final de URLs em links internos para indicar em que parte do site o link foi clicado. Não recomendamos essa configuração em primeira instância, no entanto, quando os sites já têm isso, pode causar muita duplicação em um site, pois pode criar várias versões da mesma página. Por exemplo:
Outros parâmetros de rastreamento comuns que podem causar duplicação são os parâmetros de rastreamento UTM em que os links estão sendo usados para campanhas específicas para rastrear o desempenho da campanha. Por exemplo:
Solução:
Existem várias maneiras de evitar que os parâmetros sejam indexados e causem duplicação, incluindo:
Canonizando o URL do parâmetro para a versão de URL limpa
Adicionando uma regra no arquivo robots.txt para proibir parâmetros específicos
Adição de parâmetros à ferramenta de parâmetros de URL no Search Console que sinaliza ao Google que determinados parâmetros não devem ser rastreados.
15. Duplicação de URL do produto
Questão:
Em sites de comércio eletrônico, a duplicação de URLs de produtos pode ser um grande problema, assim como em sites de editores. A principal razão para a duplicação do URL do produto é porque os produtos podem herdar a categoria/subcategoria em sua estrutura de URL e, se o produto estiver em várias categorias/subcategorias, vários URLs serão criados.
Em sites de editores, os documentos também podem estar em várias áreas e, se a URL do documento herdar o local do documento, várias versões serão criadas. Por exemplo:
Solução:
Quando nos deparamos com duplicações como essa, existem várias maneiras de limpá-las para que possamos garantir que a versão correta do URL seja rastreada e indexada.
Para corrigir a duplicação de URL, recomendamos canonizar todas as variantes de URL do produto para o pai ou para uma versão genérica. Por exemplo:
Exemplo canônico pai
mulher-coleções-vestidos-dia-dia
/71hdo/bella-lula-floral-minivestido
canonizaria para:
mulher-coleções-vestidos
/71hdo/bella-lula-floral-minivestido
Exemplo canônico genérico:
mulher-coleções-vestidos-dia-dia
/71hdo/bella-lula-floral-minivestido
mulher-coleções-vestidos
/71hdo/bella-lula-floral-minivestido
canonizaria para
Alternativas:
Se você tiver acesso a desenvolvedores, uma solução alternativa seria vincular internamente a canônicos de produtos em todo o site e redirecionar 301 todos os URLs de produtos que executam categorias/subcategorias para o URL de produto canônico genérico.
Isso interromperia a duplicação de produtos e permitiria que você vincule a produtos por meio de várias rotas
16. Profundidade de um site
Questão:
A profundidade da página é o número de cliques de uma página específica na página inicial de um site. Ao realizar auditorias de sites, encontramos sites com profundidade de site maior que 10. Isso significa que essas páginas estão a 10 cliques da página inicial!
Quanto mais cliques forem necessários para encontrar uma página da web, mais difícil será para um mecanismo de pesquisa encontrar esse URL e é mais provável que o URL não seja revisitado com a mesma frequência que as páginas mais altas do site.
Além disso, quanto mais alta uma página estiver na arquitetura do seu site, maior a chance de ela ser vista como uma página prioritária pelos mecanismos de pesquisa. Se as páginas de prioridade estiverem mais baixas na arquitetura, existe o risco de que não sejam classificadas também.
Solução:
As principais maneiras de melhorar a profundidade do site e garantir que as páginas prioritárias estejam no topo da arquitetura do site incluem:
Links internos em todo o site, como produtos recomendados, produtos relacionados e páginas em destaque
O uso de breadcrumbs em todo o site
Configurando a paginação onde inclui a primeira, a última e as duas páginas de resultados de cada lado da página em que você está
Realização de pesquisa de palavras-chave para descobrir páginas de categoria de nível superior que devem ser vinculadas à navegação principal de um site e adicionar links a páginas prioritárias
17. Problemas técnicos de SEO em JavaScript
Questão
Muitos sites hoje usam JavaScript, no entanto, ao desabilitar o JavaScript, alguns sites não são totalmente funcionais e os links podem desaparecer e não serão descobertos pelos mecanismos de pesquisa. Este é um problema técnico comum de SEO.
Muitas vezes, vemos que os módulos “você também pode gostar” nas páginas de produtos de comércio eletrônico não podem ser vistos pelos rastreadores dos mecanismos de pesquisa, tornando o módulo de links internos redundante.
Além disso, os módulos de revisão que incluem UGC rico em palavras-chave estão em módulos JavaScript que também não podem ser descobertos pelos rastreadores.
Um problema interessante que vários sites de comércio eletrônico têm é que, ao desabilitar o JavaScript nas páginas de resultados, os links dos produtos ainda podem ser encontrados, mas todas as imagens desaparecem, pois não há uma opção de retorno para as imagens serem descobertas.
Solução:
Trabalhe com a equipe de desenvolvimento para tentar criar um fallback JavaScript em que as imagens ainda estejam presentes no código-fonte, bem como os módulos JavaScript que podem ser rastreados via HTML.
Uma ótima maneira de testar como o conteúdo JavaScript está sendo indexado é acessar a versão em cache da sua página da Web e ver como é a “versão completa” da página, além de revisar a “versão somente texto”.
18. Uso incorreto de Meta Robots NOINDEX
Questão:
Nossa equipe técnica de SEO auditou sites e descobriu que as tags NOINDEX foram adicionadas ao código-fonte das páginas por engano. Além disso, páginas vistas que historicamente trouxeram tráfego com uma tag NOINDEX em vigor.
Surpreendentemente, um problema que pode acontecer com mais frequência do que você imagina é que os desenvolvedores estão enviando ambientes de teste ao vivo com a tag NOINDEX ainda presente no código-fonte.
Em última análise, a tag NOINDEX informará aos mecanismos de pesquisa para não indexar a página e impedirá que a página apareça nos resultados da pesquisa.
Solução:
Se você encontrar páginas que tenham uma tag NOINDEX ao auditar um site e não estiver claro por que a tag está em vigor, verifique com a equipe de desenvolvimento para ver quando e também por que essas páginas incluem a tag.
Se uma tag NOINDEX foi adicionada por engano, você deve pedir aos desenvolvedores para atualizar o código-fonte e remover a tag completamente ou atualizá-la para ler <meta name=”robots” content=” INDEX, FOLLOW”>
19. Páginas Soft 404
Questão:
Uma página soft 404 não deve existir em um site, isso acontece quando uma página inexistente que deveria retornar um código de status 404 retorna um código de status 200 OK. Se 404 páginas retornarem um código de status 200, elas ainda poderão ser rastreadas e indexadas.
Em última análise, isso é um problema, pois os mecanismos de pesquisa como o Google podem perder tempo rastreando essas páginas que não fornecem valor desperdiçando orçamento de rastreamento em vez de focar tempo em páginas valiosas. Essas páginas também podem criar problemas duplicados em um site, especialmente se um site tiver 1.000 páginas soft 404 mostrando uma mensagem de “página não encontrada”.
Existem algumas maneiras diferentes de encontrar páginas 404 flexíveis, que incluem:
Visitar o Search Console onde sinaliza páginas 404 suaves
Rastreando seu site e procurando por 200 páginas de código de status com tags de título de “Página não encontrada”
O rastreamento de seu site com uma extração personalizada que procura a mensagem de cópia do corpo presente nas páginas de código de status 404 e qualquer página de código de status 200 com essa mensagem deve ser um soft 404
Solução:
Se você encontrar páginas soft 404 em seu site, existem algumas soluções que podem ser implementadas, incluindo:
301 redirecionar páginas 404 suaves para uma página alternativa apropriada, se disponível
Altere o código de status dessas páginas para um código de status 404 ou 410, mas verifique se nenhum patrimônio de link será perdido.
Se você está enfrentando problemas com seu site ou precisa de uma auditoria técnica de SEO, visite nossa página de serviços técnicos de SEO para obter mais informações sobre como a Semetrical pode ajudar.
