19 de fevereiro de 2019 – Notas do Hangout da Ajuda do Google

Publicados: 2019-02-26

É mais um Hangout de ajuda para webmasters, com nosso homem principal, John Mueller. Esta semana ele teve uma ótima visão sobre Links, Velocidade de Página, UTM e Links de Afiliados. Como sempre, o vídeo completo e a transcrição podem ser encontrados abaixo. Além disso, se você achar essas recapitulações úteis, confira nosso boletim informativo! Coletamos e selecionamos todos os melhores artigos de SEO da semana e os resumimos para você em resumos rápidos e digeríveis.

Se você já teve uma ação manual para links não naturais, isso estigmatizará o site para sempre?

5:20

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Às vezes é difícil falar, mas em geral, se uma ação manual for resolvida, essa ação manual não afetará mais o site. Portanto, não há nenhum tipo de efeito de retenção que manteria um site retido e como dizer, bem, eles fizeram as mesmas coisas erradas e, uma vez, portanto, impediremos que eles apareçam nas pesquisas, não há nada assim. Mas, em particular, quando se trata de links, se você tiver muitos links não naturais e talvez seu site tenha sido classificado por causa desses links não naturais do que por limpar esses links não naturais, é claro que há uma nova situação à qual nossos algoritmos precisam se ajustar primeiro. Então isso é algo que poderia até certo ponto ter um efeito lá. E a maneira como eu abordaria isso é apenas continuar trabalhando no site como você faria normalmente e garantir que você não se depare com essa situação novamente, pois a equipe de spam da Web enfrenta problemas com relação aos seus links. Então não gosto de sair e dizer como, oh, eu removi esses links, então vou comprar alguns links de outro site, e ter certeza de que o que você está fazendo é realmente para o uso a longo prazo do seu site .


Resumo: Depois que uma ação manual é removida, ela é totalmente removida. No entanto, links não naturais ainda têm a capacidade de prejudicar um site de forma algorítmica. Isso pode levar muito tempo para esclarecer.


Se o seu site carrega rapidamente para os usuários, mas a ferramenta PageSpeed ​​Insights do Google o considera lento, alguma ação deve ser tomada?

11:29

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Então, muitas dessas métricas que você está vendo no lighthouse são apresentadas a você principalmente em relação ao tipo de usuário voltado para o lado das coisas. Então, do nosso ponto de vista, do ponto de vista da pesquisa, reunimos várias dessas métricas para descobrir como deveríamos estar vendo o site em relação à velocidade, mas o tipo de medidas absolutas que você vê lá no farol são coisas que provavelmente têm um efeito mais forte sobre como os usuários veem seu site. Então, em vez de perguntar ao Google sobre SEO, como este site é muito lento, eu o analisaria com os usuários e obteria o feedback deles e, se você estiver dizendo que seu site é realmente muito rápido para os usuários, ele fornece o conteúdo rapidamente, então provavelmente você está em um bom estado lá.


Resumo: o mais importante é se suas páginas carregam rapidamente para usuários reais.

Nossa Nosso pensamento atual é que gostaríamos de ver melhorias na velocidade da página para sites com pontuações baixas de “primeira pintura de conteúdo” no Lighthouse, pois esse número é uma aproximação de quanto tempo leva para o conteúdo que pode ser lido aparecer.


Se uma página foi classificada para determinadas palavras-chave e você a redirecionou para uma nova página, essa página será capaz de classificar essas palavras-chave?

16:25

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Então, é essencialmente o que estamos tentando, se pudermos realmente transferir tudo o que for um para um para o novo domínio, então esse novo domínio estará no lugar do domínio antigo. E pode classificar as palavras-chave antigas e pode classificar as novas palavras-chave e, novamente, se você fizer alterações significativas durante esse movimento, é claro que esse novo estado deve ser levado em consideração e não é apenas como se pudéssemos encaminhar tudo para o novo one porque um novo não é apenas uma versão movida do antigo.


Resumo: quando o Google vê os links passarem por um redirecionamento, eles tentam determinar se devem transmitir sinais de link. Se a nova página for semelhante, há uma boa chance de que os sinais de link que apontam para a página anterior também sejam transmitidos.


Posso usar parâmetros UTM em links internos?

17:33

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Eu acho que é sempre uma situação um pouco complicada porque você está nos dando sinais essencialmente confusos. Por um lado, você está dizendo que esses são os links que eu quero indexar porque é assim que você cria links internos em seu site. Por outro lado, essas páginas quando as abrimos têm um rel canonical apontando para uma URL diferente. Então você está dizendo Indexar este e daquele você está dizendo bem, na verdade, Indexe um diferente. Então, o que nossos sistemas acabam fazendo é tentar pesar os diferentes tipos de URLs que encontramos para esse conteúdo. Provavelmente podemos reconhecer que esse conteúdo, esses URLs levam ao mesmo conteúdo. Então podemos colocá-los no mesmo grupo e então é uma questão de escolher qual usar para indexação e por um lado temos os links internos apontando para as versões UTM, por outro lado temos o rel canonical apontando para o tipo de versão mais limpa. A versão mais limpa provavelmente também é um URL mais curto e um URL mais bonito que também funciona em linha conosco, mas ainda não é garantido do nosso ponto de vista que sempre usaríamos o mais curto.

Então, rel canonical é obviamente um sinal forte. A ligação interna também é um sinal mais forte, pois é algo que está sob seu controle. Então, se você vinculou explicitamente a esses URLs e achamos que talvez você queira indexá-los assim. Então, na prática, o que provavelmente aconteceria aqui é que indexamos uma mistura de URLs, alguns deles indexamos a versão mais curta porque talvez encontremos outros sinais apontando para a versão mais curta também. Alguns deles provavelmente indexamos com a versão UTM e tentaríamos classificá-los normalmente como a versão UTM.

Na prática, na pesquisa, você não veria nenhuma diferença na classificação, apenas veria que esses URLs podem ser mostrados nos resultados da pesquisa. Portanto, eles classificariam exatamente da mesma forma com UTM ou sem UTM e seriam listados individualmente nos resultados da pesquisa. E do ponto de vista prático, isso significa apenas que no console de pesquisa você pode ver uma mistura desses URLs. No relatório de desempenho, você pode ver essa mistura. No relatório de indexação, você pode ver uma mistura em alguns dos outros relatórios. Talvez em torno do AMP ou dados estruturados, se você usar algo assim, também poderá ver essa mistura. Você também pode ver, em alguns casos, situações em que ele alterna entre os URLs, então pode ser que o indexemos com parâmetros UTM em um ponto e, em seguida, algumas semanas depois, se mudarmos para a versão mais limpa e dissermos, provavelmente esta versão mais limpa é melhor, e então em algum ponto mais tarde ou algoritmo para olhar para ele novamente e dizer bem, na verdade mais sinais apontam para a versão UTM que vamos voltar, que teoricamente poderia acontecer também.

Então, o que eu recomendaria fazer lá é se você tiver uma preferência em relação aos seus URLs, certifique-se de estar sendo o mais claro possível em seu site sobre qual versão você deseja indexar. Com os parâmetros UTM, você também está criando a situação em que teríamos que rastrear ambas as versões, então é um pouco mais de sobrecarga se for apenas uma versão extra que provavelmente não é tão grande. Se você tiver vários parâmetros UTM usados ​​em todo o site, tentaremos rastrear todas as diferentes variações, o que, por sua vez, significaria que talvez rastreássemos, não sei, algumas vezes mais URLs do que seu site realmente tem que ser capaz de acompanhar a indexação. Então isso é provavelmente algo que você gostaria de evitar. Portanto, minha recomendação seria realmente tentar limpar isso o máximo possível, para que possamos manter os URLs limpos. Para os URLs que você deseja indexar em vez de terminar neste estado em que talvez os peguemos assim, talvez os peguemos assim, e em seu relatório pode ser assim, pode ser assim. Você tem que estar atento a isso o tempo todo. Portanto, mantenha-o o mais simples possível.


Resumo: Cuidado. Os links internos mostram ao Google quais páginas são importantes em seu site. Se você vincular a páginas com parâmetros utm, poderá fazer com que o Google rastreie vários URLs com o mesmo conteúdo. Isso não é um problema para algumas páginas, mas pode afetar potencialmente a capacidade do Google de rastrear o site se feito em grande escala.

Deixe bem claro qual é a versão canônica para que todos os sinais passem para essa página. O seguinte ajudará:

  • Use uma tag canônica em todas as versões da página que aponte para o URL não utm
  • Certifique-se de que o conteúdo de cada versão da página seja o mesmo


Tudo bem mostrar ao Googlebot um texto âncora diferente em links do que os usuários reais veem?

23:08

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Portanto, o Googlebot deve ver a versão equivalente da página que os usuários veriam. Portanto, se isso for útil para os usuários, recomendo mostrá-lo ao Googlebot também. É algo em que, se você está falando sobre a velocidade necessária para renderizar essas páginas, vale a pena ter em mente que analisamos a velocidade de uma maneira holística, não apenas analisamos a velocidade de uma página como o Googlebot é buscar essa página quando se trata de velocidade no que diz respeito ao uso da velocidade como fator de classificação. Para rastrear, é claro, ter as páginas que estão disponíveis muito rapidamente nos ajuda bastante, então faz sentido tornar as coisas mais rápidas para o Google rastrear pelo menos. Uma coisa que eu recomendo aqui é tentar evitar o Googlebot de caixa especial, se possível, porque isso significa que a manutenção é muito mais difícil. Se você está fazendo algo especial para o Googlebot, é muito mais difícil saber se o Googlebot está vendo erros na página e os usuários estão vendo conteúdo normal e o Googlebot começa a remover essas páginas da pesquisa por causa desses erros. Então, idealmente, trate-os da mesma forma que os usuários. Uma maneira de fazer isso aqui é usar algum tipo de JavaScript para carregar de forma assíncrona essas informações extras. Portanto, isso geralmente é facilmente possível, provavelmente menos esforço do que camuflar para o Googlebot em um caso como esse.


Resumo: não. Você não deseja criar casos especiais em que o Googlebot veja conteúdo diferente de um usuário comum.

Nossa observação: isso pode ser considerado camuflagem e pode fazer com que as páginas saiam do índice.


Se houver links apontando para a página A e a página A for canonizada para a página B, o Google vê esses links apontando para a página B?

26:18

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Então, do nosso ponto de vista, há várias coisas em que eu entrei em jogo aqui. Acho que, antes de tudo, essas páginas devem ser equivalentes, se você está dizendo que há um canônico para essa página, deve ser equivalente à página final também. Portanto, não importa qual dessas páginas é usada para encaminhar links, porque você está essencialmente nos dizendo que essas páginas são as mesmas que podemos tratá-las da mesma forma. Portanto, não deveria importar para nossos algoritmos, como se pegamos esses links naquela página ou pegamos os links na outra página. Então, eu também assumiria que nem sempre como na outra questão com parâmetros UTM, escolheríamos a URL especificada como canônica como aquela que realmente indexamos. Portanto, se esses links forem diferentes nas versões das páginas, talvez não passemos o PageRank da maneira que você espera. Então, tudo isso vem junto e, do meu ponto de vista, o que eu recomendo é realmente garantir que essas páginas sejam equivalentes. Para que você não precise se preocupar de onde, quais links estão passando o PageRank. Mas sim, suponha que poderia ser esta página, poderia ser a outra página, o rel canonical é um sinal forte para nós, mas não é uma diretiva que nos impede de usar essa página completamente.


Resumo: Se as páginas forem realmente equivalentes, sim, os links apontando para a página A ajudariam a apoiar a página B.


Você deve criar um site separado para cada país em que deseja ser visto?

26:58

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Portanto, a resposta curta não é uma ideia terrível. Especialmente se você realmente não tiver conteúdo exclusivo para todos os países do mundo. Em particular, se você estiver usando hreflang entre as diferentes versões de país e idioma. Você precisa ter em mente que hreflang não faz com que essas páginas tenham uma classificação mais alta nesses países, apenas troca esses URLs. Portanto, você ainda precisa classificar nesses locais individuais. O que significa que se você tiver um conteúdo e dividi-lo em todos os países do mundo e multiplicá-lo por todos os idiomas, terá diluído seu conteúdo significativamente em um grande número de URLs. O que significa que qualquer conteúdo lá terá muito mais problemas para ser exibido nos resultados da pesquisa. Porque em vez de uma página forte que poderíamos mostrar potencialmente em todo o mundo, temos uma tonelada de páginas diferentes que mostram mais ou menos o mesmo conteúdo e nenhuma delas é particularmente forte. Então, isso é algo em que, quando se trata de uma estratégia de internacionalização, eu recomendo fortemente obter ajuda de pessoas que fizeram isso com sucesso para outros sites. Para que você possa realmente pesar os prós e os contras de lá. Por um lado, você tem a vantagem de poder segmentar países e idiomas individuais com conteúdo que é realmente único e especializado para eles e, por outro lado, você deve considerar que, se estiver diluindo muito o conteúdo, todos esses versões terão muito mais dificuldade para serem visíveis na pesquisa. Então, por um lado, direcionar bem, por outro lado, garantir que as versões que você tem disponíveis sejam fortes o suficiente para realmente serem visíveis na pesquisa e meu pensamento geral é errar ao usar menos versões em vez de usando mais versões. Então, a menos que você tenha um caso de uso muito forte para ter conteúdo especificamente direcionado para países individuais e eu erro do lado de bem, talvez um site global seja melhor do que dividir as coisas.


Resumo: na maioria dos casos, faz sentido ter apenas um site e fazer uso adequado do hreflang para ajudar o Google a encontrar a versão correta. Pode haver alguns casos em que faria sentido ter sites com TLDs de nível de país separados. Esta é muitas vezes uma decisão difícil. John recomenda consultar um SEO que tenha experiência em internacionalização.


Você pode usar o esquema de classificação e o esquema de perguntas e respostas no mesmo conteúdo?

29:33

Hangout de ajuda de John Mueller 19 de fevereiro de 2019 Claro que não vejo de improviso por que não. O principal a ter em mente é que os dados estruturados devem ser focados no conteúdo principal da página. Portanto, não sei exatamente como você combinaria a classificação e o esquema de controle de qualidade em uma página, mas talvez seja algo como se você tivesse perguntas e respostas sobre um produto e também tivesse classificações nesse produto. Isso pode ser uma opção, mas em geral não é que esses tipos de marcação sejam exclusivos e você só pode usar um tipo, você pode combinar vários tipos de marcação.


Resumo: Sim


Os links de afiliados são vistos como um sinal de um site de qualidade inferior?

41:05

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Então, em geral, isso não é tanto quanto eu sei que não entramos explicitamente no site e dizemos, bem, existem links que parecem links afiliados, portanto, trataremos este site como sendo de qualidade inferior. Em geral, os principais problemas que vejo em relação aos sites afiliados é que eles tendem a ser apenas sites de qualidade inferior. Portanto, não é tanto uma questão de onde está o fluxo de check-out, mas sim que, em geral, o conteúdo geralmente é de baixa qualidade e, por causa do conteúdo de baixa qualidade, é algo que nossos algoritmos podem perceber e dizer, bem, isso provavelmente não é o resultado mais relevante para mostrar nos resultados da pesquisa, e também pode haver sites afiliados de alta qualidade que são bons. Portanto, não é tanto uma questão de haver um link de afiliado ou não, mas como o resto do site? Isso é algo que seria relevante para mostrar aos usuários ou há algo talvez problemático lá? Eu acho que, pelo menos até onde eu sei, isso se aplicaria a todos, então não importaria qual é a área de tópico específica do site, mas em geral existem alguns sites afiliados muito bons e alguns realmente terríveis sites afiliados. Então é mais uma questão de um site ser bom ou ruim?


Resumo: A presença de links de afiliados não é sinal de baixa qualidade. No entanto, se você tiver um site afiliado, para classificar bem, você precisa fornecer valor suficiente para que o Google queira classificar seu conteúdo ao lado do conteúdo do fornecedor original.


Se o seu site receber um influxo de links irrelevantes, eles devem ser rejeitados?

47:01

Hangout de ajuda de John Mueller 19 de fevereiro de 2019

Claro que você pode fazer isso. Sim, é para isso que serve a entrada de domínio no arquivo de rejeição, dessa forma, é como todos esses milhões ou milhares de links, você pode simplesmente dizer tudo deste site, eu simplesmente não tenho nada a ver com isso. Normalmente, o que acontece em casos como esse em que você vê esse link de site completamente aleatório é que o site provavelmente foi invadido e, por qualquer motivo, alguém decidiu deixar todos esses links lá ao invadir o site e geralmente somos muito bons em pegar isso e tentando manter o estado antes que eles invadam nossos sistemas. Então provavelmente já estamos ignorando esses links, é possível que talvez ou até indexe o site de antes e não com o conteúdo hackeado. Então, isso é algo em que normalmente eu não me preocuparia muito com isso, porque esses tipos de hacks são muito comuns e temos um pouco de prática tentando lidar com isso. Mas se você está preocupado com isso, você sabe como oh, isso é muito louco e eu acho que links de reparo de instrumentos provavelmente não são algo que você está dizendo, oh, isso vai matar meu site se eu estiver associado a violinos, talvez o conteúdo adulto seja algo em que você seria mais cauteloso, então eu usaria apenas um arquivo de rejeição e você tem certeza de que isso não é levado em consideração.\


Resumo: Na maioria dos casos como esse, o Google já está ignorando o influxo incomum de links. É interessante notar, porém, que John recomendou que pode ser uma boa ideia rejeitar se esses links forem de natureza adulta Por exemplo, se o seu site de conserto de música recebeu milhares de links não naturais apontando para ele com a âncora “conserto de violino”, então você pode querer rejeitá-los.


Se você gosta de coisas assim, vai adorar minha newsletter!

Minha equipe e eu relatamos todas as semanas as últimas atualizações de algoritmos do Google, notícias e dicas de SEO.

Sucesso!! Agora, verifique seu e-mail para confirmar sua assinatura do boletim informativo do Google Update.

Ocorreu um erro ao enviar sua assinatura. Por favor, tente novamente.

Vídeo completo e transcrição

Pergunta 1:25 - Os cabeçalhos meta HTTP de robôs X impediriam o Google de seguir um redirecionamento de local como um 301 ou 302?

Resposta 1:37 - Não. Portanto, o nofollow só se aplicaria a links nessa página e, como é um redirecionamento do lado do servidor, nem veríamos o conteúdo da página. Portanto, não haveria links para seguir, de modo que não mudaria nada.

Pergunta 1:58 - Um de nossos clientes é uma loja de e-commerce. Eles foram bloqueados por vários ISPs, ISPs móveis e nos perguntamos qual seria o impacto de seus rankings orgânicos.

Resposta 2:15 - Então, acho que o principal, do nosso ponto de vista, seria se o Googlebot também seria bloqueado e, se o Googlebot não estiver bloqueado, poderíamos rastrear um índice do conteúdo normalmente. Mas é claro que se o Googlebot também estiver bloqueado porque, não sei, está bloqueado nos EUA, por exemplo, isso resultaria na saída dessas páginas da pesquisa. Mas se são apenas usuários individuais, eu não tenho acesso a isso e indexação e rastreamento, caso contrário, funciona normalmente, o que geralmente é um problema menor, é claro que você tem os efeitos indiretos de que esses usuários não seriam capazes de recomendar o site e não poderíamos pegar essas recomendações porque elas não estão lá desses usuários. Então, obviamente, se você está bloqueando a maioria dos usuários em seu site, isso provavelmente teria um efeito de longo prazo no site.

Resposta 3:25 - E isso é algo que alguns sites fazem de propósito, não particularmente os usuários de dispositivos móveis versus computadores, mas alguns sites dirão, não tenho nada que eu possa oferecer aos usuários nesses países individuais ou por qualquer motivo de política meu conteúdo é ilegal na Suíça porque não é neutro o suficiente ou o que quer que seja, então esse site pode optar por bloquear usuários nesses países e isso ainda é algo com o qual temos que lidar. Portanto, esses usuários não seriam capazes de recomendá-lo, pode haver alguns efeitos de longo prazo, mas se ainda pudermos rastrear e indexar o conteúdo, geralmente tudo bem.

Tivemos uma ação manual devido aos links. Estamos voltando lentamente para o final da página 1, às vezes para o topo da página 2. Eu queria saber se é devido à falta de links agora ou há algo que podemos fazer para recuperar essa confiança para que possamos voltar ao nosso posição original?

Resposta 5:20 - Às vezes é difícil falar, mas em geral, se uma ação manual for resolvida, essa ação manual não afetará mais o site. Portanto, não há nenhum tipo de efeito de retenção que manteria um site retido e como dizer, bem, eles fizeram as mesmas coisas erradas e, uma vez, portanto, impediremos que eles apareçam nas pesquisas, não há nada assim. Mas, em particular, quando se trata de links, se você tiver muitos links não naturais e talvez seu site tenha sido classificado por causa desses links não naturais do que por limpar esses links não naturais, é claro que há uma nova situação à qual nossos algoritmos precisam se ajustar primeiro. Então isso é algo que poderia até certo ponto ter um efeito lá. E a maneira como eu abordaria isso é apenas continuar trabalhando no site como você faria normalmente e garantir que você não se depare com essa situação novamente, pois a equipe de spam da Web enfrenta problemas com relação aos seus links. Então não gosto de sair e dizer como, oh, eu removi esses links, então vou comprar alguns links de outro site, e ter certeza de que o que você está fazendo é realmente para o uso a longo prazo do seu site .

Pergunta 7:32 - A pergunta geralmente é sobre um site que mudou para um nome de domínio diferente e mudou para uma estrutura diferente e também para uma plataforma diferente por meio de um site angular em vez de um site HTML estático e, como fizeram essa mudança, eles vem vendo queda significativa nos rankings, pois na visibilidade nas buscas em geral.

Resposta 7:57 - Então eu olhei para um monte de tópicos do site e tentei acompanhar algumas coisas internamente para ver o que exatamente está acontecendo aqui e é uma situação complicada em que eu realmente não tenho uma resposta direta. Em particular, há a mudança de um tipo de domínio de nível superior com código de país para o domínio genérico de nível superior, de modo que algum tipo de informação de segmentação geográfica é um pouco perdida lá. Houve alguns problemas no início com a possibilidade de indexar o conteúdo. Em particular no novo site e há algumas mudanças significativas na forma como o conteúdo é fornecido no novo site em comparação com o site antigo. Portanto, no geral, há muitas mudanças bastante significativas ao longo do caminho e algumas delas eram problemáticas, como não ser capaz de indexar o conteúdo e algumas delas eram apenas mudanças como normalmente acontecem em um site onde você alteraria o conteúdo significativamente, por exemplo. E acho que o que está acontecendo aqui é que todas essas mudanças tornaram bastante difícil para nossos algoritmos descobrir qual deve ser o novo estágio estável para este site e provavelmente é apenas algo que está demorando muito mais do que uma mudança normal de site levaria . Então, acho que essa é uma daquelas situações cautelosas em que você deseja fazer várias alterações e, ao fazer alterações bastante significativas de uma só vez, está causando muita confusão em relação aos nossos algoritmos. Onde pode fazer sentido fazer essas alterações passo a passo para testá-las individualmente para ver se, na verdade, cada etapa intermediária está funcionando como deveria, para que você tenha certeza de que toda a cadeia de alterações que você faz não resulta necessariamente em maiores efeitos negativos no que diz respeito à pesquisa. Então, acho que minha recomendação aqui seria continuar e continuar olhando para o site trabalhando no site para torná-lo melhor. Acho que, do ponto de vista da indexação, você está em um estado muito bom, pois está usando algum tipo de pré-renderização do lado do servidor, o que torna possível pegar o conteúdo rapidamente. Parece que você fez algumas mudanças significativas na velocidade geral do site, o que também é uma mudança positiva. E eu suspeito que todas essas coisas vão se somar ao longo do tempo para se refletir na pesquisa também. Eu gostaria que esse tipo de mudança pudesse ser processado um pouco mais rápido, então eu tenho chamado algumas pessoas do lado da engenharia de busca para verificar novamente se tudo está funcionando conforme o esperado. Mas, em geral, com muitas mudanças irregulares em um site e a mudança para um domínio diferente, todas essas coisas podem tornar um pouco complicado fazer um site.

Pergunta 11:03 - Temos bons primeiros conteúdos significativos de dois segundos, mas nosso tempo de interação é de 12 a 15 segundos é afetado por uma grande quantidade de scripts de acordo com o farol, embora carregue muito rápido para os usuários. Estamos prestes a lançar um novo site e nos perguntamos se é crucial corrigir isso antes do lançamento ou pode esperar alguns meses, como o Google vê o tempo para interativo?

Resposta 11:29 - Então, muitas dessas métricas que você está vendo no lighthouse são apresentadas a você principalmente em relação ao tipo de usuário voltado para o lado das coisas. Então, do nosso ponto de vista, do ponto de vista da pesquisa, reunimos várias dessas métricas para descobrir como deveríamos estar vendo o site em relação à velocidade, mas o tipo de medidas absolutas que você vê lá no farol são coisas que provavelmente têm um efeito mais forte sobre como os usuários veem seu site. Então, em vez de perguntar ao Google sobre SEO, como este site é muito lento, eu o analisaria com os usuários e obteria o feedback deles e, se você estiver dizendo que seu site é realmente muito rápido para os usuários, ele fornece o conteúdo rapidamente, então provavelmente você está em um bom estado lá.

Resposta 12:24 - O Google acabou de explicar em um white paper divulgado há alguns dias que usa o PageRank por meio de links na Web para avaliar a autoridade e a confiabilidade por meio de algoritmos. Podemos presumir que a experiência é avaliada principalmente por meio de algoritmos de qualidade de conteúdo? Você pode elaborar sobre isso em tudo?

Resposta 12:51 - Eu não tenho nenhuma visão lá. Então isso é algo que eu realmente não tenho nada específico para isso lá. Acabei de ver aquele white paper que não conheço ontem ou no dia anterior também. Parece bem interessante, mas é claro que é um paper bastante longo e há muitos tópicos diferentes lá e o PageRank é apenas mais ou menos um comentário lateral lá . Então eu não gostaria de dizer que tudo é apenas PageRank.

Pergunta 13:23 - Há alguns meses, a equipe do Google Chrome Labs lançou o quicklink. O que oferece carregamentos de página subsequentes mais rápidos por meio da pré-busca nos links da janela de visualização durante o tempo ocioso. Eu sei que isso é benéfico para os usuários, mas isso teria algum efeito no Googlebot e na classificação ou todas as páginas que o Googlebot visita são vistas como uma primeira visita, ardósia limpa?

Resposta 13:45 - Você está correto. Então, toda vez que o Google carrega uma página que é vista como uma nova visita pela primeira vez nesse site ou nessa página, geralmente não mantemos nenhum cookie, não é que mantemos o estado da sessão em que diríamos, oh, carregamos isso uma página e estamos seguindo os links aqui, portanto, manteremos esse estado e clicaremos nesses links para acessar essas novas páginas, mas encontraremos esses URLs e buscaremos esses URLs individualmente. Então, em um caso como este, não vejo nenhum efeito positivo ou negativo no Googlebot aqui, parece que é algo que aceleraria significativamente as coisas para os usuários, então isso é uma coisa boa e você provavelmente vê alguns efeitos indiretos lá e isso quando os usuários podem usar seu site muito rapidamente, muitas vezes eles passam mais tempo no site, eles olham um pouco mais e, por sua vez, é mais provável que eles também recomendem esse site para outras pessoas, o que é algo que possamos pegar.

Pergunta 12:52 - Quanto tempo pode levar para restaurar as classificações se eu mover um site do domínio antigo para um completamente novo e garantir que todos os redirecionamentos 301 estejam em vigor?

Resposta 15:02 - Então isso é algo que pode acontecer muito rapidamente se você fizer uma mudança de site limpa de um domínio para outro, onde tudo é essencialmente o mesmo, onde podemos reconhecer que esse URL antigo é redirecionado para o mesmo URL no novo domínio, então geralmente podemos pegar isso rapidamente e geralmente você verá na visão geral da indexação no console de pesquisa, você verá que um desce quando o outro sobe e as coisas mudam com talvez um dia ou mais de uma espécie de solavanco no meio. Por outro lado, se você fizer alterações significativas em seu site para que URLs diferentes criem diferentes tipos de conteúdo, tudo isso pode dificultar muito para nós e realmente precisamos reavaliar o novo site completamente e com base em o novo site descobrir como devemos posicionar este site. Esse é o tipo de diferença lá, mas se é realmente apenas o URL limpo que se move para o mesmo URL em outro tipo de alteração de domínio, isso não é problema.

Pergunta 16:18 - Um novo domínio herdará o SEO juice e também será classificado para novas palavras-chave?

Resposta 16:25 - Então, é essencialmente o que estamos tentando, se realmente podemos transferir tudo de um para um para o novo domínio, então esse novo domínio estará no lugar do domínio antigo. E pode classificar as palavras-chave antigas e pode classificar as novas palavras-chave e, novamente, se você fizer alterações significativas durante esse movimento, é claro que esse novo estado deve ser levado em consideração e não é apenas como se pudéssemos encaminhar tudo para o novo one porque um novo não é apenas uma versão movida do antigo.

Pergunta 16:58 - Uma pergunta sobre URLs de parâmetros com links UTM. Esses links diluirão o valor do link se estiverem fortemente vinculados internamente? Estamos obtendo páginas indexadas com parâmetros em que o canônico está apontando para a versão preferida, como isso afetará a longo prazo se estivermos vinculados ao site com 80% de parâmetros e 20% de URLs limpos.

Resposta 17:33 - Acho que é sempre uma situação um pouco complicada porque você está nos dando sinais essencialmente confusos. Por um lado, você está dizendo que esses são os links que eu quero indexar porque é assim que você cria links internos em seu site. Por outro lado, essas páginas quando as abrimos têm um rel canonical apontando para uma URL diferente. Então você está dizendo Indexar este e daquele você está dizendo bem, na verdade, Indexe um diferente. Então, o que nossos sistemas acabam fazendo é tentar pesar os diferentes tipos de URLs que encontramos para esse conteúdo. Provavelmente, podemos reconhecer que esse conteúdo, esses URLs, levam ao mesmo conteúdo. So we can kind of put them in the same group and then it's a matter of picking which one to actually use for indexing and on the one hand we have the internal links pointing to the UTM versions, on the other hand we have the rel canonical pointing to kind of the cleaner version. The cleaner version is probably also a shorter URL and nicer looking URL that kind of plays in inline with us as well but it's still not guaranteed from our point of view that we would always use the shorter.

So rel canonical is obviously a strong sign internal linking is also kind of a stronger signal, in that that's something that's under your control. So if you explicitly linked to those URLs and we think maybe you want them indexed like that. So in practice what what would probably happen here is we would index a mix of URLs some of them we would index the shorter version because maybe we find other signals pointing at the shorter version as well. Some of them we probably index with the UTM version and we would try to rank them normally as the UTM version.

In practice in search you wouldn't see any difference in ranking you would just see that these URLs might be shown in the search results. So they would rank exactly the same with UTM or without UTM and they would just be listed individually in the search results. And from a practical point of view that just means that in search console you might see a mix of these URLs. In the the performance report you might see kind of this mix. In the indexing report you might see a mix in some of the other reports. Maybe around the AMP or structured data if you use anything like that you might also see this mix. You might also see in some cases situation where it swaps between the URLs so it might be that we index it with UTM parameters at one point and then a couple weeks later if we switch to the cleaner version and we say, well probably this cleaner version is better, and then at some point later on or algorithm to look at it again and say well actually more signals point to the UTM version we'll switch back, that could theoretically happen as well.

So what I would recommend doing there is if you have a preference with regards to your urls make sure that you're being as clear as possible within your website about what version you want to have indexed. With UTM parameters you're also creating the situation that we'd have to crawl both of those versions so it's a little bit more overhead if it's just one extra version that's probably not such a big deal. If you have multiple UTM parameters that you're using across the website then we would try to crawl all of the different variations which would in turn mean that maybe we crawl, I don't know, a couple times as many URLs as your website actually has to be able to keep up with indexing. So that's probably something you'd want to avoid. So my recommendation would be really to try to clean that up as much as possible, so that we can stick to the clean URLs. To the URLs that you want to have indexed instead of ending up in this state where maybe we'll pick them up like this, maybe we'll pick them up like this, and in your reporting it could be like this, it could be like this. You have to watch out for that all the time. So keep it as simple as possible.

Question 21:56 - Will there be any ability to test and view desktop renders with screenshots in the URL inspection tool in search console?

Answer 22:05 - I get these kind of questions all the time. It's like will you do this in search console or will you do that. And in general we try not to pre-announce things so I don't really have any insight that I can give you there with regards to what will happen in the future. It does seem like something that is kind of a missing aspect of the tool in that it's focusing on mobile at the moment but it might be nice to actually test the desktop version as well. So I'll definitely pass that on to your team to make sure that that's on their radar somewhere.

Question 22:41 - On one website with a couple million pages we have a sidebar which has internal links in it and next to each there's a number which represents how many sub pages that link leads to. Sort of as an information informative visual aid and generating those numbers takes a lot of time is it okay to remove those numbers for the front page when Googlebot is detected?

Answer 23:08 - So Googlebot should be seeing the equivalent version of the page as users would be seeing. So if this is something that's useful for users I'd recommend showing it to Googlebot as well. It's something where if you're talking about the speed that it takes to to render these pages it's worth keeping in mind that we look at speed on kind of a holistic way we don't just look at the speed of a page as Googlebot is fetching that page when it comes to speed with regards to using speed as a ranking factor. For crawling of course having the pages that are available very quickly that helps us quite a bit so that makes sense to kind of make things fast for Google for crawling at least. One thing I'd recommend here though is try to avoid special casing Googlebot if if at all possible because it does mean that maintenance is a lot harder. If you're doing special for Googlebot then it's a lot harder to tell if Googlebot is seeing errors on the page and users are seeing normal content and Googlebot starts dropping those pages from search because of those errors. So ideally treat them a lot the same as users. One way you could do that here is to use some kind of JavaScript to just asynchronously load that extra information. So that's usually pretty easily doable probably less effort than cloaking to Googlebot in a case like this.

Question 24:47 - Does link equity pass through links on canonical pages or is it just ignored and everything flows to the canonical? So I think the question is more that you have one page it has a rel canonical pointing to a different page and the question is will those links on that original page kind of work pass PageRank or will only that pay the links on the specified canonical page pass PageRank?

Answer 25:18 - So from our point of view there are multiple things I've come into play here. I think first of all those pages should be equivalent if you're saying that there's a canonical for that page it should be equivalent to the final page as well. So it shouldn't matter which of these pages is used for forwarding links because you're essentially telling us these pages are the same we can treat them the same. So it shouldn't matter for our algorithms like if we pick up those links on that page or we pick up the links on the other page. So II would also assume there that not always kind of like in the other question with UTM parameters we would pick the URL that is specified as canonical as the one that we actually index. So if those links are different across versions of pages then that's something where we might not pass PageRank in the way that you're expecting. So all of that kind of comes together and from my point of view what I'd recommend there is just really making sure that those pages are equivalent. So that you don't have to worry about from where, which links are passing PageRank. But rather assume that it could be this page, it could be the other page, the rel canonical is a strong signal for us but it's not a directive that prevents us from using that page completely.

Question 26:50 - Is it a good idea to create a website for every country in the world?

Answer 26:58 - So the short answer there is no that's a terrible idea. Especially if you don't really have content that's unique to every country in the world. In particular if you're using hreflang between the different country and language versions. You need to keep in mind that hreflang does not make those pages rank higher in those countries it just swaps out those URLs. So you still have to be able to rank in those individual locations. Which means if you have one piece of content and you split it up across every country in the world and multiply it by every language then you'll have diluted your contents significantly across a large number of URLs. Which means that any piece of content there will have a lot more trouble being shown in the search results. Because instead of one strong page that we could show potentially worldwide, we have a ton of different pages that all show more or less the same content and none of them are particularly strong. So that's something where when it comes to an internationalization strategy I would strongly recommend getting help from people who have done this successfully for other websites. So that you can really weigh kind of the pros and the cons there. On the one hand you have the advantage of being able to target individual countries and languages with content that's really uniquely kind of specialized for them and on the other hand you have to weigh that if you're diluting the content too much then all of those versions will have a lot harder time to be visible in search. So on the one hand targeting well on the other hand kind of making sure that the versions that you do have available are strong enough to actually be be visible in search and my general thought there is to err on the side of using fewer versions rather than using more versions. So unless you have a really strong use case for having content specifically targeted for individual countries and I err on the side of well maybe one global website is better rather than splitting things up.

Question 29:25 - Can we use both rating schema and question-and-answer schema for question answers

Answer - 29:33 - Sure I don't see offhand why not. The main thing to keep in mind is that the structured data should be focused on the primary content of the page. So I don't know how exactly you would kind of combine the rating and the QA schema on a page but maybe it's something like you have questions and answers to a product and you have ratings at that product as well. That might be an option there but in general it's not that these types of markups are exclusive and you can only use one type you can combine multiple types of markup.

Question 30:41 - So our site had maybe like 5,000 Google visitors per day for several months now we're down to under 500. This was due to a sudden, just happened in one day, we think it's due to an automatic security penalty that we got removed within one business day and we just haven't seen any change within three weeks. So I'm wondering how long was something like that it might take to recover from and if there's anything else that would cause just a sudden one day drop like that?

We got a message in search console that social engineering content was detected. It turns out that was due to our email service provider there click track my software was was automatically flagged because I guess another clients was using it so we were we got a manual review and within a business day and they said it was ok but you know.

Answer 31:48 - Ok so if there was a manual review then that would be resolved. So it's not that there is kind of a hold back after manual review that says, oh we have to be careful with this website, but that should be resolved there. I know It's kind of hard to say just in a general case with regards to a site like that there there are sometimes algorithmic changes that happen that roll out we're bigger change happens with within a day or so. So that might also be playing a role here it might also be that there's something else kind of playing in with the site there. So what what I generally recommend doing is maybe starting a thread in the webmaster help forum with the URL of your site and some of the queries where you're seeing changes. So not just like we had this many queries and now it's like down to this but rather like people are searching for our company name they're still finding our company name but for this particular kind of query we're no longer visible anymore. So that that kind of thing is it's really useful to post in the webmaster help forum and usual also when when people can't find an answer for that, the experts there are able to escalate that on to us so that we can take a look at that as well.

Question 33:24 - So they have multiple sites in German for different countries and they have the a hreflang setup. It sounds like instead of properly. So this is just what the example URLs, it's hard to say but they're saying that they're not seeing a lot of indexing of these URLs across the different country versions so what what could be happening here?

Resposta 33:54 - Geralmente, quando vejo perguntas como essa, tudo se resume a nossos algoritmos olhando para essas páginas e dizendo que essas páginas são essencialmente duplicatas umas das outras. Assim, podemos indexar uma dessas versões e mostrá-la aos usuários porque é tudo a mesma coisa. Então, em particular em alemão, isso é algo que vejo bastante, imagino que em alguns outros idiomas seja semelhante provavelmente em espanhol, onde há vários países de língua espanhola ou inglês, é claro, onde o conteúdo é essencialmente o mesmo e é direcionado apenas para países diferentes. Então, o que acontece aqui é que, do ponto de vista da indexação, provavelmente, pelo menos potencialmente, juntaremos esses URLs para que as várias versões em alemão escolhamos uma versão em alemão e digamos que esta é a canônica para a versão em alemão com a marcação hreflang que ' d ainda poderá mostrar os outros URLs. Portanto, podemos indexar talvez a versão suíço-alemã e, se um usuário na Alemanha estiver pesquisando, poderemos trocar esse URL pela versão alemã nos resultados da pesquisa. Mas no relatório de indexação no console de pesquisa, você verá apenas esse URL sendo indexado para a versão suíça, que é a que escolhemos a canônica. Então você não veria isso para a versão alemã, na prática isso pode ser bom se essas páginas forem exatamente as mesmas porque estamos trocando o URL que os usuários estão obtendo para a versão correta, o que está bem e a dificuldade pode ser que se você tiver algo no título ou se tiver preços ou outros dados estruturados nessas páginas, isso pode confundir os usuários, pois um usuário na Alemanha pode estar pesquisando, mostramos o URL alemão, mas no snippet tem suíço moeda como um preço em algum lugar. Então, isso pode ser confuso para as pessoas, então geralmente há duas abordagens para isso, por um lado, você pode usar a abordagem e dizer bem, dobrar esses URLs juntos é bom, isso torna esses euros um pouco mais fortes para mim, tudo bem. Então você pode entrar lá e dizer bem, vou me certificar de que essas páginas sejam genéricas e cruzem todas as versões alemãs, de modo que não importa para mim qual URL está sendo indexada. A outra abordagem é garantir que esses URLs sejam claramente vistos como URLs separados principais. Portanto, certifique-se de que o conteúdo seja realmente significativamente diferente nas diferentes versões de idioma, para que nossos sistemas, ao olharem para essas páginas, digam, bem, esta é uma página alemã e esta é uma página alemã diferente, há um link hreflang entre essas duas para que possamos trocar esses URLs, mas são páginas exclusivas e precisam ser indexadas individualmente por conta própria. Então, essas são as duas abordagens, por um lado, você pode juntar as coisas, por outro lado, você pode dizer, bem, eu quero isso explicitamente separado.

Pergunta 37:00 - O que você aconselharia se uma marca tem presença internacional e depois de fechar para determinadas regiões. O que você faz com os sites direcionados a outros países, caso eles redirecionem o site principal?

Resposta 37:14 - Essencialmente, este é um tipo de situação de migração de site. Acho que se você tiver um site de um país e estiver dizendo que esse site não está mais disponível, vou redirecioná-lo para outra versão de mim mesmo. Isso é algo que você pode fazer. O que você realmente não pode fazer é especificar na pesquisa para nos dizer que não devemos mostrar este site em determinados países. Então você pode dobrar suas versões alemãs juntas e dizer como Alemanha Áustria Suíça todos deveriam ser apenas o único site alemão que está bem, mas eu não quero mostrar meu site para usuários na Suíça talvez, mas você não pode. Não há meta tag onde você possa dizer ao Google que não mostra meu site na Suíça. Então, no máximo, o que você pode fazer é impedir que os usuários desse país acessem o site, mas não pode dizer ao Google para não mostrá-lo nos resultados de pesquisa desse país.

Pergunta 38:18 - Essa foi a minha pergunta. Nosso site está em inglês e temos conteúdo exclusivo com diferentes países. Então, por causa de decisões de negócios, eles estão fechando certas regiões. Então, se fizermos algum redirecionamento para o site, isso afetará meu site principal, será um efeito negativo ou positivo? Quero dizer, atualmente temos este hreflang em todos os subconjuntos que têm páginas comuns onde podemos ver como quero dizer, estamos oferecendo um produto em um país específico e o único produto em outro país com conteúdo diferente e todo o conteúdo local da região. Então eu estou querendo saber o que vai acontecer com essas páginas? se eu redirecionar essas páginas para meu site principal, minhas páginas principais serão classificadas para essas regiões específicas?

Resposta 39:19 - Isso poderia acontecer, mas, novamente, isso não é algo que você possa realmente controlar. Portanto, se você estiver redirecionando essas páginas, se essas páginas ainda existirem, elas também poderão ser classificadas nesses locais, você não pode dizer que não há metatag ou pode dizer que meu site deve ser indexado, mas não mostrado neste particular. país.

Perguntas 39:50 - O Google tem este manual de UX para as melhores práticas para encantar os usuários de diferentes nichos. Eles são considerados parte do ranking ou você pode dar algumas dicas sobre isso?

Resposta 40:02 - Então, esses manuais de UX, como eu sei, são publicados pela equipe de anúncios e é mais uma questão de, bem, essas são as melhores práticas de UX e boas coisas para fazer em um site, e não necessariamente algo que nós ' Eu diria, bem, isso contribui para a classificação, mas obviamente, se você fizer um bom site que funcione bem para os usuários, indiretamente, certamente poderá ver um efeito na classificação. Mas não é que diríamos olhar para esses playbooks de UX e usá-los especificamente como fatores de classificação.

Pergunta 40:38 - Qual é o impacto dos links de afiliados quando misturados com conteúdo direcionado a tópicos sensíveis. Sabemos que a monetização agressiva pode ser problemática, especialmente quando os links de afiliados não são divulgados aos usuários e quando o foco na monetização é mais importante do que fornecer um ótimo conteúdo aos usuários, mas gostaria de saber como isso funcionaria para tópicos como saúde, medicina, finanças etc?

Resposta 41:05 - Então, em geral, isso não é tanto quanto eu sei que não entramos explicitamente no site e dizemos, bem, existem links que parecem links afiliados, portanto, trataremos este site como sendo de qualidade inferior. Em geral, os principais problemas que vejo em relação aos sites afiliados é que eles tendem a ser apenas sites de qualidade inferior. Portanto, não é tanto uma questão de onde está o fluxo de check-out, mas sim que, em geral, o conteúdo geralmente é de baixa qualidade e, por causa do conteúdo de baixa qualidade, é algo que nossos algoritmos podem perceber e dizer, bem, isso provavelmente não é o resultado mais relevante para mostrar nos resultados da pesquisa, e também pode haver sites afiliados de alta qualidade que são bons. Portanto, não é tanto uma questão de haver um link de afiliado ou não, mas como o resto do site? Isso é algo que seria relevante para mostrar aos usuários ou há algo talvez problemático lá? Eu acho que, pelo menos até onde eu sei, isso se aplicaria a todos, então não importaria qual é a área de tópico específica do site, mas em geral existem alguns sites afiliados muito bons e alguns realmente terríveis sites afiliados. Então é mais uma questão de um site ser bom ou ruim?

Pergunta 42:35 - Com o uso de busca e renderização sendo suspenso do antigo console de pesquisa e substituído pela ferramenta de inspeção de URL, a ferramenta de inspeção UL será atualizada para incluir comparação visual lado a lado de como o Googlebot vê uma página e como o usuário veria vê-los?

Resposta 42:53 - Eu não sei como com a outra pergunta nós tentamos não pré-anunciar as coisas, então não é algo que eu possa dizer algo especificamente sobre o que vai acontecer no futuro. Também estou feliz em passar isso para a equipe para dar uma olhada para ver em relação à priorização. Do ponto de vista prático, sempre senti que essa comparação é algo menos útil hoje em dia, porque a maioria dos sites é muito boa em garantir que uma página possa ser renderizada para os mecanismos de pesquisa. Pelo menos os sites que eu olhei tendem a ser do lado bom. Então, em particular no início, quando os sites não estavam tão acostumados com os mecanismos de pesquisa tentando renderizar uma página, isso era uma grande coisa, mas hoje em dia não sei se isso é realmente um problema tão grande, como se o javascript for bloqueado por um robots.txt, acho que esse tipo de coisa mudou significativamente ao longo dos anos, mas fico feliz em pagá-lo e repassa para a equipe e eles provavelmente verificarão se realmente há problemas que precisamos.

Pergunta 44:12 - A rejeição de links pode aumentar os rankings?

Resposta 44:17 - Oh meu Deus, essa é uma pergunta tão grande. Então, em teoria, se o seu site for rebaixado com uma ação manual em relação aos links que você comprou ou que outra pessoa foi comprada para o seu site ao longo do tempo. Talvez um SEO anterior, talvez algo que foi configurado antes do seu tempo com essa empresa e então você pode usar a ferramenta de rejeição para remover esses links de nossos sistemas e depois usar o formulário de solicitação de reconsideração para nos informar sobre essa alteração e, em seguida, a equipe de spam da Web manual dará uma olhada e verificará se o status atual está correto. E se o status atual for limpo, eles resolverão essa ação manual e, em geral, seu site poderá classificar naturalmente novamente. Então, isso é algo em que, em muitos casos, o site pode subir um pouco e, em alguns casos, a classificação também pode ser que esses links não naturais estivessem apoiando o site de maneira não natural no início. Então, ao remover esses links, pode ser que esse suporte tenha desaparecido, o que é meio que o estado natural. Então, acho que a resposta mais curta é que não há sim ou não aqui, pois a rejeição de links altera o que vemos como links para seu site e isso pode afetar seu site positiva ou negativamente. Então, minha recomendação geral com a ferramenta de rejeição é usar isso se você tiver uma ação manual em relação aos links e não conseguir remover esses links ou se você, ao olhar para seus links, perceber, ah, houve essa coisa louca que nós fez talvez dois anos atrás e a equipe de spam da web não percebeu, mas talvez seja hora de limpar nosso ato e limpar isso, então isso é algo em que faz sentido usar uma ferramenta de rejeição. Eu não seria apenas aleatório para usar isso e dizer bem, esses são links estranhos e eu não quero ser associado a eles, espero que o Google possa classificar meu site melhor quando eu remover aqueles como, então é improvável que isso aconteça.

Pergunta 46:27 - John, posso fazer uma pergunta baseada em rejeições aqui. Então, às vezes vemos, acho que talvez concorrentes, veremos literalmente um lugar enviado 1.1 ou 1.2 links para nossa página inicial. Totalmente off-topic, site de reparo de instrumentos fora da Irlanda, nada a ver com o que fazemos, obviamente. Não tenho as ferramentas ou a capacidade de rejeitar todos os links, é melhor rejeitar o site?

Resposta 47:01 - Claro que você pode fazer isso. Sim, é para isso que serve a entrada de domínio no arquivo de rejeição, dessa forma, é como todos esses milhões ou milhares de links, você pode simplesmente dizer tudo deste site, eu simplesmente não tenho nada a ver com isso. Normalmente, o que acontece em casos como esse em que você vê esse link de site completamente aleatório é que o site provavelmente foi invadido e, por qualquer motivo, alguém decidiu deixar todos esses links lá ao invadir o site e geralmente somos muito bons em pegar isso e tentando manter o estado antes que eles invadam nossos sistemas. Então provavelmente já estamos ignorando esses links, é possível que talvez ou até indexe o site de antes e não com o conteúdo hackeado. Então, isso é algo em que normalmente eu não me preocuparia muito com isso, porque esses tipos de hacks são muito comuns e temos um pouco de prática tentando lidar com isso. Mas se você está preocupado com isso, você sabe como oh, isso é muito louco e eu acho que links de reparo de instrumentos provavelmente não são algo que você está dizendo, oh, isso vai matar meu site se eu estiver associado a violinos, talvez o conteúdo adulto seja algo sobre o qual você seria mais cauteloso, então eu apenas usaria um arquivo de rejeição e você tem certeza de que eles não são levados em consideração.

Pergunta 48:44 - Duas perguntas rápidas sobre esta URL é uma URL de categoria para um site de e-commerce que tem uma espécie de parâmetro view-all basicamente nosso problema é que a URL tem uma canônica para a versão sem o parâmetro. Está vinculado à versão sem o parâmetro em todo o site está no mapa do site sem o parâmetro, mas de alguma forma o Google decide que não, esta é a versão canônica e todos os nossos sinais estão apontando para a outra versão e acho que não atua tanto, mas Não entendo por que o Google não escolhe nossa versão quando todos os nossos sinais estão apontando na mesma direção?

Pergunta 48:24 - Não sei, difícil dizer à primeira vista. Então, acho que uma coisa a ter em mente é que está na indexação móvel primeiro. Então, talvez a versão móvel seja um pouco diferente, talvez haja um rel canonical, talvez haja algo com JavaScript que esteja mudando o rel canonical, eu não sei, mas isso é sempre algo para se manter em mente. Então, quando você está testando no navegador e certifique-se de verificar a visualização móvel, mas como as outras perguntas anteriores, também é possível que, por quaisquer outros motivos, estejamos decidindo bem, na verdade, este é o mais limpo versão.

Pergunta 50:33 - Se não estiver linkado de nenhum lugar e você souber que os links internos não estão apontando para ele. Não será o mapa do site e, com a inspeção de URL para o Google, verá o direito canônico correto que dissemos, apenas o canônico selecionado pelo Google, ainda é este, e não o que marcamos. Então, não sei se isso teria algum efeito, só estou preocupado que possa haver algo que esteja faltando que possa afetar outras páginas também.

Resposta 51:11 - Sim, não sei, teria que dar uma olhada. Em geral, se for o mesmo conteúdo, a classificação será a mesma. Então não é que alguma coisa vai mudar lá. Não sei se me subornar com produtos capilares seria particularmente útil, mas não sei. Então, quero dizer, é uma situação em que você tem uma página de visualização de tudo e a outra versão da página em que pode ser que estejamos captando alguns sinais dizendo bem, esta é a versão de visualização de todas que devemos manter aquele em vez do outro porque pode ser paginado ou algo assim, mas sim, eu não sei se e eu teria que me aprofundar nisso. A outra coisa que talvez valha a pena mencionar é que gostaríamos de reunir alguns documentos sobre as melhores práticas em torno de sites de comércio eletrônico em geral. Então, se você se deparar com coisas estranhas como essa que estamos usando bem com sites de comércio eletrônico, você geralmente tem essas páginas de categoria que têm muito conteúdo e a paginação e a filtragem e a visualização de todas as coisas são meio complicadas, então é algo em que eu adoraria receber feedback. Então, talvez exemplos, talvez apenas perguntas gerais sobre sites de comércio eletrônico, tudo isso seria realmente útil. Idealmente, talvez enviá-los via Twitter para que eu possa coletá-los. Comecei um tweet sobre isso e espero que possamos juntar algo com alguns, acho que as práticas recomendadas em relação a sites de comércio eletrônico sobre como você pode garantir que a indexação e o rastreamento funciona idealmente.