19 de março de 2019 – Notas do Hangout da Ajuda do Google

Publicados: 2019-03-28

Neste Hangout de ajuda para webmasters com John Mueller, respondeu a algumas ótimas perguntas. Aqui estão os que achamos que seriam os mais úteis.

Atualmente, estou mudando a marca e migrando um segmento do nosso site para um novo domínio. Atualmente, eles estão classificando bem. O Google tratará esse conteúdo da mesma forma que antes ou será tratado de maneira diferente?

0:34

John Mueller 19 de março de 2019 Ajuda Hangout

Você pode definitivamente fazer isso em um novo domínio também. Em geral, o que acontecerá se você dividir o site do seu site em partes separadas é que teremos que analisar essas partes individualmente. Então teríamos que reavaliar essas páginas em uma espécie de páginas por página. Então, você pode definitivamente classificar assim, mas não é o caso de dizer que você classificará exatamente da mesma forma que antes, porque será uma situação diferente - você terá uma configuração de site diferente.


Resumo: O conteúdo está em um contexto diferente e será reavaliado por página. Você pode classificar bem novamente, mas é possível que você não classifique exatamente como no passado.


A atualização do algoritmo principal de 12 de março tem alguma relação com a atualização de 1º de agosto?

20:20

John Mueller 19 de março de 2019 Ajuda Hangout

Não sei como isso se relacionaria com as atualizações em agosto. Então, em geral, quando fazemos atualizações de algoritmo, tentamos trabalhar com um estado e trabalhamos para um novo estado e às vezes melhoramos coisas onde reconhecemos que talvez o algoritmo tenha ido um pouco longe demais e às vezes melhoramos coisas onde reconhecemos o algoritmo não foi longe o suficiente. Então, esses tipos de mudanças algorítmicas eu acho que são completamente normais apenas com atualizações de algoritmos em geral.


Resumo : Esses tipos de Mudanças Algorítmicas são completamente normais. Às vezes, o Google tenta ajustar as coisas para melhorar os resultados da pesquisa. Mas estes dois não estão relacionados.


Começamos a classificar termos não relacionados e medicamentos farmacêuticos. Acreditamos que fomos hackeados. Existe alguma maneira de eu verificar se isso é verdade?

27:22

John Mueller 19 de março de 2019 Ajuda Hangout

Então, minha suspeita é que talvez você tenha sido hackeado afinal, então eu não conheço seu site, mas geralmente isso não é algo que acontece aleatoriamente que um site começa a ser classificado para termos farmacêuticos, mas talvez tenha sido hackeado de uma maneira que não é completamente óbvio de si mesmo. Então, o que você pode fazer é entrar no Search Console e na seção de análise de pesquisa, verificar as páginas que foram classificadas para elas e usar a ferramenta de inspeção de URL, a opção de busca ao vivo para verificar como é essa página quando o Googlebot analisa essas páginas e às vezes podemos ver na parte visual às vezes no HTML você pode ver que na verdade alguém adicionou um monte de links farmacêuticos a essas páginas e isso é um sinal de que talvez haja algo que foi hackeado nessas páginas. Às vezes, também é algo que demora um pouco quando um site foi invadido no passado e você limpou o hack. Então, essas são as direções que eu procuraria lá, eu não diria que um site normal de repente classifica os termos farmacêuticos sem qualquer motivo. Então, geralmente há algo por trás disso.


Resumo : no Search Console, na seção Search Analytics, você pode ver quais páginas estão classificadas e, se usar a ferramenta de inspeção de URL, poderá verificar o HTML e ver se há links adicionados, pode ser um sinal de que essas páginas estão sendo hackeado. É possível que eles permaneçam após a limpeza.


Ao rejeitar backlinks, além de rejeitar o próprio backlink com spam, precisamos rejeitar todos os outros URLs dos quais ele é referido?

30:45

John Mueller 19 de março de 2019 Ajuda Hangout

Não, se você for um link problemático, esse link não será levado em consideração. Se você acha que todo o site, todos os links para o seu site do site de outra pessoa são problemáticos, então você rejeita todo o domínio. Essa é a maneira mais fácil de cobrir suas bases lá, mas você não precisa seguir a cadeia para todos os outros links que apontam para a página com o link ruim. Muitas vezes, é apenas aquele link que você precisa rejeitar. E muitas vezes você realmente não precisa negar coisas, se não for o caso de você ter uma ação manual ou olhar para seus links e dizer, bem, o Google vai me dar uma ação manual na próxima semana porque parece tão ruim, então normalmente você não precisa usar a ferramenta de rejeição.


Resumo : Você só precisa se preocupar em rejeitar links artificiais de sites com links para você.


Temos um site que cria páginas dinamicamente. Se um usuário estiver procurando por programadores em Oxford, temos um banco de dados que cria uma página que extrai informações sobre programadores e extrai informações sobre Oxford e os reúne. Você tem alguma recomendação sobre um site construído como este?

38:56

John Mueller 19 de março de 2019 Ajuda Hangout

Eu ficaria meio preocupado com a configuração que você tem lá. Parece que você está apenas pegando muitos pedaços do banco de dados e gerando automaticamente combinações dessas páginas e me parece que muitas dessas variações podem ser muito finas, de qualidade muito baixa e que talvez você não não tem muito conteúdo para essas variações e você rapidamente se depara com a situação em que cria milhares de páginas com todas essas combinações e a quantidade real de conteúdo é mínima. Então, o que pode acontecer no lado do Google é que nós rastreamos e indexamos todas essas páginas e pensamos que há tantas coisas aqui que podemos pegar todas essas coisas, mas em uma segunda etapa quando olhamos para o os detalhes eram como, na verdade, não há muitas informações realmente úteis aqui e especialmente se você também estiver aceitando os trabalhos, talvez de feeds existentes de outros sites. Então, o que vemos é essencialmente apenas uma mistura de algumas informações da cidade, algumas informações de função, listas de empregos que já capturamos em outro lugar e olhamos para isso em geral e dizemos, qual é o valor adicional de ter sua página indexado além das coisas que já indexamos sobre todas essas combinações e acho que essa é a parte complicada e é aí que você precisa entrar e dizer, na verdade, a maneira como eu combino as coisas é completamente diferente de tudo senão. Há muito valor que agrego através dessas páginas que, quando as pessoas acessam essas páginas, veem claramente que não é apenas como uma combinação de feeds existentes, mas na verdade há algo realmente fantástico aqui que ninguém mais capturou até agora.


Resumo : Tenha cuidado se o seu site for construído desta forma. Quando o Google vai indexar essas páginas, eles acabam pegando pequenos pedaços de suas informações. Para este exemplo, o Google veria algumas informações sobre uma cidade e uma descrição do trabalho. Então veria isso em todo o seu site. Isso pode ser visto como conteúdo fino e pode optar por não indexá-lo porque não tem valor adicional para os usuários


Se você gosta de coisas assim, vai adorar minha newsletter!

Minha equipe e eu relatamos todas as semanas as últimas atualizações de algoritmos do Google, notícias e dicas de SEO.

Sucesso!! Agora, verifique seu e-mail para confirmar sua assinatura do boletim informativo do Google Update.

Ocorreu um erro ao enviar sua assinatura. Por favor, tente novamente.

Q 0:34 Pergunta sobre rebranding e mudança de site. Sim, então você quer que eles façam a mesma pergunta novamente? A questão é: queremos migrar um segmento ou parte do nosso site. Digamos, 100-102 páginas, para um novo domínio para fins de rebranding. No momento, estamos bem classificados para esses segmentos, mas estamos bem, seremos capazes de classificar bem esses segmentos em um novo domínio, ou é tratado como um negócio/site independente ou separado como o Google.

A 1:09 Você pode definitivamente fazer isso em um novo domínio também. Em geral, o que acontecerá se você dividir o site do seu site em partes separadas é que teremos que analisar essas partes individualmente. Então teríamos que reavaliar essas páginas em uma espécie de páginas por página. Então, você pode definitivamente classificar assim, mas não é o caso de dizer que você classificará exatamente da mesma forma que antes, porque será uma situação diferente - você terá uma configuração de site diferente.

Q 1:54 Anteriormente, quando usávamos o GSC, havia a opção de “landing page”. Quando puxávamos um URL nessa página de destino, podíamos ver qual palavra-chave eles estavam classificando. Existe alguma alternativa para isso agora?

A 2:14 Então, meio que ver quais palavras-chave são classificadas para quais consultas? Isso deve estar na seção de análise de pesquisa. Isso não deve ser problema.

Q 2:35 Na visualização exata dessa [maneira] anterior, pudemos ver qual página de destino no console de pesquisa.

A 2:45 Então, vendo qual página de destino seria mostrada?

Q 2:52 Erm, você pode me deixar descobrir isso?

R 2:52 Sim, porque essencialmente no novo GSC o recurso de análise de pesquisa é muito semelhante ao recurso de análise de pesquisa no antigo console de pesquisa. Então você deve conseguir ver as páginas de destino, os cliques e as consultas e impressões, posição....

Q 3:18 Sim, mas agora só posso ver as informações dos meus sites que enviei ao console de pesquisa do Google. Considerando que antes eu podia ver informações para quaisquer palavras-chave de sites para as quais esse site estava classificado.

A 3:23 Não, não - isso não estava no console de pesquisa até onde eu sei. Então talvez você estivesse olhando?...

Q 3:32 Não, porque ainda encontrei uma conta que ainda funciona. Eu vou te mostrar que

R 3:37 Ok, porque você realmente precisa ter um site verificado para que possamos mostrar os dados no console de pesquisa. Portanto, não seria possível ver os dados de cliques e impressões de um site de terceiros que você não verificou.

Q 3:54 Mas antes eu podia ver que havia

A 5:56 Não no Search Console… Sim, isso não deveria estar no Search Console e também não deveria ser algo que virá ao Search Console.

Q 4:15 Ok, outra pergunta - existem diretrizes sobre paginação e citação?

Uma paginação 4:17, temos muitas orientações sobre paginação! Há um artigo da Central de Ajuda sobre paginação. Existe um…

Q 4:30 Você pode colocar o link aqui?

A 4:30 Claro, deveria ser apenas paginação. Sim, é chamado de “indicação de conteúdo paginado para o Google. Oh ótimo - Barry postou. Legal.

Q 4:57 Oi John, ok, então no novo console de busca, eu vi a aba de links. Eu tive um problema nos últimos meses onde havia um site clone... Ele criou muitos backlinks porque esse site clone usava todos os meus sites e links relativos, criando curtidas, todas as notícias, criando links. Então, na verdade, eu tenho sites com links principais que ainda assim, mesmo que eu negue esse domínio, ele ainda diz que eu tenho 986.000 links. O segundo é 69.000. Então, como você pode ver, são dez vezes os backlinks normais para o site em comparação com o segundo. Então eu rejeitei, e provavelmente deveria ter funcionado, mas também vejo na aba do link que existe outra tabela que mostra a âncora “melhores corpos de praia” . Então esta é a pergunta, esta tabela é alterada por causa desses links de volta, isso pode afetar minha classificação de pesquisa? Eu posso me ver se eu procurar essa âncora que estou na primeira posição.

A 7:58 Então eu não acho que isso seria um problema, uma das partes confusas poderia ser a contagem dos links que mostramos lá. Isso é provavelmente apenas um sinal de que este é um link de todo o site do site. Parece que há muitos links, mas na verdade é apenas de um site, então não é problemático. Além disso, se você rejeitar esses links, não os levaremos em consideração. Então isso é muito fácil de fazer, basta rejeitar o domínio. O que não aconteceria é que os links não desapareceriam [do GSC] por causa da rejeição. Assim, na ferramenta de links mostramos todos os links para o seu site, mesmo aqueles que ignoramos. Portanto, se você rejeitou esses links, eles não desapareceriam do GSC. (e também as âncoras)

Notas por CD (10-20 min)

P 09:30 - [pergunta resumida] para um site que transmite vídeos e hospeda vídeos sob demanda, há algo além do esquema que o ajudaria a aparecer melhor nas SERPs? Além disso, que tipos de otimizações podem ser feitas nos vídeos para ganhar um snippet em destaque?

A 11:58 - “Não tenho certeza por causa do lado do streaming, acho que é algo que não pesquisei muito. Mas, em geral, acho que a primeira coisa que você gostaria de verificar é o lado da indexação, como se realmente pudéssemos indexar as páginas e o conteúdo - o conteúdo do vídeo por um lado, os fluxos por outro - é parece que isso não é realmente um problema, que podemos mostrar esses vídeos na pesquisa... está correto? [Q perguntador responde “sim”] Então, acho que a base básica já está definida, isso é bom, então podemos pegar o conteúdo, podemos indexar os vídeos, essa é a base. Para dados estruturados em geral, acho que você deve diferenciar entre fluxos e conteúdo gravado. Isso é uma coisa que seria muito importante deixar claro em relação aos dados estruturados. Então, quando você está enviando vídeos, conteúdo gravado que está disponível, tipo, a qualquer momento, é algo em que você pode usar uma marcação de vídeo normal para isso. Ou você também pode usar os mapas do site de vídeo para nos contar mais sobre esses vídeos. Por exemplo, se o conteúdo do vídeo estiver disponível apenas em determinados países, você poderá nos informar sobre isso no mapa do site do vídeo. Para streams, é aí que não tenho certeza de qual é a abordagem certa. Acredito que também existe a API de indexação que você pode usar para vídeo, para conteúdo de transmissão ao vivo - não tenho 100% de certeza, você pode querer verificar isso. Mas, em qualquer caso, você realmente deseja diferenciar o conteúdo gravado do conteúdo da transmissão ao vivo e tratá-los de maneira diferente e garantir que eles sejam marcados separadamente de suas próprias maneiras. Com relação aos trechos em destaque, acho que não mostramos transmissões ao vivo nos trechos em destaque. Acho que, tanto quanto sei, o tipo de pré-visualização de vídeo que mostramos nas caixas de vídeo são mais para o conteúdo gravado. Eu não acho que mostraríamos streams lá, mas se você tiver gravado, isso é algo que seria elegível. [Q perguntador volta para reiterar a segunda parte de sua pergunta, há mais alguma coisa além de marcação de esquema para que seus vídeos sejam puxados para um trecho em destaque] . Você não precisa fazer nada de especial além disso. Se pudermos pegar o conteúdo do vídeo e mostrá-lo para os resultados da pesquisa de vídeo, como, se você entrar no modo de vídeo e pesquisar, se pudermos mostrar a miniatura do vídeo, isso significa que temos todos os detalhes de que precisamos para o conteúdo de vídeo. As partes importantes são que podemos rastrear e indexar a miniatura, para que você tenha uma imagem em miniatura que não seja bloqueada pelo robots.txt e que o arquivo de vídeo ao qual você vincule também seja indexável.”

Q 15:41 (ainda é o mesmo cara de cima, estou parafraseando novamente): há uma tabela que mostra os resultados das partidas, que faz parte dos trechos em destaque. De onde eles vêm?

A 16:23: “Não tenho conhecimento de nenhum atalho, é apenas um ranking de busca normal. Para muito desse tipo de conteúdo, se pudermos mostrá-lo em forma de tabela, obviamente, ter esse tipo de conteúdo em uma tabela na página em HTML ajuda muito.”

Q 17:14: [Barry tem uma pergunta técnica de SEO] Então você tem uma URL, e na URL eles têm um parâmetro que diz de onde você clicou - o que eu não recomendo, mas este site tem - como eles têm um parâmetro que mostra que você pode da “Seção A” ou “Seção B” mostrando na URL. Eles também têm, como, page=1 de um conjunto rel=next/rel=prev. Eles devem manter o parâmetro section na URL e também o rel=next/rel=prev? Acho que faz mais sentido provavelmente rel=canonical… você pode usar canonical e rel=next/prev ao mesmo tempo, certo? [John diz “sim”] … então, rel=canonical para a URL principal sem o parâmetro section, e então rel=next/rel=prev deveria apenas excluir o parâmetro section? [João diz “sim”].

A 18:08: “Acho que sempre que você pode simplificar para ter menos URLs que levam ao mesmo conteúdo, essa é uma abordagem que eu tomaria. [Barry acrescenta que sua abordagem número um seria remover os parâmetros da seção, mas eles disseram que não podem fazer isso para fins de rastreamento] Sim, às vezes você tem essas coisas para rastreamento, então, você tem que lidar com o que você tem . Às vezes, o que você pode fazer é movê-lo para um fragmento em vez de um parâmetro de consulta normal, o que geralmente significa que vamos descartar isso para indexação [Barry diz: “Eu sugeri isso também, mas eles disseram não, então o fim”].

Q 19:09 Como o Google confirmou que nenhuma das atualizações principais se alinha com nenhuma das atualizações de correspondência neural, é seguro dizer que os sites devem realmente procurar melhorar a qualidade e a relevância a longo prazo, quando se trata desses amplas atualizações principais?

A 19:24: “Acho que é seguro dizer, independentemente de qualquer atualização, certo? Tipo, sempre vale a pena melhorar as coisas. Não tenho ideia do que você quer dizer com atualizações de correspondência neural, parece algo de “aprendizagem de máquina” [acena com as mãos] que alguém está tentando retirar e separar. Usamos o aprendizado de máquina em muitas partes de nossa infraestrutura, então tirar isso como algo específico às vezes é mais artificial do que realmente útil.

Q 20:04: Com a atualização do Algoritmo Core de 12 de março, havia muitos outros sites que tiveram um movimento positivo que caiu fortemente durante a atualização anterior. Houve um abrandamento com o que foi lançado em agosto?

A 20:20: “Não sei como isso se relacionaria com as atualizações de agosto. Então, em geral, quando fazemos atualizações de algoritmo, tentamos trabalhar com um estado e trabalhamos para um novo estado e às vezes melhoramos coisas onde reconhecemos que talvez o algoritmo tenha ido um pouco longe demais e às vezes melhoramos coisas onde reconhecemos o algoritmo não foi longe o suficiente. Portanto, acho que esse tipo de mudança algorítmica é completamente normal com apenas atualizações de algoritmo em geral.”

Q 20:51: Etag versus if-modified-desde, qual dos seguintes cabeçalhos HTTP você recomendaria usar para otimizar o orçamento de rastreamento e por quê?

A21:03: “Então eu acho que são duas coisas separadas. Como if-modified-since é um cabeçalho que enviamos com uma solicitação e o Etag é algo que envia com a resposta, então quero dizer, obviamente, há uma correspondência lá em que if-modified-since é meio que baseado em uma data e Etag é uma espécie de sistema do tipo IDE, em geral ambos funcionam. Nós tentamos usá-los quando se trata de rastreamento, mas não os usamos o tempo todo, então percebemos que muitos sites não os implementam ou os implementaram incorretamente, então é algo que não muda completamente a maneira como rastreamos o site. Isso nos ajuda um pouco, mas a maioria dos sites geralmente não precisa se preocupar com esse nível quando se trata de rastreamento. Quando se trata de usuários, esse tipo de otimização pode fazer uma grande diferença, especialmente com usuários que voltam regularmente, eles poderão reutilizar o CSS ou JavaScript e coisas assim.”

Q 22:20: Postagem recente no blog central do webmaster sobre as datas, o Google disse ser consistente no uso, tenho um cliente que deseja mostrar uma 'data hereditária' (talvez hierarquia) - provavelmente estou dizendo isso errado - como uma data de publicação nas páginas do artigo. Tudo bem mostrar isso nas partes individuais e usar dados gregorianos e estruturados?

A 22:35: “Sim, você pode fazer isso. Os diferentes formatos são menos problemáticos e os dados de infraestrutura definitivamente precisamos ter as datas do Google Rhian, então você precisa especificá-lo com facilidade oh, o que é Pete 601, não tenho certeza do código de idioma que especificamos lá. Você precisa usar esse código para especificar a data e a hora, idealmente também com fusos horários, para que tenhamos esse tipo de coisa corretamente. Mas se na parte visual da página você quiser usar seu formato de data local, geralmente tudo bem. Isso é algo que devemos ser capazes de entender e pegar também.”

Q 23:15: Somos uma empresa nova que ajuda empresas a trabalhar com agências de temperamento em todo o Reino Unido. Quando começamos, criamos páginas dinamicamente para combinações de locais e cargos e, devido a um erro, criamos 13 páginas para cada combinação. Estamos tentando remover tudo isso com uma metatag noindex, mas eles ainda estão lá. O que podemos fazer para corrigir isso?

A 23:43: “Então, em geral, metatag noindex é a abordagem correta aqui. Isso significa que, quando rastreamos novamente essas páginas, as removeremos do nosso índice. Isso é perfeito para algo assim. O que você pode fazer se achar que precisa removê-los mais rapidamente é usar as ferramentas de remoção de URL se tiver um tipo de subdiretório limpo que possa remover ou usar um arquivo de mapa do site para nos informar que esses URLs foram alterados recentemente com uma nova última data alterada e então vamos tentar rastreá-los um pouco mais rápido. No entanto, em geral, especialmente se for um site maior, às vezes leva semanas e meses para rastrear tudo novamente, especialmente se formos rastreados e indexados como alguma faceta obscura do seu site, provavelmente esses são URLs que não cronograma para engatinhar com frequência, então provavelmente é algo que pode levar meio ano ou mais para sair completamente. Na prática, isso não deve ser um grande problema, porque podemos reconhecer em quais URLs você deseja se concentrar e nos concentraremos principalmente neles, para que esses antigos sejam indexados por um tempo até que você possa processá-los e descartar mas eles não devem afetar a indexação do resto do seu site.”

Q 25:04: Tenho alguns clientes que têm seu painel de conhecimento local acionado por termos sem marca. Você sabe quais sinais podem influenciar isso?

A 25:13: “Não faço ideia. Então, esse tipo de negócio local geral, os resultados do Google Meu Negócio. Então, eu realmente não sei o que estaria provocando isso. Provavelmente algo com a listagem com o site, mas quero dizer, estou apenas supondo provavelmente como você estaria adivinhando. Eu recomendo ir ao fórum de ajuda do Google Meu Negócio e verificar o que outros especialistas estão dizendo.”

Q 25:47: A pesquisa de imagens é diferente da pesquisa na web? Bloqueei uma imagem usando a imagem do Googlebot não permitida, isso significa que o padrão do Googlebot também não rastreará a imagem e não será exibida na pesquisa na web?

A 25:59: “Então, sim, é diferente. Eu meio que gosto de como você mencionou que temos diretrizes diferentes para os diferentes pontos. Se você bloquear uma imagem para a imagem do Googlebot, não a mostraremos na pesquisa de imagens e também não a usaremos para pesquisa na Web dentro dos resultados universais, porque os resultados universais são filtrados para serem bons para a imagem Pesquisa de imagens do Google resultados. Portanto, se essa imagem estiver bloqueada, essencialmente não usaremos essa imagem. Não seria um problema para seus resultados normais da web, então não é o caso de quando temos uma página da web e a indexamos para pesquisa na web, precisamos ter todas essas imagens disponíveis para pesquisa na web porque fazemos algo extravagante ou algo assim em torno disso com as imagens, mas é realmente apenas uma questão de como não podemos rastrear essas imagens para que não possamos mostrá-las na pesquisa de imagens, você não tem nenhum efeito colateral positivo ou negativo de as imagens não estarem disponíveis na web normal procurar. Portanto, para o tipo normal de pesquisas de tipo de texto.”

Q 27:05: Começamos a classificar os ingredientes não relacionados que não vendemos nem temos o conteúdo de medicamentos como medicamentos. Não fomos hackeados, não temos texto âncora de entrada com esses termos. Isso é um problema e, em caso afirmativo, o que posso verificar?

A 27:22: “Então, minha suspeita é que talvez você tenha sido hackeado, então não conheço seu site, mas geralmente isso não é algo que acontece aleatoriamente que um site começa a ser classificado para termos farmacêuticos, mas talvez tenha sido hackeado de uma forma que não é completamente óbvia para você. Então, o que você pode fazer é entrar no Search Console e na seção de análise de pesquisa, verificar as páginas que foram classificadas para elas e usar a ferramenta de inspeção de URL, a opção de busca ao vivo para verificar como é essa página quando o Googlebot analisa essas páginas e às vezes podemos ver na parte visual às vezes no HTML você pode ver que na verdade alguém adicionou um monte de links farmacêuticos a essas páginas e isso é um sinal de que talvez haja algo que foi hackeado nessas páginas. Às vezes, também é algo que demora um pouco quando um site foi invadido no passado e você limpou o hack. Então, essas são as direções que eu procuraria lá, eu não diria que um site normal de repente classifica os termos farmacêuticos sem qualquer motivo. Então, geralmente há algo por trás disso.”

Resumo: no Search Console, na seção Search Analytics, você pode ver quais páginas estão classificadas e, se usar a ferramenta de inspeção de URL, poderá verificar o HTML e ver se há links adicionados, pode ser um sinal de que essas páginas estão sendo hackeado. É possível que eles permaneçam após a limpeza.

Q 28:41: Falando sobre este planejador de palavras-chave anterior, você vê quando eu clico em -- [John:] essa é a ferramenta Adwords. [Pergunta]: Vou perguntar na nova infraestrutura, esta opção não está disponível. Existe alguma alternativa disso?

A 29:16: “Não sei. Essa é a ferramenta de planejamento de palavras-chave do Adwords, então não sei quais são os planos do lado do Adwords. Isso não é algo relacionado ao Search Console. Isso é realmente puramente um da equipe de anúncios.”

Q 30:45 Ao rejeitar backlinks, além de rejeitar o próprio backlink com spam, precisamos rejeitar todos os outros URLs dos quais ele é referido?

A 30:55 Não, então se você for um link problemático, então esse link não será levado em consideração. Se você acha que todo o site, todos os links para o seu site do site de outra pessoa são problemáticos, então você rejeita todo o domínio. Essa é a maneira mais fácil de cobrir suas bases lá, mas você não precisa seguir a cadeia para todos os outros links que apontam para a página com o link ruim. Muitas vezes, é apenas aquele link que você precisa rejeitar. E muitas vezes você realmente não precisa negar coisas, se não for o caso de você ter uma ação manual ou olhar para seus links e dizer, bem, o Google vai me dar uma ação manual na próxima semana porque parece tão ruim, então normalmente você não precisa usar a ferramenta de rejeição.

Nossa observação: o Google é muito bom em analisar e encontrar links com spam e ignorá-los. A coisa mais importante a observar é se você tem links não naturais que foram criados para fins de SEO.

Q 31:45 Como o Google trata backlinks de sites de análise de sites ou perfis de usuários ou conteúdo gerado pelo usuário, sites de conteúdo gerados automaticamente?

A 32:00 Na maioria das vezes, nós os ignoramos, porque eles se ligam a tudo e é fácil de reconhecer, então isso é algo que essencialmente ignoramos.

Q 32:10 Nosso negócio é sobre desenvolvimento de software e serviços de DevOps, temos uma página separada para serviços que prestamos e páginas de blog. Os artigos do blog têm temas diversos, desde como contratar uma boa equipe de programadores até como vencer a procrastinação e o papel da mulher nos negócios. Estou preocupado que um espectro tão amplo de tópicos possa diluir os tópicos gerais de nosso site e, como resultado, pode ser difícil classificar nossas palavras-chave transacionais que vendem nosso serviço. Isso é um problema?

A 32:50 Não, acho que isso não seria um problema. Eu acho que vagamente estes estão todos relacionados. O que eu focaria mais é se as pessoas acessam essas páginas e você não tem absolutamente nenhum valor desses usuários que acessam essas páginas, então talvez isso não seja uma boa combinação do ponto de vista comercial.

Q 33:45 Pergunta sobre rich snippets: Nossa empresa e nossas ofertas sediadas na Suíça, no nosso caso, muitas vezes vemos sites da Alemanha com preços em euros. Do meu ponto de vista, isso não é muito útil, podemos usar dados estruturados para aparecer em vez desses outros sites?

A 34:15 Como alguém na Suíça, concordo que às vezes ver muitos sites da Alemanha não é muito útil. Mas essencialmente se não tivermos um bom conteúdo local e se não pudermos dizer que o usamos procurando algo do ponto de vista local, é difícil dizer que essas páginas não devem ser exibidas nos resultados da pesquisa . Então, por exemplo, se pudermos reconhecer que o uso está realmente procurando algo local e tivermos algum conteúdo local, tentaremos mostrar isso. Mas se não puder dizer e eles estiverem procurando informações de um determinado tópico, talvez devêssemos mostrar informações sobre esse tópico, independentemente de ser ou não para a Alemanha, Suíça ou outro país. Portanto, isso não é algo que você pode especificar claramente como dados estruturados. O que você pode fazer é usar a marcação Hreflang se tiver várias versões de idioma e país, você pode especificar isso para uso e também pode usar a segmentação geográfica apresentada no console de pesquisa para nos informar que seu site está segmentando especificamente a Alemanha ou mais especificamente a segmentação Suíça e levaremos isso em consideração quando reconhecermos que um usuário está procurando algo local.

Q 35:50 Vejo uma quantidade perturbadora de redes de links e esquemas nefastos de construção de links sendo usados ​​por empresas de vaping. Eu relatei isso como sugerido, mas há mais alguma coisa que possamos fazer?

A 36:00 Então, denunciá-los no Search Console, formulário de relatório de spam, é um bom lugar para ir. Isso nos ajuda a entender melhor que essas páginas precisamos revisar do ponto de vista manual de spam na web. Nunca é garantido que abandonemos essas páginas completamente. Então, quando se trata de áreas competitivas, o que muitas vezes vemos se esses sites fazem algumas coisas muito bem e fazem algumas coisas muito ruins e tentamos tirar uma foto geral e usá-la para a classificação geral. Por exemplo, pode ser que um site use o preenchimento de palavras-chave de uma maneira realmente terrível, mas o negócio é realmente fantástico e as pessoas adoram ir até lá, adoram encontrá-lo na pesquisa, temos muitos sinais muito bons para esse site, então ainda podem mostrá-los em primeiro lugar, embora reconheçamos que eles estão sobrecarregando as palavras-chave. Muitas vezes o que acontecerá também é que nossos algoritmos reconhecerão esses tipos de 'estados ruins' e tentarão ignorá-los. Então, fazemos isso especificamente com relação a links, também preenchimento de palavras-chave, algumas outras técnicas também onde, se pudermos reconhecer que eles estão fazendo algo muito estranho com links ou preenchimento de palavras-chave, podemos ignorar isso e apenas nos concentrar nas partes boas onde temos sinais razoáveis ​​que podemos usar para classificação. Então, o que pode estar acontecendo aqui, eu não olhei para esses sites ou especificamente o que foi relatado, mas o que pode estar acontecendo é que eles estão fazendo coisas realmente terríveis de construção de links, ignoramos a maior parte disso e eles estão fazendo algo bastante bem no lado e com base no que eles estão fazendo razoavelmente bem, estamos tentando classificá-los adequadamente nos resultados da pesquisa. É meio frustrante quando você olha para isso e diz, estou fazendo tudo certo e por que esses caras estão acima de mim, por outro lado, tentamos olhar para o quadro geral e tentar entender um pouco melhor a relevância. E às vezes é algo que funciona a seu favor também porque talvez você faça algo realmente terrível em seu site e os algoritmos do Google vejam isso e digam 'oh, isso parece um erro, talvez possamos simplesmente ignorar isso e focar no good parts of the website and not remove that site completely from search because they found some bad advice online'.

Q 38:56 - We help companies find recruitment agencies to work with and broadly what we have on our site is it dynamically creates pages for combinations of jobs and locations. So you might type in a programmer in Oxford and it'll show you a page saying program in Oxford. And so I had these dynamic pages created and I put them into the search engine and when I first did this I saw a real uptick in volume coming from search because previously I've been relying on paid clicks. Then we made this mistake where we had every single link had 13 different pages and I've tried to get them out. What's happened as I seem like you know my impressions just go down over time to zero and literally the only thing I'm coming up for is my brand name. I went to the old version a search console and said can you ignore these web links for me and it still hasn't made any difference. I still seem to be having nothing coming in and I'm kind of very nervous about what you said, saying it could take months for this to come through, because as a start-up I know it's not Google's business but it's very hard for me to get traffic in. Is there anything could be doing?

The second part of this question, the way I do my pages is I have in my database I have a little bit written about a role and a little bit written about a town and I combine them together on a page to say, here are programmers in Oxford. So a programmer or job spec will say these things and you should pay, this amount of money for a programmer, and about employment in Oxford. But of course, the piece about Oxford is repeated on every single job role and then the piece about programmers is repeated on every single location. Does that mean those pages will get deranked?

A 40:52- I would be kind of worried about the setup that you have there. So that sounds a lot like you're just taking a lot of chunks from the database and just automatically generating combinations of those pages and it feels to me that a lot of these variations could be very thin, very low quality and that maybe you don't have a lot of content for those variations and you quickly run into the situation where you create thousands of pages with all these combinations and the actual amount of content there is very minimal. So what could happen on Google side is, we go off and crawl and index all of these pages and we think oh like there's so much stuff here we can kind of pick up all of this stuff but in a second step when we look at the details were like, actually there's not a lot of really useful information here and especially if you're also taking the jobs maybe from existing feeds from other websites. Then what we see is essentially just a mix of like some some city information, some role information, job listings which we've already captured somewhere else and we kind of look at that overall and say like, what's the additional value of having your page indexed in addition to the things we already have indexed about all of these combinations and that's I think the tricky part there and that's kind of where you need to jump in and say, actually the might the way I have things combined are completely different from everything else. There's a lot of value that I add through these pages that when people go to these pages they clearly see that this is not just like a combination of existing feeds but actually there's something really fantastic here that nobody else has captured so far.

Barry chimes in about a similar story.

I could imagine for ads maybe that's that's slightly different than if you were if you have ads landing pages but especially from an indexing from a quality point of view that's something where I would expect that you would have a really tough time unless you're really providing a lot of like really strong value in addition just to those listings there.

I think what you really want to do especially for search, is make sure that you have a significant amount of value there that's much more than what other people have for that kind of content. So in particular one approach I usually take is like, if you bring this problem to me and you say that your site is not ranking well and I take that problem to the search ranking engineers and they say, well actually we have this combination already index five times why should we add this other variation and I don't have a good reason to tell them like, instead of these five you should take this new one. Then that's something that's that's really hard for me to justify and that means that in the end you'll be competing against a lot of kind of established players in that scene and you're kind of a new player in that scene and you don't have significant unique value that you're adding to that. So it's really from our algorithmic point of view it's like why should we spend time on this website that's not significantly changing the web for our users.

Q 49:15 - This is relating to structure kind of website this is a magazine you know they have is in a Drupal site in its I'm trying to figure out the best structure since there is articles and every category and those articles could be repeated through categories but there's also landing pages for each category and subcategory so I'm kind of trying to avoid such a big mess and try and condense that do you have any advice for that

A 49:52 -I guess in general what you want to make sure is that the pages that you do have index for search that they're able to stand on their own. So if you have all of these different combinations of like categories and landing pages and things like that. Then I try to figure out which of those variations you think you want to keep first switch and no index the other ones.