Transcrição do Podcast SNYCU com Marie e John Mueller
Publicados: 2020-06-03SNYCU Podcast com Marie e John Mueller
Uma transcrição do podcast SNYCU do MHC com John Mueller do Google em 3 de junho de 2020. Você pode ouvir o episódio completo aqui.
Se você quiser se inscrever, você pode encontrar os podcasts aqui:
iTunes | Spotify | Google Play
Ou assista aqui:
M: Bem-vindo a um episódio muito especial do Search News You Can Use e eu sou a Dra. Marie Haynes e tenho minha primeira convidada no podcast; John Mueller do Google. Bem vindo João.
J: Ótimo estar aqui Marie.
M 0:15 - Então John me diga - acho que todos nós sabemos que você é um analista de tendências para webmasters do Google, há quanto tempo você está no Google agora?
J 0:23 - Ah cara, o que é isso... 12 ou 13 anos, algo assim.
M 0:30 - Sério? Então, minha primeira introdução ao SEO foi no .. você se lembra dos fóruns de bate-papo de SEO? Eu não sei se você fez parte deles, mas isso foi meio que em 2008. E então, em algum momento, comecei a assistir seus vídeos de hangout de ajuda do Google. Você as iniciou logo depois de ingressar no Google?
J 0:57 - Hum vamos ver. Não sei exatamente quando começamos isso. Acho que isso aconteceu quando o Google Plus surgiu, assim que toda a configuração estava lá e pudéssemos fazer esses hangouts públicos e convidar as pessoas a participar, foi aí que começamos a fazer isso para tipo de experimentá-los para ver o que funciona, o que não funciona.
M 1:29 - Peguei peguei. Então, antes de tudo, quero dizer obrigado, quero dizer, de toda a comunidade de SEO, que você foi além ao longo dos anos e eu não sei como você faz isso. Eu ia começar com nossa primeira pergunta sendo algo sobre pastas versus subdomínios ou você sabe, mas não estou, não estou. Você cobriu tanto isso e eu não consigo imaginar como é cada palavra que você diz, nós, como a comunidade de SEO, vamos pular e dizer “Bem, isso é o que o google diz” e deve ser muito difícil ter cada uma de suas palavras analisadas e aqui vamos nós de novo! Vamos fazer-lhe um monte de perguntas para analisar. Acho que vamos direto para as perguntas e vamos ver onde as coisas vão. A qualquer momento, se você quiser entrar e dizer algo, qualquer coisa que você queira dizer seria muito útil. Eu quero começar com uma pergunta divertida e perguntar a você, qual é o problema com bananas e queijo?
J 2:28 - Bananas e queijo... Bem, acho que queijo é meio óbvio, é como na Suíça há muito queijo, então essa é, eu não sei, essa é a parte mais fácil lá. Acho que aquele tweet que começou tudo, da minha conta, foi eu amo Cheese. Esse tweet, na verdade foi feito por Gary, então não é minha culpa. Não sei. Fui tomar um café e Gary ficou tipo “oh, o twitter está aberto” então ele foi e tentou postar algo. Provavelmente tentou encontrar algo que não o fizesse ser despedido.
M: Poderia ter sido muito pior, sim.
J: E Bananas é, é mais aleatório porque eu estava procurando algo para experimentar com o Google Trends e Bananas foi apenas a primeira palavra que me veio à mente e comecei a receber todos esses e-mails como o Google Trends para bananas estava subindo ou indo para baixo, foi como bem "Ok".
M: Isso é fantástico. Então você ainda recebe os e-mails sobre as tendências das bananas?
J: Sim, sim.
M 3:52 A maneira como chegamos às nossas perguntas foi que temos uma equipe inteira que trabalha para mim e minha equipe realmente treina seus vídeos de hangout de ajuda para que eles assistam e você saiba que algo vai acontecer e você sabe, você falar sobre uma tag canônica e minha equipe, meus novos trainees dirão “Bem, o que é isso” e começaremos a falar sobre essas coisas. E então muitos da minha equipe surgiram com perguntas e alguns dos meus ouvintes do meu podcast também fizeram perguntas. Vamos falar sobre nofollow e o Google anunciou no ano passado que havia algumas mudanças em como você poderia usar nofollow. Acredito que naquela época você nos deu rel=patrocinado e rel=ugc. Eu sinto que há um pouco de confusão sobre como o Google pode usar links nofollowed e parte da confusão é... bem, as pessoas me perguntam frequentemente, se alguém apontou links de spam para mim em uma tentativa de SEO negativo, como spam de comentários e links como isso, e todos eles são links nofollowed. Esses links nofollowed podem ser usados como sinais para o Google?
J 5:02 - Bem, nós não os usamos de forma negativa. Então, é algo em que, se podemos usá-los para descobrir algum conteúdo novo, é algo em que acredito que tentamos usá-lo, mas não é o caso de dizermos que esses links são normais na web, então vamos contá-los com peso total e se forem links ruins na web, eles contarão contra você e esse tipo de coisa. Então, se estes são links por aí que você não quer associar ao seu site e eles estão com um nofollow, então tudo bem. Eu acho que muitos dos anúncios na internet também são com nofollow, isso é algo em que não veríamos isso como um link pago só porque agora entendemos um pouco melhor os links nofollow.
M 5:44 - Isso faz sentido. Então, acho que uma das preocupações - uma pergunta que muitas pessoas me perguntaram é se eles deveriam rejeitar porque há um grande número de links nofollowed, então você sabe, a escala pode indicar algo e sempre afirmamos que há não adianta negar um link nofollowed porque todo o objetivo de negar é dizer ao Google 'não quero passar esses sinais', então acho que faz sentido, certo? Estamos no caminho certo?
J 6:11 - Sim, não há necessidade de repudiá-los.
M 6:15 - Esta é uma questão sobre a qual conversamos. A primeira e única vez que nos encontramos pessoalmente, na verdade, em Nova York, no Google Office, e eu adoraria que revisitássemos isso porque acho que há muita confusão sobre quem deveria estar usando a ferramenta de rejeição. Portanto, a principal questão é que sabemos que a ferramenta de rejeição está lá se você tiver uma ação manual e tentarmos remover links não naturais e aqueles que não pudermos remover, os colocamos na ferramenta de rejeição. O que falamos antes é que há sempre uma razão para um site que não possui uma ação manual usar a ferramenta de rejeição. Então vamos começar com isso talvez
J 7:00 - Acho que há duas ocasiões em que faria sentido talvez usar a ferramenta de rejeição. Por um lado, quando você olha para os links para o seu site, você tem quase certeza de que receberá uma ação manual. Por exemplo, se o SEO anterior estava fazendo todo tipo de coisas estranhas com relação a links para seu site, se eles estivessem comprando links, fazendo guest posts, tipo de todas as coisas usuais em que diríamos que isso é contra o diretrizes e se você ainda não recebeu uma ação manual para isso, é algo que, se você for e olhar para um site como esse e vir tudo isso, parece algo que você deseja limpar proativamente. Então, essencialmente, o tipo de atividade que você faria quando recebesse uma ação manual, faça isso proativamente antes do tempo, para que você nem se envolva nesse problema de ação manual. E isso é algo em que, de vez em quando, encontro pessoas assim, que talvez venham em um dos hangouts do horário de expediente ou postem no Twitter ou nos fóruns de ajuda, onde, se você olhar para esses links, poderá dizer bem que eles estão fazendo um monte de coisas que provavelmente não deveriam ter feito e não está claro se eles mesmos fizeram ou se eles contrataram um SEO para fazer isso, isso realmente não importa e talvez eles não tenham um ação manual ainda, mas você assumiria que, se a equipe de spam da Web percorresse esse site, provavelmente executaria ações. Então esse é o tipo de coisa em que eu diria que você pode cuidar disso sozinho com a rejeição limpando os links o máximo que puder, acho que é o óbvio. O outro é mais na linha de se você não tem certeza do que os algoritmos do Google vão fazer porque nós realmente tentamos ignorar os links de spam por aí, tentamos ignorar os links aleatórios que são descartados nos fóruns que às vezes são apenas derrubou automaticamente todos os tipos de lugares. E se você não tiver certeza se os algoritmos do Google vão ignorá-los, então você pode simplesmente colocá-los no arquivo de rejeição e dizer, bem, eu fiz o que pude, pelo menos não preciso me preocupar com isso.
M 9:26 - Renegar é uma prevenção para uma ação manual. Isso faz sentido certo? Se olharmos para um perfil de link que é muito abertamente contra as diretrizes do Google e dissermos oh meu Deus, se a equipe do webspam olhasse para isso seria assustador, provavelmente deveríamos rejeitar. Acho que a confusão é o que você mencionou sobre os algoritmos do Google e entendo que há certas coisas que você não pode compartilhar por motivos óbvios. Tivemos casos em que realmente sentimos que registramos uma rejeição, o site não tinha ações manuais e, em algum momento, algumas semanas ou alguns meses depois, o site começa a ver um aumento no tráfego e nosso O pensamento era, como falamos na cidade de Nova York, é que os algoritmos do Google podem ter menos confiança em seu perfil de link e o tipo de rejeição melhorou essa confiança e viu os benefícios. Então, eu acho que o principal, e novamente eu posso entender se você não puder responder isso, então sabemos que podemos rejeitar preventivamente para evitar uma ação manual, mas podemos ver as melhorias nos rankings do Google, o tráfego do Google rejeitando mesmo que eles não não tem uma ação manual.
J 10:47 - Acho que isso seria muito raro. Então, teoricamente, eu poderia imaginar uma situação em que nossos algoritmos estão realmente chateados com os links para um site e, ao negar, você pode limpar isso, mas isso é algo em que, essencialmente, seria uma situação muito semelhante a se um membro da equipe de spam da web olhasse para o site. Então, só porque há alguns links aleatórios por aí e você está limpando as coisas e se concentrando nos links que você sabe que são bons, eu não esperaria ver qualquer mudança na visibilidade de um site na pesquisa de algo Curtiu isso. Então, isso é algo em que meu palpite é algo assim, você provavelmente está vendo os efeitos de outras coisas que estão acontecendo na pesquisa, que podem ser atualizações de algoritmos, talvez mudanças no ecossistema em geral, todas as coisas usuais que podem aumentar e para baixo em busca.
M 11:38 - Isso faz sentido. É sempre difícil testar qualquer coisa em SEO certo? Porque algo que mudamos hoje, não é como se não fôssemos fazer alterações amanhã ou no resto do mês ou algo assim. Eu gostaria de lhe perguntar algo sobre: há um caso que temos agora em que estamos lidando com uma ação manual para um cliente que começou a usar ações manuais para links não naturais e lembro de quando comecei a ajudar as pessoas com links não naturais, foi muito fácil que pudemos ver oh, existem esses diretórios com spam e PageRank R US ou algo assim, esses eram super óbvios. E eu sinto que os tipos de links não naturais agora que causam ações manuais são aqueles que realmente podem mover a agulha para os sites. Eles estavam funcionando e os algoritmos do Google não estavam lidando com eles ou qualquer outra coisa, então a equipe de spam da web deu a eles uma ação manual. Este nosso cliente em particular, a maioria dos links que eles fizeram estão em artigos. E eles estão em artigos em lugares relativamente autoritários, como lugares, como se não fossem artigos ultra spam e podemos ver quando olhamos para eles que são muito claramente feitos para SEO, mas são artigos que as pessoas leriam. E uma das dificuldades que estamos tendo para nos comunicar com esse cliente é que eles ainda estão ranqueando muito bem para suas principais palavras-chave. Então, entramos e dissemos 'Olha, há esta lista de centenas de links que sabemos que você fez para SEO, você tem uma ação manual e queremos que você comece a removê-los ou rejeitá-los se não puder' e eles são dizendo 'Bem, estamos classificando para todos esses termos, por que queremos fazer isso?'. Você tem alguma opinião sobre isso, há algum conselho que você possa nos dar nessa situação?
J 13:20 - Esses são essencialmente guest posts onde se eles criarem os artigos e incluírem um link para o site deles, então é algo que a equipe de spam diria 'bem, isso é novamente, contra nossas diretrizes'. Com relação a eles ainda classificarem para essas palavras-chave, meu palpite é meio difícil de dizer. Quero dizer, não conheço a situação lá, mas é algo em que, se houver uma ação manual, meu conselho geral sempre seria tentar limpar isso o máximo possível e não deixá-lo lá porque não é ruim bastante, tipo de coisa. Então, esse é o tipo de lugar que eu tentaria limpar se você estiver vendo que as pessoas estão lendo esses artigos, clicando em seu site e colocando um nofollow nesses links e isso é tão útil para o tráfego do seu site e em ao mesmo tempo, isso realmente ajuda a mostrar à equipe do webspam que tudo bem, você realmente entendeu que isso era problemático, você coloca o nofollow lá, você os coloca em rejeição onde você não poderia fazer isso e os ajuda a dizer 'ok, podemos deixar este site seja completamente natural na pesquisa'.
M 14:36 - Tudo bem e acho que isso é meio difícil às vezes; um site que tem alguns links naturais bastante bons combinados com um site que fez 'link building de alto nível', link building de maneiras que você conhece, alguns deles são bons. Nem sempre é errado pedir um link, tudo bem, mas a escala pode ser difícil, como talvez possa ser bom quando você tinha cinco desses links, mas agora que você tem 500, não é tão bom. Uma das coisas que é confusa para muitas pessoas é quando olhamos para as diretrizes do Google sobre esquemas de links, elas são um pouco vagas em links em artigos. Assim diz nas diretrizes “marketing de artigos em grande escala ou campanhas de postagem de convidados com links de texto âncora ricos em palavras-chave” e o que descobrimos com frequência nos dias de hoje é que essas ações manuais que estavam recebendo, os links de exemplo que o Google nos envia nem sempre são palavras-chave ancorado e acho que não está claro para muitas pessoas que um link não natural ainda pode ser não natural se a âncora não for uma palavra-chave, correto, certo?
J 15:46 - Certo, quero dizer, em última análise, um link é um link, ele pode passar sinais para o outro site e isso é o que a equipe de spam está observando.
M 15:57 - Ok, sim, então sempre tentamos apontar - chamamos isso de antinatural porque os esquemas de links do Google dizem isso e a maioria dos links que recebemos nos dias de hoje, como links de exemplo, são links em artigos. Nem todos são necessariamente guest posts. Eles são 'Ei, eu escrevi este conteúdo, você precisa de conteúdo, então deixe-me dar a você. Não há dinheiro envolvido e, a propósito, há um link para o meu site nele'. Então, esses não são naturais, certo?
J 16:25 - Sim
M: Sim, tudo bem. Essa é uma luta com a qual eu acho que muitas empresas de SEO lutam; 'desde que não usemos âncoras de palavras-chave, estamos bem' e sinto que isso é um risco.
M 16:38 - Vamos sair das ações manuais em um minuto, mas tínhamos muitas perguntas sobre isso. Você pode nos dizer se houve atraso na resposta às ações manuais por causa da pandemia?
J 16:51 - Eu não sei muito sobre um atraso, mas foi muito mais lento que o normal
M: Temos recebido algumas respostas agora, você sabe se está de volta aos trilhos?
J: Então ontem algumas das pessoas da equipe de webspam checaram duas vezes para ter certeza de que eu não disse nada maluco e parece que eles estão no caminho certo. Quer dizer, sempre leva um certo tempo para revisá-los manualmente e, na maioria das vezes, tentamos revisá-los manualmente e tentamos tornar esse processo um pouco mais rápido. A única coisa que a equipe do webspam está fazendo é tentar encontrar maneiras de automatizar isso. Então, em particular, se um site é invadido, então isso é algo em que podemos tentar descobrir automaticamente se o site ainda está invadido após o pedido de reconsideração e se nossos algoritmos tiverem certeza de que isso foi resolvido, podemos deixar isso de lado. E isso meio que libera algum tempo para o restante da equipe de ações manuais trabalhar nas filas que eles recebem.
M 18:00 - Isso faz sentido. Você pode nos dizer? Sei que você mencionou que todas as ações manuais são revisadas por humanos. E isso faz sentido para situações de hacking em que você pode querer usar uma máquina para fazer isso. Você pode nos dizer alguma coisa sobre o processo de revisão? É um membro da equipe de webspam que faz a revisão das ações manuais? É um processo de duas etapas onde alguém vê como 'Eles estão fazendo algumas etapas aqui, vamos passar isso para um membro sênior'. Há algo que você possa compartilhar conosco sobre isso?
J 18:34 - Depende do tamanho e da complexidade do assunto. Então, se há algo que está afetando uma grande parte da web, se é algo que é particularmente complexo e é meio que limítrofe e depende de como você vê isso, então esse é o tipo de situação em que a equipe de spam na web geralmente atrai outras pessoas para tentar obter uma segunda opinião para ele. E acho que em geral isso faz sentido. Também é algo que tentamos fazer se um segundo pedido de reconsideração chegar, que nem sempre é a mesma pessoa olhando para o mesmo site como bem, eles não mudaram muito. Considerando que, se outra pessoa estivesse olhando para isso, poderia dizer bem, na verdade, isso é o suficiente em relação ao que esperaríamos que eles fizessem. Às vezes, é meio difícil traçar essa linha porque quando você está olhando para ela manualmente, definitivamente há algumas coisas em que essa é uma linha clara, podemos dizer que tudo acima disso deve ser aceito e tudo abaixo disso é rejeitado. Mas há muitos casos, por exemplo, com links ou com conteúdo de baixa qualidade, e você pode dizer que eles fizeram uma quantidade significativa de trabalho, mas como você quantifica isso. Não é realmente possível dizer que eles fizeram 17% do que deveriam ter feito. como se você não pudesse chegar a um número.
M 19:57 - Sinto que dizemos aos nossos clientes que o objetivo é convencer a equipe do webspam de que você entende o problema e que está seguindo em frente, sabe que não está fazendo a mesma coisa. Isso pode ser desafiador às vezes, especialmente para esses sites que têm uma mistura real de 'bem, isso foi desse esforço de SEO e esse esforço de SEO talvez tenhamos levado longe demais' e às vezes pode ser muito difícil remover essas coisas. Mas eu disse às pessoas que às vezes é bom conseguir um porque então você sabe que esses são os problemas, você sabe que você tem que seguir em frente e seguir em frente para melhores maneiras de obter links ou qualquer outra coisa.
M 20:35 - Vamos passar para outro tópico divertido é o conteúdo fino, que é algo que temos ido e vindo como SEOs ao longo dos anos. Vou ler esta pergunta porque é uma que acredito ter vindo da minha equipe. “Você mencionou no passado que, quando o Google avalia a qualidade do site, leva em consideração todas as páginas indexadas. Há um site grande com mais de 100.000 páginas indexadas e, com o tempo, muitas dessas páginas não são mais relevantes ou já são finas. Não indexar ou redirecionar para reduzir a contagem de páginas aumentaria a percepção de qualidade do Google e o fluxo para aumentar os rankings, novamente com o UX permanecendo o mesmo.”
J 21:18 - Sim, acho que o que vejo muito lá com esse tipo de pergunta é que as pessoas às vezes veem que todas as páginas são iguais, enquanto do nosso ponto de vista, as coisas são muito diferentes em relação à importância de uma página para Um website. Então, isso é algo em que é muito difícil dizer bem, você removeu 1.000 páginas, portanto, as outras 90.000 páginas são boas. Então, um exemplo pode ser você ter um local de shows ou algum site de eventos e supondo que todos voltem aos shows que eu tenho certeza que acontecerão em algum momento, mas você pode ter este site e algum artista muito conhecido lá, você tem alguns realmente bom conteúdo sobre os shows lá e você tem um calendário de eventos onde você pode essencialmente clicar até o ano 9999 e a maioria desses dias estará vazia. Então, olhando para algo assim, você pode ter centenas de milhares de páginas realmente vazias e um punhado de páginas realmente boas e só porque você tem centenas de milhares de páginas finas e de baixa qualidade não significa necessariamente que 90% do seu site é ruim e você tem que limpar isso. Porque o que vai acontecer do nosso lado é que vamos tentar descobrir quais são as páginas mais importantes e vamos tentar focar nelas. E esses são provavelmente os shows atuais ou o que quer que esteja acontecendo lá. E mesmo que você tenha todas essas outras páginas de conteúdo fino, isso não significa necessariamente que seu site tenha uma média de algo medíocre. Então, desse ponto de vista, não faz sentido olhar para os números absolutos, mas qual é o conteúdo importante para o seu site e se esse conteúdo é realmente de alta qualidade.
M 23:13 - Ok, isso é realmente interessante porque sempre afirmamos que um site tem... Digamos que seu CMS faça essas páginas de imagens aleatórias e elas entrem no índice. local. Não é como remover, digamos que 90% das páginas do índice eram essas páginas aleatórias que não deveriam ter entrado no índice. A remoção delas do índice pode melhorar a avaliação de qualidade do Google para o resto do seu site?

J 23:44 - Não sei. Muitas vezes - como se fosse algo que já ignorássemos, então não acho que faria alguma diferença. A principal diferença que faria é em relação ao rastreamento do site e poder encontrar o conteúdo novo e atualizado um pouco mais rápido, onde, se ficarmos presos em um calendário infinito, sairíamos e passaríamos muito tempo lá porque O Googlebot é muito paciente, mas esse não é o conteúdo que você realmente precisa rastrear para o seu site. Então, isso é meio que, eu acho, a parte principal lá. Eu acho que há espaço para esse meio-termo, não necessariamente coisas que são completamente inúteis, mas algum tipo de meio-termo onde você vê que essas são páginas que estão recebendo muito tráfego de pesquisa, mas quando eu olho para elas, elas são realmente páginas pelas quais não quero ser conhecido. É quase como se eu pudesse reconhecer que os algoritmos do Google pensam que essas páginas são importantes, mas na verdade não são páginas importantes para mim. E se você está nessa situação, então é uma situação em que você pode agir. Portanto, não necessariamente olhando para o número absoluto de páginas que você tem, mas essas são as páginas que estão recebendo tráfego da pesquisa e são essas que eu quero que o Google se concentre, portanto, tentarei me livrar das coisas que são menos importantes, talvez para melhorá-los, algo assim.
M 25:08 - Que tal uma situação em que um site menor, como talvez.. Quero dizer, anos atrás, as empresas diziam para blogar todos os dias e há muitas pessoas que têm blogs de qualidade muito ruim porque são como aqui está meu café hoje, aqui estão as bananas e John recebeu um alerta sobre isso e coisas que talvez não precisassem estar no índice. E então vamos dizer bem, começando este ano eu meio que coloquei minha cabeça no jogo e disse oh tudo que eu coloco no meu blog precisa ser o melhor de seu tipo. Isso poderia melhorar a avaliação do Google para a qualidade geral do meu blog se eu voltasse e não indexasse algumas dessas postagens do blog com as quais ninguém se importava ou o Google apenas mantém isso em mente e se concentra apenas nas coisas novas?
J 25:52 - Eu não acho que isso faria uma diferença significativa, especialmente se você tiver esse pedaço significativo de conteúdo realmente bom, se você estiver começando a lançar novos conteúdos por aí. Então eu não acho que não indexar o conteúdo mais antigo faria uma grande diferença. Mas semelhante a um site de jornal onde você publica talvez 20 artigos por dia e 19 desses artigos que depois de uma semana, eles serão irrelevantes, então isso não significa que esses 19 artigos são automaticamente coisas que você não deve indexar em algum momento mas talvez movê-los para uma seção de arquivo onde eles são menos empáticos para os usuários e para a pesquisa, mas você ainda pode mantê-los. Não é que estamos dizendo que isso é algo ruim e você precisa se livrar ou limpar.
M 26:40 - Ok, isso faz sentido. Você pode nos dar alguma dica sobre como o Google faz uma avaliação de qualidade sobre quais tipos de conteúdo podem ser considerados de alta qualidade. O Google está usando o BERT agora para entender melhor agora se o conteúdo é bom?
J 27:00 - Então, eu realmente não tenho muita ideia de como determinamos quando as coisas são conteúdo de alta qualidade, mas acho que a única coisa que às vezes deixa as pessoas desanimadas é com relação ao BERT, os algoritmos do BERT, todos aquelas coisas. Esses são essencialmente algoritmos para entender melhor o conteúdo. Não é tanto para entender a qualidade do conteúdo, mas mais para entender sobre o que é esse conteúdo, sobre o que é essa frase, sobre o que é essa consulta para descobrir quais são as diferentes entidades que podem estar envolvidas aqui e como elas estão sendo amarrado aqui. Onde esse tipo de sobreposição no lado da qualidade do conteúdo é quando você está escrevendo de tal maneira que essencialmente é impossível entender o que você está tentando dizer. E esse é o tipo de situação em que os algoritmos BERT dirão bem, eu realmente não sei o que eles estão tentando dizer e não é tanto que o algoritmo BERT está supondo que isso é conteúdo de baixa qualidade, é mais como se eu não soubesse o que fazer com isso. E às vezes eu suspeito .. Eu não vi isso em primeira mão ou testei em nenhuma página, mas eu suspeito que alguns dos textos de SEO da velha escola meio que caem nisso, onde você está apenas trocando todos os sinônimos que você pode adicionar a uma frase e, como um humano, quando você lê que é assim, é totalmente exagerado e posso imaginar que nossos algoritmos são bem, isso não parece uma frase real, não sabe muito bem o que enfatizar. Tipo, isso é realmente sobre esse assunto ou é sobre um assunto diferente, como qual é o elemento principal nesta frase ou neste parágrafo.
M 28:54 - E isso é algo que pode ser visto como negativo? Por exemplo, se temos um site de comércio eletrônico que tem uma página de produto e você costuma ver na parte inferior da página - chamamos de SEO-copy, é escrito para mecanismos de pesquisa e é apenas um grande bloco de texto que contém um monte de palavras-chave e nenhum ser humano vai realmente lê-lo. Então, do jeito que estou pensando no BERT tentando descobrir se esta consulta corresponde a esta página, talvez o BERT apenas lute e diga que isso não é relevante ou algo assim. Ou o Google poderia tratar isso como negativo para dizer 'oh, esta página parece que foi SEO-ed, essas palavras-chave estão aqui para o Google e tornam isso um prejuízo real para a página
J 29:41 - Já vi alguns casos em que isso acontece, mas geralmente é ao longo das linhas de preenchimento de palavras-chave. Então, não tanto como eles estão escrevendo um artigo da Wikipédia sobre o assunto e colocando-o na parte inferior de uma página de sapato, mas mais do que eles estão apenas adicionando milhares de variações das mesmas palavras-chave a uma página e então nosso algoritmo de preenchimento de palavras-chave pode chutar e dizer bem, na verdade, isso parece preenchimento de palavras-chave, talvez devêssemos ser mais cautelosos em relação à forma como classificamos esta página individual. Então não é que o BERT esteja confuso e, portanto, nossos algoritmos estão confusos e diremos que a página é ruim porque nossos algoritmos estão sempre confusos, sempre há algo na web que é confuso, então seria ruim dizer isso só porque algo é confuso, é de baixa qualidade. Mas acho que com relação ao BERT, uma das coisas que poderia ser feita porque muitos desses algoritmos são de código aberto, há muita documentação e material de referência em torno deles, é experimentar as coisas e tirar um pouco desse SEO text e jogue-o em um desses algoritmos e veja se o conteúdo principal é retirado, as entidades podem ser reconhecidas corretamente e não é igual ao que faríamos porque tenho certeza de que nossos algoritmos são baseado em idéias semelhantes, mas provavelmente ajustado de maneira diferente, mas pode fornecer algumas informações sobre isso escrito de tal maneira que é realmente muito confuso para um sistema entender sobre o que eles estão escrevendo.
M 31:25 - Ok, então você está dizendo pegue o texto, coloque-o em um processador de linguagem natural e veja se a ferramenta pode descobrir 'oh esta página é sobre isso' e se não, então talvez precisemos reescrevê-lo porque se o ferramenta não consegue descobrir como os humanos provavelmente acham chato ou não querem ler?
J 31:41 - Eu não acho que isso seria viável no dia a dia, mas pode ser um experimento interessante apenas pegar algumas dessas coisas de texto de SEO da velha escola e jogá-las nesses algoritmos modernos e ver isso ainda descobrir sobre o que é esta página e qual é a diferença se eu reescrever este artigo da wikipedia em talvez um resumo de duas frases que possa ser lido por um usuário, os algoritmos ainda descobririam que é a mesma coisa
M 32:16 - Então, em vez de ter aquele texto de SEO no final de uma página de comércio eletrônico, você tem recomendações? Quero dizer, há algumas coisas óbvias que os usuários gostariam, mas há certas coisas que seriam úteis em termos do que o Google gostaria de ver em uma página de comércio eletrônico que você pode compartilhar conosco?
J 32:35 - É difícil dizer. A única coisa que noto ao conversar com o pessoal da indexação móvel é que, quando as páginas da categoria de comércio eletrônico não têm nenhum outro conteúdo além de links para os produtos, é muito difícil classificar essas páginas. Portanto, não estou dizendo que todo esse texto na parte inferior da sua página seja ruim, mas talvez 90%, 95% desse texto seja desnecessário, mas é útil ter uma certa quantidade de texto em uma página para que possamos entender o que essa página é sobre. E nesse ponto você provavelmente está com a quantidade de texto que um usuário provavelmente conseguirá ler também, entender também. Então é meio que para onde eu iria nesse sentido. A outra coisa que eu poderia imaginar que nossos algoritmos às vezes ficam confusos é quando eles têm uma lista de produtos no topo e essencialmente um artigo gigante na parte inferior quando nossos algoritmos precisam descobrir a intenção desta página. Isso é algo destinado a fins comerciais ou é uma página informativa? Qual é a principal razão para esta página existir e eu posso imaginar que nossos algoritmos às vezes ficam confusos com esse grande pedaço de texto onde dizíamos oh, esta é uma página informativa sobre sapatos, mas posso dizer que os usuários estão tentando comprar sapatos para não enviá-los para esta página informativa.
M 34:05 - Tudo bem e isso parece ser... Então o BERT também está acostumado a entender a consulta?
J 34:13 - Sim, então usamos esses algoritmos para entender essencialmente o texto e isso vem na consulta e nas próprias páginas.
M 34:24 - Ok e eu sei que isso já foi insinuado antes .. Acho que foi a busca na Bay Area, acho que Gary disse algo que me fez pensar nisso. São a maioria dos resultados de pesquisa. Você mencionou que o Google quer determinar oh a pessoa quer comprar isso. Are there a certain amount of spaces, like if Google has figured out oh this is probably a commercial query then we want to rank only sites that seem to be transactional or do you say well let's throw in a couple of informational ones? Or am I just simplifying things too much?
J 35:00 - I think you would see some amount of mixed there naturally where our algorithms tend not to be completely on or off where we say 'well this is clearly commercial in nature' and therefore we would only show commercial pages because we just don't know for sure what it is what the user is searching for. That's something where I think 10-15% of all queries are still new so these are things where even if we wanted to manually classify all these queries and say well this is clearly someone trying to buy shoes, that's something that we would never be able to do because people come and ask us in different ways all the time. So that's something where I suspect our algorithms will try to say 'well probably it's this or very very likely it's this' so we will try to include, in our search results page, I don't know 80% like this and a little bit like that just to cover those other variations.
M 36:08 - Okay that makes sense. Let's have another great subject that's fun to talk about; doorway pages. So sometimes a lot of websites struggle with location pages. So lets say a client came to us and they had a business that serviced 50-100 cities in their radius and what tends to happen is their location pages, they're unique in terms of words but really for the user, they could be all the same page. The services of the business are the same no matter the city. Is it within Google's guidelines for me to have 50 different city pages? Is there a better way to do it?
J 36:56 - A lot of times these tend to go into the doorway direction and tend to end up being low quality. And I'd say the quality aspect is almost a bigger issue there in that you have all of these pages on your site and you say well these are really important for my site but at the same time they're essentially terrible pages. Like you wouldn't be able to send a user there and say like well you're in this city therefore this page mentions your city name and the service that you're looking for so we should show that to you. So that's something where from the point of view I try to discourage that. Obviously if you have locations in individual cities, sometimes you have those addresses on separate pages with separate opening hours, all that. Another option is of course to list those different addresses on a single page, maybe by region with a map, a dynamic map, something like that. But otherwise I think it's really kind of tricky where if you're saying well I don't really have locations in these cities but anyone from any of these cities are welcome to call me up then making individual pages for all of those cities feels kind of tricky. And I realize sometimes these sites rank, sometimes these kind of pages rank well but it is something where I could imagine the search quality team saying well we need to figure out a way to deal with this better.
M 38:39 - Do you give many penalties or manual actions for doorways pages these days? It's been a while since I've seen one.
J: 38:46 - I don't know.
M: Yeah it's been a long time. I'm not saying you should by any means. If all of a sudden people start getting- I think they fell under thin content penalties, it's not my fault if that happens.
M: This is a subscribers question. I'm going to shorten it down because it's a long one but it's about… This person has a site that's YMYL, it competes with major brands and government websites so '.gov' websites. And something that we really noticed lately is that Google, for a lot of YMYL queries are really really favouring authoritative sites. So this person is saying that their content is better, I mean that's subjective, but their content is better, solves the user's query better, great videos, optimized to the fullest and they want to know, and I know this is hard because you haven't seen the site, I haven't seen the site but is it ever possible to outrank a giant authoritative website for a YMYL query.
J 39:53 - Sure, I mean it's possible to outrank these sites. It's not that any of these search results positions are hard coded and they can never change so that's something where I would say that's certainly possible but depending on the topic, depending on the competition, it can get hard so I wouldn't expect that to be something where you can just throw together a website, make some really nice looking pages, have someone rank some really good content for your page and to automatically have that rank above these authoritative sites. Especially on topics where it's kind of important that we make sure we are providing high quality, correct information to people. So technically, it's possible. Waiting it out is something I personally wouldn't recommend in cases like this. Obviously you need to continue working on your site, it's not something where you can just say okay I'll wait til my site is 10 years old then it'll be just as good as these other 10 year old sites. That's not the way it happens, you have to kind of keep at it all the time. And the other thing to keep in mind is that if these are really good websites then generally speaking you'd expect to see some traffic from other sources as well so obviously search is a big source of traffic but there are lots of other places where you can also get traffic and that's something where kind of combining all of that and continuing to work on your website, focusing maybe on other traffic sources if that's something that you can do and kind of growing out from there. But it's not that we would never rank these sites for these kinds of queries but it will be really hard, you have to prove that what you're providing is something of equal quality, equal relevance, equal correctness as maybe an official government website which depending on the government website might be hard, might be a little bit easier, it feels like government websites are generally getting better and better so that competition is not going to get less.
M 42:08 - Yeah I think in the past a lot of the time we'd say oh this .gov site page is ranking but it's horrible so if I can create something better then I can outrank it. Is this connected to EAT? Like let's say I went on a particular type of diet and it worked really well for me and I wanted to create a website about this diet but the people who are ranking on the first page are the mayo clinic and some government authoritative site. Can you give me any tips on what types of things would have to happen. Let's say I was a multimillionaire and I had access to any resource, what would it have to take for me to be able to compete with websites that are of authority like that?
J 43:03 - I don't know. I don't have any magic bullet where you can just say like be on national tv or be listed in wikipedia or something like that. It's really hard to say.
M: Can I get an 'it depends'?
J: It depends, sure. Like even if I knew a specific situation, it wouldn't be something where I'd be able to say oh you just need to tweak this one factor here and buy some gold plated network cables and then you're all set.
M 43:43 - Understandable and that was a bit of an unfair question. I think I ask it because people do that all the time, you know people come to us and say hey I want to dominate this and I've got investors. I think in the past if you had enough money you could buy links that would trick Google so we're trying to essentially tell people like you can't be the biggest authority unless you are the biggest authority and that's a struggle that SEO can't always generally fix.
M 44:14 - We're going to rap it up soon. This was an interesting one. We have a client whose site is used in the quality raters guidelines as an example of a low quality site and it's a screenshot from many years ago. And they've changed, the page is way better now. They wanted me to ask you is there anything they can do to appeal to Google to be taken out because it's not good for their brand. Any thoughts on that?
J 44:43 - I'm happy to pass something on if you have some examples of things like that but in general, the quality rater guidelines are not meant to be absolute in a sense that this particular URL should be rating like this but rather, this kind of problem should be rated like this when it comes to the general quality raters set up where were trying to figure out what are the best algorithms to use with regards to search ranking. So it's not something where I generally say like just because we have that particular site there doesn't mean that people should be watching out for that particular site and then be taking this action but rather.. this is a really obvious example of this one particular case and this is the kind of situation you need to watch out and not this is the exact URL you need to watch out for. I think the alternatives that we could use in a case like that… I mean I'm happy to pass that on..
M 45:48 - In all honesty I mean I hesitated to ask you that question because I don't Google to take away those examples. There is a lot to be learned to what you point out as high quality and potentially low quality so.. But I can see as well, I'd be quite upset if people were using my site as like 'oh Google says your site is low quality', nevermind that was something 10 years ago or whatever but fair enough.
M 46:15 - So John I hear you have your own podcast coming out soon? Tell us about that.
J 46:20 - We're working on it. We started looking into that I think at the beginning of the year. At some point we got all the equipment set up in the office and like ready to go and we recorded the trailer and all that went really well and then the office closed and everything went downhill so that kind of threw a wrench in the gears there. So we've started to pick that up again and I hope we can get the first episode or two out fairly soon. I don't know what the timing is there. But it is something where we thought we'd do something a little bit less formal and provide some human look behind the scenes of what's going on with regards to Google.
M 47:16 - Will it be something where we can ask questions like this sort of thing or is it more of a kind of fun, light..
J 47:23 - I don't know. We'll see how it evolves.
M: And we'll see how challenging it is as we pummel you with questions. I'm looking forward to it, I think it'll be good.
J: It's not meant to be a replacement for the office hangouts so it's not something where it's question, answer, question, answer type of thing but more where we realize people would kind of like to know what actually happens behind the scenes at Google when they make these kind of decisions and that's kind of what we'd like to bring in.
M 47:56 - There was a video that came out years ago of, I think it was Matt Cutts in a search meeting where the whole team was discussing 'well we could do this and it would take longer to load.' That was fascinating. I would love to see more stuff like that, what goes on behind the scenes. Just a thought. Is it going to be video? Or I guess you don't know right now right? Or is it a podcast.
J 48:22 - It's just a podcast.
M 48:24 - Alright was there anything else that you wanted to share with us at this point?
J 48:29 - Nope, it went pretty good.
M 48:31 - John, thank you so much for doing this. I can't tell you how much I appreciate it and thank you for being on twitter and putting up with all of our questions and humour too. Do you know how many times we throw into our slack channel 'oh John' because you're just such a great guy and very helpful. Anyways, I'll stop. I'm going to make you blush so thanks again John and I hope that everything's going okay for you in staying at home and all that. Hope to one day see you. We were supposed to meet again in Munich for SMX and that got cancelled like a week before we were going to be there so one day I'll see you again sometime.
J: It'll happen, don't worry.
M: Take care!
J: Thanks a lot bye.
