Trascrizione del podcast SNYCU con Marie e John Mueller

Pubblicato: 2020-06-03

Podcast SNYCU con Marie e John Mueller

Una trascrizione del podcast SNYCU di MHC con John Mueller di Google il 3 giugno 2020. Puoi ascoltare l'episodio completo qui.

Se vuoi iscriverti, puoi trovare i podcast qui:
iTunes | Spotify | Google Play

Oppure guardalo qui:

M: Quindi benvenuti a un episodio molto speciale di Search News You Can Use e io sono la dottoressa Marie Haynes e ho il mio primo ospite in assoluto nel podcast; John Mueller di Google. Benvenuto Giovanni.

J: Bello essere qui Marie.

M 0:15 - Allora John dimmi: penso che sappiamo tutti che sei un Webmaster Trends Analyst di Google, da quanto tempo sei con Google adesso?

J 0:23 - Oh ragazzo che c'è... 12 o 13 anni, qualcosa del genere.

M 0:30 - Davvero? Quindi la mia prima introduzione alla SEO è stata nel... vi ricordate i forum di chat SEO? Non so se tu fossi una parte di quelli, ma era una specie di 2008-ish. E poi a un certo punto ho iniziato a guardare i tuoi video dell'hangout di assistenza di Google. Li hai avviati poco dopo esserti iscritto a Google?

J 0:57 - Ehm, vediamo. Non so quando abbiamo iniziato esattamente. Penso che sia successo praticamente quando è uscito Google Plus, quindi non appena l'intera configurazione è stata disponibile e abbiamo potuto fare questi hangout pubblici e chiedere alle persone di partecipare, tutto questo è stato da lì che abbiamo iniziato a fare quelli per gentile di provarli per vedere cosa funziona, cosa non funziona.

M 1:29 - Ho capito. Quindi prima di tutto voglio dirti grazie per, intendo da tutta la comunità SEO, che sei andato ben oltre nel corso degli anni e non so come lo fai. Stavo per iniziare con la nostra prima domanda con l'essere qualcosa sulle cartelle rispetto ai sottodomini o sai, ma non lo sono, non lo sono. Ne hai parlato così tanto e quindi non riesco a immaginare come sia ogni parola che dici, noi come community SEO ci salteremo sopra e diremo "Beh, questo è quello che dice Google" e deve essere molto difficile da avere ogni tua parola analizzata ed eccoci di nuovo qui! Ti faremo un sacco di domande da analizzare. Penso che andremo subito dentro con le domande e vedremo dove andranno le cose. In qualsiasi momento, se vuoi entrare e dire qualcosa, qualsiasi cosa tu voglia dire sarebbe così utile. Voglio iniziare con una domanda divertente e chiederti quindi qual è il problema con le banane e il formaggio?

J 2:28 - Banane e formaggio.. Beh, immagino che il formaggio sia un po' ovvio, è come se in Svizzera ci fosse un sacco di formaggio, quindi, non lo so, è un po' la parte facile lì. Penso che quel tweet che ha dato il via a tutto, dal mio account, fosse I love Cheese. Quel tweet, in realtà è stato fatto da Gary, quindi non è colpa mia. Non lo so. Sono andato a prendere un caffè e Gary era tipo "oh, twitter è aperto", quindi è andato e ha cercato di pubblicare qualcosa. Probabilmente ha cercato di trovare qualcosa che non lo facesse licenziare così.

M: Poteva essere molto peggio, sì.

J: E Bananas è, è più casuale in quanto stavo cercando qualcosa da provare con Google Trends e Bananas è stata solo la prima parola che mi è venuta in mente e ho iniziato a ricevere tutte queste e-mail come Google Trends per le banane stava salendo o andando giù, è stato come un "Okay".

M: È fantastico. Quindi ricevi ancora le e-mail sulle tendenze delle banane?

J: Sì, sì.

M 3:52 Il modo in cui siamo venuti con le nostre domande è che abbiamo un intero team che lavora per me e il mio team si allena effettivamente sui video dei tuoi hangout di aiuto in modo che li guardino e tu sai che succederà qualcosa e sai, lo farai parliamo di un tag canonico e della mia squadra, i miei nuovi tirocinanti diranno "Beh, cos'è quello" e bene inizieranno a parlare di queste cose. E così gran parte della mia squadra ha avuto domande e anche alcuni dei miei ascoltatori del mio podcast hanno avuto domande. Parliamo di nofollow e Google ha annunciato l'anno scorso che sono in arrivo alcuni cambiamenti su come utilizzare nofollow. Credo che a quel tempo ci hai dato rel=sponsored e rel=ugc. Sento che c'è un po' di confusione su come Google possa usare i link nofollow e parte della confusione è... beh, le persone mi chiedono spesso, se qualcuno mi ha indicato link di spam nel tentativo di SEO negativo, come spam nei commenti e link come quello, e sono tutti link nofollow. Questi link nofollow possono mai essere usati come segnali per Google?

G 5:02 - Beh, non li usiamo in modo negativo. Quindi è qualcosa in cui se possiamo usarli per scoprire alcuni nuovi contenuti, allora è qualcosa in cui credo che proviamo a usarlo, ma non è il caso in cui diciamo bene che questi sono normali collegamenti sul Web, quindi li conteremo a pieno peso e se sono cattivi collegamenti sul web, conteranno contro di te e quel genere di cose. Quindi, se questi sono link là fuori che non vuoi associare al tuo sito e sono con un nofollow, allora va benissimo. Penso che molti degli annunci su Internet siano anche con nofollow, è qualcosa in cui non lo vedremmo come un collegamento a pagamento solo perché ora comprendiamo un po' meglio i collegamenti nofollow.

M 5:44 - Ha senso. Quindi penso che una delle preoccupazioni: una domanda che molte persone mi hanno posto è se dovrebbero rinnegare perché c'è un numero enorme di link nofollow, quindi sai, la scala potrebbe dare una mancia e abbiamo sempre sostenuto che c'è non ha senso sconfessare un collegamento nofollow perché l'intero punto del disconoscimento è dire a Google "Non voglio trasmettere questi segnali", quindi penso che abbia senso, giusto? Siamo sulla strada giusta?

G 6:11 - Sì, non c'è bisogno di sconfessarli.

M 6,15 - Questa è una domanda di cui abbiamo parlato. La prima e unica volta che ci siamo incontrati di persona in realtà, a New York presso l'Ufficio di Google e mi piacerebbe che lo rivisitassimo perché penso che ci sia così tanta confusione su chi dovrebbe usare lo strumento di disconoscimento. Quindi la domanda principale è che sappiamo che lo strumento disavow è presente se si dispone di un'azione manuale e cerchiamo di rimuovere i collegamenti innaturali e quelli che non possiamo rimuovere, li inseriamo nello strumento disavow. La cosa di cui abbiamo parlato prima è che c'è sempre una ragione per un sito che non ha un'azione manuale per utilizzare lo strumento di disconoscimento. Quindi iniziamo con quello forse

J 7:00 - Penso che ci siano due volte in cui avrebbe senso usare forse lo strumento del disconoscimento. Da un lato, quando guardi i link al tuo sito, sei abbastanza certo che otterrai un'azione manuale. Quindi, ad esempio, se il precedente SEO stava facendo tutti i tipi di cose strane per quanto riguarda i collegamenti al tuo sito, se stavano acquistando collegamenti, pubblicando guest post, tipo tutte le solite cose in cui diremmo che questo è contro il linee guida e se non hai ancora ricevuto un'azione manuale per questo, allora è qualcosa in cui se vai a guardare un sito del genere e vedi tutto questo, sembra qualcosa in cui vorresti ripulire in modo proattivo. Quindi essenzialmente il tipo di attività che faresti quando ricevi un'azione manuale, in un certo senso fallo in modo proattivo in anticipo in modo da non entrare nemmeno nell'intero problema dell'azione manuale. Ed è qualcosa in cui ogni tanto mi imbatto in persone del genere dove magari vengono in uno degli hangout dell'ora d'ufficio o pubblicano post su Twitter o nei forum di assistenza dove se guardi quei link puoi dì bene che hanno fatto molte cose che probabilmente non avrebbero dovuto fare e non è chiaro se le hanno fatte da soli o se hanno assunto un SEO per farlo, non importa e forse non hanno un ancora un'azione manuale, ma si presume che se il team di spam web si è imbattuto in quel sito, probabilmente avrebbe intrapreso delle azioni. Quindi questo è il tipo di cosa in cui direi che puoi occupartene tu stesso con il disconoscimento ripulendo i collegamenti il ​​più possibile, penso sia quello ovvio. L'altro è più simile a se non sei davvero sicuro di cosa faranno gli algoritmi di Google perché cerchiamo davvero di ignorare i link di spam là fuori, proviamo a ignorare quei link casuali che vengono lasciati nei forum che a volte sono appena lasciato cadere automaticamente tutti i tipi di posti. E se non sei davvero sicuro che gli algoritmi di Google li ignoreranno, puoi semplicemente inserirli nel file di disconoscimento e dire, beh, ho fatto quello che potevo fare, almeno non devo preoccuparmi di questo.

M 9,26 - Il ripudio è una prevenzione per un'azione manuale. Ha senso vero? Se osserviamo un profilo di collegamento che è molto apertamente contrario alle linee guida di Google e diciamo, oh mio Dio, se il team del webspam guardasse questo in questo modo sarebbe spaventoso, probabilmente dovremmo rinnegare. Penso che la confusione sia ciò che hai menzionato sugli algoritmi di Google e capisco che ci sono alcune cose che non puoi condividere per ovvi motivi. Abbiamo avuto casi in cui riteniamo davvero di aver presentato un disconoscimento, il sito non ha avuto azioni manuali e quindi ad un certo punto, poche settimane o un paio di mesi dopo, il sito ha iniziato a vedere un aumento del traffico e il nostro Il pensiero, come abbiamo detto a New York City, è che gli algoritmi di Google potrebbero avere meno fiducia nel loro profilo di collegamento e il tipo di disconoscimento ha migliorato quella fiducia e ne ha visto i vantaggi. Quindi penso che il principale, e ancora una volta, posso capire se non puoi rispondere a questo, quindi sappiamo che possiamo sconfessare preventivamente per evitare di ottenere un'azione manuale, ma possiamo vedere i miglioramenti nelle classifiche di Google, il traffico di Google viene sconfessato anche se non lo fanno non avere un'azione manuale.

G 10:47 - Penso che sarebbe molto raro. Quindi potrei teoricamente immaginare una situazione in cui i nostri algoritmi sono davvero sconvolti dai collegamenti a un sito e rinnegando potresti ripulirlo, ma è qualcosa in cui essenzialmente sarebbe una situazione molto simile a se un membro del team di spam web guardasse il sito. Quindi, solo perché ci sono alcuni collegamenti casuali là fuori e stai in qualche modo riordinando le cose e ti stai concentrando sui collegamenti che sai essere buoni, non mi aspetterei di vedere alcun cambiamento nella visibilità di un sito nella ricerca da qualcosa come quello. Quindi è qualcosa in cui la mia ipotesi è qualcosa del genere è che molto probabilmente stai vedendo gli effetti di altre cose che stanno accadendo nella ricerca che potrebbero essere aggiornamenti dell'algoritmo, forse cambiamenti nell'ecosistema in generale, tutte le solite cose che possono aumentare e giù alla ricerca.

M 11:38 - Ha senso. È sempre difficile testare qualcosa in SEO, giusto? Perché qualcosa che abbiamo cambiato oggi, non è che non apporteremo modifiche domani o per il resto del mese o qualcosa del genere. Vorrei chiederti qualcosa in merito: c'è un caso che abbiamo ora in cui abbiamo a che fare con un'azione manuale per un cliente che è venuto a utilizzare con azioni manuali per collegamenti innaturali e ripenso a quando ho iniziato ad aiutare le persone con collegamenti innaturali, è stato davvero facile vedere che ci sono queste directory di spam e PageRank R US o qualcosa del genere, erano super ovvi. E mi sembra che i tipi di link innaturali ora che causano azioni manuali siano quelli che potrebbero effettivamente muovere l'ago per i siti. Sono quelli che funzionavano e gli algoritmi di Google non li gestivano o altro, quindi il team di spam web ha dato loro un'azione manuale. Questo nostro particolare cliente, la maggior parte dei collegamenti che hanno fatto sono in articoli. E sono in articoli in luoghi relativamente autorevoli, come luoghi, come se non fossero articoli di ultra spam e possiamo vedere quando li guardiamo che sono fatti molto chiaramente per SEO ma sono articoli che le persone leggerebbero. E una delle difficoltà che stiamo incontrando nella comunicazione con questo cliente è che si posizionano ancora molto bene per le loro parole chiave principali. Quindi siamo entrati e abbiamo detto "Guarda, c'è questo elenco di centinaia di collegamenti che sappiamo che hai creato per la SEO, hai un'azione manuale e vogliamo che inizi a rimuoverli o a rinnegare se non puoi" e sono dicendo "Beh, siamo in classifica per tutti questi termini, perché dovremmo volerlo fare?". Hai qualche idea in merito, c'è qualche consiglio che puoi darci su quella situazione?

J 13:20 - Questi sono essenzialmente post degli ospiti in cui se creano gli articoli e includono un collegamento al loro sito, allora è qualcosa in cui il team di spam web direbbe "beh, è ​​di nuovo, contro le nostre linee guida". Per quanto riguarda il loro posizionamento per quelle parole chiave, la mia ipotesi è piuttosto difficile da dire. Voglio dire, non conosco la situazione lì, ma è qualcosa in cui se c'è un'azione manuale, il mio consiglio generale sarebbe sempre di cercare di ripulirlo il più possibile e di non lasciarlo lì perché non è male abbastanza, genere di cose. Quindi questo è il tipo di posto in cui proverei a ripulire se vedi che le persone leggono quegli articoli, fanno clic sul tuo sito, quindi mettono un nofollow su quei link e questo è altrettanto utile per il traffico verso il tuo sito e a allo stesso tempo aiuta davvero mostrare al team di webspam che va bene, hai davvero capito che questo era problematico, hai messo il nofollow lì, li hai messi in disconoscimento dove non potevi farlo e li aiuta a dire 'ok possiamo lasciare questo sito è del tutto naturale nella ricerca'.

M 14:36 ​​- Va bene e penso che a volte sia una specie di lotta; un sito che ha alcuni link naturali abbastanza buoni combinati con un sito che ha fatto 'link building di alto livello', link building in modi che sai, alcuni di questi sono buoni. Non è sempre sbagliato chiedere un collegamento, va perfettamente bene, ma la scalabilità può essere difficile, come forse può essere utile quando avevi cinque di questi collegamenti, ma ora che ne hai 500, non è così buono. Una delle cose che confonde molte persone è che quando guardiamo le linee guida di Google sugli schemi di collegamento, sono un po' vaghe sui collegamenti negli articoli. Così dice nelle linee guida "campagne di marketing di articoli su larga scala o di pubblicazione di ospiti con link di testo di ancoraggio ricchi di parole chiave" e ciò che si riscontrava spesso in questi giorni è che queste azioni manuali che stavano ottenendo, i collegamenti di esempio che Google ci invia non sono sempre parole chiave anchored e penso che non sia chiaro a molte persone che un collegamento innaturale può ancora essere innaturale se l'ancora non è una parola chiave, è corretto, giusto?

J 15:46 - Giusto, voglio dire che alla fine un link è un link, può passare segnali all'altro sito ed è un po' quello a cui il team di webspam sta attento.

M 15:57 - Va bene, sì, quindi cerchiamo sempre di indicare: lo chiamiamo innaturale perché gli schemi di collegamento di Google lo dicono e la maggior parte dei collegamenti che abbiamo recuperato in questi giorni come collegamenti di esempio sono collegamenti negli articoli. Non sono tutti necessariamente post degli ospiti. Sono 'Ehi, ho scritto questo contenuto, hai bisogno di contenuto quindi lascia che te lo dia. Non ci sono soldi coinvolti e oh, a proposito, c'è un link al mio sito in esso'. Quindi quelli sono innaturali, giusto?

G 16:25 -

M: Sì, va bene. Penso che sia una lotta con cui molte aziende SEO lottano; "finché non utilizziamo ancoraggi di parole chiave, siamo a posto" e penso che sia un rischio.

M 16:38 - Usciremo dalle azioni manuali tra un minuto, ma abbiamo avuto molte domande su questo. Può dirci se si è verificato un ritardo nella risposta alle azioni manuali a causa della pandemia?

G 16:51 - Non so molto di un ritardo ma è stato molto più lento del solito

M: Abbiamo ricevuto alcune risposte ora, sai se sei tornato in pista?

J: Quindi ieri alcune delle persone del team di webspam hanno ricontrollato per assicurarsi che non dicessi niente di pazzo e sembra che siano più o meno sulla buona strada. Voglio dire, c'è sempre un certo tempo necessario per esaminarli manualmente e per la maggior parte, proviamo a esaminarli manualmente e proviamo a rendere questo processo un po' più veloce. L'unica cosa che il team di webspam sta facendo è cercare di trovare modi per automatizzare questo. Quindi, in particolare, se un sito viene violato, è qualcosa in cui possiamo provare automaticamente a capire se il sito è ancora violato dopo la richiesta di riconsiderazione e se i nostri algoritmi sono abbastanza sicuri che questo sia stato risolto, possiamo semplicemente lasciar perdere. E questo tipo di liberazione del tempo per il resto del team di azioni manuali che lavora attraverso le code che ottengono.

M 18:00 - Ha senso. Puoi dircelo? So che hai menzionato che tutte le azioni manuali sono riviste dagli esseri umani. E questo ha senso per le situazioni di hacking in cui potresti voler usare una macchina per farlo. Puoi dirci qualcosa sul processo di revisione? È un membro del team antispam web che esegue la revisione per le azioni manuali? È un processo in due fasi in cui qualcuno vede come "Stanno facendo alcuni passaggi qui, passiamolo a un membro senior". C'è qualcosa che puoi condividere con noi a riguardo?

G 18:34 - Dipende in qualche modo dalle dimensioni e dalla complessità della questione. Quindi, se c'è qualcosa che sta interessando gran parte del web, se è qualcosa di particolarmente complesso ed è un po' borderline e dipende da come lo guardi, allora questo è il tipo di situazione in cui il team webspam spesso attira altre persone per prova a chiedere un secondo parere in merito. E penso che in generale questo abbia senso. È anche qualcosa che proviamo a fare se arriva una seconda richiesta di riconsiderazione, che non è sempre la stessa persona che guarda bene lo stesso sito, non sono cambiati molto. Mentre se qualcun altro lo stesse guardando, potrebbe dire bene in realtà, questo è abbastanza lontano per quanto riguarda ciò che ci aspetteremmo che facciano. A volte, è un po' difficile tracciare quella linea perché quando la guardi manualmente, ci sono sicuramente alcune cose in cui questa è una linea chiara, possiamo dire bene che tutto ciò che è al di sopra deve essere accettato e tutto ciò che è al di sotto viene rifiutato. Ma ci sono molti casi, ad esempio con link o con contenuti di bassa qualità, e si può dire bene che hanno svolto una notevole quantità di lavoro, ma come lo si quantifica. Non è proprio possibile dire che abbiano fatto il 17% di quello che avrebbero dovuto. come se non riuscissi a trovare un numero.

M 19:57 - Mi sento come se dicessimo ai nostri clienti che l'obiettivo è convincere il team webspam che capisci il problema e che stai andando avanti, sai che non stai facendo la stessa cosa. A volte può essere una sfida, specialmente per questi siti che hanno una vera miscela di "beh, questo è stato da questo sforzo SEO e questo sforzo SEO forse siamo andati troppo oltre" e a volte può essere davvero difficile rimuovere queste cose. Ma ho detto alla gente che a volte è bello averne uno perché poi sai che questi sono i problemi, sai che devi andare avanti e passare a modi migliori per ottenere collegamenti o altro.

M 20:35 - Passeremo a un altro argomento divertente è il contenuto sottile che è qualcosa su cui siamo andati avanti e indietro come SEO nel corso degli anni. Leggerò questa domanda perché credo provenga dalla mia squadra. "Hai menzionato in passato che quando Google valuta la qualità del sito, prende in considerazione tutte le pagine indicizzate. C'è un sito di grandi dimensioni con oltre 100.000 pagine indicizzate e nel tempo molte di quelle pagine diventano non più rilevanti o già scarse. Il noindexing o il reindirizzamento per ridurre il conteggio delle pagine aumenterebbe la percezione della qualità da parte di Google e il flusso per aumentare le classifiche, sempre con l'UX che rimane lo stesso. "

G 21:18 - Sì, penso che quello che vedo spesso lì con questo tipo di domande è che le persone a volte vedono che tutte le pagine sono uguali mentre dal nostro punto di vista, le cose sono molto diverse per quanto riguarda l'importanza di una pagina per un sito web. Quindi è qualcosa in cui è davvero difficile dire bene, hai rimosso 1.000 pagine quindi le altre 90.000 pagine sono buone. Quindi un esempio potrebbe essere che tu abbia una sede di concerti o un sito di eventi e supponendo che tutti tornino ai concerti che sono sicuro accadranno ad un certo punto, ma potresti avere questo sito e qualche artista davvero famoso lì, ne hai davvero alcuni buon contenuto sui concerti lì e hai un calendario degli eventi in cui puoi essenzialmente fare clic sull'anno 9999 e la maggior parte di quei giorni sarà vuota. Quindi, guardando qualcosa del genere, potresti avere centinaia di migliaia di pagine davvero vuote e una manciata di pagine davvero buone e solo perché hai centinaia di migliaia di pagine sottili e di bassa qualità non significa necessariamente che il 90% del tuo sito web è male e devi pulirlo. Perché quello che accadrà dalla nostra parte è che cercheremo di capire quali sono le pagine più importanti e cercheremo di concentrarci su quelle. E quelli sono probabilmente i concerti in corso o qualunque cosa stia succedendo lì. E anche se hai tutte queste altre pagine di contenuto sottile, non significa necessariamente che il tuo sito web abbia raggiunto una media di qualcosa di mediocre. Quindi, da questo punto di vista, non ha senso guardare i numeri assoluti** ma qual è il contenuto importante per il tuo sito ed è quel contenuto in realtà di alta qualità.

M 23:13 - Va bene, è davvero interessante perché abbiamo sempre sostenuto che un sito ha.. Supponiamo che il loro CMS crei queste pagine di immagini casuali e entrino nell'indice.. Quindi Google dovrebbe semplicemente ignorarle in termini di qualità per il luogo. Non è come rimuovere, diciamo che il 90% delle pagine dell'indice erano queste pagine casuali che non avrebbero dovuto entrare nell'indice, la rimozione di quelle dall'indice può migliorare la valutazione della qualità di Google per il resto del tuo sito?

G 23:44 - Non lo so. Molte volte - come se fosse qualcosa che ignoriamo già, allora non penso che farebbe alcuna differenza. La differenza principale che farebbe è per quanto riguarda la scansione del sito Web e la possibilità di trovare i contenuti nuovi e aggiornati un po' più velocemente dove se rimaniamo bloccati in un calendario infinito, allora andremmo via e trascorreremmo molto tempo lì perché Googlebot è molto paziente, ma non è il contenuto di cui hai davvero bisogno per eseguire la scansione del tuo sito web. Quindi questa è una specie, penso, la parte principale lì. Penso che ci sia spazio per una sorta di via di mezzo, però, non necessariamente cose che sono completamente inutili ma una sorta di via di mezzo in cui vedi che queste sono pagine che stanno ricevendo molto traffico dalla ricerca, ma quando le guardo sono davvero pagine per cui non voglio essere conosciuto. È quasi come se potessi riconoscere che gli algoritmi di Google pensano che queste siano pagine importanti ma in realtà non sono pagine importanti per me. E se ti trovi in ​​quella situazione, allora è una situazione in cui puoi agire. Quindi non necessariamente guardando il numero assoluto di pagine che hai ma queste sono le pagine che stanno ricevendo traffico dalla ricerca e queste sono quelle su cui voglio che Google si concentri quindi cercherò di sbarazzarmi di cose meno importanti forse per migliorarli, qualcosa del genere.

M 25:08 - Che ne dici di una situazione in cui un sito web più piccolo, come forse... Voglio dire, anni fa alle aziende è stato detto di bloggare tutti i giorni e ci sono molte persone che hanno blog di qualità molto scadente perché sono tipo ecco il mio caffè oggi, ecco le banane e John ha ricevuto un avviso a riguardo e cose che forse non avevano bisogno di essere nell'indice. E poi diciamo bene, a partire da quest'anno ho messo la testa in gioco e ho detto oh tutto quello che metto nel mio blog deve essere il migliore del suo genere. Ciò potrebbe migliorare la valutazione di Google per la qualità del mio blog in generale se tornassi indietro e non indicizzassi alcuni di quei post del blog di cui nessuno si preoccupava o Google lo tiene a mente e si concentra solo sulle nuove cose?

G 25:52 - Non credo che ciò farebbe una differenza significativa, specialmente se hai questa parte significativa di contenuti davvero buoni, se stai iniziando a pubblicare nuovi contenuti là fuori. Quindi non credo che il noindexing del contenuto più vecchio giocherebbe una grande differenza. Ma simile a un sito di giornali in cui pubblichi forse 20 articoli al giorno e 19 di quegli articoli che dopo una settimana saranno irrilevanti, quindi non significa che quei 19 articoli siano automaticamente cose che a un certo punto non dovresti indicizzare ma magari spostali in una sezione di archivio dove sono meno empatici per gli utenti e per la ricerca ma puoi comunque conservarli. Non è che stiamo dicendo che questo è qualcosa di brutto e devi sbarazzarti o ripulire.

M 26:40 - Va bene, ha senso. Puoi darci qualche consiglio su come Google effettua una valutazione della qualità su quali tipi di contenuti potrebbero essere considerati di alta qualità. Google sta utilizzando BERT ora per capire meglio ora se il contenuto è buono?

J 27:00 - Quindi non ho davvero molte informazioni su come determiniamo quando le cose sono contenuti di alta qualità, ma immagino che l'unica cosa da cui le persone a volte vengono espulse sia per quanto riguarda BERT, gli algoritmi BERT, tutti quelle cose. Questi sono essenzialmente algoritmi per comprendere meglio i contenuti. Non è tanto per capire la qualità del contenuto, ma più per capire di cosa tratta questo contenuto, di cosa tratta questa frase, di cosa tratta questa domanda per capire quali sono le diverse entità che potrebbero essere coinvolte qui e come stanno legato qui. Il punto in cui questo tipo di sovrapposizione si sovrappone al lato della qualità del contenuto è quando scrivi in ​​un modo tale che essenzialmente è impossibile capire cosa stai cercando di dire. E questo è il tipo di situazione in cui gli algoritmi BERT diranno bene, non so davvero cosa stiano cercando di dire e non è tanto che l'algoritmo BERT presuma che si tratti di contenuto di bassa qualità, è più come se non sapessi cosa fare con questo. E a volte sospetto... Non l'ho visto di prima mano o provato con nessuna pagina, ma sospetto che alcuni dei vecchi testi SEO della scuola cadano in quello in cui stai semplicemente scambiando tutti i sinonimi che tu può eventualmente aggiungere a una frase e come essere umano quando leggi che sei così è totalmente sopra le righe e posso immaginare che i nostri algoritmi siano come bene, questo non si legge come una frase reale, non lo so so bene cosa sottolineare. Come se si tratta davvero di questo argomento o si tratta di un argomento diverso come quello che è l'elemento principale in questa frase o in questo paragrafo.

M 28,54 - Ed è forse qualcosa di negativo? Come per esempio se abbiamo un sito di e-commerce che ha una pagina di prodotto e si vede spesso in fondo alla pagina- lo chiamiamo SEO-copy questo lo sai, è scritto per i motori di ricerca ed è solo un grosso blocco di testo che contiene un mucchio di parole chiave e nessun essere umano lo leggerà mai davvero. Quindi il modo in cui penso a BERT che cerca di capire se questa query corrisponde a questa pagina, forse BERT si limita a lottare e dice che questo non è rilevante o altro. O potrebbe Google considerarlo come un negativo dire "oh questa pagina sembra essere SEO-ed, queste parole chiave sono qui per Google e lo rendono un vero danno per la pagina

J 29:41 - Ho visto alcuni casi in cui ciò accade, ma di solito è sulla falsariga del keyword stuffing. Quindi non tanto come se scrivono un articolo di Wikipedia sull'argomento e lo mettono in fondo alla pagina di una scarpa, ma più semplicemente aggiungono migliaia di variazioni delle stesse parole chiave a una pagina e quindi il nostro algoritmo di riempimento delle parole chiave potrebbe dai un'occhiata e dì bene in realtà questo sembra un riempimento di parole chiave, forse dovremmo essere più cauti riguardo al modo in cui classifichiamo questa singola pagina. Quindi non è che BERT sia confuso e quindi i nostri algoritmi sono confusi e diremo che la pagina è cattiva perché i nostri algoritmi sono sempre confusi, c'è sempre qualcosa sul web che confonde, quindi sarebbe brutto dirlo solo perché qualcosa è confuso, è di bassa qualità. Ma suppongo che per quanto riguarda BERT una delle cose che si potrebbero fare perché molti di questi algoritmi sono open source, c'è molta documentazione e materiale di riferimento intorno a loro, è provare le cose e prendere parte di questo SEO testo e gettarlo in uno di questi algoritmi e vedere se il contenuto principale viene estratto, le entità possono essere riconosciute correttamente e non è lo stesso su come lo faremmo perché sono abbastanza sicuro che i nostri algoritmi lo siano basato su idee simili ma probabilmente sintonizzato in modo diverso, ma può darti un'idea di se questo è scritto in modo tale che in realtà è troppo confuso per un sistema capire di cosa stanno scrivendo.

M 31:25 - Va bene, quindi stai dicendo di prendere il testo, inserirlo in un elaboratore di linguaggio naturale e vedere lo strumento può capire "oh questa pagina parla di questo" e in caso contrario forse dobbiamo riscriverlo perché se il lo strumento non riesce a capirlo come se gli umani probabilmente lo trovassero noioso o non volessero leggerlo?

J 31:41 - Non credo che sarebbe fattibile giorno per giorno, ma potrebbe essere un esperimento interessante solo per prendere alcune di quelle cose di testo SEO della vecchia scuola e inserirle in questi algoritmi moderni e vedere se funziona capire ancora di cosa tratta questa pagina e qual è la differenza se riscrivo questo articolo di Wikipedia in forse un riassunto di due frasi che potrebbe essere leggibile da un utente, gli algoritmi capirebbero ancora che si tratta della stessa cosa

M 32:16 - Quindi, invece di avere quel testo SEO alla fine di una pagina di e-commerce, hai consigli? Voglio dire, ci sono alcune cose ovvie che gli utenti vorrebbero, ma ci sono alcune cose che sarebbero utili in termini di ciò che Google vorrebbe vedere su una pagina di e-commerce che puoi condividere con noi?

G 32:35 - È difficile da dire. L'unica cosa che noto parlando con la gente dell'indicizzazione mobile è che quando le pagine delle categorie di e-commerce non hanno altro contenuto oltre ai collegamenti ai prodotti, è davvero difficile per noi classificare quelle pagine. Quindi non sto dicendo che tutto quel testo in fondo alla tua pagina sia cattivo, ma forse il 90%, il 95% di quel testo non è necessario ma è utile avere una certa quantità di testo su una pagina in modo che possiamo capire cosa questa pagina è circa. E a quel punto probabilmente sei con la quantità di testo che probabilmente anche un utente sarà in grado di leggere, anche in grado di capire. Quindi è un po' dove mi dirigerei al riguardo. L'altra cosa in cui potrei immaginare che i nostri algoritmi a volte si confondono è quando hanno un elenco di prodotti in cima ed essenzialmente un articolo gigante in fondo quando i nostri algoritmi devono capire l'intento di questa pagina. È qualcosa che è pensato per scopi commerciali o è una pagina informativa? Qual è il motivo principale dell'esistenza di questa pagina e potrei immaginare che i nostri algoritmi a volte vengano confusi da questo grosso pezzo di testo in cui diciamo oh, questa è una pagina informativa sulle scarpe ma posso dire che gli utenti stanno provando per comprare scarpe così non le manderei a questa pagina informativa.

M 34:05 - Va bene e sembra essere così.. Quindi anche BERT è abituato a capire la domanda?

G 34:13 - Sì, quindi usiamo questi algoritmi per comprendere essenzialmente il testo e questo entra nella query e nelle pagine stesse.

M 34:24 - Va bene e so che questo è stato accennato in precedenza.. Penso che sia stata la ricerca nella Bay Area, penso che Gary abbia detto qualcosa che mi ha fatto riflettere su questo. La maggior parte dei risultati di ricerca sono... Hai detto che Google vuole determinare se la persona vuole acquistarlo. Are there a certain amount of spaces, like if Google has figured out oh this is probably a commercial query then we want to rank only sites that seem to be transactional or do you say well let's throw in a couple of informational ones? Or am I just simplifying things too much?

J 35:00 - I think you would see some amount of mixed there naturally where our algorithms tend not to be completely on or off where we say 'well this is clearly commercial in nature' and therefore we would only show commercial pages because we just don't know for sure what it is what the user is searching for. That's something where I think 10-15% of all queries are still new so these are things where even if we wanted to manually classify all these queries and say well this is clearly someone trying to buy shoes, that's something that we would never be able to do because people come and ask us in different ways all the time. So that's something where I suspect our algorithms will try to say 'well probably it's this or very very likely it's this' so we will try to include, in our search results page, I don't know 80% like this and a little bit like that just to cover those other variations.

M 36:08 - Okay that makes sense. Let's have another great subject that's fun to talk about; doorway pages. So sometimes a lot of websites struggle with location pages. So lets say a client came to us and they had a business that serviced 50-100 cities in their radius and what tends to happen is their location pages, they're unique in terms of words but really for the user, they could be all the same page. The services of the business are the same no matter the city. Is it within Google's guidelines for me to have 50 different city pages? Is there a better way to do it?

J 36:56 - A lot of times these tend to go into the doorway direction and tend to end up being low quality. And I'd say the quality aspect is almost a bigger issue there in that you have all of these pages on your site and you say well these are really important for my site but at the same time they're essentially terrible pages. Like you wouldn't be able to send a user there and say like well you're in this city therefore this page mentions your city name and the service that you're looking for so we should show that to you. So that's something where from the point of view I try to discourage that. Obviously if you have locations in individual cities, sometimes you have those addresses on separate pages with separate opening hours, all that. Another option is of course to list those different addresses on a single page, maybe by region with a map, a dynamic map, something like that. But otherwise I think it's really kind of tricky where if you're saying well I don't really have locations in these cities but anyone from any of these cities are welcome to call me up then making individual pages for all of those cities feels kind of tricky. And I realize sometimes these sites rank, sometimes these kind of pages rank well but it is something where I could imagine the search quality team saying well we need to figure out a way to deal with this better.

M 38:39 - Do you give many penalties or manual actions for doorways pages these days? It's been a while since I've seen one.

J: 38:46 - I don't know.

M: Yeah it's been a long time. I'm not saying you should by any means. If all of a sudden people start getting- I think they fell under thin content penalties, it's not my fault if that happens.

M: This is a subscribers question. I'm going to shorten it down because it's a long one but it's about… This person has a site that's YMYL, it competes with major brands and government websites so '.gov' websites. And something that we really noticed lately is that Google, for a lot of YMYL queries are really really favouring authoritative sites. So this person is saying that their content is better, I mean that's subjective, but their content is better, solves the user's query better, great videos, optimized to the fullest and they want to know, and I know this is hard because you haven't seen the site, I haven't seen the site but is it ever possible to outrank a giant authoritative website for a YMYL query.

J 39:53 - Sure, I mean it's possible to outrank these sites. It's not that any of these search results positions are hard coded and they can never change so that's something where I would say that's certainly possible but depending on the topic, depending on the competition, it can get hard so I wouldn't expect that to be something where you can just throw together a website, make some really nice looking pages, have someone rank some really good content for your page and to automatically have that rank above these authoritative sites. Especially on topics where it's kind of important that we make sure we are providing high quality, correct information to people. So technically, it's possible. Waiting it out is something I personally wouldn't recommend in cases like this. Obviously you need to continue working on your site, it's not something where you can just say okay I'll wait til my site is 10 years old then it'll be just as good as these other 10 year old sites. That's not the way it happens, you have to kind of keep at it all the time. And the other thing to keep in mind is that if these are really good websites then generally speaking you'd expect to see some traffic from other sources as well so obviously search is a big source of traffic but there are lots of other places where you can also get traffic and that's something where kind of combining all of that and continuing to work on your website, focusing maybe on other traffic sources if that's something that you can do and kind of growing out from there. But it's not that we would never rank these sites for these kinds of queries but it will be really hard, you have to prove that what you're providing is something of equal quality, equal relevance, equal correctness as maybe an official government website which depending on the government website might be hard, might be a little bit easier, it feels like government websites are generally getting better and better so that competition is not going to get less.

M 42:08 - Yeah I think in the past a lot of the time we'd say oh this .gov site page is ranking but it's horrible so if I can create something better then I can outrank it. Is this connected to EAT? Like let's say I went on a particular type of diet and it worked really well for me and I wanted to create a website about this diet but the people who are ranking on the first page are the mayo clinic and some government authoritative site. Can you give me any tips on what types of things would have to happen. Let's say I was a multimillionaire and I had access to any resource, what would it have to take for me to be able to compete with websites that are of authority like that?

J 43:03 - I don't know. I don't have any magic bullet where you can just say like be on national tv or be listed in wikipedia or something like that. It's really hard to say.

M: Can I get an 'it depends'?

J: It depends, sure. Like even if I knew a specific situation, it wouldn't be something where I'd be able to say oh you just need to tweak this one factor here and buy some gold plated network cables and then you're all set.

M 43:43 - Understandable and that was a bit of an unfair question. I think I ask it because people do that all the time, you know people come to us and say hey I want to dominate this and I've got investors. I think in the past if you had enough money you could buy links that would trick Google so we're trying to essentially tell people like you can't be the biggest authority unless you are the biggest authority and that's a struggle that SEO can't always generally fix.

M 44:14 - We're going to rap it up soon. This was an interesting one. We have a client whose site is used in the quality raters guidelines as an example of a low quality site and it's a screenshot from many years ago. And they've changed, the page is way better now. They wanted me to ask you is there anything they can do to appeal to Google to be taken out because it's not good for their brand. Any thoughts on that?

J 44:43 - I'm happy to pass something on if you have some examples of things like that but in general, the quality rater guidelines are not meant to be absolute in a sense that this particular URL should be rating like this but rather, this kind of problem should be rated like this when it comes to the general quality raters set up where were trying to figure out what are the best algorithms to use with regards to search ranking. So it's not something where I generally say like just because we have that particular site there doesn't mean that people should be watching out for that particular site and then be taking this action but rather.. this is a really obvious example of this one particular case and this is the kind of situation you need to watch out and not this is the exact URL you need to watch out for. I think the alternatives that we could use in a case like that… I mean I'm happy to pass that on..

M 45:48 - In all honesty I mean I hesitated to ask you that question because I don't Google to take away those examples. There is a lot to be learned to what you point out as high quality and potentially low quality so.. But I can see as well, I'd be quite upset if people were using my site as like 'oh Google says your site is low quality', nevermind that was something 10 years ago or whatever but fair enough.

M 46:15 - So John I hear you have your own podcast coming out soon? Tell us about that.

J 46:20 - We're working on it. We started looking into that I think at the beginning of the year. At some point we got all the equipment set up in the office and like ready to go and we recorded the trailer and all that went really well and then the office closed and everything went downhill so that kind of threw a wrench in the gears there. So we've started to pick that up again and I hope we can get the first episode or two out fairly soon. I don't know what the timing is there. But it is something where we thought we'd do something a little bit less formal and provide some human look behind the scenes of what's going on with regards to Google.

M 47:16 - Will it be something where we can ask questions like this sort of thing or is it more of a kind of fun, light..

J 47:23 - I don't know. We'll see how it evolves.

M: And we'll see how challenging it is as we pummel you with questions. I'm looking forward to it, I think it'll be good.

J: It's not meant to be a replacement for the office hangouts so it's not something where it's question, answer, question, answer type of thing but more where we realize people would kind of like to know what actually happens behind the scenes at Google when they make these kind of decisions and that's kind of what we'd like to bring in.

M 47:56 - There was a video that came out years ago of, I think it was Matt Cutts in a search meeting where the whole team was discussing 'well we could do this and it would take longer to load.' That was fascinating. I would love to see more stuff like that, what goes on behind the scenes. Just a thought. Is it going to be video? Or I guess you don't know right now right? Or is it a podcast.

J 48:22 - It's just a podcast.

M 48:24 - Alright was there anything else that you wanted to share with us at this point?

J 48:29 - Nope, it went pretty good.

M 48:31 - John, thank you so much for doing this. I can't tell you how much I appreciate it and thank you for being on twitter and putting up with all of our questions and humour too. Do you know how many times we throw into our slack channel 'oh John' because you're just such a great guy and very helpful. Anyways, I'll stop. I'm going to make you blush so thanks again John and I hope that everything's going okay for you in staying at home and all that. Hope to one day see you. We were supposed to meet again in Munich for SMX and that got cancelled like a week before we were going to be there so one day I'll see you again sometime.

J: It'll happen, don't worry.

M: Take care!

J: Thanks a lot bye.