Orario d'ufficio SEO – 17 settembre 2021

Pubblicato: 2021-09-21

Questo è un riepilogo delle domande e delle risposte più interessanti del Google SEO Office Hours con John Mueller del 17 settembre 2021.

I contenuti si nascondono
1 limite di parole
2 Nessuna modifica alle metriche di Copertura dell'indice
3 Aggiornamenti del rapporto sulla copertura dell'indice
4 Comprendere la qualità del sito web
5 Passaggio di equità di collegamento
6 Migrazione del sito del dominio
7 Aggiunta di più tipi di schema
8 404 vs. scansione e indicizzabilità
9 Blocco del traffico da altri paesi
10 Raggruppamento delle pagine
11 L'algoritmo MUM
12 Migrazione del sito
13 Rimozione di vecchi contenuti da un sito di notizie

Limiti di parole

09:05 "Qual è il limite per le parole che dobbiamo usare nelle pagine di [categoria]?"

John ha affermato che non ci sono tali limiti e ha aggiunto che “[…] specialmente con le pagine delle categorie, è necessario avere alcune informazioni sulla pagina in modo da capire qual è l'argomento. Ma in genere si tratta di pochissime informazioni. E in molti casi, capiamo che dai prodotti che hai elencato comunque se i nomi dei prodotti ci sono abbastanza chiari da capire. […] Ma a volte i nomi dei prodotti sono un po ' difficili da capire, e quindi potrebbe avere senso aggiungere un po' di contesto. Ma di solito è un contesto aggiuntivo delle dimensioni di una o due o tre frasi".

Nessuna modifica alle metriche di Copertura dell'indice

10:57 “Sto lavorando su un grande sito web con un paio di milioni di pagine. Abbiamo eseguito un reindirizzamento tra due lingue. […] Quindi la migrazione sta andando bene, il traffico si sta spostando dal secondo percorso. Giusto per chiarire, è una proiezione tra due sottocartelle o tutto all'interno dello stesso dominio. La cosa che voglio sollevare qui è che non stiamo vedendo alcun cambiamento nelle metriche di copertura dopo quasi tre settimane di reindirizzamento. […] Nessun calo delle pagine valide, non un aumento delle pagine escluse a causa di reindirizzamenti o cose del genere. Dovremmo preoccuparci di questo?"

“Non credo che ci sia una linea temporale fissa per questo tipo di cose per essere visibili. […] Eseguiamo la scansione delle pagine a una velocità diversa su un sito Web. E alcune pagine verranno ripetute ogni giorno e altre pagine che verranno ripetute forse una volta al mese o ogni pochi mesi. Quindi, se il contenuto di queste cartelle che stai unendo è contenuto che viene sottoposto a scansione molto raramente, ci vorrà molto tempo prima che si rifletta. Considerando che se si tratta di contenuti che vengono sottoposti a scansione molto attiva, dovresti vedere i cambiamenti lì dentro, di solito, non so, una settimana o giù di lì. "

Aggiornamenti del rapporto sulla copertura dell'indice

13:25 Quando si uniscono due sottocartelle, “[…] il traffico passa da una parte all'altra del sito. Tutto sta andando bene e lo vediamo anche nei file di registro. […] Ma non lo vediamo nelle metriche di Copertura. Siamo preoccupati che potrebbe essere un bug di segnalazione o che dovremmo aspettare tutto il giorno?"

John ha risposto dicendo: “[…] Il rapporto sulla copertura dell'indice viene aggiornato forse due volte a settimana. […] Molti dei rapporti in Search Console vengono pubblicati una o due volte alla settimana, quindi potrebbe trattarsi solo di un ritardo. Ma se vedi il traffico che va alle pagine giuste, se stai guardando il rapporto sul rendimento e vedi quel tipo di cambiamento, allora penso che vada benissimo. Non credo che tu debba fare attenzione al rapporto sulla copertura dell'indice per qualcosa del genere. Perché ciò che di solito accade quando si uniscono pagine in questo modo è che i nostri sistemi devono prima capire che dobbiamo trovare un nuovo canonico per queste pagine. Quindi prendi due pagine, le pieghi in una. Quindi vediamo che questo è un insieme di pagine, dobbiamo scegliere un canonico e quel processo richiede un po' di tempo. E poi ci vuole un po' di tempo perché ciò si rifletta nella segnalazione. Considerando che se fai qualcosa come un trasferimento pulito del sito, allora possiamo semplicemente trasferire tutto. Non abbiamo questo processo di canonizzazione che dobbiamo capire. Quindi potrei immaginare che ci voglia solo più tempo per essere visibile lì".

Comprendere la qualità del sito web

15:22 “La mia domanda riguarda […] in particolare gli algoritmi con nuove pagine […] quando arriva Google e lo chiama e cerca di capirlo. Quindi confronta quelle pagine con le vecchie pagine legacy del sito e dice, ok, beh, queste pagine sono fantastiche, ma queste pagine molto più vecchie sono in realtà spazzatura. In modo che influisca sulla qualità delle pagine più recenti e delle pagine delle categorie. È qualcosa che fanno gli algoritmi […] per capire davvero la qualità del sito web?”

John ha affermato che “[…] Quando cerchiamo di comprendere la qualità di un sito Web in generale, è solo un processo che richiede molto tempo. E ha non lo so un tempo di consegna abbastanza lungo lì. Quindi, se aggiungi cinque pagine a un sito Web che ha già 10.000 pagine, probabilmente ci concentreremo prima sulla maggior parte del sito e poi, nel tempo, vedremo come si risolverà con il nuovo contenuto; anche lì”.

Passaggio di equità di collegamento

17:06 “Se ottieni un backlink, [Google] non presumerà solo che sia un backlink di buona qualità e quindi passerà semplicemente l'equità del link al sito alla cieca. Quindi Google, quando esegue la scansione di questi backlink, guarda il traffico dei referral e lo riproduce nell'algoritmo? O se non vede queste informazioni, prova, immagino, a valutare se c'è un'elevata propensione a fare clic su quel collegamento? E, quindi, se c'è un'alta propensione a fare clic su quel collegamento, passeranno l'equità del collegamento? Se non c'è, allora dì che lo sai, […] potresti letteralmente creare un blog e collegarti ora. In tal caso, Google dice, beh, in realtà non c'è traffico; non c'è davvero molto da fare qui, quindi perché dovremmo passare qualsiasi forma di equità di collegamento? […] Questo tipo di feed sul fatto che l'equità dei link venga trasmessa o meno a un sito?"

“Non credo. Non usiamo cose come il traffico attraverso un collegamento quando proviamo a valutare come dovrebbe essere valutato un collegamento. Per quanto ne so, non esaminiamo anche cose come la probabilità che qualcuno clicchi su un collegamento per quanto riguarda il modo in cui dovremmo valutarlo. Perché a volte i collegamenti sono essenzialmente solo riferimenti e non è tanto che ci aspettiamo che le persone facciano clic su ogni collegamento in una pagina . Ma se qualcuno si riferisce al tuo sito e dice, lo sto facendo perché questo esperto qui ha detto di farlo. Quindi le persone non faranno clic su quel collegamento e […] guarderanno sempre il tuo sito e confermeranno tutto ciò che è scritto lì. Ma lo vedranno quasi come un riferimento. […] Se avessero bisogno di saperne di più, potrebbero andarci. Ma non ne hanno bisogno. E da quel punto di vista, non credo che ne terremo conto quando si tratta di valutare il valore del collegamento".

Migrazione del sito del dominio

20:53 " Abbiamo eseguito una migrazione del dominio del sito da un dominio a uno nuovo e abbiamo seguito tutti i requisiti e i consigli di migrazione. Abbiamo aggiornato i reindirizzamenti, i tag canonici e abbiamo testato in anticipo un ambiente di sviluppo. Abbiamo aggiunto la nuova proprietà e verificato il nuovo dominio in Google Search Console. Quando eseguiamo la modifica dell'indirizzo, riceviamo un errore di convalida non riuscita che dice che c'è un reindirizzamento 301 dalla home page e che non è stato possibile recuperare il vecchio dominio. Come si supera la convalida per lo strumento Cambio indirizzo?"

“Prima di tutto, la cosa più importante da tenere a mente è che lo strumento Cambio indirizzo è solo un segnale in più che utilizziamo per quanto riguarda le migrazioni. Non è un requisito. Quindi, se, per qualsiasi motivo, non riesci a far funzionare lo strumento Cambio di indirizzo per il tuo sito Web, se il reindirizzamento è impostato correttamente, tutte queste cose, dovresti essere impostato. Non è qualcosa che devi assolutamente fare. Immagino che la maggior parte dei siti […] non utilizzi effettivamente questo strumento. È qualcosa di più simile a quelli che conoscono Search Console e quelli che conoscono tutti questi tipi di cose fantasiose, potrebbero usarlo. Per quanto riguarda il motivo per cui potrebbe non riuscire, è davvero difficile dirlo senza conoscere il nome del tuo sito o gli URL che stai testando lì.

Una cosa che ho visto è se hai una versione www e una versione non www del tuo sito Web e reindirizza passo dopo passo attraverso quella. Quindi, ad esempio, reindirizzi alla versione non www, quindi reindirizzi al nuovo dominio. Quindi può succedere che ci butti fuori se invii il cambio di indirizzo nella versione del sito che non è la versione principale. Quindi potrebbe essere una cosa, per ricontrollare per quanto riguarda lo strumento Cambio di indirizzo, stai inviando la versione che è o che è stata attualmente indicizzata, o stai inviando forse la versione alternativa in Search Console. "

Aggiunta di più tipi di schema

23:36 "Posso aggiungere più tipi di schema a una pagina? Se sì, quale sarebbe il modo migliore per combinare lo schema delle FAQ e lo schema delle ricette in un'unica pagina?"

" Puoi inserire tutti i dati strutturati sulla tua pagina come desideri. Ma nella maggior parte dei casi, quando si tratta dei risultati multimediali che mostriamo nei risultati di ricerca, tendiamo a scegliere solo un tipo di dati strutturati o un tipo di risultato multimediale e ci concentriamo solo su quello. Quindi , se nella tua pagina sono presenti più tipi di dati strutturati, è molto probabile che scegliamo uno di questi tipi e lo mostriamo. Quindi, se vuoi che un tipo particolare venga mostrato nei risultati della ricerca e vedi che non ci sono usi combinati quando guardi i risultati della ricerca, altrimenti proverei a concentrarmi sul tipo che desideri e non solo a combinarlo con altre cose. Quindi, idealmente, scegli quello che desideri davvero e concentrati su quello.

404s vs. scansione e indicizzabilità

24:39 Il nostro rapporto GSC Crawl Stats mostra un costante aumento di 404 pagine che NON fanno parte del nostro sito (non esistono nella nostra mappa del sito, né sono generate da ricerche interne). Sembrano essere ricerche di Google che vengono aggiunte ai nostri URL e Google sta cercando di scansionarle. Sotto la ripartizione della risposta di scansione, questi 404 costituiscono oltre il 40% della risposta di scansione. Come possiamo assicurarci che ciò non influisca negativamente sulla nostra scansione e indicizzabilità?"

“Prima di tutto, non creiamo URL, quindi non è che prendiamo ricerche su Google e poi creiamo URL sul tuo sito web. Immagino che questi siano solo collegamenti casuali che abbiamo trovato sul web. […] Quindi è qualcosa che accade sempre. E troviamo questi collegamenti e poi li scansioniamo. Vediamo che restituiscono 404 e quindi iniziamo a ignorarli. Quindi, in pratica, questo non è qualcosa di cui devi occuparti. […] Di solito, quello che succede con questo tipo di link è che cerchiamo di capire in generale per il tuo sito web quali URL dobbiamo scansionare e quali URL dobbiamo scansionare con quale frequenza. E poi prendiamo in considerazione dopo aver elaborato cosa dobbiamo assolutamente fare, cosa possiamo fare in aggiunta. E in quel secchio aggiuntivo, che è anche come un insieme di URL molto, credo, classificato, essenzialmente includerebbe anche […] link casuali da siti di scraper, per esempio. Quindi, se vedi che stiamo eseguendo la scansione di molti URL sul tuo sito che provengono da questi collegamenti casuali, in sostanza, puoi presumere che abbiamo già finito con la scansione delle cose a cui teniamo che pensiamo che il tuo il sito è importante per. Abbiamo solo tempo e capacità sul tuo server e proveremo anche altre cose. Quindi, da quel punto di vista, non è che questi 404 possano causare problemi con la scansione del tuo sito web. È quasi più un segno che, beh, abbiamo abbastanza capacità per il tuo sito web. E se ti capita di avere più contenuti di quelli effettivamente collegati all'interno del tuo sito Web, probabilmente eseguiremo la scansione e l'indicizzazione anche di quello. Quindi, in sostanza, è quasi come un buon segno, e sicuramente non è necessario bloccarli da robots.txt, non è qualcosa che devi sopprimere […]”

Blocco del traffico da altri paesi

27:34 Abbiamo un sito web di servizi che opera solo in Francia. E stiamo ricevendo molto traffico proveniente da altri paesi che hanno una larghezza di banda davvero scarsa, il che fa scendere i nostri punteggi CWV. […] Dal momento che non operiamo al di fuori della Francia, non abbiamo alcuna utilità per il traffico al di fuori di essa. È consigliabile bloccare il traffico da altri paesi?"

Ecco cosa ha detto John: “Cercherei di evitare di bloccare il traffico da altri paesi. Penso che sia qualcosa in cui alla fine dipende da te. È il tuo sito web; puoi scegliere cosa vuoi fare. […] In questo caso, una delle cose da tenere a mente è che eseguiamo la scansione di quasi tutti i siti Web dagli Stati Uniti. Quindi, se ti trovi in ​​Francia e blocchi tutti gli altri paesi, bloccherai anche la scansione di Googlebot . E quindi, in sostanza, non saremmo in grado di indicizzare nessuno dei tuoi contenuti. Da questo punto di vista, se desideri bloccare altri Paesi, assicurati di non bloccare almeno il Paese da cui Googlebot sta eseguendo la scansione. Almeno, se ti interessa la ricerca.

Raggruppamento di pagine

35:38 Google ha recentemente raggruppato insieme > 30.000 pagine sul nostro sito che sono pagine notevolmente diverse per i punteggi CWV. […] Ciò ha portato l'LCP medio per queste pagine fino a 3,4 secondi, nonostante il fatto che le pagine dei nostri prodotti fossero in media di 2,5 secondi prima del raggruppamento. Stavamo lavorando per portare le pagine a 2,5 secondi sotto la soglia, ma le nostre tattiche ora sembrano troppo insignificanti per portarci al punteggio che dobbiamo raggiungere. Viene preso il set di raggruppamento e quindi viene presa una media del punteggio o viene preso il punteggio e quindi il set di raggruppamento? – (questo ci aiuterà a stabilire se ottenere quelle pagine di prodotto sotto i 2.5 aiuterà a risolvere il problema o meno).”

“[…] Non abbiamo una definizione chiara o precisa di come facciamo il raggruppamento perché è qualcosa che deve evolversi un po' nel tempo a seconda della quantità di dati che abbiamo per un sito web. Quindi, se disponiamo di molti dati per molti tipi diversi di pagine su un sito Web, è molto più facile per i nostri sistemi dire che faremo un raggruppamento leggermente più fine rispetto a approssimativo come prima. Considerando che se non abbiamo molti dati, forse finiamo anche per andare in una situazione in cui prendiamo l'intero sito Web come un gruppo. Quindi questa è l'unica cosa. L'altra cosa è che i dati che raccogliamo si basano sui dati sul campo. Lo vedi anche in Search Console, il che significa che non prendiamo la media delle singole pagine e ne facciamo la media in base al numero di pagine. Ma piuttosto, ciò che accadrebbe in pratica è che è più una media ponderata del traffico, nel senso che alcune pagine avranno molto più traffico e lì avremo più dati. E altre pagine avranno meno traffico e non avremo tanti dati lì. Quindi potrebbe essere qualcosa in cui stai vedendo questo tipo di differenze. Se molte persone accedono alla tua home page e non così tante ai singoli prodotti, è possibile che la home page sia un po' più alta solo perché abbiamo più dati lì. Quindi questa è la direzione in cui andrei lì e, in pratica, ciò significa che invece di concentrarmi così tanto sulle singole pagine, tenderei a guardare cose come Google Analytics o altre analisi che devi capire quali pagine o quali tipi di pagina stanno ricevendo molto traffico. E poi, ottimizzando quelle pagine, stai essenzialmente cercando di migliorare l'esperienza utente […], e questo è qualcosa che cercheremmo di raccogliere per il punteggio Core Web Vital lì. Quindi, in sostanza, meno media sul numero di pagine e più media sul traffico di ciò che le persone vedono effettivamente quando visitano il tuo sito web".

L'algoritmo MUM

42:44 Con l'avvento dell'algoritmo MUM , i risultati della ricerca saranno una risposta a più fonti? Voglio dire, cioè quando l'utente cerca un argomento, le risposte vengono selezionate da più fonti e gli vengono fornite come pacchetto? Pensiamo che la concorrenza in futuro diventerà una sorta di interazione tra concorrenti. Insieme possono soddisfare le esigenze di un ricercatore. I siti si concentrano sui servizi che possono fornire meglio. Diversi concorrenti possono soddisfare le esigenze dei ricercatori. Il portafoglio delle esigenze degli utenti è completato da diversi siti che competono per il miglior servizio, dove sono più conosciuti".

Giovanni rispose: “Non lo so; forse succederà a un certo punto. Abbiamo l'idea di cercare di fornire un insieme diversificato di opzioni nei risultati di ricerca in cui se possiamo dire che forse ci sono cose come opinioni molto forti o diverse su un argomento specifico . Ed è una questione di quali opinioni ci sono là fuori. Quindi può avere senso fornire qualcosa come un insieme diversificato di risultati che coprano diverse angolazioni per quell'argomento. Non credo che si applichi alla maggior parte delle domande, ma a volte è qualcosa che cerchiamo di prendere in considerazione".

Migrazione del sito

47:11 " E se durante la migrazione di un sito e il giorno in cui premiamo il grilletto, noi: robots.txt blocchiamo entrambi i domini […], eseguiamo 302 reindirizzamenti temporanei (in pochi giorni o settimane passiamo a 301 dopo che gli sviluppatori non sono sicuri di nulla rotto) e servire lo stato HTTP 503 in tutto il sito per un giorno o alcune ore mentre gli sviluppatori controllano se c'è qualcosa di rotto?"

Secondo John, “[…] Queste sono tutte situazioni separate. E non è il caso di dire, beh, questa è una mossa del sito con questa variazione. Ma piuttosto se stai bloccando le cose, se le cose sono rotte, allora, prima di tutto, lo vedremmo come qualcosa che è rotto. E se in una fase successiva vediamo che sono effettivamente reindirizzamenti, allora diremmo, beh, ora il sito sta reindirizzando. E li tratteremmo come stati separati. Quindi, se il giorno in cui vuoi spostare il sito, qualcosa si rompe e tutto è rotto sul tuo server, allora vedremo bene, tutto è rotto sul server. Non sapremmo che il tuo intento era quello di fare un trasloco del sito perché vedremo solo che tutto è rotto. Quindi, da quel punto di vista, li tratterei come stati separati. E, naturalmente, cerca di riparare qualsiasi stato di guasto il più rapidamente possibile e, in sostanza, passa alla migrazione il più rapidamente possibile.

Rimozione di vecchi contenuti da un sito di notizie

49:42 “Vale la pena guardare la rimozione/nessuna indicizzazione/non consentire le vecchie notizie su un sito web di notizie? Notizie come 10+ anni? Influisce sulla qualità del sito Web in generale e ottimizza il crawl budget? È un sito con oltre 3 milioni di pagine. C'entra qualcosa?"

“Non credo che otterresti molto valore rimuovendo solo le vecchie notizie. Inoltre, non è qualcosa che consiglierei ai siti di notizie perché a volte tutte le informazioni sono comunque utili. Da quel punto di vista, non lo farei per motivi SEO. Se i motivi per cui desideri rimuovere il contenuto o inserirlo in una sezione di archivio del tuo sito Web per motivi di usabilità o manutenzione […], è qualcosa che puoi sicuramente fare. Ma non rimuoverei alla cieca i vecchi contenuti perché sono vecchi".