19 febbraio 2019 – Note dell'Hangout di assistenza di Google

Pubblicato: 2019-02-26

È un altro Hangout di assistenza per i webmaster, con il nostro uomo principale, John Mueller. Questa settimana ha avuto ottime informazioni su link, velocità della pagina, UTM e link di affiliazione. Come sempre il video completo e la trascrizione possono essere trovati di seguito. Inoltre, se trovi utili questi riepiloghi, dovresti dare un'occhiata alla nostra newsletter! Raccogliamo e curiamo tutti i migliori articoli SEO della settimana e li riassumiamo per te in riepiloghi veloci e digeribili.

Se in precedenza avevi un'azione manuale per i collegamenti innaturali, questo stigmatizzerà il sito per sempre?

5:20

John Mueller Help Hangout 19 febbraio 2019

A volte è difficile parlare, ma in generale se un'azione manuale viene risolta, l'azione manuale non influisce più sul sito. Quindi non c'è alcun tipo di effetto hold back che possa trattenere un sito Web e come dire, beh, hanno fatto le stesse cose sbagliate e una volta quindi impediremo loro di apparire in alto nelle ricerche, non c'è niente del genere. Ma in particolare quando si tratta di link se avevi molti link innaturali e forse il tuo sito era classificato a causa di quei link innaturali piuttosto che eliminando quei link innaturali, ovviamente c'è una nuova situazione a cui i nostri algoritmi devono adattarsi primo. Quindi è qualcosa che potrebbe in una certa misura avere un effetto lì. E il modo in cui mi avvicinerei a questo è solo quello di continuare a lavorare sul sito Web come faresti normalmente e assicurarmi di non incappare di nuovo in quella situazione in cui il team di spam Web incontra problemi per quanto riguarda i tuoi collegamenti. Quindi non mi piace dire tipo, oh, ho rimosso quei collegamenti, quindi andrò a comprare alcuni collegamenti da un altro sito, e mi assicurerò che quello che stai facendo sia davvero per l'uso a lungo termine del tuo sito web .


Riepilogo: una volta rimossa, un'azione manuale viene completamente rimossa. Tuttavia, i collegamenti innaturali hanno ancora la capacità di danneggiare un sito in modo algoritmico. Questo può richiedere molto tempo per chiarire.


Se il tuo sito si carica rapidamente per gli utenti, ma lo strumento PageSpeed ​​Insights di Google lo definisce lento, è necessario agire?

11:29

John Mueller Help Hangout 19 febbraio 2019

Quindi molte di queste metriche che stai guardando dal faro ti vengono presentate principalmente per quanto riguarda il tipo di utente che affronta il lato delle cose. Quindi dal nostro punto di vista da un punto di vista di ricerca prendiamo insieme una varietà di queste metriche per capire come dovremmo vedere il sito per quanto riguarda la velocità ma il tipo di misurazioni assolute che vedi lì nel faro sono cose che molto probabilmente hanno un effetto più forte sul modo in cui gli utenti vedono il tuo sito. Quindi, invece di chiedere a Google in merito alla SEO come se questo sito fosse troppo lento, lo guarderei con gli utenti e otterrei invece il loro feedback e se stai dicendo che un tuo sito è in realtà piuttosto veloce per gli utenti, fornisce il contenuto abbastanza rapidamente allora probabilmente sei in un buono stato lì.


Riepilogo: la cosa più importante è se le tue pagine vengono caricate rapidamente per gli utenti effettivi.

La Il nostro pensiero attuale è che vorremmo vedere miglioramenti della velocità della pagina per i siti che hanno punteggi bassi di "prima pittura di contenuto" su Lighthouse poiché questo numero è un'approssimazione del tempo impiegato per visualizzare i contenuti che possono essere letti.


Se una pagina è stata classificata per determinate parole chiave e la reindirizzi a una nuova pagina, quella pagina sarà in grado di classificarsi per quelle parole chiave?

16:25

John Mueller Help Hangout 19 febbraio 2019

Quindi è essenzialmente che stiamo cercando di trasferire tutto ciò che uno a uno nel nuovo dominio, quindi quel nuovo dominio sarà al posto del vecchio dominio. E può classificare per le vecchie parole chiave e può classificare per le nuove parole chiave e di nuovo se apporti modifiche significative durante quella mossa, ovviamente quel nuovo stato deve essere preso in considerazione e non è solo che possiamo inoltrare tutto al nuovo uno perché uno nuovo non è solo una versione spostata di quello vecchio.


Riepilogo: quando Google vede i collegamenti passare attraverso un reindirizzamento, prova a determinare se trasmettere segnali di collegamento. Se la nuova pagina è simile, allora ci sono buone probabilità che anche i segnali di collegamento che puntano alla pagina precedente passino.


È consentito utilizzare i parametri UTM sui collegamenti interni?

17:33

John Mueller Help Hangout 19 febbraio 2019

Immagino che sia sempre una situazione un po' complicata perché essenzialmente ci stai dando segnali contrastanti. Da un lato stai dicendo che questi sono i link che voglio indicizzare perché è così che ti colleghi internamente al tuo sito web. D'altra parte quelle pagine quando le apriamo hanno un rel canonical che punta a un URL diverso. Quindi stai dicendo indicizza questo e da quello stai dicendo bene in realtà indicizza un altro. Quindi ciò che i nostri sistemi finiscono per fare lì è cercare di valutare i diversi tipi di URL che troviamo per questo contenuto. Possiamo probabilmente riconoscere che questo contenuto questi URL portano allo stesso contenuto. Quindi possiamo metterli nello stesso gruppo e quindi si tratta di scegliere quale utilizzare effettivamente per l'indicizzazione e da un lato abbiamo i collegamenti interni che puntano alle versioni UTM, dall'altro abbiamo il rel canonical indicando una specie di versione più pulita. La versione più pulita è probabilmente anche un URL più breve e un URL più bello che funziona anche in linea con noi, ma dal nostro punto di vista non è ancora garantito che useremmo sempre il più breve.

Quindi rel canonical è ovviamente un segno forte che il collegamento interno è anche una specie di segnale più forte, in quanto è qualcosa che è sotto il tuo controllo. Quindi, se ti sei collegato esplicitamente a quegli URL e pensiamo che forse li vuoi indicizzati in quel modo. Quindi, in pratica, ciò che probabilmente accadrebbe qui è che indicizzeremmo un mix di URL, alcuni dei quali indicizzeremmo la versione più breve perché forse troviamo altri segnali che puntano anche alla versione più breve. Alcuni di loro probabilmente li indiciamo con la versione UTM e cercheremmo di classificarli normalmente come versione UTM.

In pratica nella ricerca non vedresti alcuna differenza nel ranking, vedresti solo che questi URL potrebbero essere mostrati nei risultati della ricerca. Quindi si classificherebbero esattamente allo stesso modo con UTM o senza UTM e verrebbero semplicemente elencati individualmente nei risultati della ricerca. E da un punto di vista pratico ciò significa semplicemente che nella console di ricerca potresti vedere un mix di questi URL. Nel rapporto sulle prestazioni potresti vedere una specie di questo mix. Nel rapporto di indicizzazione potresti vedere un mix in alcuni degli altri rapporti. Forse intorno all'AMP o ai dati strutturati se usi qualcosa del genere potresti anche vedere questo mix. In alcuni casi potresti anche vedere una situazione in cui si scambia tra gli URL, quindi potrebbe essere che lo indicizziamo con i parametri UTM a un certo punto e poi un paio di settimane dopo se passiamo alla versione più pulita e diciamo, beh, probabilmente questa versione più pulita è meglio, e poi a un certo punto in seguito o l'algoritmo per guardarlo di nuovo e dire che in realtà più segnali indicano la versione UTM che torneremo indietro, anche questo potrebbe teoricamente accadere.

Quindi, quello che consiglierei di fare lì è se hai una preferenza per quanto riguarda i tuoi URL, assicurati di essere il più chiaro possibile all'interno del tuo sito Web su quale versione desideri indicizzare. Con i parametri UTM stai anche creando la situazione in cui dovremmo eseguire la scansione di entrambe le versioni, quindi è un po' più sovraccarico se si tratta solo di una versione extra che probabilmente non è un grosso problema. Se disponi di più parametri UTM che stai utilizzando nel sito Web, proveremmo a eseguire la scansione di tutte le diverse varianti, il che a sua volta significherebbe che forse eseguiamo la scansione, non so, un paio di volte più URL del tuo sito Web in realtà deve essere in grado di tenere il passo con l'indicizzazione. Quindi è probabilmente qualcosa che vorresti evitare. Quindi la mia raccomandazione sarebbe davvero quella di provare a ripulirlo il più possibile, in modo da poter attenerci agli URL puliti. Agli URL che vorresti avere indicizzato invece di finire in questo stato dove forse li raccoglieremo in questo modo, forse li raccoglieremo in questo modo, e nella tua segnalazione potrebbe essere così, potrebbe essere come questo. Devi stare attento a questo tutto il tempo. Quindi mantienilo il più semplice possibile.


Riassunto: stai attento. I link interni mostrano a Google quali pagine sono importanti sul tuo sito. Se ti colleghi a pagine con parametri utm, potresti finire per fare in modo che Google esegua la scansione di più URL con lo stesso contenuto. Questo non è un problema per un paio di pagine, ma può potenzialmente influire sulla capacità di Google di eseguire la scansione del sito se eseguita su larga scala.

Metti in chiaro qual è la versione canonica in modo che tutti i segnali passino a quella pagina. Quanto segue aiuterà:

  • Utilizza un tag canonico su tutte le versioni della pagina che punta all'URL non utm
  • Assicurati che il contenuto di ciascuna versione della pagina sia lo stesso


Va bene mostrare a Googlebot un testo di ancoraggio diverso sui link rispetto a quello che vedono gli utenti effettivi?

23:08

John Mueller Help Hangout 19 febbraio 2019

Quindi Googlebot dovrebbe vedere la versione equivalente della pagina come vedrebbero gli utenti. Quindi, se questo è qualcosa che è utile per gli utenti, ti consiglio di mostrarlo anche a Googlebot. È qualcosa per cui se parli della velocità necessaria per il rendering di queste pagine vale la pena tenere presente che guardiamo alla velocità in un modo olistico, non guardiamo solo alla velocità di una pagina come è Googlebot recuperare quella pagina quando si tratta di velocità per quanto riguarda l'utilizzo della velocità come fattore di ranking. Per eseguire la scansione, ovviamente, avere le pagine disponibili molto rapidamente ci aiuta un po', quindi ha senso rendere le cose veloci per Google almeno per la scansione. Una cosa che consiglierei qui però è cercare di evitare l'involucro speciale di Googlebot, se possibile, perché significa che la manutenzione è molto più difficile. Se stai facendo uno speciale per Googlebot, è molto più difficile dire se Googlebot sta vedendo errori sulla pagina e gli utenti vedono contenuti normali e Googlebot inizia a eliminare quelle pagine dalla ricerca a causa di quegli errori. Quindi idealmente trattali molto come gli utenti. Un modo per farlo qui è usare una sorta di JavaScript per caricare in modo asincrono quelle informazioni extra. Quindi di solito è abbastanza facilmente realizzabile, probabilmente con meno sforzo del cloaking su Googlebot in un caso come questo.


Riepilogo: No. Non si desidera creare casi speciali in cui Googlebot vede contenuti diversi rispetto a un utente normale.

La nostra nota: questo potrebbe essere considerato cloaking e potrebbe causare la caduta delle pagine dall'indice.


Se ci sono collegamenti che puntano alla Pagina A e la Pagina A è canonizzata alla Pagina B, Google vede quei collegamenti come indirizzati alla Pagina B?

26:18

John Mueller Help Hangout 19 febbraio 2019

Quindi dal nostro punto di vista ci sono molte cose in cui sono entrato in gioco qui. Penso che prima di tutto quelle pagine dovrebbero essere equivalenti se stai dicendo che c'è un canonico per quella pagina dovrebbe essere equivalente anche alla pagina finale. Quindi non dovrebbe importare quale di queste pagine viene utilizzata per l'inoltro dei collegamenti perché essenzialmente ci stai dicendo che queste pagine sono le stesse che possiamo trattarle allo stesso modo. Quindi non dovrebbe importare per i nostri algoritmi come se raccogliamo quei collegamenti su quella pagina o raccogliamo i collegamenti sull'altra pagina. Quindi II presupporrei anche che non sempre, come nell'altra domanda con i parametri UTM, sceglieremmo l'URL specificato come canonico come quello che indiciamo effettivamente. Quindi, se quei collegamenti sono diversi tra le versioni delle pagine, è qualcosa per cui potremmo non superare il PageRank nel modo in cui ti aspetti. Quindi tutto questo si unisce e dal mio punto di vista ciò che consiglierei è semplicemente assicurarsi che quelle pagine siano equivalenti. In modo che tu non debba preoccuparti di dove, quali link stanno passando il PageRank. Ma supponiamo piuttosto che potrebbe essere questa pagina, potrebbe essere l'altra pagina, il rel canonical è un segnale forte per noi ma non è una direttiva che ci impedisce di utilizzare completamente quella pagina.


Riepilogo: se le pagine sono veramente equivalenti, allora sì, i collegamenti che puntano alla Pagina A aiuterebbero a supportare la Pagina B.


Dovresti creare un sito web separato per ogni paese in cui vuoi essere visto?

26:58

John Mueller Help Hangout 19 febbraio 2019

Quindi la risposta breve non c'è, è un'idea terribile. Soprattutto se non hai davvero contenuti unici per ogni paese del mondo. In particolare se stai utilizzando hreflang tra le diverse versioni nazionali e linguistiche. Devi tenere a mente che hreflang non fa sì che quelle pagine si classifichino più in alto in quei paesi, ma semplicemente scambia quegli URL. Quindi devi ancora essere in grado di classificarti in quelle singole posizioni. Ciò significa che se hai un contenuto e lo dividi in tutti i paesi del mondo e lo moltiplichi per ogni lingua, avrai diluito in modo significativo i tuoi contenuti su un gran numero di URL. Ciò significa che qualsiasi contenuto presente avrà molti più problemi a essere mostrato nei risultati di ricerca. Perché invece di una pagina forte che potremmo mostrare potenzialmente in tutto il mondo, abbiamo un sacco di pagine diverse che mostrano tutte più o meno lo stesso contenuto e nessuna di esse è particolarmente forte. Quindi è qualcosa in cui, quando si tratta di una strategia di internazionalizzazione, consiglio vivamente di chiedere aiuto a persone che l'hanno fatto con successo per altri siti web. In modo che tu possa davvero valutare i pro e i contro lì. Da un lato hai il vantaggio di poter scegliere come target singoli paesi e lingue con contenuti che sono davvero unicamente specifici per loro e dall'altro devi soppesare che se stai diluendo troppo il contenuto, allora tutti quelli le versioni avranno molto più tempo per essere visibili nella ricerca. Quindi, da un lato mirare bene, dall'altro assicurarmi che le versioni che hai a disposizione siano abbastanza forti da essere effettivamente visibili nella ricerca e il mio pensiero generale è quello di sbagliare usando meno versioni piuttosto che utilizzando più versioni. Quindi, a meno che tu non abbia un caso d'uso davvero forte per avere contenuti specificamente mirati per i singoli paesi e sbaglio dalla parte del beh, forse un sito Web globale è meglio piuttosto che dividere le cose.


Riepilogo: nella maggior parte dei casi, ha senso avere un solo sito Web e fare un uso corretto di hreflang per aiutare Google a far emergere la versione corretta. Potrebbero esserci alcuni casi in cui avrebbe senso avere siti Web con TLD a livello di paese separati. Questa è spesso una decisione difficile. John consiglia di consultare un SEO che ha esperienza nell'internazionalizzazione.


È possibile utilizzare sia lo schema di valutazione che lo schema di domande e risposte sullo stesso contenuto?

29:33

John Mueller Help Hangout 19 febbraio 2019 Certo non vedo disinvolto perché no. La cosa principale da tenere a mente è che i dati strutturati dovrebbero essere focalizzati sul contenuto principale della pagina. Quindi non so come combinare esattamente la valutazione e lo schema QA su una pagina, ma forse è qualcosa come se avessi domande e risposte su un prodotto e avessi anche valutazioni per quel prodotto. Potrebbe essere un'opzione lì, ma in generale non è che questi tipi di markup siano esclusivi e puoi utilizzare solo un tipo per combinare più tipi di markup.


Riepilogo: Sì


I link di affiliazione sono visti come un segno di un sito web di qualità inferiore?

41:05

John Mueller Help Hangout 19 febbraio 2019

Quindi, in generale, questo non è quanto so che non entriamo esplicitamente nel sito e diciamo, beh, ci sono collegamenti che sembrano collegamenti di affiliazione, quindi tratteremo questo sito Web come di qualità inferiore. In generale, i problemi principali che vedo riguardo ai siti Web affiliati sono che tendono ad essere solo siti Web di qualità inferiore. Quindi non è tanto una questione di dove si trova il flusso di check-out, ma piuttosto che nel complesso il contenuto è spesso di bassa qualità e, a causa del contenuto di bassa qualità, è qualcosa che i nostri algoritmi potrebbero cogliere e dire, beh probabilmente non lo è il risultato più rilevante da mostrare nei risultati di ricerca e possono esserci anche siti Web di affiliazione di alta qualità che sono buoni. Quindi non è tanto una questione di c'è un link di affiliazione o meno, ma piuttosto che dire del resto del sito web? È qualcosa che sarebbe rilevante mostrare agli utenti o c'è forse qualcosa di problematico lì? Penso, almeno per quanto ne so, che si applicherebbe su tutta la linea, quindi non importerebbe quale sia l'area specifica del sito Web, ma in generale ci sono alcuni siti di affiliazione davvero buoni e ce ne sono alcuni davvero davvero terribili siti affiliati. Quindi è più una questione di se un sito è buono o è un sito terribile?


Riepilogo: La presenza di link di affiliazione non è segno di scarsa qualità. Tuttavia, se hai un sito affiliato, per classificarti bene devi fornire un valore sufficiente in modo che Google voglia classificare i tuoi contenuti insieme ai contenuti del fornitore originale.


Se il tuo sito riceve un afflusso di link irrilevanti, dovrebbero essere sconfessati?

47:01

John Mueller Help Hangout 19 febbraio 2019

Certo che puoi farlo. Sì, questo è un po' a cosa serve la voce di dominio nel file di disconoscimento, in questo modo è come se tutti questi milioni o migliaia di link tu possa dire tutto da questo sito, semplicemente non ho nulla a che fare con quello. Di solito quello che succede in casi come quello in cui vedi questo collegamento a un sito completamente casuale è che il sito è stato probabilmente violato e per qualsiasi motivo qualcuno ha deciso di eliminare tutti quei collegamenti lì quando ha hackerato il sito Web e di solito siamo abbastanza bravi a raccoglierlo e cercando di impedire lo stato prima che hackerino i nostri sistemi. Quindi probabilmente stiamo già ignorando quei collegamenti, è possibile che forse o addirittura indicizzare il sito Web da prima piuttosto che con il contenuto compromesso. Quindi è qualcosa di cui di solito non mi preoccuperei troppo perché questi tipi di hack sono molto comuni e abbiamo un po' di pratica per affrontarli. Ma se sei preoccupato per questo, sai che è davvero pazzesco e penso che i collegamenti per la riparazione degli strumenti probabilmente non siano qualcosa in cui ti piace dire, oh questo tipo ucciderà il mio sito Web se sono associato ai violini, forse i contenuti per adulti sono qualcosa su cui saresti più cauto, quindi userei semplicemente un file di disconoscimento invialo e sei sicuro che questi non vengano presi in considerazione.\


Riepilogo: nella maggior parte dei casi come questo, Google sta già ignorando l'insolito afflusso di link. È interessante notare, tuttavia, che John ha raccomandato che potrebbe essere una buona idea rinnegare se questi collegamenti sono di natura per adulti Ad esempio, se il tuo sito di riparazione musicale ha ricevuto migliaia di collegamenti innaturali che puntano ad esso con l'ancora "riparazione del violino", potresti voler rinnegarli.


Se ti piacciono queste cose, amerai la mia newsletter!

Il mio team e io riferiamo ogni settimana sugli ultimi aggiornamenti, notizie e suggerimenti SEO di Google.

Successo!! Ora controlla la tua email per confermare la tua iscrizione alla newsletter di Google Update.

Si è verificato un errore durante l'invio dell'abbonamento. Per favore riprova.

Video completo e trascrizione

Domanda 1:25 - Le intestazioni meta HTTP di X robots impedirebbero a Google di seguire un reindirizzamento di posizione come un 301 o 302?

Risposta 1:37 - No. Quindi il nofollow si applicherebbe solo ai collegamenti su quella pagina e poiché si tratta di un reindirizzamento lato server non guarderemmo nemmeno il contenuto della pagina. Quindi non ci sarebbero collegamenti da seguire in modo che non cambierebbe nulla.

Domanda 1:58 - Uno dei nostri clienti è un negozio di e-commerce. Sono stati bloccati da diversi ISP, ISP mobili e ci siamo chiesti che cosa influisca sulle loro classifiche organiche.

Risposta 2:15 - Quindi immagino che la cosa principale dal nostro punto di vista sarebbe se anche Googlebot verrebbe bloccato o meno e se Googlebot non fosse bloccato, saremmo in grado di eseguire la scansione di un indice del contenuto normalmente. Ma ovviamente se Googlebot è bloccato anche perché, non lo so, bloccato, ad esempio negli Stati Uniti, ciò comporterebbe ovviamente l'abbandono di quelle pagine dalla ricerca. Ma se si tratta solo di singoli utenti non ho accesso a quello e l'indicizzazione e la scansione altrimenti funzionano normalmente, di solito è meno un problema, ovviamente hai degli effetti indiretti lì che questi utenti non sarebbero in grado di consigliare il sito e non saremmo in grado di raccogliere quei consigli perché non sono presenti da quegli utenti. Quindi, ovviamente, se stai bloccando la maggior parte degli utenti sul tuo sito Web, ciò probabilmente avrebbe un effetto a lungo termine sul sito.

Risposta 3:25 - E questo è qualcosa che alcuni siti fanno apposta, non particolarmente gli utenti mobili rispetto ai desktop, ma alcuni siti diranno che non ho nulla da offrire agli utenti in questi singoli paesi o per qualsiasi motivo politico i miei contenuti sono illegali in Svizzera perché non sono abbastanza neutrali o altro, quindi quel sito potrebbe scegliere di bloccare gli utenti in quei paesi ed è ancora qualcosa con cui dobbiamo fare i conti. Quindi quegli utenti non sarebbero in grado di consigliarlo, potrebbero esserci degli effetti a lungo termine, ma se possiamo ancora eseguire la scansione e indicizzare il contenuto, in genere va bene.

Avevamo un'azione manuale a causa dei collegamenti. Siamo tornati lentamente alla fine della pagina 1 a volte all'inizio della pagina 2. Mi chiedevo se è dovuto alla mancanza di collegamenti ora o c'è qualcosa che possiamo fare per riguadagnare quella fiducia in modo da poter tornare al nostro posizione originale?

Risposta 5:20 - A volte è difficile parlare, ma in generale se un'azione manuale viene risolta, l'azione manuale non influisce più sul sito. Quindi non c'è alcun tipo di effetto hold back che possa trattenere un sito Web e come dire, beh, hanno fatto le stesse cose sbagliate e una volta quindi impediremo loro di apparire in alto nelle ricerche, non c'è niente del genere. Ma in particolare quando si tratta di link se avevi molti link innaturali e forse il tuo sito era classificato a causa di quei link innaturali piuttosto che eliminando quei link innaturali, ovviamente c'è una nuova situazione a cui i nostri algoritmi devono adattarsi primo. Quindi è qualcosa che potrebbe in una certa misura avere un effetto lì. E il modo in cui mi avvicinerei a questo è solo quello di continuare a lavorare sul sito Web come faresti normalmente e assicurarmi di non incappare di nuovo in quella situazione in cui il team di spam Web incontra problemi per quanto riguarda i tuoi collegamenti. Quindi non mi piace dire tipo, oh, ho rimosso quei collegamenti, quindi andrò a comprare alcuni collegamenti da un altro sito, e mi assicurerò che quello che stai facendo sia davvero per l'uso a lungo termine del tuo sito web .

Domanda 7:32 - La domanda riguarda generalmente un sito Web che è passato a un nome di dominio diverso e hanno spostato un framework diverso e anche una piattaforma diversa tramite un sito angolare anziché un sito HTML statico e poiché hanno fatto questa mossa hanno ha visto un calo significativo delle classifiche, per la visibilità nella ricerca in generale.

Risposta 7:57 - Quindi ho esaminato un sacco di thread dal sito Web e ho cercato di seguire qualcosa internamente per vedere cosa sta succedendo esattamente qui ed è una situazione piuttosto complicata in cui non ho davvero un risposta diretta. In particolare, c'è il passaggio da una sorta di dominio di primo livello con codice paese al dominio di primo livello generico, quindi alcune informazioni sul targeting geografico vengono un po' perse lì. All'inizio si sono verificati alcuni problemi con la possibilità di indicizzare il contenuto. In particolare sul nuovo sito e ci sono alcuni cambiamenti significativi nel modo in cui i contenuti vengono forniti sul nuovo sito rispetto al vecchio sito. Quindi, nel complesso, ci sono molti cambiamenti piuttosto significativi lungo il percorso e alcuni di essi erano problematici come non essere in grado di indicizzare il contenuto e alcuni erano solo modifiche a come potrebbero accadere normalmente su un sito Web in cui, ad esempio, avresti cambiato il contenuto in modo significativo. E penso che quello che sta succedendo qui è che tutti questi cambiamenti hanno reso abbastanza difficile per i nostri algoritmi capire quale dovrebbe essere la nuova fase stabile per questo sito Web e probabilmente è solo qualcosa che sta impiegando molto più tempo di un normale spostamento del sito . Quindi questa è una di quelle situazioni prudenti in cui vuoi apportare un sacco di modifiche e apportando modifiche abbastanza significative tutte in una volta stai causando molta confusione riguardo ai nostri algoritmi. Dove potrebbe avere senso prendere queste modifiche passo dopo passo per testarle individualmente per vedere che effettivamente ogni passaggio nel mezzo funziona come dovrebbe essere in modo da essere sicuro che l'intera catena di modifiche che apporti non necessariamente risulta in maggiori effetti negativi per quanto riguarda la ricerca. Quindi immagino che la mia raccomandazione qui sarebbe quella di continuare e continuare a guardare il sito che lavora sul sito per renderlo migliore. Penso che dal punto di vista dell'indicizzazione tu sia in uno stato abbastanza buono, stai usando una sorta di pre-rendering lato server che ci consente di raccogliere il contenuto abbastanza rapidamente. Sembra che tu abbia apportato alcune modifiche significative alla velocità del sito Web in generale, quindi anche questo è un cambiamento positivo. E sospetto che tutte queste cose si sommeranno nel tempo per riflettersi anche nella ricerca. Vorrei che questo tipo di modifiche potesse essere elaborato un po 'più velocemente, quindi ho eseguito il ping di alcune persone anche dal lato dell'ingegneria della ricerca per ricontrollare che tutto funzioni come previsto lì. Ma in generale, con molti tipi di modifiche irregolari su un sito e il passaggio a un dominio diverso, tutte queste cose possono rendere un po' complicato creare un sito.

Domanda 11:03 - Abbiamo un buon primo contenuto significativo di due secondi, ma il nostro tempo per l'interazione è compreso tra 12 e 15 secondi è influenzato da una grande quantità di script secondo faro anche se si carica molto velocemente per gli utenti. Stiamo per lanciare un nuovo sito Web e ci chiediamo se è fondamentale risolvere questo problema prima del lancio o se può aspettare qualche mese, come fa Google a visualizzare il tempo per interagire?

Risposta 11:29 - Quindi molte di queste metriche che stai guardando dal faro ti vengono presentate principalmente per quanto riguarda il tipo di utente che affronta il lato delle cose. Quindi dal nostro punto di vista da un punto di vista di ricerca prendiamo insieme una varietà di queste metriche per capire come dovremmo vedere il sito per quanto riguarda la velocità ma il tipo di misurazioni assolute che vedi lì nel faro sono cose che molto probabilmente hanno un effetto più forte sul modo in cui gli utenti vedono il tuo sito. Quindi, invece di chiedere a Google in merito alla SEO come se questo sito fosse troppo lento, lo guarderei con gli utenti e otterrei invece il loro feedback e se stai dicendo che un tuo sito è in realtà piuttosto veloce per gli utenti, fornisce il contenuto abbastanza rapidamente allora probabilmente sei in un buono stato lì.

Risposta 12:24 - Google ha appena spiegato in un white paper pubblicato qualche giorno fa che utilizza il PageRank tramite link sul Web per valutare l'autorevolezza e l'affidabilità in modo algoritmico. Possiamo presumere che l'esperienza sia valutata principalmente tramite algoritmi di qualità dei contenuti? Puoi approfondire questo?

Risposta 12:51 - Non ho alcuna intuizione lì. Quindi è qualcosa che non ho davvero nulla di specifico a riguardo lì. Ho appena visto quel white paper che non conosco né ieri né il giorno prima, quindi sembra piuttosto interessante ma ovviamente è un paper abbastanza lungo e ci sono molti argomenti diversi e il PageRank è più o meno un commento laterale lì . Quindi non vorrei dire che tutto è solo PageRank.

Domanda 13:23 - Alcuni mesi fa il team dei laboratori di Google Chrome ha rilasciato il collegamento rapido. Ciò offre caricamenti di pagina successivi più rapidi precaricando i collegamenti del viewport durante il tempo di inattività. So che questo è vantaggioso per gli utenti, ma avrebbe qualche effetto su Googlebot e sul ranking o ogni pagina visitata da Googlebot è vista come una prima visita, tabula rasa?

Risposta 13:45 - Hai ragione. Quindi ogni volta che Google carica una pagina che è vista come una nuova visita per la prima volta su quel sito o su quella pagina generalmente non conserviamo alcun cookie non è che manteniamo lo stato della sessione in cui vorremmo dire, oh l'abbiamo caricato una pagina e stiamo seguendo i collegamenti qui, quindi manterremo quello stato e faremo clic su quei collegamenti per accedere a quelle nuove pagine, ma piuttosto troveremo quegli URL e quindi recupereremo quegli URL individualmente. Quindi in un caso come questo non vedo alcun effetto positivo o negativo su Googlebot qui sembra che sia qualcosa che accelererebbe notevolmente le cose per gli utenti, quindi è una buona cosa e probabilmente vedrai alcuni effetti indiretti lì e quello quando gli utenti sono in grado di utilizzare il tuo sito molto rapidamente che spesso trascorrono più tempo sul sito, si guardano intorno un po' di più ea loro volta è probabilmente più probabile che possano consigliare quel sito anche ad altri, il che è qualcosa che potremmo essere in grado di raccogliere.

Domanda 12:52 - Quanto tempo è necessario per ripristinare le classifiche se sposto un sito dal vecchio dominio a uno completamente nuovo e mi assicuro che tutti i reindirizzamenti 301 siano attivi?

Risposta 15:02 - Quindi questo è qualcosa che può succedere molto rapidamente se si sposta un sito pulito da un dominio all'altro in cui tutto è essenzialmente lo stesso in cui possiamo riconoscere che questo vecchio URL viene reindirizzato allo stesso URL sul nuovo dominio, quindi generalmente possiamo prenderlo abbastanza rapidamente e di solito vedrai una sorta di panoramica dell'indicizzazione nella console di ricerca, vedrai che uno scende quasi mentre l'altro sale e le cose cambiano con forse un giorno o giù di lì una specie di urto nel mezzo. D'altra parte, se apporti modifiche significative al tuo sito Web in modo da URL diversi framework diversi tipi di contenuto diversi, tutto ciò può renderci molto più difficile e dobbiamo davvero rivalutare il nuovo sito completamente e in base a il nuovo sito web capire come dovremmo posizionare questo sito. Questa è una specie di differenze lì, ma se è davvero solo l'URL pulito si sposta sullo stesso URL su un altro tipo di modifica del dominio, non è davvero un problema.

Domanda 16:18 - Un nuovo dominio erediterà il succo SEO e si classificherà anche per le nuove parole chiave?

Risposta 16:25 - Quindi è essenzialmente che stiamo cercando di trasferire davvero tutto ciò che uno a uno nel nuovo dominio, allora quel nuovo dominio sarà al posto del vecchio dominio. E può classificare per le vecchie parole chiave e può classificare per le nuove parole chiave e di nuovo se apporti modifiche significative durante quella mossa, ovviamente quel nuovo stato deve essere preso in considerazione e non è solo che possiamo inoltrare tutto al nuovo uno perché uno nuovo non è solo una versione spostata di quello vecchio.

Domanda 16:58 - Una domanda relativa agli URL dei parametri con collegamenti UTM. Questi collegamenti diluiranno il valore del collegamento se sono fortemente collegati internamente? Stiamo ottenendo pagine indicizzate con parametri in cui il canonico punta alla versione preferita come influirà a lungo termine se siamo collegati all'interno del sito Web con l'80% di parametri e il 20% di URL puliti.

Risposta 17:33 - Immagino che sia sempre una situazione un po' complicata perché essenzialmente ci stai dando segnali contrastanti. Da un lato stai dicendo che questi sono i link che voglio indicizzare perché è così che ti colleghi internamente al tuo sito web. D'altra parte quelle pagine quando le apriamo hanno un rel canonical che punta a un URL diverso. Quindi stai dicendo indicizza questo e da quello stai dicendo bene in realtà indicizza un altro. Quindi ciò che i nostri sistemi finiscono per fare lì è cercare di valutare i diversi tipi di URL che troviamo per questo contenuto. Possiamo probabilmente riconoscere che questo contenuto questi URL portano allo stesso contenuto. So we can kind of put them in the same group and then it's a matter of picking which one to actually use for indexing and on the one hand we have the internal links pointing to the UTM versions, on the other hand we have the rel canonical pointing to kind of the cleaner version. The cleaner version is probably also a shorter URL and nicer looking URL that kind of plays in inline with us as well but it's still not guaranteed from our point of view that we would always use the shorter.

So rel canonical is obviously a strong sign internal linking is also kind of a stronger signal, in that that's something that's under your control. So if you explicitly linked to those URLs and we think maybe you want them indexed like that. So in practice what what would probably happen here is we would index a mix of URLs some of them we would index the shorter version because maybe we find other signals pointing at the shorter version as well. Some of them we probably index with the UTM version and we would try to rank them normally as the UTM version.

In practice in search you wouldn't see any difference in ranking you would just see that these URLs might be shown in the search results. So they would rank exactly the same with UTM or without UTM and they would just be listed individually in the search results. And from a practical point of view that just means that in search console you might see a mix of these URLs. In the the performance report you might see kind of this mix. In the indexing report you might see a mix in some of the other reports. Maybe around the AMP or structured data if you use anything like that you might also see this mix. You might also see in some cases situation where it swaps between the URLs so it might be that we index it with UTM parameters at one point and then a couple weeks later if we switch to the cleaner version and we say, well probably this cleaner version is better, and then at some point later on or algorithm to look at it again and say well actually more signals point to the UTM version we'll switch back, that could theoretically happen as well.

So what I would recommend doing there is if you have a preference with regards to your urls make sure that you're being as clear as possible within your website about what version you want to have indexed. With UTM parameters you're also creating the situation that we'd have to crawl both of those versions so it's a little bit more overhead if it's just one extra version that's probably not such a big deal. If you have multiple UTM parameters that you're using across the website then we would try to crawl all of the different variations which would in turn mean that maybe we crawl, I don't know, a couple times as many URLs as your website actually has to be able to keep up with indexing. So that's probably something you'd want to avoid. So my recommendation would be really to try to clean that up as much as possible, so that we can stick to the clean URLs. To the URLs that you want to have indexed instead of ending up in this state where maybe we'll pick them up like this, maybe we'll pick them up like this, and in your reporting it could be like this, it could be like this. You have to watch out for that all the time. So keep it as simple as possible.

Question 21:56 - Will there be any ability to test and view desktop renders with screenshots in the URL inspection tool in search console?

Answer 22:05 - I get these kind of questions all the time. It's like will you do this in search console or will you do that. And in general we try not to pre-announce things so I don't really have any insight that I can give you there with regards to what will happen in the future. It does seem like something that is kind of a missing aspect of the tool in that it's focusing on mobile at the moment but it might be nice to actually test the desktop version as well. So I'll definitely pass that on to your team to make sure that that's on their radar somewhere.

Question 22:41 - On one website with a couple million pages we have a sidebar which has internal links in it and next to each there's a number which represents how many sub pages that link leads to. Sort of as an information informative visual aid and generating those numbers takes a lot of time is it okay to remove those numbers for the front page when Googlebot is detected?

Answer 23:08 - So Googlebot should be seeing the equivalent version of the page as users would be seeing. So if this is something that's useful for users I'd recommend showing it to Googlebot as well. It's something where if you're talking about the speed that it takes to to render these pages it's worth keeping in mind that we look at speed on kind of a holistic way we don't just look at the speed of a page as Googlebot is fetching that page when it comes to speed with regards to using speed as a ranking factor. For crawling of course having the pages that are available very quickly that helps us quite a bit so that makes sense to kind of make things fast for Google for crawling at least. One thing I'd recommend here though is try to avoid special casing Googlebot if if at all possible because it does mean that maintenance is a lot harder. If you're doing special for Googlebot then it's a lot harder to tell if Googlebot is seeing errors on the page and users are seeing normal content and Googlebot starts dropping those pages from search because of those errors. So ideally treat them a lot the same as users. One way you could do that here is to use some kind of JavaScript to just asynchronously load that extra information. So that's usually pretty easily doable probably less effort than cloaking to Googlebot in a case like this.

Question 24:47 - Does link equity pass through links on canonical pages or is it just ignored and everything flows to the canonical? So I think the question is more that you have one page it has a rel canonical pointing to a different page and the question is will those links on that original page kind of work pass PageRank or will only that pay the links on the specified canonical page pass PageRank?

Answer 25:18 - So from our point of view there are multiple things I've come into play here. I think first of all those pages should be equivalent if you're saying that there's a canonical for that page it should be equivalent to the final page as well. So it shouldn't matter which of these pages is used for forwarding links because you're essentially telling us these pages are the same we can treat them the same. So it shouldn't matter for our algorithms like if we pick up those links on that page or we pick up the links on the other page. So II would also assume there that not always kind of like in the other question with UTM parameters we would pick the URL that is specified as canonical as the one that we actually index. So if those links are different across versions of pages then that's something where we might not pass PageRank in the way that you're expecting. So all of that kind of comes together and from my point of view what I'd recommend there is just really making sure that those pages are equivalent. So that you don't have to worry about from where, which links are passing PageRank. But rather assume that it could be this page, it could be the other page, the rel canonical is a strong signal for us but it's not a directive that prevents us from using that page completely.

Question 26:50 - Is it a good idea to create a website for every country in the world?

Answer 26:58 - So the short answer there is no that's a terrible idea. Especially if you don't really have content that's unique to every country in the world. In particular if you're using hreflang between the different country and language versions. You need to keep in mind that hreflang does not make those pages rank higher in those countries it just swaps out those URLs. So you still have to be able to rank in those individual locations. Which means if you have one piece of content and you split it up across every country in the world and multiply it by every language then you'll have diluted your contents significantly across a large number of URLs. Which means that any piece of content there will have a lot more trouble being shown in the search results. Because instead of one strong page that we could show potentially worldwide, we have a ton of different pages that all show more or less the same content and none of them are particularly strong. So that's something where when it comes to an internationalization strategy I would strongly recommend getting help from people who have done this successfully for other websites. So that you can really weigh kind of the pros and the cons there. On the one hand you have the advantage of being able to target individual countries and languages with content that's really uniquely kind of specialized for them and on the other hand you have to weigh that if you're diluting the content too much then all of those versions will have a lot harder time to be visible in search. So on the one hand targeting well on the other hand kind of making sure that the versions that you do have available are strong enough to actually be be visible in search and my general thought there is to err on the side of using fewer versions rather than using more versions. So unless you have a really strong use case for having content specifically targeted for individual countries and I err on the side of well maybe one global website is better rather than splitting things up.

Question 29:25 - Can we use both rating schema and question-and-answer schema for question answers

Answer - 29:33 - Sure I don't see offhand why not. The main thing to keep in mind is that the structured data should be focused on the primary content of the page. So I don't know how exactly you would kind of combine the rating and the QA schema on a page but maybe it's something like you have questions and answers to a product and you have ratings at that product as well. That might be an option there but in general it's not that these types of markups are exclusive and you can only use one type you can combine multiple types of markup.

Question 30:41 - So our site had maybe like 5,000 Google visitors per day for several months now we're down to under 500. This was due to a sudden, just happened in one day, we think it's due to an automatic security penalty that we got removed within one business day and we just haven't seen any change within three weeks. So I'm wondering how long was something like that it might take to recover from and if there's anything else that would cause just a sudden one day drop like that?

We got a message in search console that social engineering content was detected. It turns out that was due to our email service provider there click track my software was was automatically flagged because I guess another clients was using it so we were we got a manual review and within a business day and they said it was ok but you know.

Answer 31:48 - Ok so if there was a manual review then that would be resolved. So it's not that there is kind of a hold back after manual review that says, oh we have to be careful with this website, but that should be resolved there. I know It's kind of hard to say just in a general case with regards to a site like that there there are sometimes algorithmic changes that happen that roll out we're bigger change happens with within a day or so. So that might also be playing a role here it might also be that there's something else kind of playing in with the site there. So what what I generally recommend doing is maybe starting a thread in the webmaster help forum with the URL of your site and some of the queries where you're seeing changes. So not just like we had this many queries and now it's like down to this but rather like people are searching for our company name they're still finding our company name but for this particular kind of query we're no longer visible anymore. So that that kind of thing is it's really useful to post in the webmaster help forum and usual also when when people can't find an answer for that, the experts there are able to escalate that on to us so that we can take a look at that as well.

Question 33:24 - So they have multiple sites in German for different countries and they have the a hreflang setup. It sounds like instead of properly. So this is just what the example URLs, it's hard to say but they're saying that they're not seeing a lot of indexing of these URLs across the different country versions so what what could be happening here?

Risposta 33:54 - Quindi di solito quando vedo domande come questa si riduce ai nostri algoritmi che guardano queste pagine e dicono bene che queste pagine sono essenzialmente duplicate l'una dell'altra. Quindi possiamo indicizzare una di queste versioni e mostrarla agli utenti perché è la stessa cosa. Quindi, in particolare in tedesco, questo è qualcosa che vedo un po', immagino che in alcune altre lingue sia simile probabilmente in spagnolo dove ci sono più paesi di lingua spagnola o ovviamente anche in inglese dove il contenuto è essenzialmente lo stesso ed è solo mirato a paesi diversi. Quindi quello che succede qui è da un punto di vista dell'indicizzazione che probabilmente, almeno potenzialmente, piegheremmo questi URL insieme in modo che le versioni tedesche multiple scegliamo una versione tedesca e diciamo che questa è la versione canonica per la versione tedesca con il markup hreflang che ' d essere comunque in grado di mostrare gli altri URL. Quindi potremmo indicizzare forse la versione in tedesco svizzero e se un utente in Germania stiamo cercando, saremmo in grado di scambiare quell'URL con la versione tedesca nei risultati della ricerca. Ma nel rapporto di indicizzazione nella console di ricerca vedresti solo quell'URL indicizzato per la versione svizzera che è quella che abbiamo scelto per la canonica. Quindi non lo vedresti per la versione tedesca, in pratica può andare bene se queste pagine sono davvero esattamente le stesse perché stiamo sostituendo l'URL gli utenti stanno arrivando alla versione giusta va praticamente bene e la difficoltà può essere che se hai qualcosa nel titolo o se hai prezzi o altri dati strutturati su quelle pagine, potrebbe essere qualcosa che potrebbe confondere gli utenti in quanto un utente in Germania potrebbe cercare, mostriamo l'URL tedesco ma nello snippet ha Swiss valuta come prezzo da qualche parte. Quindi ciò potrebbe confondere le persone, quindi di solito ci sono due approcci a questo, da un lato potresti prendere l'approccio e dire che piegare insieme questi URL va bene, in qualche modo rende quegli euro un po' più forti per me, va bene. Quindi potresti andare lì e dire bene, mi assicurerò che queste pagine siano generiche che attraversino tutte le versioni tedesche in modo che non abbia importanza per me quale URL viene effettivamente indicizzato. L'altro approccio consiste nell'assicurarsi che questi URL siano chiaramente visti come URL separati principali. Quindi assicurandoci che il contenuto sia davvero significativamente diverso nelle diverse versioni linguistiche in modo che i nostri sistemi quando guardano queste pagine dicano, beh, questa è una pagina tedesca e questa è una pagina tedesca diversa c'è un collegamento hreflang tra queste due quindi possiamo scambiare quegli URL ma sono pagine uniche che devono essere indicizzate individualmente da sole. Quindi questi sono i due approcci che da un lato potresti piegare insieme, dall'altro potresti dire, beh, li voglio esplicitamente separati.

Domanda 37:00 - Cosa consiglieresti se un marchio ha una presenza internazionale e una volta chiuso per determinate regioni. Cosa fare con i siti che hanno come target altri paesi se dovessero reindirizzare il sito principale?

Risposta 37:14 - Essenzialmente questa è una specie di situazione di migrazione del sito. Immagino che se hai un sito di un paese e stai dicendo che questo sito non è più disponibile, lo reindirizzerò a un'altra versione di me stesso. È qualcosa che puoi fare. Quello che non puoi davvero fare è specificare nella ricerca per dirci che non dovremmo mostrare questo sito in determinati paesi. Quindi puoi unire le tue versioni tedesche e dire come Germania Austria Svizzera che dovrebbero essere tutti solo l'unico sito Web tedesco che va bene, ma forse non voglio mostrare il mio sito agli utenti in Svizzera ma non puoi. Non esiste un meta tag in cui puoi dire a Google di non mostrare il mio sito in Svizzera. Quindi al massimo quello che puoi fare è impedire agli utenti in quel paese di accedere al sito, ma non puoi dire a Google di non mostrarlo nei risultati di ricerca per quel paese.

Domanda 38:18 - Questa era la mia domanda. Il nostro sito Web è in inglese e abbiamo contenuti unici con diversi paesi. Quindi, a causa di decisioni aziendali, stanno chiudendo alcune regioni. Quindi, se eseguiamo un reindirizzamento per il sito, avrà un impatto sul mio sito Web principale, avrà un effetto negativo o positivo? Voglio dire, al momento abbiamo questo hreflang su tutti i sottoinsiemi che hanno pagine comuni in cui possiamo vedere come se stessimo offrendo un prodotto in un paese specifico e il singolo prodotto in un altro paese con contenuti diversi e tutti i contenuti locali della regione. Quindi mi chiedo cosa accadrà a quelle pagine? se reindirizzerò quelle pagine al mio sito principale, le mie pagine principali si classificheranno per quelle regioni specifiche?

Risposta 39:19 - Potrebbe potenzialmente accadere, ma ancora una volta non è qualcosa che puoi davvero controllare. Quindi, se stai reindirizzando quelle pagine se quelle pagine esistono ancora, potrebbero classificarsi anche in quelle posizioni, non puoi dire che non ci sono meta tag o potresti dire bene che il mio sito web dovrebbe essere indicizzato ma non mostrato in questo particolare il nazione.

Domande 39:50 - Google ha questo playbook UX per le migliori pratiche per deliziare gli utenti per diverse nicchie. Sono considerati parte della classifica o puoi darci un'idea in merito?

Risposta 40:02 - Quindi quei playbook UX per quanto ne so sono pubblicati dal team degli annunci ed è più una questione di, beh, queste sono le migliori pratiche UX e cose buone da fare su un sito Web, e non necessariamente qualcosa che noi ' D dire, beh, questi giocano nel ranking, ma ovviamente se crei un buon sito Web che funziona bene per gli utenti, indirettamente puoi sicuramente vedere un effetto nel ranking. Ma non è che diremmo di guardare questi playbook UX e usarli specificamente come fattori per la classifica.

Domanda 40:38 - Qual è l'impatto dei link di affiliazione se mescolati con contenuti rivolti ad argomenti sensibili. Sappiamo che la monetizzazione aggressiva può essere problematica soprattutto quando i link di affiliazione non vengono divulgati agli utenti e quando l'attenzione alla monetizzazione è più importante che fornire ottimi contenuti agli utenti, ma mi chiedo come funzionerebbe per argomenti come salute, medicina, finanza eccetera.?

Risposta 41:05 - Quindi, in generale, questo non è quanto so che non entriamo esplicitamente nel sito e diciamo, beh, ci sono collegamenti che sembrano collegamenti di affiliazione, quindi tratteremo questo sito Web come di qualità inferiore. In generale, i problemi principali che vedo riguardo ai siti Web affiliati sono che tendono ad essere solo siti Web di qualità inferiore. Quindi non è tanto una questione di dove si trova il flusso di check-out, ma piuttosto che nel complesso il contenuto è spesso di bassa qualità e, a causa del contenuto di bassa qualità, è qualcosa che i nostri algoritmi potrebbero cogliere e dire, beh probabilmente non lo è il risultato più rilevante da mostrare nei risultati di ricerca e possono esserci anche siti Web di affiliazione di alta qualità che sono buoni. Quindi non è tanto una questione di c'è un link di affiliazione o meno, ma piuttosto che dire del resto del sito web? È qualcosa che sarebbe rilevante mostrare agli utenti o c'è forse qualcosa di problematico lì? Penso, almeno per quanto ne so, che si applicherebbe su tutta la linea, quindi non importerebbe quale sia l'area specifica del sito Web, ma in generale ci sono alcuni siti di affiliazione davvero buoni e ce ne sono alcuni davvero davvero terribili siti affiliati. Quindi è più una questione di se un sito è buono o è un sito terribile?

Domanda 42:35 - Con il recupero e il rendering deprecati dalla vecchia console di ricerca e sostituiti con lo strumento di ispezione degli URL, lo strumento di ispezione UL verrà aggiornato per includere il confronto visivo affiancato di come Googlebot vede una pagina rispetto a come farebbe l'utente guardali?

Risposta 42:53 - Non so come con l'altra domanda cerchiamo di non pre-annunciare le cose, quindi non è qualcosa in cui potrei dire qualcosa di specifico riguardo a ciò che accadrà in futuro. Sono anche felice di trasmetterlo al team per dare un'occhiata per quanto riguarda la definizione delle priorità. Da un punto di vista pratico ho sempre pensato che questo confronto sia qualcosa che è meno utile al giorno d'oggi perché la maggior parte dei siti è piuttosto brava a garantire che una pagina possa essere visualizzata per i motori di ricerca. Almeno i siti che ho guardato tendono ad essere un po 'buoni lì. Quindi, in particolare all'inizio, quando i siti non erano così abituati ai motori di ricerca che cercavano di eseguire il rendering di una pagina che era una cosa importante, ma al giorno d'oggi non so se è davvero un problema così grande, ad esempio se javascript è bloccato da un robots.txt, quel tipo di cose che sento che sono cambiate in modo significativo nel corso degli anni, ma sono felice di pagarlo, passa al team e probabilmente controlleranno due volte per vedere se ci sono davvero problemi di cui abbiamo bisogno lì.

Domanda 44:12 - Il link rinnegato può aumentare le classifiche?

Risposta 44:17 - Oh mio Dio, è una domanda così grande. Quindi, in teoria, se il tuo sito Web viene retrocesso con un'azione manuale per quanto riguarda i collegamenti che hai acquistato o che qualcun altro è stato acquistato per il tuo sito Web nel tempo. Forse un precedente SEO, forse qualcosa che è stato impostato prima del tuo tempo con quell'azienda e quindi puoi utilizzare lo strumento di disconoscimento per rimuovere in qualche modo quei collegamenti dai nostri sistemi e in seguito puoi utilizzare il modulo di richiesta di riconsiderazione per farci sapere di questo cambiamento e quindi il team manuale dello spam web esaminerà e ricontrollerà per vedere che lo stato corrente è a posto. E se lo stato attuale è pulito, risolveranno quell'azione manuale e in generale il tuo sito Web sarà in grado di classificarsi di nuovo in modo naturale. Quindi è qualcosa in cui in molti casi il sito Web potrebbe salire un po' e classificarsi in alcuni casi potrebbe anche essere che questi collegamenti innaturali all'inizio supportassero in modo innaturale il sito Web. Quindi rimuovendo quei collegamenti potrebbe essere che questo supporto sia scomparso, il che è una specie di stato naturale. Quindi immagino che la risposta più breve sia che non c'è un sì o un no qui in quanto il disconoscimento dei collegamenti cambia ciò che vediamo come collegamenti al tuo sito Web e ciò può influire positivamente o negativamente sul tuo sito Web. Quindi la mia raccomandazione in generale con lo strumento disavow è di usarlo se hai un'azione manuale per quanto riguarda i collegamenti e non riesci a rimuovere quei collegamenti o se quando guardi i tuoi collegamenti ti rendi conto, oh c'era questa cosa pazzesca che noi forse due anni fa e il team di spam web non se ne è accorto, ma forse è ora di ripulire il nostro comportamento e ripulirlo, quindi è qualcosa in cui ha senso usare uno strumento di disconoscimento. Non vorrei usare questo a caso e dire bene che questi sono collegamenti strani e non voglio essere associato a loro. Spero che Google possa classificare meglio il mio sito Web quando rimuoverò quelli come, quindi è improbabile che accada.

Domanda 46:27 - John, posso fare una domanda basata sui disconoscimenti qui. Quindi vediamo a volte, immagino che forse concorrenti, vedremo letteralmente un posto inviato 1.1 o 1.2 link alla nostra homepage. Sito di riparazione strumenti completamente fuori tema, fuori dall'Irlanda, niente a che vedere con quello che facciamo ovviamente. Non ho gli strumenti o la capacità di rinnegare tutti i collegamenti è meglio quindi rinnegare il sito?

Risposta 47:01 - Certo che puoi farlo. Sì, questo è un po' a cosa serve la voce di dominio nel file di disconoscimento, in questo modo è come se tutti questi milioni o migliaia di link tu possa dire tutto da questo sito, semplicemente non ho nulla a che fare con quello. Di solito quello che succede in casi come quello in cui vedi questo collegamento a un sito completamente casuale è che il sito è stato probabilmente violato e per qualsiasi motivo qualcuno ha deciso di eliminare tutti quei collegamenti lì quando ha hackerato il sito Web e di solito siamo abbastanza bravi a raccoglierlo e cercando di impedire lo stato prima che hackerino i nostri sistemi. Quindi probabilmente stiamo già ignorando quei collegamenti, è possibile che forse o addirittura indicizzare il sito Web da prima piuttosto che con il contenuto compromesso. Quindi è qualcosa di cui di solito non mi preoccuperei troppo perché questi tipi di hack sono molto comuni e abbiamo un po' di pratica per affrontarli. Ma se sei preoccupato per questo, sai che è davvero pazzesco e penso che i collegamenti per la riparazione degli strumenti probabilmente non siano qualcosa in cui ti piace dire, oh questo tipo ucciderà il mio sito Web se sono associato ai violini, forse il contenuto per adulti è qualcosa su cui saresti più cauto, quindi userei semplicemente un file di disconoscimento per inviarlo e sei sicuro che questi non vengano presi in considerazione.

Domanda 48:44 - Due domande rapide riguardo a questo URL è un URL di categoria per un sito di e-commerce che ha una sorta di parametro visualizza tutto, in pratica il nostro problema è che l'URL ha un URL canonico per la versione senza il parametro. È collegato con la versione senza il parametro in tutto il sito Web è nella mappa del sito senza il parametro ma in qualche modo Google decide che no questa è la versione canonica e tutti i nostri segnali puntano all'altra versione e non penso che agisca tanto ma Non capisco perché Google non sceglie la nostra versione quando tutti i nostri segnali puntano nella stessa direzione?

Domanda 48:24 - Non lo so, difficile a dirsi con disinvoltura. Quindi penso che una cosa da tenere a mente è che è sotto l'indicizzazione mobile first. Quindi forse la versione mobile è leggermente diversa, forse c'è un rel canonico lì forse c'è qualcosa con JavaScript che sta cambiando il rel canonico non lo so, ma è sempre qualcosa da tenere a mente. Quindi, quando lo stai testando nel browser e assicurati di ricontrollare la visualizzazione mobile, ma un po' come entrambe le altre domande precedenti è anche possibile che per qualsiasi altro motivo stiamo decidendo bene in realtà questo è il più pulito versione.

Domanda 50:33 - Se non è collegato da nessuna parte e sai che i collegamenti interni non puntano ad esso. Non sarà la mappa del sito e con l'ispezione dell'URL su Google vede il giusto canonico corretto che abbiamo detto solo il canonico selezionato da Google è ancora questo piuttosto che quello che abbiamo taggato. Quindi non so se avrebbe alcun effetto, sono solo preoccupato che potrebbe esserci qualcosa che ci sfugge che potrebbe influenzare anche altre pagine.

Risposta 51:11 - Sì, non so che dovrei dare un'occhiata. In generale, se si tratta dello stesso contenuto, la classifica sarebbe la stessa. Quindi non è che qualcosa cambierà lì. Non so se sarebbe particolarmente utile corrompermi con prodotti per capelli, ma non lo so. Quindi intendo dire che è una situazione in cui hai una specie di pagina visualizza tutto e l'altra versione della pagina in cui potrebbe essere che stiamo captando alcuni segnali dicendo che questa è la versione visualizza tutto che dovremmo mantenere quello invece dell'altro perché potrebbe essere impaginato o qualcosa del genere, ma sì, non so se e dovrei scavare in quello. L'altra cosa forse degna di nota è che vorremmo mettere insieme alcuni documenti per quanto riguarda le migliori pratiche sui siti di e-commerce in generale. Quindi, se ti imbatti in cose strane come questa che stiamo usando bene con i siti di e-commerce, spesso hai queste pagine di categoria che hanno tonnellate di contenuti e l'impaginazione, il filtraggio e la visualizzazione, tutte le cose sono un po' complicate, allora è qualcosa in cui io Mi piacerebbe ricevere feedback su. Quindi forse esempi, forse solo domande generali riguardo ai siti di e-commerce, tutto ciò sarebbe davvero utile avere. Idealmente, magari inviandoli tramite Twitter in modo che io possa raccoglierli lì, ho iniziato un tweet su questo e spero di poter mettere insieme qualcosa con alcuni, immagino le migliori pratiche per quanto riguarda i siti di e-commerce su come assicurarsi che l'indicizzazione e la scansione funziona idealmente.