19 Problemi tecnici SEO comuni (con soluzioni consigliate)
Pubblicato: 2020-08-19In Semetrical i nostri specialisti SEO hanno intrapreso innumerevoli audit tecnici SEO nel corso degli anni e si sono imbattuti in problemi tecnici comuni che i siti Web soffrono in più settori. La nostra guida delinea i problemi tecnici SEO più comuni con le soluzioni consigliate.
Di seguito sono elencati i problemi tecnici SEO più comuni:
- Regole senza distinzione tra maiuscole e minuscole in Robots,txt
- Duplicazione URL maiuscolo e minuscolo
- Reindirizzamento HTTP 302 a HTTPS
- URL canonici che incidono sui collegamenti interni
- URL canonici che collegano a 404 URL
- Più tag canonici
- Duplicazione della home page
- Versione mobile e desktop dei siti diversa
- Rilevamento IP internazionale
- Duplicazione di siti web internazionali
- Mappa del sito XML che include URL storici e URL di staging
- Il sito Web di staging viene indicizzato causando la duplicazione
- Ricerca interna in corso di indicizzazione
- Parametri che causano duplicazione
- Duplicazione dell'URL del prodotto
- Profondità di un sito web
- JavaScript
- Utilizzo errato di Meta Robots NOINDEX
- Morbide 404 pagine
1. Regole senza distinzione tra maiuscole e minuscole in Robots,txt
Problema:
Quando eseguiamo audit SEO tecnici, scopriamo spesso che le regole di non autorizzazione nel robots.txt non soddisfano le regole sia maiuscole che minuscole.
Ad esempio, sui siti di e-commerce i percorsi del carrello spesso scorrono sia /basket/ che /Basket/, ma di norma nel robots.txt è incluso solo il percorso minuscolo. Ciò significa che gli URL con /Basket/ sarebbero comunque indicizzabili e ciò causerebbe la duplicazione dei contenuti, cosa che devi evitare per una migliore indicizzazione del tuo sito Web sui motori di ricerca.
Regole di Robots.txt:
Non consentire: /cestino/
Non consentire: /basket/*
Soluzione:
Controlla il tuo sito web e controlla se ci sono sia versioni maiuscole che minuscole di un percorso che deve essere bloccato. Puoi farlo utilizzando un web crawler, come i nostri amici di DeepCrawl. Se sul sito Web sono attive entrambe le versioni, aggiungi una seconda regola nel file robots.txt per evitare che il percorso maiuscolo venga bloccato. Ad esempio, non consentire: /Carrello/*
Se non hai accesso a un crawler web, una ricerca del protocollo del sito può essere molto utile per vedere se vengono indicizzate sia la versione maiuscola che quella minuscola.
2. Duplicazione URL maiuscolo e minuscolo
Problema:
Un problema comune che troviamo è la duplicazione di URL senza distinzione tra maiuscole e minuscole collegati a un sito Web e Google vede che si tratta di due URL diversi. Per esempio:
Ciò può verificarsi a causa degli editor su un post del blog che aggiungono un collegamento diretto a una pagina di prodotto ma hanno digitato una lettera maiuscola anziché una lettera minuscola.
Abbiamo anche visto che ciò accade a causa di moduli di collegamento interni che presentano un bug in cui i collegamenti di prodotti popolari sono collegati tramite lettere maiuscole.
Soluzione:
Ti consigliamo di impostare una regola a livello di server in cui tutti gli URL maiuscoli reindirizzano a minuscoli tramite un reindirizzamento 301. Ciò salvaguarderà il sito Web da qualsiasi duplicazione futura in cui vengono collegati sia un URL maiuscolo che minuscolo.
L'aggiunta di una regola di reindirizzamento 301 consoliderà anche qualsiasi equità di collegamento in cui un sito esterno potrebbe collegarsi al tuo sito per errore tramite una lettera maiuscola.
Se un reindirizzamento 301 non è possibile, ti consigliamo di aggiungere un tag canonico nel codice sorgente degli URL maiuscoli per fare riferimento alla versione dell'URL minuscolo.
3. Reindirizzamento HTTP 302 a HTTPS
Problema:
Le aziende spesso migrano il loro sito Web per proteggere gli URL HTTPS, ma non implementano sempre una regola di reindirizzamento 301 e implementano invece un reindirizzamento 302, quindi in teoria questo dice ai motori di ricerca che la versione HTTP di un URL è stata spostata solo temporaneamente anziché in modo permanente. Ciò può ridurre l'equità del collegamento e l'autorità generale del tuo sito Web poiché gli URL HTTP che hanno acquisito backlink nel tempo non passeranno completamente l'equità del collegamento alla versione HTTPS a meno che non sia in atto un reindirizzamento 301.
Soluzione:
Consigliamo di impostare una regola a livello di server in cui tutti gli URL HTTP 301 reindirizzano alla versione HTTPS.
4. URL canonici che incidono sui collegamenti interni
Problema:
In numerosi siti Web di e-commerce abbiamo riscontrato prodotti con più varianti dell'URL del prodotto, ma ogni variazione è collegata a un URL del prodotto canonico per evitare la duplicazione. Tuttavia, la pagina del prodotto canonico può essere trovata solo tramite tag canonici e nessun altro collegamento interno.
Inoltre, la pagina del prodotto canonico non include breadcrumb che influiscono sul collegamento interno attraverso il sito web.
Questa configurazione canonica di collegamento interno ha talvolta impedito ai motori di ricerca di rilevare la versione dell'URL canonico a causa dell'ignoranza delle istruzioni poiché i collegamenti interni in tutto il sito inviano segnali contrastanti. Ciò può comportare l'indicizzazione delle versioni non canoniche dei prodotti che causa la cannibalizzazione degli URL, con un impatto negativo sulle prestazioni SEO.
Soluzione:
Per facilitare l'indicizzazione degli URL canonici, i siti Web dovrebbero:
Aggiungi gli URL canonici alla Sitemap XML e non le altre varianti di URL
Collegamento interno alle versioni URL canoniche all'interno di moduli di collegamento interni a livello di sito come "prodotti popolari"
Aggiungi una struttura breadcrumb principale alla pagina dell'URL canonico.
5. URL canonici che si collegano a 404 URL
Problema:
Gli URL canonici occasionalmente fanno riferimento a 404 URL, ma questo invia segnali contrastanti per la ricerca
motori. L'URL canonico indica a un crawler dell'URL preferito da indicizzare, ma l'URL preferito attualmente non esiste più.
Soluzione:
Innanzitutto, dovresti stabilire se l'URL canonico deve essere un 404 o se deve essere reintegrato. Se viene ripristinato, il problema viene risolto, tuttavia se l'URL canonico dovrebbe essere un 404, è necessario selezionare un nuovo URL canonico o aggiornare il canonico in modo che sia autoreferenziale.
6. Più tag canonici
Problema:
Nel codice HTML di una pagina web a volte potrebbero essere trovati due tag canonici. Questo può inviare messaggi in conflitto a un motore di ricerca e solo il primo canonico verrà conteggiato e utilizzato.
Soluzione:
Alcuni crawler di siti Web possono contrassegnare più tag canonici, tuttavia, in caso contrario, è necessario impostare un'estrazione personalizzata durante la scansione del sito per cercare più tag canonici.
Le pagine Web con più tag canonici nel codice HTML devono essere aggiornate dove uno viene rimosso e rimane solo il tag canonico corretto.
7. Duplicazione della home page
Problema:
I siti Web occasionalmente hanno più URL di home page che causano duplicazioni e possono causare una divisione dell'equità dei collegamenti. Gli URL di duplicazione della home page comuni includono:
www.esempio.com
www.esempio.com/casa
www.example.com/index.html
www.example.com/home.html
Soluzione:
Se il tuo sito Web ha più URL di home page, ti consigliamo di impostare un reindirizzamento 301 in cui tutte le versioni di duplicazione reindirizzano alla versione della home page principale.
8. Versioni mobili e desktop dei siti differenti
Problema:
I siti per dispositivi mobili devono contenere lo stesso contenuto della versione desktop di un sito Web. Quando eseguiamo audit di siti Web e confrontiamo le scansioni di siti Web desktop e mobili, ci siamo imbattuti in differenze di contenuto in cui la versione mobile contiene meno contenuti rispetto alla versione desktop su determinate pagine.
Ciò può causare problemi perché quasi tutta l'indicizzazione di un sito Web proviene dalla versione mobile e se mancano i contenuti prioritari, le classifiche potrebbero iniziare a diminuire.
Soluzione:
La versione mobile di un sito dovrebbe contenere lo stesso contenuto della versione desktop e il contenuto mancante dovrebbe essere aggiunto al sito web mobile.
9. Rilevamento IP internazionale
Problema:
Per i siti Web che hanno implementato reindirizzamenti IP geografici, il problema più comune è che l'implementazione reindirizza per tutti gli utenti, inclusi i bot.
Googlebot in genere esegue la scansione da un IP statunitense e se i bot vengono reindirizzati in base alla posizione geografica, Googlebot eseguirà la scansione e indicizzerà solo la versione statunitense di un sito web. Ciò impedirà la scansione e l'indicizzazione di altre versioni geografiche del sito.
Inoltre, ciò può causare problemi per il markup dello schema dei prezzi dei prodotti sui siti di e-commerce in cui i prezzi vengono aggiornati in base alla posizione geografica poiché in tutti i mercati verrà visualizzato solo il prezzo degli Stati Uniti. Ad esempio, lo snippet di seguito mostra i prezzi statunitensi che arrivano sulla versione britannica di un sito Web all'interno del Regno Unito.
Soluzione:
Se è necessario implementare reindirizzamenti IP geografici, consigliamo di escludere tutti i bot dalle regole di reindirizzamento, poiché ciò consentirà a bot come Googlebot di eseguire la scansione e indicizzare tutte le versioni internazionali.
Se non implementi reindirizzamenti IP geografici, ti consigliamo di mantenere i tuoi siti Web aperti a tutti gli utenti da qualsiasi geolocalizzazione e visualizzare un banner JavaScript intuitivo che consente agli utenti di selezionare la propria lingua/posizione.
Questa è un'utile funzione UX se un utente è atterrato sulla versione del sito Web internazionale errata. Il pop-up apparirà in base al rilevamento dell'IP, ad esempio, se un utente atterra sul sito Web degli Stati Uniti da un IP del Regno Unito, verrà visualizzato il banner che informa l'utente che il sito del Regno Unito potrebbe essere più adatto.
10. Duplicazione di siti web internazionali
Problema:
È comune vedere più versioni di un sito Web quando le aziende operano in diversi paesi del mondo. Questa è una pratica comune poiché idealmente si desidera fornire la migliore esperienza utente e, a tal fine, i siti Web specifici per paese consentono alle aziende di personalizzare il percorso dell'utente in base alla posizione dell'utente nel mondo.
Tuttavia, le aziende possono commettere l'errore di creare più versioni del proprio sito Web ma non inviare alcun segnale ai motori di ricerca per indicare quale sito Web dovrebbe avere come target un paese o una regione specifici.
Quando i proprietari di siti Web creano più versioni del sito senza istruzioni per i motori di ricerca, ciò può causare caos come la duplicazione del sito Web e la cannibalizzazione tra domini.
Soluzione:
Quando crei versioni internazionali del tuo sito web, i tag Hreflang dovrebbero essere utilizzati per segnalare ai motori di ricerca come Google la pagina web corretta da mostrare a un utente in base alla sua posizione e lingua.
I tag Hreflang impediscono inoltre che le versioni internazionali di un sito Web vengano viste come duplicati sui motori di ricerca poiché il tag Hreflang indica essenzialmente che è necessaria una pagina specifica per servire un utente nella posizione X con l'impostazione della lingua X.
L'impostazione e la mappatura dei tag Hreflang può creare confusione ed è un grosso compito a seconda delle dimensioni del tuo sito web. Se impostato in modo errato, può essere dannoso per il traffico del tuo sito web.
Visita la nostra pagina dei servizi SEO internazionali se stai pianificando un'espansione di un sito web internazionale o se hai problemi con i tuoi siti web internazionali.
11. Mappa del sito XML che include URL storici e URL di staging
Problema:
Un problema interessante che incontriamo più spesso di quanto si possa pensare è che i siti Web con vecchi URL nelle loro mappe del sito XML o URL di staging in qualche modo si comprimono in una mappa del sito XML.
Ciò può causare problemi come se gli URL di staging appaiano nelle tue Sitemap e il tuo sito di staging potrebbe non essere bloccato dai motori di ricerca, questi URL potrebbero iniziare a essere indicizzati e, a loro volta, causare duplicazioni non necessarie.
Gli URL storici nella tua mappa del sito che ora servono un codice di stato 4xx o 3xx possono inviare segnali confusi ai motori di ricerca su quali pagine desideri scansionare o indicizzare.
Soluzione:
Assicurati di controllare regolarmente la tua mappa del sito XML tenendo d'occhio Search Console e monitorando gli errori che appaiono o impostando una scansione regolare in uno strumento come Deepcrawl.
L'impostazione di una scansione regolare delle mappe del sito XML in Deepcrawl è molto utile in quanto ciò può contrassegnare rapidamente tutti gli URL che non dovrebbero essere visualizzati nella mappa del sito e ti consente di tenerti aggiornato su questo potenziale problema.
12. Il sito Web di staging viene indicizzato causandone la duplicazione
Problema:
Sorprendentemente, un certo numero di aziende ha i propri siti Web di staging indicizzabili ai motori di ricerca come Google, non di proposito ma per errore. Ciò può causare una duplicazione significativa poiché il sito Web di staging di solito sarà una replica del tuo ambiente live. Da una semplice ricerca del protocollo URL su Google ci sono milioni di pagine Web di staging live e indicizzabili.

Soluzione:
In Semetrical, consigliamo di aggiungere un livello di autenticazione in cui è necessario inserire un nome utente e una password per accedere al sito Web di staging. L'aggiunta di una regola di non autorizzazione è anche un'opzione per impedire l'indicizzazione degli ambienti di gestione temporanea, tuttavia è meglio implementarla se il sito di gestione temporanea non è già stato indicizzato. Per esempio:
User-agent: *
Non consentire: /
La maggior parte degli strumenti per il crawler dei siti Web dispone di una funzionalità di sovrascrittura robots.txt in modo da poter ignorare facilmente la regola di non autorizzazione durante l'esecuzione di test sul proprio ambiente di staging.
13. Ricerca interna indicizzata
Problema:
Gli URL di ricerca interni sui siti Web possono essere ottimi per la SEO in quanto consentono ai siti Web di classificarsi per query di ricerca a coda iper-lunga o di classificare per parole chiave in cui non hanno un URL principale da classificare.
Tuttavia, in molti casi le pagine di ricerca interne possono causare molte duplicazioni sui siti Web e possono anche causare problemi di crawl budget su siti Web su larga scala. Per questa guida ci concentreremo sul lato negativo della ricerca interna.
Le pagine di ricerca interne sono generalmente di qualità molto bassa in quanto non saranno ottimizzate e in molte occasioni saranno classificate come contenuti scarsi in quanto ospiteranno un numero basso di risultati come prodotti.
Soluzione:
Prima di decidere di bloccare le pagine di ricerca interne si consiglia di verificare che queste pagine al momento non siano classificate per nessuna parola chiave o portino traffico regolare.
Verifica inoltre che questi URL non abbiano creato backlink nel corso degli anni. Se le tue pagine di ricerca interne non hanno backlink autorevoli e non generano traffico organico, su Semetrical consigliamo due passaggi:
Passaggio uno: aggiungi i tag NOINDEX, FOLLOW a tutte le pagine di ricerca per consentire ai motori di ricerca di deindicizzare queste pagine. Una volta che queste pagine sono state de-indicizzate nell'arco di alcuni mesi, implementeremo il secondo passaggio.
Passaggio due: aggiungi la directory di ricerca interna al file robots.txt come Disallow: */search*
14. Parametri che causano duplicazione
Problema:
La duplicazione dei parametri di ordinamento e filtro può essere un problema comune durante l'audit dei siti Web. Molti siti Web utilizzeranno i filtri in quanto possono migliorare l'esperienza dell'utente e consentire agli utenti di filtrare i risultati di ricerca. Tuttavia, il problema principale è quando i siti Web mantengono i filtri indicizzabili poiché ciò genera una quantità significativa di duplicazione sul sito Web. Per esempio:
Occasionalmente ci imbatteremo in siti Web che aggiungono parametri di tracciamento alla fine degli URL sui collegamenti interni per indicare in quale punto del sito è stato fatto clic su quel collegamento. Non consigliamo questa configurazione in primo luogo, tuttavia, quando i siti lo hanno già in atto, può causare molte duplicazioni su un sito Web poiché può creare più versioni della stessa pagina. Per esempio:
Un altro parametro di monitoraggio comune che può causare la duplicazione sono i parametri di monitoraggio UTM in cui i collegamenti vengono utilizzati per campagne specifiche al fine di monitorare il rendimento della campagna. Per esempio:
Soluzione:
Esistono diversi modi per impedire che i parametri vengano indicizzati e causino duplicazioni, tra cui:
Canonizzazione dell'URL del parametro nella versione dell'URL pulito
Aggiunta di una regola nel file robots.txt per non consentire parametri specifici
Aggiunta di parametri allo strumento per i parametri URL in Search Console che segnala a Google che alcuni parametri non devono essere sottoposti a scansione.
15. Duplicazione dell'URL del prodotto
Problema:
Sui siti Web di e-commerce, la duplicazione degli URL dei prodotti può essere un grosso problema così come sui siti Web degli editori. Il motivo principale della duplicazione dell'URL del prodotto è perché i prodotti possono ereditare la categoria/sottocategoria nella sua struttura URL e se il prodotto si trova in più categorie/sottocategorie, vengono quindi creati più URL.
Sui siti Web degli editori, i documenti possono anche risiedere in più aree e se l'URL del documento eredita la posizione del documento, vengono create più versioni. Per esempio:
Soluzione:
Quando ci imbattiamo in una duplicazione come questa, ci sono vari modi per ripulirla in modo da poter assicurarci che la versione dell'URL corretta venga scansionata e indicizzata.
Per correggere la duplicazione dell'URL, consigliamo di canonizzare tutte le varianti dell'URL del prodotto nella versione principale o in una versione generica. Per esempio:
Esempio canonico del genitore
donna-collezioni-abiti-abiti-giorno
/71hdo/bella-lula-vestito-floreale
canonicalizzerebbe a:
donna-collezioni-abiti
/71hdo/bella-lula-vestito-floreale
Esempio canonico generico:
donna-collezioni-abiti-abiti-giorno
/71hdo/bella-lula-vestito-floreale
donna-collezioni-abiti
/71hdo/bella-lula-vestito-floreale
Canoncalizzerei
Alternative:
Se hai accesso agli sviluppatori, una soluzione alternativa sarebbe quella di collegarti internamente ai prodotti canonici in tutto il sito Web e reindirizzare 301 tutti gli URL dei prodotti che scorrono da categorie/sottocategorie all'URL generico del prodotto canonico.
Ciò fermerebbe la duplicazione dei prodotti e ti consentirebbe di collegarti ai prodotti tramite più percorsi
16. Profondità di un sito web
Problema:
La profondità della pagina è il numero di clic che una pagina specifica riceve dalla home page di un sito web. Quando conduciamo audit di siti Web, ci imbattiamo in siti Web con una profondità del sito Web superiore a 10. Ciò significa che queste pagine sono a 10 clic dalla home page!
Più clic sono necessari per trovare una pagina Web, più difficile è per un motore di ricerca trovare quell'URL ed è più probabile che l'URL non venga rivisitato tanto spesso quanto le pagine più in alto nel sito Web.
Inoltre, più alta è una pagina all'interno dell'architettura del tuo sito Web, maggiori sono le possibilità che venga vista come una pagina prioritaria dai motori di ricerca. Se le pagine prioritarie sono più in basso nell'architettura, c'è il rischio che non vengano classificate altrettanto bene.
Soluzione:
I modi principali per migliorare la profondità del sito Web e assicurarsi che le pagine prioritarie siano in cima all'architettura del sito Web includono:
Collegamenti interni attraverso il sito Web come prodotti consigliati, prodotti correlati e pagine in primo piano
L'uso di breadcrumb nel sito web
Impostazione dell'impaginazione in cui include la prima, l'ultima e le due pagine dei risultati su entrambi i lati della pagina in cui ti trovi
Condurre ricerche di parole chiave per scoprire pagine di categoria di primo livello che dovrebbero essere collegate all'interno della navigazione principale di un sito Web e aggiungere collegamenti a pagine prioritarie
17. Problemi tecnici seo JavaScript
Problema
Molti siti Web oggi utilizzeranno JavaScript, tuttavia, quando si disabilita JavaScript alcuni siti Web non sono completamente funzionanti e i collegamenti possono scomparire e non saranno rilevabili dai motori di ricerca. Questo è un problema di SEO tecnico comune.
Spesso vediamo che i moduli "potrebbe piacerti anche" sulle pagine dei prodotti dell'e-commerce non possono essere visti dai crawler dei motori di ricerca, rendendo ridondante il modulo di collegamento interno.
Inoltre, i moduli di revisione che includono UGC ricchi di parole chiave si trovano all'interno di moduli JavaScript che non possono essere rilevati dai crawler.
Un problema interessante riscontrato da vari siti di e-commerce è che quando si disabilita JavaScript nelle pagine dei risultati, è ancora possibile trovare i collegamenti ai prodotti ma tutte le immagini scompaiono poiché non esiste un'opzione di ripiego per la scoperta delle immagini.
Soluzione:
Collabora con il team di sviluppo per provare a creare un fallback JavaScript in cui le immagini sono ancora presenti nel codice sorgente e i moduli JavaScript possono essere scansionati tramite HTML.
Un ottimo modo per testare come viene indicizzato il contenuto JavaScript è andare alla versione memorizzata nella cache della tua pagina web e vedere come appare la "versione completa" della pagina, oltre a rivedere la "versione solo testo".
18. Utilizzo scorretto di Meta Robots NOINDEX
Problema:
Il nostro team tecnico SEO ha verificato i siti Web e ha scoperto che i tag NOINDEX sono stati aggiunti per errore al codice sorgente delle pagine. Inoltre, sono state visualizzate pagine che storicamente hanno portato traffico con un tag NOINDEX attivo.
Sorprendentemente un problema che può verificarsi più spesso di quanto si possa pensare è che gli sviluppatori spingono gli ambienti di staging live con il tag NOINDEX ancora presente nel codice sorgente.
In definitiva, il tag NOINDEX dirà ai motori di ricerca di non indicizzare la pagina e impedirà che la pagina venga visualizzata nei risultati di ricerca.
Soluzione:
Se ti imbatti in pagine che hanno un tag NOINDEX attivo durante l'audit di un sito Web e non è chiaro il motivo per cui il tag è presente, verifica con il team di sviluppo per vedere quando e anche perché quelle pagine includono il tag.
Se un tag NOINDEX è stato aggiunto per errore, dovresti chiedere agli sviluppatori di aggiornare il codice sorgente e rimuovere completamente il tag o aggiornarlo per leggere <meta name=”robots” content=” INDEX, FOLLOW”>
19. Pagine morbide 404
Problema:
Una pagina soft 404 non dovrebbe esistere su un sito web, succede quando una pagina inesistente che dovrebbe restituire un codice di stato 404 restituisce un codice di stato 200 OK. Se 404 pagine restituiscono un codice di stato 200, possono comunque essere scansionate e indicizzate.
Questo in definitiva è un problema poiché i motori di ricerca come Google possono perdere tempo a eseguire la scansione di queste pagine che non forniscono valore sprecando il budget di scansione invece di concentrare il tempo su pagine preziose. Queste pagine possono anche creare problemi duplicati su un sito Web, soprattutto se un sito Web ha migliaia di pagine soft 404 che mostrano un messaggio "pagina non trovata".
Esistono diversi modi per trovare le pagine 404 morbide che includono:
Visitando Search Console dove segnala le pagine soft 404
Scansione del tuo sito Web e ricerca di 200 code page di stato con tag del titolo "Pagina non trovata"
La scansione del tuo sito Web con un'estrazione personalizzata che cerca il messaggio di copia del corpo che è presente nelle codepage di stato 404 e qualsiasi codepage di stato 200 con quel messaggio dovrebbe essere un soft 404
Soluzione:
Se ti imbatti in pagine soft 404 sul tuo sito Web, ci sono un paio di soluzioni che possono essere implementate, queste includono:
301 reindirizza le pagine soft 404 a una pagina alternativa appropriata, se disponibile
Cambia il codice di stato di queste pagine in un codice di stato 404 o 410 ma controlla che nessun link equity venga perso.
Se stai riscontrando problemi con il tuo sito Web o hai bisogno di un audit SEO tecnico, visita la nostra pagina dei servizi SEO tecnici per ulteriori informazioni su come Semetrical può aiutarti.
