19 problemas técnicos comunes de SEO (con soluciones recomendadas)
Publicado: 2020-08-19En Semetrical, nuestros especialistas en SEO han realizado innumerables auditorías técnicas de SEO a lo largo de los años y se han encontrado con problemas técnicos comunes que sufren los sitios web dentro de múltiples industrias. Nuestra guía describe los problemas técnicos de SEO más comunes con soluciones recomendadas.
A continuación se enumeran los problemas técnicos de SEO más comunes:
- Reglas que no distinguen entre mayúsculas y minúsculas en Robots,txt
- Duplicación de URL en mayúsculas y minúsculas
- Redirección HTTP 302 a HTTPS
- URL canónicas que afectan a los enlaces internos
- URL canónicas que enlazan con URL 404
- Múltiples etiquetas canónicas
- Duplicación de página de inicio
- Versión móvil y de escritorio de los sitios que difieren
- Detección de IP internacional
- Duplicación de sitios web internacionales
- Mapa del sitio XML que incluye URL históricas y URL provisionales
- El sitio web de prueba se indexa y causa duplicación
- Búsqueda interna indexada
- Parámetros que causan la duplicación
- Duplicación de URL del producto
- Profundidad de un sitio web
- JavaScript
- Uso incorrecto de Meta Robots NOINDEX
- 404 páginas blandas
1. Reglas que no distinguen entre mayúsculas y minúsculas en Robots,txt
Tema:
Cuando realizamos auditorías técnicas de SEO, a menudo encontramos que las reglas de rechazo en robots.txt no se adaptan a las reglas de mayúsculas y minúsculas.
Por ejemplo, en los sitios de comercio electrónico, las rutas de la cesta a menudo se ejecutan tanto en /basket/ como en /Basket/, pero solo la ruta en minúsculas se incluye como regla en el archivo robots.txt. Esto significa que las URL con /Basket/ aún serían indexables y eso causaría la duplicación de contenido, lo que debe evitar para mejorar la indexación de su sitio web en los motores de búsqueda.
Reglas de Robots.txt:
No permitir: /canasta/
No permitir: /canasta/*
Solución:
Audite su sitio web y verifique si hay versiones en mayúsculas y minúsculas de una ruta que debe bloquearse. Puede hacer esto usando un rastreador web, como nuestros amigos en DeepCrawl. Si hay ambas versiones activas en el sitio web, agregue una segunda regla en robots.txt para permitir que se bloquee la ruta en mayúsculas. Por ejemplo, No permitir: /Cesta/*
Si no tiene acceso a un rastreador web, una búsqueda de protocolo del sitio puede ser muy útil para ver si se indexan las versiones en mayúsculas y minúsculas.
2. Duplicación de URL en mayúsculas y minúsculas
Tema:
Un problema común que encontramos es la duplicación de URL que no distinguen entre mayúsculas y minúsculas que se vinculan en un sitio web y Google ve que se trata de dos URL diferentes. Por ejemplo:
Esto puede ocurrir debido a que los editores en una publicación de blog agregan un enlace directo a la página de un producto, pero han escrito una letra mayúscula en lugar de una letra minúscula.
También hemos visto que esto sucede debido a que los módulos de enlaces internos tienen un error en el que los enlaces de productos populares se enlazan con letras mayúsculas.
Solución:
Recomendamos configurar una regla a nivel de servidor donde todas las URL en mayúsculas se redireccionen a minúsculas a través de una redirección 301. Esto protegerá el sitio web de cualquier duplicación futura en la que se vincule una URL en mayúsculas y minúsculas.
Agregar una regla de redireccionamiento 301 también consolidará cualquier valor de enlace donde un sitio externo pueda vincular a su sitio por error a través de una letra mayúscula.
Si no es posible una redirección 301, recomendamos agregar una etiqueta canónica en el código fuente de las URL en mayúsculas para hacer referencia a la versión de URL en minúsculas.
3. Redirección HTTP 302 a HTTPS
Tema:
Las empresas suelen migrar su sitio web a URL HTTPS seguras, pero no siempre implementan una regla de redirección 301, sino que implementan una redirección 302, por lo que, en teoría, esto les dice a los motores de búsqueda que la versión HTTP de una URL solo se ha movido temporalmente en lugar de permanentemente. Esto puede reducir la equidad del enlace y la autoridad general de su sitio web, ya que las URL HTTP que han adquirido backlinks con el tiempo no pasarán por completo la equidad del enlace a la versión HTTPS a menos que se implemente una redirección 301.
Solución:
Recomendamos configurar una regla a nivel de servidor donde todas las URL HTTP redireccionen 301 a la versión HTTPS.
4. URL canónicas que afectan los enlaces internos
Tema:
En varios sitios web de comercio electrónico, hemos visto productos que tienen múltiples variaciones de URL de productos, pero cada variación se vincula a una URL de producto canónica para evitar la duplicación. Sin embargo, la página del producto canónico solo se puede encontrar a través de etiquetas canónicas y ningún otro enlace interno.
Además, la página del producto canónico no incluye migas de pan, lo que afecta los enlaces internos en todo el sitio web.
En ocasiones, esta configuración canónica de enlaces internos ha impedido que los motores de búsqueda recojan la versión de URL canónica debido a que ignoraron las instrucciones porque los enlaces internos en todo el sitio envían señales mixtas. Esto puede dar lugar a que se indexen las versiones no canónicas de los productos, lo que provoca la canibalización de URL, lo que en última instancia afecta negativamente a su rendimiento de SEO.
Solución:
Para ayudar a indexar las URL canónicas, los sitios web deben:
Agregue las URL canónicas al mapa del sitio XML y no las otras variantes de URL
Enlace interno a las versiones de URL canónicas dentro de los módulos de enlaces internos de todo el sitio, como "productos populares"
Agregue una estructura de migas de pan principal a la página URL canónica.
5. URL canónicas que enlazan con URL 404
Tema:
Las URL canónicas ocasionalmente hacen referencia a URL 404, pero esto envía señales mixtas a la búsqueda
motores La URL canónica le indica a un rastreador de la URL preferida que indexe, pero la URL preferida actualmente ya no existe.
Solución:
En primer lugar, debe establecer si la URL canónica debe ser un 404 o si debe restablecerse. Si se restablece, el problema se soluciona; sin embargo, si la URL canónica debe ser 404, entonces debe elegir una nueva URL canónica o actualizar la URL canónica para que sea autorreferencial.
6. Múltiples etiquetas canónicas
Tema:
En el código HTML de una página web, a veces se pueden encontrar dos etiquetas canónicas. Esto puede enviar mensajes contradictorios a un motor de búsqueda y solo se contará y utilizará el primer canónico.
Solución:
Algunos rastreadores de sitios web pueden marcar múltiples etiquetas canónicas; sin embargo, si este no es el caso, debe configurar una extracción personalizada al rastrear el sitio para buscar múltiples etiquetas canónicas.
Las páginas web con múltiples etiquetas canónicas en el código HTML deben actualizarse donde una se elimina y solo queda la etiqueta canónica correcta.
7. Duplicación de la página de inicio
Tema:
Los sitios web ocasionalmente tienen varias URL de página de inicio, lo que provoca la duplicación y puede causar una división de la equidad del enlace. Las URL de duplicación de página de inicio comunes incluyen:
www.ejemplo.com
www.ejemplo.com/home
www.ejemplo.com/index.html
www.ejemplo.com/casa.html
Solución:
Si su sitio web tiene varias URL de página de inicio, le recomendamos configurar un redireccionamiento 301 donde todas las versiones duplicadas redirigen a la versión de la página de inicio principal.
8. Versión móvil y de escritorio de los sitios que difieren
Tema:
Los sitios móviles deben tener el mismo contenido que la versión de escritorio de un sitio web. Al realizar auditorías de sitios web y comparar rastreos de sitios web de escritorio con móviles, nos hemos encontrado con diferencias de contenido donde la versión móvil contiene menos contenido que la versión de escritorio en ciertas páginas.
Esto puede causar problemas porque casi toda la indexación de un sitio web proviene de la versión móvil y si falta contenido prioritario, las clasificaciones pueden comenzar a caer.
Solución:
La versión móvil de un sitio debe contener el mismo contenido que la versión de escritorio y el contenido faltante debe agregarse al sitio web móvil.
9. Deducción de IP internacional
Tema:
Para los sitios web que han implementado redireccionamientos de IP geográfica, el problema más común es que la implementación redirige para todos los usuarios, lo que incluye bots.
Googlebot generalmente rastreará desde una IP de EE. UU. y si los bots se redirigen en función de la ubicación geográfica, Googlebot solo rastreará e indexará la versión de EE. UU. de un sitio web. Esto evitará que se rastreen e indexen otras versiones geográficas del sitio.
Además, esto puede causar problemas para el marcado de esquema de precios de productos en sitios de comercio electrónico donde los precios se actualizan según la ubicación geográfica, ya que solo aparecerá el precio de EE. UU. en todos los mercados. Por ejemplo, el siguiente fragmento muestra los precios de EE. UU. en la versión del Reino Unido de un sitio web dentro del Reino Unido.
Solución:
Si necesita implementar redireccionamientos de IP geográfica, le recomendamos que excluya todos los bots de las reglas de redireccionamiento, ya que esto permitirá que bots como Googlebot rastreen e indexen todas las versiones internacionales.
Si no implementa redireccionamientos de IP geográfica, le recomendamos que mantenga sus sitios web abiertos a todos los usuarios desde cualquier ubicación geográfica y muestre un banner de JavaScript fácil de usar que les permita seleccionar su propio idioma/ubicación.
Esta es una función UX útil si un usuario ha aterrizado en la versión incorrecta del sitio web internacional. La ventana emergente aparecerá en función de la detección de IP, por ejemplo, si un usuario llega al sitio web de EE. UU. desde una IP del Reino Unido, aparecerá un banner que le indicará al usuario que el sitio del Reino Unido puede ser más adecuado.
10. Duplicación de sitios web internacionales
Tema:
Es común ver múltiples versiones de un sitio web cuando las empresas operan en diferentes países del mundo. Esta es una práctica común, ya que idealmente desea brindar la mejor experiencia de usuario y, para hacerlo, los sitios web específicos de cada país permiten a las empresas adaptar el viaje del usuario en función de dónde se encuentra el usuario en el mundo.
Sin embargo, las empresas pueden cometer el error de crear varias versiones de su sitio web y no enviar ninguna señal a los motores de búsqueda para indicar qué sitio web debe orientarse a un país o región específicos.
Cuando los propietarios de sitios web crean múltiples versiones de sitios sin instrucciones para los motores de búsqueda, esto puede causar caos, como la duplicación de sitios web y la canibalización entre dominios.
Solución:
Al crear versiones internacionales de su sitio web, las etiquetas Hreflang deben usarse para ayudar a señalar a los motores de búsqueda como Google la página web correcta para servir a un usuario en función de su ubicación e idioma.
Las etiquetas Hreflang también evitan que las versiones internacionales de un sitio web se vean como duplicados en los motores de búsqueda, ya que la etiqueta Hreflang esencialmente indica que se necesita una página específica para servir a un usuario en una ubicación X con una configuración de idioma X.
Configurar y mapear etiquetas Hreflang puede resultar confuso y es una gran tarea dependiendo del tamaño de su sitio web. Si se configura incorrectamente, puede ser perjudicial para el tráfico de su sitio web.
Visite nuestra página de servicios de SEO internacional si está en el proceso de planificar la expansión de un sitio web internacional o tiene problemas con sus sitios web internacionales.
11. Mapa del sitio XML que incluye URL históricas y URL provisionales
Tema:
Un problema interesante con el que nos encontramos más a menudo de lo que piensas es que los sitios web tienen URL antiguas en sus mapas de sitio XML o URL provisionales que de alguna manera se meten en un mapa de sitio XML.
Esto puede causar problemas, ya que si las URL provisionales aparecen en sus mapas de sitio y es posible que los motores de búsqueda no bloqueen su sitio provisional, estas URL podrían comenzar a indexarse y, a su vez, provocar una duplicación innecesaria.
Las URL históricas en su mapa del sitio que ahora muestran un código de estado 4xx o 3xx pueden enviar señales confusas a los motores de búsqueda en las páginas que desea rastrear o indexar.
Solución:
Asegúrese de auditar su mapa del sitio XML de forma regular al vigilar la consola de búsqueda y monitorear los errores que aparecen o configurar un rastreo regular en una herramienta como Deepcrawl.
Configurar un rastreo regular de mapas de sitio XML en Deepcrawl es muy útil, ya que esto puede marcar rápidamente cualquier URL que no debería aparecer en su mapa de sitio y le permite estar al tanto de este posible problema.
12. El sitio web de prueba se indexa y causa duplicación
Tema:
Sorprendentemente, varias empresas tienen sus sitios web provisionales indexables a motores de búsqueda como Google, no a propósito sino por error. Esto puede causar una duplicación significativa, ya que el sitio web provisional suele ser una réplica de su entorno en vivo. Al hacer una simple búsqueda de protocolo de URL en Google, hay millones de páginas web en vivo e indexables.

Solución:
En Semetrical, recomendamos agregar una capa de autenticación en la que debe ingresar un nombre de usuario y una contraseña para acceder al sitio web provisional. Agregar una regla de rechazo también es una opción para evitar que se indexen los entornos de prueba; sin embargo, es mejor implementar esto si el sitio de prueba aún no se ha indexado. Por ejemplo:
Agente de usuario: *
No permitir: /
La mayoría de las herramientas de rastreo de sitios web tienen una funcionalidad de sobrescritura de robots.txt para que pueda anular fácilmente la regla de rechazo al realizar pruebas en su entorno de prueba.
13. Búsqueda interna indexada
Tema:
Las URL de búsqueda interna en sitios web pueden ser excelentes para SEO, ya que permiten que los sitios web se clasifiquen para consultas de búsqueda de cola hiperlarga, o para clasificar palabras clave donde no tienen una URL principal para clasificar.
Sin embargo, en muchos casos, las páginas de búsqueda internas pueden causar mucha duplicación en los sitios web y también pueden causar problemas de presupuesto de rastreo en sitios web a gran escala. Para esta guía nos centraremos en el lado negativo de la búsqueda interna.
Las páginas de búsqueda interna suelen ser de muy baja calidad ya que no estarán optimizadas y en muchas ocasiones se clasificarán como thin content ya que albergarán un bajo número de resultados como productos.
Solución:
Antes de decidir bloquear las páginas de búsqueda internas, se recomienda verificar que estas páginas actualmente no se clasifiquen para ninguna palabra clave ni generen tráfico regular.
Además, verifique que estas URL no hayan creado vínculos de retroceso a lo largo de los años. Si sus páginas de búsqueda internas no tienen vínculos de retroceso autorizados y no generan tráfico orgánico, en Semetrical le recomendamos dos pasos:
Paso uno: agregue etiquetas NOINDEX,FOLLOW a todas las páginas de búsqueda para permitir que los motores de búsqueda desindexen las páginas. Una vez que estas páginas se hayan desindexado durante unos meses, implementaríamos el paso dos.
Paso dos: agregue el directorio de búsqueda interno al archivo robots.txt como Disallow: */search*
14. Parámetros que causan duplicación
Tema:
La duplicación de parámetros de clasificación y filtrado puede ser un problema común al auditar sitios web. Muchos sitios web usarán filtros, ya que pueden mejorar la experiencia del usuario y permitirles filtrar sus resultados de búsqueda. Sin embargo, el problema principal es cuando los sitios web mantienen los filtros indexables, ya que esto genera una cantidad significativa de duplicación en todo el sitio web. Por ejemplo:
Ocasionalmente, nos encontraremos con sitios web que agregan parámetros de seguimiento al final de las URL en los enlaces internos para indicar en qué parte del sitio se hizo clic en ese enlace. No recomendaríamos esta configuración en primera instancia, sin embargo, cuando los sitios ya la tienen, puede causar mucha duplicación en un sitio web, ya que puede crear múltiples versiones de la misma página. Por ejemplo:
Otros parámetros de seguimiento comunes que pueden causar duplicación son los parámetros de seguimiento UTM en los que se utilizan enlaces para campañas específicas con el fin de realizar un seguimiento del rendimiento de la campaña. Por ejemplo:
Solución:
Hay varias formas de evitar que los parámetros se indexen y provoquen la duplicación, entre las que se incluyen:
Canonicalización de la URL del parámetro a la versión de URL limpia
Agregar una regla en el archivo robots.txt para no permitir parámetros específicos
Agregar parámetros a la herramienta de parámetros de URL en Search Console que le indica a Google que ciertos parámetros no deben rastrearse.
15. Duplicación de URL del producto
Tema:
En los sitios web de comercio electrónico, la duplicación de URL de productos puede ser un gran problema, así como en los sitios web de los editores. El motivo principal de la duplicación de URL de productos es que los productos pueden heredar la categoría/subcategoría en su estructura de URL y, si el producto se encuentra en varias categorías/subcategorías, se crean varias URL.
En los sitios web de los editores, los documentos también pueden ubicarse en varias áreas y, si la URL del documento hereda la ubicación del documento, se crean varias versiones. Por ejemplo:
Solución:
Cuando nos encontramos con una duplicación como esta, hay varias formas de limpiarla para asegurarnos de que se rastree e indexe la versión de URL correcta.
Para corregir la duplicación de URL, recomendamos canonicalizar todas las variantes de URL del producto a la versión principal o genérica. Por ejemplo:
Ejemplo canónico principal
mujer-colecciones-vestidos-vestidos-de-dia
/71hdo/bella-lula-mini-vestido-floral
canonicalizaría a:
mujer-colecciones-vestidos
/71hdo/bella-lula-mini-vestido-floral
Ejemplo canónico genérico:
mujer-colecciones-vestidos-vestidos-de-dia
/71hdo/bella-lula-mini-vestido-floral
mujer-colecciones-vestidos
/71hdo/bella-lula-mini-vestido-floral
canonizaría a
Alternativas:
Si tiene acceso a los desarrolladores, entonces una solución alternativa sería vincular internamente a los canónicos del producto en todo el sitio web y redirigir 301 todas las URL del producto que se ejecutan fuera de categoría / subcategorías a la URL del producto canónico genérico.
Esto detendría la duplicación de productos y le permitiría vincular productos a través de múltiples rutas.
16. Profundidad de un sitio web
Tema:
La profundidad de la página es la cantidad de clics que recibe una página específica desde la página de inicio de un sitio web. Al realizar auditorías de sitios web, nos encontramos con sitios web que tienen una profundidad de sitio web superior a 10. ¡Eso significa que estas páginas están a 10 clics de distancia de la página de inicio!
Cuantos más clics se necesiten para encontrar una página web, más difícil será para un motor de búsqueda encontrar esa URL y es más probable que la URL no se vuelva a visitar con tanta frecuencia como las páginas más arriba en el sitio web.
Además, cuanto más alta esté una página dentro de la arquitectura de su sitio web, mayor será la probabilidad de que los motores de búsqueda la vean como una página prioritaria. Si las páginas de prioridad están más abajo en la arquitectura, existe el riesgo de que no se clasifiquen tan bien.
Solución:
Las principales formas de mejorar la profundidad del sitio web y asegurarse de que las páginas prioritarias ocupen un lugar destacado en la arquitectura del sitio web incluyen:
Enlaces internos en el sitio web, como productos recomendados, productos relacionados y páginas destacadas
El uso de migas de pan en todo el sitio web
Configurar la paginación donde incluye la primera, la última y las dos páginas de resultados a ambos lados de la página en la que se encuentra
Llevar a cabo una investigación de palabras clave para descubrir páginas de categoría de nivel superior que deben vincularse dentro de la navegación principal de un sitio web y agregar enlaces a páginas prioritarias.
17. Problemas técnicos de SEO de JavaScript
Tema
Muchos sitios web hoy en día usarán JavaScript, sin embargo, al deshabilitar JavaScript, algunos sitios web no son completamente funcionales y los enlaces pueden desaparecer y no serán detectables por los motores de búsqueda. Este es un problema técnico común de SEO.
A menudo vemos que los módulos "también te pueden gustar" en las páginas de productos de comercio electrónico no pueden ser vistos por los rastreadores de los motores de búsqueda, lo que hace que el módulo de enlace interno sea redundante.
Además, los módulos de revisión que incluyen UGC rico en palabras clave se encuentran dentro de los módulos de JavaScript que tampoco pueden ser detectados por los rastreadores.
Un problema interesante que tienen varios sitios web de comercio electrónico es que al deshabilitar JavaScript en las páginas de resultados, aún se pueden encontrar enlaces de productos, pero todas las imágenes desaparecen ya que no hay una opción de respaldo para descubrir las imágenes.
Solución:
Trabaje con el equipo de desarrollo para intentar crear un respaldo de JavaScript donde las imágenes todavía estén presentes en el código fuente y los módulos de JavaScript se puedan rastrear a través de HTML.
Una excelente manera de probar cómo se indexa el contenido de JavaScript es ir a la versión en caché de su página web y ver cómo se ve la "versión completa" de la página, así como revisar la "versión de solo texto".
18. Uso incorrecto de Meta Robots NOINDEX
Tema:
Nuestro equipo técnico de SEO ha auditado sitios web y ha descubierto que las etiquetas NOINDEX se han agregado al código fuente de las páginas por error. Además, páginas vistas que históricamente generaron tráfico con una etiqueta NOINDEX.
Sorprendentemente, un problema que puede ocurrir con más frecuencia de lo que pensaría es que los desarrolladores impulsan los entornos de prueba en vivo con la etiqueta NOINDEX todavía presente en el código fuente.
En última instancia, la etiqueta NOINDEX le indicará a los motores de búsqueda que no indexen la página y evitará que la página aparezca en los resultados de búsqueda.
Solución:
Si se encuentra con páginas que tienen una etiqueta NOINDEX cuando audita un sitio web y no está claro por qué la etiqueta está colocada, consulte con el equipo de desarrollo para ver cuándo y también por qué esas páginas incluyen la etiqueta.
Si se ha agregado una etiqueta NOINDEX por error, debe pedir a los desarrolladores que actualicen el código fuente y eliminen la etiqueta por completo o que la actualicen para leer <meta name=”robots” content=” INDEX, FOLLOW”>
19. 404 páginas blandas
Tema:
Una página 404 suave no debería existir en un sitio web, sucede cuando una página inexistente que debería devolver un código de estado 404 devuelve un código de estado 200 OK. Si 404 páginas devuelven un código de estado 200, aún se pueden rastrear e indexar.
En última instancia, esto es un problema, ya que los motores de búsqueda como Google pueden perder el tiempo rastreando estas páginas, lo que no proporciona ningún valor desperdiciando el presupuesto de rastreo en lugar de centrar el tiempo en páginas valiosas. Estas páginas también pueden crear problemas duplicados en un sitio web, especialmente si un sitio web tiene miles de páginas 404 blandas que muestran un mensaje de "página no encontrada".
Hay algunas formas diferentes de encontrar páginas blandas 404 que incluyen:
Visitando Search Console donde marca las páginas 404 blandas
Rastrear su sitio web y buscar 200 páginas de códigos de estado con etiquetas de título de "Página no encontrada"
Rastrear su sitio web con una extracción personalizada que busca el mensaje de copia del cuerpo que está presente en las páginas de códigos de estado 404 y cualquier página de códigos de estado 200 con ese mensaje debe ser un 404 suave
Solución:
Si encuentra páginas 404 suaves en su sitio web, hay un par de soluciones que se pueden implementar, estas incluyen:
301 redirige las páginas 404 blandas a una página alternativa apropiada si está disponible
Cambie el código de estado de estas páginas a un código de estado 404 o 410, pero verifique que no se pierda la equidad del enlace.
Si tiene problemas con su sitio web o necesita una auditoría técnica de SEO, visite nuestra página de servicios técnicos de SEO para obtener más información sobre cómo puede ayudarlo Semetrical.
