Revelando los secretos del SEO: indexación, calidad del sitio web y metaetiquetas
Publicado: 2019-09-04La optimización de motores de búsqueda es un tema complejo. Existen numerosas recomendaciones, guías y listas de verificación que intentan cubrir y explicar todos los diferentes aspectos del SEO. Para este artículo, lo hemos escuchado para que podamos abordar los problemas que más le importan. ¿Qué debe tener en cuenta con respecto a la indexación de sus páginas? ¿Cómo evalúa Google la calidad del sitio web? ¿Y cuál es el trato con las palabras clave en las metaetiquetas?
Si desea explorar el potencial SEO de su sitio web, puede solicitar una cita con nuestro Grupo de Estrategias Digitales y ver cómo podemos ayudarlo:
Haga una cita
Los temas de este artículo se basan en los comentarios de los participantes en un seminario web (en alemán) que realizamos recientemente. He respondido las preguntas más importantes, con el apoyo experto de Marcus Pentzek, quien, como consultor senior de SEO para Searchmetrics Digital Strategies Group, es responsable de asesorar a nuestros clientes y ayudarlos a mejorar el rendimiento de su motor de búsqueda.
Las preguntas tratan sobre las siguientes áreas de SEO:
- Rastreo e indexación de GoogleBot
- URL, metaetiquetas y palabras clave
- Señales de usuario e intención de búsqueda
- Calidad del sitio web: ¿Cómo puedo mejorar mi clasificación?
- Google analitico
Rastreo e indexación de GoogleBot
Tener un sitio web que se pueda rastrear es el primer requisito previo para ser elegido por Google y, por lo tanto, tener la posibilidad de aparecer en los resultados de búsqueda. También puede tomar decisiones sobre qué páginas se incorporan al índice de Google y cuáles no.
¿Cómo puedo asegurarme de que GoogleBot visite regularmente mi sitio?
GoogleBot visita los sitios web con la frecuencia necesaria:
- Un factor es el tamaño del sitio web, siempre que la gran cantidad de URL que tiene un sitio web grande sean valiosas. Si un sitio web tiene muchas páginas con contenido de baja calidad, entonces Google no tendrá la tentación de visitarlo con más frecuencia basándose únicamente en la gran cantidad de páginas.
- Si un sitio web a menudo está vinculado desde otros, lo que le otorga un PageRank fuerte, será visitado con más frecuencia.
- Otro factor es la cantidad de contenido nuevo que publica el sitio web. Si, por ejemplo, hay 20 publicaciones de blog nuevas (o actualizadas) todos los días, esto presiona a Google para que se mantenga al día y rastree el sitio con más frecuencia que si solo hay una publicación nueva por semana.
¿Puedo usar el mapa del sitio XML para decirle al GoogleBot qué debe leer y qué no?
No. Para eso está el archivo robots.txt. El mapa del sitio XML es principalmente para las URL que Google debe rastrear y (generalmente) indexar.
¿Puede Google juzgar cuánto he influido en la indexación de GoogleBot? ¿Y esto puede afectar cómo se evalúa mi sitio web?
Solo puede dar recomendaciones a Google con respecto a lo que debe rastrear. No puede influir directamente en él per se y, por lo tanto, esto no afectará la evaluación de su sitio web.
¿Tiene sentido tener indexada una página de aviso legal/impresión?
Sí. Cualquier empresa de renombre debe ser abierta y estar orgullosa de su nombre y de quién es. La impresión normalmente no canibalizará ninguna otra página del sitio web, por lo que no es un problema si está indexada.
¿En qué medida los errores tipográficos afectan la indexación o la clasificación de los motores de búsqueda?
Los motores de búsqueda son buenos para reconocer y comprender los errores ortográficos y deberían devolver el mismo resultado que para el término de búsqueda escrito correctamente. Para mí y para mi sitio web, esto significa que no hay razón para incluir deliberadamente palabras clave mal escritas en mi contenido. De hecho, esto crearía una impresión muy poco profesional y podría tener un impacto negativo en las señales de los usuarios (como la tasa de rebote).
Si Google cree que las consultas de búsqueda particulares se atienden mejor con contenido de alta calidad, entonces los errores tipográficos podrían incluso conducir a una caída en las clasificaciones, con una página reemplazada por sitios web que ofrecen textos de mayor calidad.
¿Cómo afecta la indexación "buena" la evaluación de Google de un sitio?
La indexación se ha hecho bien si solo se indexan las páginas que se supone que se encuentran a través de la búsqueda web. El impacto de esta indexación en la evaluación de un sitio web surge porque Google solo ve las áreas relevantes de un sitio web. Esto significa que Google no tiene que sopesar el contenido relevante y no relevante al determinar las clasificaciones.
¿Puede dañar la clasificación de un sitio web si se indexan demasiadas páginas?
Esto se explica mejor con un pequeño experimento mental: para cada dominio, GoogleBot obtiene un presupuesto limitado con el que puede rastrear el sitio. Si tengo más páginas de las que permite el presupuesto, llevará mucho más tiempo rastrear todo mi contenido. Y si actualizo algún contenido, también tomará más tiempo para que se recoja este nuevo contenido.
Hay otro punto importante. Si tengo una gran cantidad de contenido, pero no está optimizado para determinados términos de búsqueda, es probable que exista una gran cantidad de páginas que Google considere de baja calidad. Esto puede tener un impacto negativo en todo el dominio. Además, si tengo demasiadas páginas, puede suceder fácilmente que tenga contenido muy similar en diferentes páginas que cubran los mismos temas. Esto es lo que llamamos canibalización y, por lo general, hace que ninguna de estas páginas se clasifique como me gustaría.
¿Por qué no debería querer que una página de destino para una campaña de redes sociales esté en el índice? ¿Tiene un impacto negativo en el presupuesto de rastreo?
¡Buena pregunta! Siempre le aconsejaría que considere el propósito de una página de destino. Si tengo una página de destino que solo existe para recopilar los clientes potenciales de una campaña (podría ser una página que no contiene más que un formulario de contacto), entonces el contenido de esta página de destino se considerará de baja calidad y será mal evaluado por Google. Si tengo muchas páginas como esta y dejo que Google las indexe, esto puede dañar la evaluación general de mi sitio web.
Sin embargo, si lleno mi página de destino de redes sociales con contenido y las optimizo para diferentes palabras clave para mis páginas de destino de SEO, entonces puede tener sentido tener esta página indexada. Pero tenga cuidado: si las páginas de destino son demasiado similares, podrían terminar peleando entre sí por las mismas clasificaciones.
Esto significa que no hay una respuesta correcta. Para estar seguro (para evitar la canibalización), puede asegurarse de que solo permita que Google rastree e indexe el contenido diseñado específicamente para este propósito.
¿Qué significa el último anuncio de Google acerca de que noindex es el valor predeterminado?
El anuncio de Google de que, a partir del 1 de septiembre de 2019, ya no se aplicará la regla de no indexación en robotos.txt, cambia la forma en que puedo usar robots.txt. En primer lugar, debo ser consciente del hecho de que todas las páginas que solo excluí de la indexación a través de robots.txt ahora terminarán en el índice de Google.
Sin embargo, todavía puedo desindexar páginas de las siguientes maneras:
- noindex en la metaetiqueta de robots todavía funciona y es la opción más simple
- usando disallow en robots.txt, todavía puedo evitar que los bots rastreen cierto contenido en mi sitio web
¿Debo no indexar páginas con "contenido incorrecto" y cómo determino qué contenido es "malo"?
Como regla general, solo debo desindexar el contenido que no es relevante para los términos de búsqueda que quiero que me encuentren. El contenido es "malo" si no coincide con una consulta de búsqueda. Esto significa que el mejor método es evaluar qué contenido necesito para mis términos de búsqueda deseados y luego ver si puedo proporcionarlo.
¿Hace una diferencia para el SEO si tengo contenido como una página o una estructura de sitio más compleja? ¿O Google puede indexar un one-pager sin dificultad?
En términos de indexación, una sola página no debería ser un problema. Tiene la estructura de sitio más simple posible. Una vez en la página de inicio, se puede indexar y todo el contenido de enlaces que se transfiere a mi sitio a través de enlaces se centra en esta página.
Sin embargo, si quiero que me encuentren para más temas que los que coinciden directamente con mi tema principal, entonces se vuelve más difícil con un one-pager. Considere el ejemplo de un sitio web que ofrece servicios terapéuticos. La página de inicio está optimizada para todos los términos de búsqueda relevantes que están directamente relacionados con esta área de trabajo. Pero ahora quiero llegar a los usuarios que buscan problemas de salud específicos, para los cuales mis servicios pueden brindar una solución. En este caso, tendría sentido crear nuevo contenido para nuevas subpáginas que presenten mi conocimiento y experiencia, y que también respondan a las consultas de búsqueda relevantes. Por supuesto, con más páginas, la complejidad del sitio web también aumenta.
Otro punto a considerar es que, dependiendo de la intención del usuario detrás de una consulta de búsqueda, Google define si los textos más cortos o más largos son más apropiados. En base a esto, podría ser recomendable crear una página más larga y holística (cf. Pillar Page) sobre el tema, o podría tener más sentido crear más páginas más pequeñas, cada una de las cuales tiene un enfoque más claro y está optimizada para palabras clave individuales. Si se hace esto último, obviamente deben organizarse en una estructura de sitio web lógica.

Si esta distinción no parece importante para su escenario específico, entonces los one-page tienen la ventaja adicional de que, debido a la gran cantidad de términos que aparecen en la página, a menudo separados por una cierta distancia, tienen más posibilidades de lograr clasificaciones durante mucho tiempo. palabras clave de cola que se componen de varios términos diferentes.
URL, palabras clave y metaetiquetas
Los motores de búsqueda son cada vez más inteligentes, el SEO cada vez es más complejo. Esto hace que muchas personas se pregunten cuán importantes siguen siendo los viejos favoritos, como las palabras clave y las metaetiquetas.
¿Es inútil usar palabras clave como meta-etiquetas?
Al optimizar para el motor de búsqueda de Google: sí. Esto fue confirmado por Matt Cuts de Google en 2009. Y en este caso: lo que era cierto hace 10 años sigue siendo cierto hoy.
Sin embargo, para los motores de búsqueda secundarios, el uso de metaetiquetas aún puede ser útil. Como regla general para la metaetiqueta de palabras clave, debe definir 2 o 3 términos de búsqueda para cada URL para la que esta URL sea relevante. Y evite la superposición con otras URL.
¿Qué tan importantes son factores como la estructura de la página, por ejemplo, con encabezados h1, h2 o h3, metaetiquetas y etiquetas alternativas?
Una página bien estructurada siempre puede ayudar, pero hay varios beneficios diferentes. Los encabezados hacen que el texto sea más digerible, le dan al contenido una estructura clara y facilitan el abordaje de subtemas.
Las metaetiquetas son más variadas. El metatítulo es un elemento importante que se utiliza para mostrar a los motores de búsqueda cuál es el tema principal de la URL y para qué término de búsqueda se escribió el contenido. La meta descripción es principalmente importante en la página de resultados de búsqueda, porque es el primer texto de mi página que ve un usuario, y esta es la base para la decisión del usuario de hacer clic o no.
Las etiquetas alternativas, por otro lado, son muy importantes para la búsqueda de imágenes de Google.
URL habladas: ¿Cuál es la URL perfecta?
Este podría ser el tema de todo un taller. La respuesta corta es que una URL debe reflejar la estructura del sitio web y cada elemento debe comunicar al usuario lo que puede esperar de la página web.
¿Sigue valiendo la pena operar dominios de palabras clave especiales que puedan posicionarse bien y vincularse a mi página para que obtenga un PageRank mejorado?
Hoy en día, los dominios no obtienen ningún beneficio de clasificación solo por incluir la palabra clave exacta en el título del dominio. Entonces, con respeto, la respuesta es "no".
Fortalecer el PageRank de su sitio web principal usando enlaces de estos dominios de palabras clave solo puede funcionar si los dominios de palabras clave son valiosos por derecho propio. Si se trata de dominios recién registrados, inicialmente no tendrán ningún valor, por lo que no tendrán ningún PageRank que transmitir. Esto puede mejorar si se crea un perfil de vínculo de retroceso para los dominios de palabras clave.
La manipulación de backlinks como factor de clasificación se ha vuelto más difícil de lo que solía ser, y construir un perfil de backlinks es menos "sencillo". Hoy en día, los vínculos de retroceso son más valiosos cuando surgen de forma natural (es decir, cuando son "recomendaciones" genuinas), cuando están conectados con el tema y cuando tienen una "historia". Un enlace tiene que tener una razón de existir para ser considerado natural. Con esto en mente, es más fácil para un sitio web de alta calidad recopilar vínculos de retroceso naturales porque a menudo se clasificará para términos de búsqueda relevantes y, por lo tanto, servirá a la intención del usuario de un webmaster que busca una fuente relevante.
En lugar de centrarme en esta estrategia, prefiero invertir tiempo y recursos en optimizar el contenido de tu sitio web (para los usuarios), para que luego se convierta en el objetivo natural de nuevos backlinks. Si intenta crear enlaces artificialmente, corre el riesgo de recibir una sanción manual de Google. Otras estrategias (por ejemplo, contenido optimizado y centrado en el usuario) pueden conducir a un éxito mucho mayor a largo plazo.
Señales de usuario e intención de búsqueda
La intención de búsqueda describe lo que el usuario espera de su búsqueda. ¿Quieren leer un texto largo, recibir una respuesta rápida o prefieren ver un video? Esto está relacionado con las señales de usuario creadas por las acciones del usuario. ¿Con qué frecuencia hacen clic los usuarios en un resultado de búsqueda, cuánto tiempo pasan en la página y con qué frecuencia vuelven a hacer clic en los resultados de búsqueda? La optimización exitosa de motores de búsqueda siempre debe considerar al usuario y su comportamiento.
Tengo muchas páginas de contenido, donde el usuario pasa algún tiempo leyendo pero se va sin más interacción. ¿Esta tasa de rebote del 100% afectará negativamente mi clasificación o Google tiene en cuenta que esta es una página de contenido puro?
Estás bien. En Google Analytics, esto sería una tasa de rebote del 100%. Google establece en sus pautas que una página no necesita una tasa de rebote baja, pero aún diría que es raro que no desee mantener a los usuarios en su dominio.
El ejemplo de Wikipedia nos muestra que hay más que ofrecer más que el contenido de la página. Wikipedia brinda a los usuarios numerosos caminos a seguir, donde pueden acceder a más contenido e informarse sobre temas relacionados.
Google en realidad no usa la tasa de rebote como un factor de clasificación. En cambio, Google mide la métrica relacionada, "tasa de regreso a SERP". Aquí, Google observa más de cerca cuánto tiempo tarda un visitante de la página en volver a la página de resultados del motor de búsqueda. Y esto no tiene por qué ser una señal negativa. Si un usuario ha encontrado lo que estaba buscando, no tendrá que volver a su consulta de búsqueda inicial. Pero si no encuentran lo que estaban buscando, tendrán que hacer clic en un resultado de búsqueda alternativo o ingresar una consulta de búsqueda nueva y más precisa que pueda arrojar resultados más adecuados.
Si creemos en las declaraciones hechas por John Mueller (Google Webmaster Trends Analyst), entonces las señales de los usuarios no son relevantes para las clasificaciones y solo se usan para ayudar a entrenar los algoritmos de Google.
El seminario web no cubrió la intención de búsqueda local y de navegación. ¿Por que no?
Esto fue solo para mantener el ejemplo simple en el tiempo disponible. Por supuesto, la intención de búsqueda no se limita a consultas transaccionales e informativas. También diría que dentro de cada categoría de intención de búsqueda, existen matices más precisos que pueden ayudarlo a adaptar su contenido más de cerca a las necesidades de los usuarios.
Calidad del sitio web: ¿Cómo puedo mejorar mi clasificación?
No existe una manera rápida y fácil de obtener mejores clasificaciones. Pero sabemos bastante sobre el algoritmo de clasificación de Google. De primordial importancia es el hecho de que Google evalúa la calidad del contenido de un sitio web y que esto juega un papel importante en el cálculo de la posición de la página en los resultados de búsqueda. Pero, ¿cómo se mide la calidad de los sitios web?
¿Quién evalúa mi sitio web y decide si es bueno o malo?
Las evaluaciones de los sitios web son realizadas por el algoritmo del motor de búsqueda. El algoritmo, por ejemplo, el de Google, analiza numerosos factores diferentes, incluidos el contenido, los enlaces, las señales de los usuarios o los aspectos técnicos, y los utiliza para decidir qué URL son más relevantes para una consulta de búsqueda. Esto es muy complejo, pero básicamente un sitio web debe estar técnicamente bien optimizado y ofrecer el contenido más relevante posible para tener la mejor oportunidad de lograr una clasificación alta.
¿Qué puedo hacer para influir directamente en los factores de clasificación de mi sitio web?
Esta es una pregunta extremadamente amplia que no se puede responder en unas pocas oraciones. Hay más de 200 factores de clasificación que pueden tener diversos grados de influencia. Observar los factores individuales y examinar formas de optimizarlos podría ser el tema de un seminario web futuro. O de 200.
Pero un lugar para comenzar sería la etiqueta del título, que es uno de los factores de clasificación en la página más importantes. Usar sus palabras clave principales en el título de la página es una de las formas más directas en que puede tener influencia.
¿Qué resultados de búsqueda obtienen un Fragmento destacado y cómo puedo influir en esto?
Depende completamente de los motores de búsqueda si se muestra o no un fragmento destacado. Así como determinan qué contenido del sitio web relevante se muestra. Para obtener antecedentes detallados sobre los fragmentos destacados, recomendaría leer las preguntas y respuestas de Malte Landwehr e Izzi Smith sobre el tema o ver su seminario web.
Google analitico
Cuantos más datos tenga, mejor podrá comprender su rendimiento en línea. Por lo tanto, es bueno conectar los datos de su plataforma de optimización de motores de búsqueda (como Searchmetrics Suite) con los datos de usuario de una herramienta como Google Analytics.
Si tengo una página sólida, ¿me recomendaría usar Google Analytics para que Google pueda ver cómo se comportan los usuarios en el sitio?
Por lo general, es una buena idea utilizar un programa de análisis. Es una buena idea porque le brinda información sobre el comportamiento de sus usuarios, que puede usar para ayudarlo a tomar decisiones. Sin embargo, Google deja claro en sus T&C, y de ninguna manera sugeriría que Google actúe de otra manera, que no utiliza datos de Google Analytics para evaluar sitios web.
¿Quieres comenzar a aplicar tus conocimientos de SEO en la práctica? Entonces organice su demostración personal del software Searchmetrics Suite hoy mismo:
Solicite una demostración
