Horario de oficina de SEO, 28 de enero de 2022

Publicado: 2022-02-01

Este es un resumen de las preguntas y respuestas más interesantes del Google SEO Office Hours con John Mueller el 28 de enero de 2022.

ocultar contenido
1 El valor de los enlaces internos
2 Tratar con páginas no deseadas en SERP después de un ataque de malware
3 ¿Cómo indexar URL válidas más rápido?
4 ¿Los emojis en títulos y meta descripciones afectan el SEO?
5 preguntas frecuentes que no se muestran en las SERP
6 Manejo del contenido estacional
7 CLS vs clasificación
8 Core Web Vitals frente a rastreo e indexación
9 Redireccionamientos geográficos frente a sitios web de noticias

El valor de los enlaces internos

02:15 "¿Importa la ubicación de los enlaces [internos]?"

John respondió: “No necesariamente. Creo que para los enlaces internos, por un lado, lo usamos para entender mejor el contexto. […] Pero otra parte realmente importante es poder rastrear tu sitio web. Para eso, no importa dónde esté ese enlace en una página para rastrear el resto del sitio web. A veces, las cosas están en el pie de página, los encabezados, a veces en un menú compartido, una barra lateral o dentro de un cuerpo de contenido. Todos esos lugares vinculados están bien desde nuestro punto de vista.

Por lo general, lo que más diferenciamos, con respecto a la ubicación en una página, es el contenido en sí mismo para tratar de averiguar qué es relevante para esta página en particular. Por eso, a veces tiene mucho sentido centrarse en la parte central de la página, la pieza principal de contenido que cambia de una página a otra, y no tanto los encabezados, las barras laterales, los pies de página o cosas por el estilo. […] Esos son parte del sitio web en sí, pero no es la razón principal por la que existe esta página y la razón principal por la que clasificamos esa página.

Así que esa es la diferencia que tomamos cuando se trata de diferentes partes de la página. Y para los enlaces, normalmente es más importante comprender el contexto de las páginas y poder rastrear el sitio web. Y para eso, no necesitamos diferenciar entre diferentes partes de la página”.

Tratar con páginas no deseadas en SERP después de un ataque de malware

24:11 “Tenemos un sitio web que sufrió un ataque de malware en diciembre pasado. Lo hemos limpiado y nos aseguramos de que no haya ningún problema de seguridad en Google Search Console. Pero las páginas no deseadas que se indexaron [en] como resultado del malware aún se muestran en los resultados de búsqueda. […] ¿Qué podemos hacer?"

John dijo: "En primer lugar, verificaría dos veces que estas páginas se eliminen porque algunos tipos de piratería de sitios web se realizan de una manera que si verifica manualmente, parece que la página se eliminó, pero en realidad para Google, todavía es allí. Por lo tanto, verificaría con la herramienta [Inspección de URL] algunas de esas páginas para verificar [si] está completamente limpia o si queda algo que está tratando de ocultar. Creo que esa es la base de todo lo demás.

Luego, para el resto, hay dos enfoques que recomiendo. Por un lado, el mejor enfoque es asegurarse de que las páginas más visibles se eliminen manualmente. Eso significa buscar el nombre de su empresa, el nombre del sitio web, […] productos principales, ese tipo de cosas, y ver las páginas que aparecen en los resultados de búsqueda y asegurarse de que no se muestre nada de lo que no desea que se muestre. . Por lo general, eso da como resultado quizás hasta 100 URL en las que dice que están pirateadas, y quiero que se eliminen lo más rápido posible. Para esos, use la herramienta Eliminaciones. Esa es esencialmente la forma más rápida de limpiar las cosas. La herramienta Eliminaciones elimina esas URL en aproximadamente un día, especialmente para las cosas que serían visibles para los usuarios que se encargan de eso.

La otra parte es que las URL restantes se volverán a rastrear con el tiempo. Pero […] cuando se trata de muchas URL en un sitio web, eso es algo que toma un par de meses. Entonces, por un lado, podría dejarlos y decir, bueno, no son visibles para las personas a menos que busque explícitamente el contenido pirateado o haga una consulta de su sitio web. Se retirarán con el tiempo. Déjalos así durante medio año y luego vuelve a verificar para ver si están completamente limpios.

Si desea intentar resolver eso lo más rápido posible, también puede usar la herramienta Eliminaciones con la configuración de prefijo y esencialmente tratar de encontrar prefijos comunes para estas páginas pirateadas, que pueden ser un nombre de carpeta, nombre de archivo o algo que está en el principio y filtrarlos. La herramienta Eliminaciones no los elimina de nuestro índice, por lo que no cambia nada para la clasificación, pero ya no los muestra en los resultados. Esa es una forma de pasar solo las páginas más visibles para tratar de limpiar el resto.

Personalmente, no creo que sea necesario limpiar todas esas páginas porque si los usuarios no las ven, técnicamente [estas páginas] existen en los resultados de búsqueda, pero si nadie las ve, no cambia nada. para su sitio web Entonces, desde ese punto de vista, me centraría en la parte visible. Limpie eso, y cuando esté hecho, deje que el resto se resuelva solo”.

¿Cómo indexar URL válidas más rápido?

28:39 “Tenemos un sitio web con URL válidas con contenido de calidad. Están siguiendo las pautas mencionadas en Google Search Central. […] Pero a veces lleva mucho tiempo indexar esas URL. […] Ojalá tuviéramos una herramienta que podamos usar para indexarlos más rápido”.

John: “[…] Creo que, en general, existe la herramienta o funcionalidad Enviar a indexación en Search Console que es lo que recomendamos para estas cosas. Pero al mismo tiempo, no indexamos todo. Es muy posible que tenga algo que sea una página válida, pero no lo indexamos. Creo que una de las razones por las que van en esa dirección es que, hoy en día, casi todas las páginas son páginas válidas, y es realmente difícil configurar un CMS en el que se producen páginas que no son válidas. Si usa WordPress o cualquiera de los sistemas comunes, solo produce páginas válidas de forma predeterminada.

Desde un punto de vista técnico, no podemos indexar todo en la web, por lo que tenemos que trazar la línea en alguna parte. Es completamente normal que los sitios web tengan partes de su contenido indexadas y partes de su contenido no indexadas. Por lo general, con el tiempo, cuando entendemos que este es un sitio web realmente bueno y si tiene una estructura interna razonable, podemos recoger más y más, pero no es una garantía de que indexaremos todo en un sitio web. Así que eso es algo a tener en cuenta. Especialmente en Search Console, es fácil mirar los informes y decir, oh, estas páginas no están indexadas, por lo tanto, estoy haciendo algo mal. Pero desde nuestro punto de vista, es normal que no todo esté indexado. Es mucho más visible hoy en día, creo”.

¿Los emojis en títulos y meta descripciones afectan el SEO?

33:04 ¿Puedes dar [alguna] recomendación para los emojis usados ​​en el título y la meta descripción? ¿Están afectando al SEO o no?”

Según John, “Definitivamente puedes usar emojis en títulos y descripciones en tus páginas. No mostramos todo esto en los resultados de búsqueda, especialmente si creemos que interrumpe los resultados de búsqueda en términos de que parece engañoso, tal vez. […] Pero puedes mantenerlos allí. No es que causen ningún problema.

No creo que tengas ninguna ventaja significativa al ponerlos allí. A lo sumo, lo que tratamos de averiguar es cuál es el equivalente de ese emoji. Tal vez use esa palabra también asociada con la página, pero no es que obtenga una ventaja por […] un título colorido. Desde ese punto de vista, si te gusta tener esto en tus títulos y descripciones, hazlo. Si no los quieres allí, también está bien. No creo que perjudique o perjudique al SEO ni que ayude al SEO de ninguna manera”.

Preguntas frecuentes que no se muestran en las SERP

36:15 Tenemos un esquema de preguntas frecuentes en bastantes artículos que no muestran ningún error técnico en GSC. ¿Hay razones no técnicas por las que Google no muestra nuestras preguntas frecuentes en las SERP debajo de la publicación? ¿Podría ser un problema de confianza con el contenido de nuestro sitio?

La respuesta de John fue: “Los resultados enriquecidos de preguntas frecuentes son esencialmente similares a otros tipos de resultados enriquecidos en el sentido de que tenemos varios niveles que tenemos en cuenta antes de mostrarlos en los resultados de búsqueda. Por un lado, deben ser técnicamente correctos. Parece que estos son técnicamente correctos. Por otro lado, deben cumplir con nuestras políticas. No creo que tengamos políticas significativas sobre los resultados enriquecidos de las preguntas frecuentes, aparte de que el contenido debe estar visible en la página. El tercer problema que a veces entra en juego aquí es que debemos poder entender que este sitio web es confiable en ese sentido, que podemos confiar en que estos datos son correctos. Eso es algo en lo que, desde el punto de vista de la calidad, tal vez no estemos convencidos de un sitio web, y luego no lo mostraríamos. Pero esos son los tres pasos que yo miraría. […] Si todo eso es correcto, entonces pensaría en qué podría hacer para mejorar significativamente la calidad de mi sitio web en general”.

Tratar con el contenido estacional

37:38 Nos gustaría ampliar las páginas existentes con contenido más actualizado, por ejemplo, sobre temas o eventos de temporada. ¿Qué hacemos con tales piezas de contenido cuando finaliza la temporada o el evento (por ejemplo, Black Friday)? ¿Simplemente dejar estas secciones en la página de forma permanente o eliminarlas después del evento y agregarlas nuevamente el próximo año?

John respondió: “Por nuestra parte, depende totalmente de ti cómo lidiar con esto. Mantener las páginas allí está bien, eliminarlas después de un tiempo está bien si ya no son relevantes. Esencialmente, lo que probablemente verá es que el tráfico a estas páginas disminuirá cuando no sea estacional. Si las personas no buscan el Black Friday, entonces no encontrarán sus páginas de Black Friday. Entonces no importa si tiene esa página o no porque no se está perdiendo ninguna impresión allí. Si hace que esta página no sea indexada, o si la convierte en 404 por un tiempo y luego la vuelve a traer más tarde, está perfectamente bien.

Lo único que tendría en cuenta con las páginas de temporada es que reutilices las mismas URL año tras año. Entonces, en lugar de tener una página que se llame Black Friday 2021 y luego Black Friday 2022, tenga una página llamada Black Friday. De esa manera, si reutiliza esa página, todas las señales que ha asociado con esa página a lo largo de los años seguirán funcionando a su favor en lugar de tener que crear nuevas señales cada año para un evento estacional como este. Esa es la recomendación principal que tengo allí.

Si elimina estas páginas cuando no las necesita y vuelve a crear la misma URL más tarde, o si mantiene esas páginas activas durante un período de tiempo más largo, creo que ambos están perfectamente bien. Especialmente en eventos competitivos de temporada como Black Friday o Navidad […], es algo en lo que tiendo a ver sitios que crean esas páginas con un poco de anticipación. Incluso si todavía no tienen mucho contenido para compartir allí, pueden comenzar a generar algunas señales para esas páginas. Eso podría ser con respecto a enlaces internos y externos, esfuerzos de marketing o lo que sea. Al tener esas páginas con un poco de anticipación, incluso si no tiene mucho contenido en ellas, es un poco más fácil estar allí cuando de repente está sazonado”.

CLS vs ranking

40:19 ¿Qué tan grande es el impacto en la clasificación de Google si tengo un puntaje CLS malo? FCP, FID y LCP tienen buenos puntajes, solo que CLS no es tan bueno”.

John dijo: “No tenemos nada parecido a un número fijo con respecto a qué tan fuertes funcionan estos puntajes para un sitio web. Es realmente difícil decir qué tan malo es o qué tan grande es el impacto.

Desde nuestro punto de vista, tenemos en cuenta estas métricas cuando se trata de Core Web Vitals y el factor de clasificación de Page Experience. Tratamos de verlos en general. Y tratamos de enfocarnos especialmente […] donde estás en esa área razonable con respecto a estos puntajes. […] Tan pronto como esté fuera de esa sección mala, entonces eso es algo que podemos decir, bueno, esto es razonable y podemos tenerlo en cuenta. No tenemos ninguna clasificación fija o función algorítmica en la que digamos, bueno, tomamos la mitad de FCP y la mitad de CLS, y tomamos en cuenta un tercio de esto. Es algo en lo que debemos ver el panorama general, y puede suceder que con el tiempo cambiemos un poco las cosas para asegurarnos de que estamos marcando o tratando la experiencia de página de las páginas de manera adecuada.

Especialmente en lo que respecta al factor de clasificación de la experiencia de la página, que es algo en lo que año tras año también haremos cambios, por lo que espero que cada vez que revisen esto, probablemente anuncien previamente algunos otros cambios u otros factores que entran en juego. jugar aquí, similar a cómo introdujimos el aspecto de escritorio de eso también, del que hablamos, creo, el año pasado en algún momento y entrará en juego más adelante este año”.

Core Web Vitals frente a rastreo e indexación

42:33 " ¿Pueden los puntajes bajos de Core Web Vitals ser un problema de calidad del sitio que limita el rastreo o limita la cantidad de páginas en un sitio que terminan siendo indexadas?"

John: “Es realmente difícil mirar esto sin mirar un sitio web específico. Pero, esencialmente, Core Web Vitals influye en el factor de clasificación de Page Experience, y eso es más un factor de clasificación, no es un factor de calidad. En particular, no juega con cuánto rastreamos e indexamos desde un sitio web. En algunos casos, existe cierta relación entre la rapidez de la página y la rapidez con la que podemos rastrearla, pero no tiene por qué ser así. Eso es algo en lo que, por lo general, estos lados están menos conectados y no están completamente unidos.

En particular, cuando se trata de la experiencia de la página, el tiempo que tarda una página en cargarse depende de muchos factores, más que solo una solicitud al servidor, puede ser que tal vez tenga fuentes en esta página o tal vez tenga imágenes grandes que se extraen de otros sitios, todas estas cosas son elementos que influyen en la velocidad de carga de la página para un usuario, pero no se relacionan con la velocidad con la que podemos rastrear una página. Obviamente, si su servidor es tan lento que cualquier solicitud realizada al servidor demora un par de segundos, entonces eso es algo en lo que diría, bueno, su página será lenta y el rastreo de Google será lento solo porque no podemos gatear tanto como nos gustaría.

Pero en su mayor parte, si está hablando de que algunas páginas son buenas y el rastreo es razonablemente rápido, entonces no esperaría ver una relación entre las puntuaciones de Core Web Vitals y el rastreo y la indexación de un sitio web".

Redireccionamientos geográficos frente a sitios web de noticias

53:25 “Sé que Google generalmente desaconseja los redireccionamientos geográficos en los sitios web por un montón de razones. El hecho de que Googlebot pueda rastrear e indexar correctamente todos los sitios, por ejemplo. […] Me pregunto si la situación es diferente para el contenido de noticias o los sitios web de noticias. Varios de los principales proveedores de noticias […] han implementado redireccionamientos geográficos durante bastantes años, y ninguno de ellos parece estar experimentando efectos negativos en la capacidad de indexación de su contenido”.

Según John, “Eso se aplica a todo tipo de sitios web. Desde nuestro punto de vista, por lo general, las redirecciones geográficas son más una cuestión de dificultarnos técnicamente rastrear este contenido. Especialmente si está redirigiendo a los usuarios de los EE. UU. a una versión diferente de un sitio web, seguiremos esa redirección porque Googlebot generalmente rastrea desde una ubicación. Entonces es menos una cuestión de señales de calidad. […] Es más que si Google no puede ver sus páginas web, entonces no podemos indexarlas, y esa es esencialmente la razón principal por la que no recomendamos hacer estas cosas.

No sé si algunos de estos sitios están haciendo algo en el que algunos usuarios están siendo redirigidos y otros no están siendo redirigidos. Tal vez Googlebot no esté siendo redirigido. Es posible. Desde nuestro punto de vista, no creo que eso les haga ningún favor porque generalmente terminaría en una situación en la que tienes varias URL con el mismo contenido en los resultados de búsqueda y estás compitiendo contigo mismo. Entonces no se trata tanto de hacer algo furtivo y colarse en los resultados, sino más bien de duplicar cosas en su sitio. Estamos encontrando su contenido en varias ubicaciones, no sabemos cuál clasificar mejor, por lo que tendremos que adivinar eso.

Desde ese punto de vista, mi sospecha, sin revisar ninguno de estos sitios de antemano, es que somos conscientes de estos redireccionamientos geográficos. Estamos viendo que tienen lugar y, desde un punto de vista técnico, [estamos] tratando de rastrear e indexar las páginas correctas allí, pero no es que haya algo oculto detrás de escena allí.

Tampoco es el caso de que lo veamos como una especie de intento de encubrimiento o algo que vaya en contra de las directrices para webmasters. Desde un punto de vista técnico, si nos dificulta encontrar e indexar su contenido, será difícil para nosotros hacer lo que usted quiere que hagamos. Por eso tenemos estas recomendaciones”.