Horario de oficina de SEO: 17 de septiembre de 2021

Publicado: 2021-09-21

Este es un resumen de las preguntas y respuestas más interesantes del Google SEO Office Hours con John Mueller el 17 de septiembre de 2021.

ocultar contenido
Límites de 1 palabra
2 Sin cambios en las métricas de cobertura del índice
3 Las actualizaciones del informe de cobertura del índice
4 Comprender la calidad del sitio web
5 Equidad de enlace de paso
6 Migración del sitio del dominio
7 Adición de varios tipos de esquema
8 404 frente a rastreabilidad e indexabilidad
9 Bloqueo de tráfico de otros países
10 Reagrupamiento de páginas
11 El algoritmo MUM
12 Migración del sitio
13 Eliminación de contenido antiguo de un sitio de noticias

Límites de palabras

09:05 "¿Cuál es el límite de palabras que tenemos que usar en las páginas de [categoría]?"

John afirmó que no existen tales límites y agregó que “[…] especialmente con las páginas de categorías, es necesario tener alguna información en la página para que entendamos cuál es el tema. Pero eso es generalmente muy poca información. Y en muchos casos, entendemos que de los productos que ha enumerado de todos modos, si los nombres de los productos son lo suficientemente claros para que los entendamos. […] Pero a veces los nombres de los productos son un poco difíciles de entender, y entonces podría tener sentido agregar algo de contexto allí. Pero por lo general es un contexto adicional del tamaño de quizás una, dos o tres oraciones”.

Sin cambios en las métricas de cobertura del índice

10:57 “Estoy trabajando en un gran sitio web con un par de millones de páginas. Hicimos una redirección entre dos idiomas. […] Entonces la migración va bien, el tráfico se está moviendo del segundo camino. Solo para aclarar, es una proyección entre dos subcarpetas o todo dentro del mismo dominio. Lo que quiero plantear aquí es que no estamos viendo ningún cambio en las métricas de Cobertura después de casi tres semanas de haber realizado esa redirección. […] Sin eliminar las páginas válidas, sin aumentar las páginas excluidas debido a redirecciones ni nada por el estilo. ¿Deberíamos preocuparnos por eso?”

“No creo que haya una línea de tiempo fija para que ese tipo de cosas sean visibles. […] Rastreamos páginas a una velocidad diferente en un sitio web. Y algunas páginas las volveremos a rastrear todos los días y otras páginas las volveremos a rastrear tal vez una vez al mes o cada pocos meses. Entonces, si el contenido de estas carpetas que está fusionando es contenido que rara vez se rastrea, tomará mucho tiempo para que se refleje. Mientras que si se trata de contenido que se rastrea de forma muy activa, entonces debería ver cambios allí, por lo general, no sé, una semana más o menos”.

Las actualizaciones del informe de cobertura del índice

13:25 Al fusionar dos subcarpetas, “[…] el tráfico va de una parte del sitio a la otra. Todo va bien, y también lo estamos viendo en los archivos de registro. […] Pero no estamos viendo esto en las métricas de Cobertura. ¿Nos preocupa que eso pueda ser un error de informe o que debamos estar esperando todo el día?

John respondió: “[…] El informe de cobertura del índice se actualiza quizás dos veces por semana. […] Muchos de los informes en Search Console son una o dos veces por semana, por lo que podría ser algo en lo que es solo un retraso. Pero si ve que el tráfico va a las páginas correctas, si está mirando el Informe de rendimiento y está viendo ese tipo de cambio, entonces creo que está perfectamente bien. No creo que deba estar atento al informe de cobertura del índice para algo como esto. Porque lo que generalmente sucede cuando fusionas páginas como esta es que nuestros sistemas primero tienen que darse cuenta de que tenemos que encontrar un nuevo canónico para estas páginas. Así que tomas dos páginas, las doblas en una. Luego vemos que esto es un conjunto de páginas, tenemos que elegir una canónica, y ese proceso toma un poco de tiempo. Y luego se necesita un poco de tiempo para que eso se refleje en los informes. Mientras que si hace algo como un movimiento de sitio limpio, entonces podemos transferir todo. No tenemos este proceso de canonicalización que tenemos que resolver. Así que me imagino que lleva más tiempo ser visible allí”.

Comprender la calidad del sitio web.

15:22 “Mi pregunta es sobre […] específicamente los algoritmos con nuevas páginas […] cuando llega Google y lo llama y busca entenderlo. ¿Luego compara esas páginas con páginas heredadas más antiguas en el sitio y dice, está bien, bueno, estas páginas son geniales, pero estas páginas mucho más antiguas en realidad son basura? Entonces afectará la calidad de las páginas más nuevas y las páginas de categoría. ¿Es eso algo que hacen los algoritmos […] para comprender realmente la calidad del sitio web?”

John dijo que “[…] Cuando tratamos de comprender la calidad de un sitio web en general, es solo un proceso que lleva mucho tiempo. Y tiene , no sé , un tiempo de espera bastante largo allí. Entonces, si agrega cinco páginas a un sitio web que ya tiene 10 000 páginas, entonces probablemente nos enfocaremos primero en la mayor parte del sitio y luego, con el tiempo, veremos cómo se establece con el nuevo contenido; ahí también."

Equidad de enlace de paso

17:06 “Si obtienes un vínculo de retroceso, [Google] no solo asumirá que es un vínculo de retroceso de buena calidad y, por lo tanto, simplemente pasará la equidad del vínculo al sitio a ciegas. Entonces, ¿Google, cuando está rastreando estos backlinks, mira el tráfico de referencia y lo reproduce en el algoritmo? O si no ve esa información, ¿intenta, supongo, evaluar si hay una alta propensión a hacer clic en ese enlace? Y, entonces, si hay una alta propensión a hacer clic en ese enlace, ¿pasarán la equidad del enlace? Si no lo hay, diga que sabe, […] literalmente podría crear un blog y un enlace ahora. En ese caso, Google dice, bueno, en realidad no hay tráfico; Realmente no está sucediendo mucho aquí, entonces, ¿por qué deberíamos aprobar alguna forma de equidad de enlace? […] ¿Eso influye en si la equidad de enlace se transfiere o no a un sitio?”

"No me parece. No usamos cosas como el tráfico a través de un enlace cuando tratamos de evaluar cómo se debe valorar un enlace. Hasta donde yo sé, tampoco miramos cosas como la probabilidad de que alguien haga clic en un enlace con respecto a cómo deberíamos valorarlo. Porque a veces los enlaces son esencialmente solo referencias, y no es tanto que esperemos que las personas hagan clic en cada enlace de una página . Pero si alguien se está refiriendo a su sitio y diciendo, estoy haciendo esto porque este experto dijo que hiciera eso. Entonces la gente no va a hacer clic en ese enlace y siempre [...] mirará su sitio y confirmará lo que esté escrito allí. Pero lo verán casi como una referencia. […] Si necesitaban encontrar más información, podían ir allí. Pero no necesitan hacerlo. Y desde ese punto de vista, no creo que lo tengamos en cuenta a la hora de evaluar el valor del enlace”.

Migración de sitio de dominio

20:53 Hicimos una migración del dominio del sitio de un dominio a uno nuevo y seguimos todos los requisitos y recomendaciones de migración. Actualizamos los redireccionamientos, las etiquetas canónicas y probamos de antemano en un entorno de desarrollo. Agregamos la nueva propiedad y verificamos el nuevo dominio en Google Search Console. Al realizar el cambio de dirección, recibimos un error de validación que indica que hay una redirección 301 desde la página de inicio y no se pudo obtener el dominio anterior. ¿Cómo aprobamos la validación de la herramienta Cambio de dirección?”

“En primer lugar, lo más importante a tener en cuenta es que la herramienta Cambio de dirección es solo una señal adicional que usamos con respecto a las migraciones. No es un requisito. Entonces, si, por cualquier motivo, no puede hacer que la herramienta Cambio de dirección funcione para su sitio web, si tiene la redirección configurada correctamente, todas esas cosas, entonces debe estar configurado. No es algo que usted absolutamente necesita hacer. Me imagino que la mayoría de los sitios […] en realidad no usan esta herramienta. Es algo más como aquellos que saben sobre Search Console y aquellos que saben sobre todo este tipo de cosas sofisticadas, podrían estar usándolo. Con respecto a por qué podría estar fallando, es realmente difícil decirlo sin saber el nombre de su sitio o las URL que está probando allí.

Una cosa que he visto es si tiene una versión www y una versión no www de su sitio web y redirige paso a paso a través de eso. Entonces, por ejemplo, redirige a la versión que no es www y luego redirige al nuevo dominio. Entonces eso puede suceder que nos desconcierte si envía el Cambio de dirección en la versión del sitio que no es la versión principal. Entonces, eso podría ser una cosa, para verificar dos veces con respecto a la herramienta de cambio de dirección, está enviando la versión que está indexada actualmente, o está enviando tal vez la versión alternativa en Search Console.

Agregar varios tipos de esquema

23:36 "¿Puedo agregar varios tipos de Esquema a una página? En caso afirmativo, ¿cuál sería la mejor manera de combinar el esquema de preguntas frecuentes y el esquema de recetas en una sola página?

Puede poner tantos datos estructurados en su página como desee. Pero en la mayoría de los casos, cuando se trata de los resultados enriquecidos que mostramos en los resultados de búsqueda, tendemos a elegir solo un tipo de datos estructurados o un tipo de resultado enriquecido y solo nos enfocamos en eso. Por lo tanto , si tiene varios tipos de datos estructurados en su página, existe una gran posibilidad de que solo elijamos uno de estos tipos y lo mostremos. Entonces, si desea que se muestre un tipo en particular en los resultados de la búsqueda y ve que no hay usos combinados cuando observa los resultados de la búsqueda, intentaría centrarme en el tipo que desea, y no solo combinarlo con otras cosas Entonces, idealmente, elige uno que realmente quieras y concéntrate en eso”.

404 vs rastreabilidad e indexabilidad

24:39 Nuestro informe de estadísticas de rastreo de GSC muestra un aumento constante de 404 páginas que NO forman parte de nuestro sitio (no existen en nuestro mapa del sitio, ni son generadas por búsquedas internas). Parecen ser búsquedas de Google que se agregan a nuestras URL y Google está tratando de rastrearlas. Según el desglose de la respuesta de rastreo, estos 404 representan más del 40 % de la respuesta de rastreo. ¿Cómo nos aseguramos de que esto no afecte negativamente nuestra capacidad de rastreo e indexación?

“En primer lugar, no inventamos URL, por lo que no es que tomemos búsquedas en Google y luego inventemos URL en su sitio web. Supongo que estos son solo enlaces aleatorios que encontramos en la web. […] Así que eso es algo que sucede todo el tiempo. Y encontramos estos enlaces, y luego los rastreamos. Vemos que devuelven 404, y luego comenzamos a ignorarlos. Entonces, en la práctica, esto no es algo de lo que debas ocuparte. […] Por lo general, lo que sucede con este tipo de enlaces es que tratamos de averiguar en general para su sitio web qué URL debemos rastrear y qué URL debemos rastrear con qué frecuencia. Y luego tenemos en cuenta después de haber resuelto lo que absolutamente necesitamos hacer, lo que podemos hacer adicionalmente. Y en ese cubo adicional, que también es como un conjunto de URL muy, creo, calificado, esencialmente eso también incluiría […] enlaces aleatorios de sitios de extracción, por ejemplo. Entonces, si ve que estamos rastreando muchas URL en su sitio que provienen de estos enlaces aleatorios, esencialmente, puede suponer que ya hemos terminado con el rastreo de las cosas que nos importan que creemos que su el sitio es importante para. Solo tenemos tiempo y capacidad en su servidor, y también vamos a probar otras cosas. Entonces, desde ese punto de vista, no es que estos 404 estén causando problemas con el rastreo de su sitio web. Es casi más una señal de que, bueno, tenemos suficiente capacidad para su sitio web. Y si tiene más contenido del que realmente vinculó dentro de su sitio web, probablemente también lo rastrearemos e indexaremos. Esencialmente, es casi como una buena señal, y definitivamente no necesitas bloquearlos con robots.txt, no es algo que debas suprimir […]”

Bloqueo de tráfico de otros países

27:34 Tenemos un sitio web de servicio que opera solo en Francia. Y tenemos mucho tráfico procedente de otros países que tienen un ancho de banda realmente malo, lo que hace que nuestras puntuaciones de CWV bajen. […] Dado que no estamos operando fuera de Francia, no tenemos ningún uso para el tráfico fuera de Francia. ¿Es recomendable bloquear el tráfico de otros países?”

Esto es lo que dijo John: “Trataría de evitar bloquear el tráfico de otros países. Creo que es algo en lo que, en última instancia, depende de ti. Es su sitio web; puedes elegir lo que quieres hacer. […] En este caso, una de las cosas a tener en cuenta es que rastreamos casi todos los sitios web de los EE. UU. Por lo tanto, si se encuentra en Francia y bloquea todos los demás países, también bloqueará el rastreo de Googlebot . Y luego, esencialmente, no podríamos indexar ninguno de sus contenidos. Desde ese punto de vista, si desea bloquear otros países, asegúrese de que, como mínimo, no está bloqueando el país desde el que rastrea Googlebot. Al menos, si te importa la búsqueda.

Reagrupamiento de páginas

35:38 Google ha reagrupado recientemente >30 000 páginas en nuestro sitio que son páginas notablemente diferentes para las puntuaciones de CWV. […] Esto ha llevado el LCP promedio para estas páginas a 3,4 s, a pesar de que nuestras páginas de productos tenían un promedio de 2,5 s antes del reagrupamiento. Estábamos trabajando para obtener las páginas a 2,5 segundos por debajo del umbral, pero nuestras tácticas ahora parecen demasiado insignificantes para llevarnos al puntaje que necesitamos alcanzar. ¿Se establece el agrupamiento y luego se toma un puntaje promedio o se toma el puntaje y luego se establece el agrupamiento? – (esto nos ayudará a establecer si obtener esas páginas de productos por debajo de los 2.5 ayudará a resolver el problema o no)”.

“[…] N o tenemos una definición clara o exacta de cómo agrupamos porque eso es algo que tiene que evolucionar un poco con el tiempo dependiendo de la cantidad de datos que tengamos para un sitio web. Entonces, si tenemos una gran cantidad de datos para muchos tipos diferentes de páginas en un sitio web, es mucho más fácil para nuestros sistemas decir que haremos una agrupación un poco más detallada en lugar de tan aproximada como antes. Mientras que si no tenemos muchos datos, tal vez terminemos en una situación en la que tomamos todo el sitio web como un solo grupo. Así que esa es la única cosa. La otra cosa es que los datos que recopilamos se basan en datos de campo. Eso también se ve en Search Console, lo que significa que no se trata tanto de tomar el promedio de páginas individuales y simplemente promediarlas por el número de páginas. Pero más bien, lo que sucedería en la práctica es que es más un promedio ponderado de tráfico en el sentido de que algunas páginas tendrán mucho más tráfico y tendremos más datos allí. Y otras páginas tendrán menos tráfico y no tendremos tantos datos allí. Entonces eso podría ser algo en lo que estás viendo este tipo de diferencias. Si mucha gente va a su página de inicio y no tantos a productos individuales, entonces podría ser que la página de inicio tenga un peso un poco más alto solo porque tenemos más datos allí. Esa es la dirección en la que iría allí, y en la práctica, eso significa que en lugar de centrarme tanto en páginas individuales, tendería a mirar cosas como Google Analytics u otros análisis que tiene que averiguar qué páginas o qué tipos de páginas. están recibiendo mucho tráfico. Y luego, al optimizar esas páginas, esencialmente estás tratando de mejorar la experiencia del usuario […], y eso es algo que intentaríamos aprovechar para la puntuación de Core Web Vital allí. Entonces, esencialmente, menos promedios en la cantidad de páginas y más promedios en el tráfico de lo que las personas realmente ven cuando visitan su sitio web”.

El algoritmo MUM

42:44 Con la llegada del algoritmo MUM , ¿serán los resultados de búsqueda una respuesta a múltiples fuentes? Quiero decir, cuando el usuario busca un tema, las respuestas se seleccionan de múltiples fuentes y se le proporcionan como un paquete. Creemos que la competencia en el futuro se convertirá en una especie de interacción entre competidores. Juntos pueden satisfacer las necesidades de un buscador. Los sitios se centran en los servicios que pueden proporcionar mejor. Varios competidores pueden satisfacer las necesidades de los buscadores. El portafolio de necesidades de los usuarios se completa con varios sitios que compiten por el mejor servicio, donde son más conocidos”.

Juan respondió: “No lo sé; tal vez eso suceda en algún momento. Tenemos la idea de tratar de proporcionar un conjunto diverso de opciones en los resultados de búsqueda donde podemos decir que tal vez hay cosas como opiniones muy fuertes o diferentes sobre un tema específico . Y es una cuestión de qué opiniones hay por ahí. Entonces puede tener sentido proporcionar algo así como un conjunto diverso de resultados que cubran diferentes ángulos para ese tema. No creo que eso se aplique a la mayoría de las consultas, pero a veces eso es algo que tratamos de tener en cuenta”.

Migración del sitio

47:11 ¿Qué pasa si al hacer una migración del sitio y el día que apretamos el gatillo, nosotros: robots.txt bloqueamos ambos dominios […], hacemos redireccionamientos temporales 302 (en unos días o semanas cambiamos a 301 después de que los desarrolladores estén seguros de que nada roto) y servir el estado HTTP 503 en todo el sitio durante un día o unas horas también mientras los desarrolladores verifican si hay algo roto?

Según John, “[…] Estas son todas situaciones separadas. Y no es el caso que diríamos, bueno, este es un movimiento de sitio con esta variación. Pero más bien, si estás bloqueando cosas, si las cosas están rotas, entonces, en primer lugar, lo veríamos como algo que está roto. Y si en una etapa posterior vemos que en realidad son redireccionamientos, entonces diríamos, bueno, ahora el sitio está redireccionando. Y los trataríamos como estados separados. Entonces, si el día que desea mover el sitio, algo se rompe y todo se rompe en su servidor, entonces veremos bien, todo se rompe en el servidor. No sabríamos que su intención era hacer un cambio de sitio porque solo veremos que todo está roto. Entonces, desde ese punto de vista, los trataría como estados separados. Y, por supuesto, intente arreglar cualquier estado roto lo más rápido que pueda y, esencialmente, pase a la migración lo más rápido que pueda después de eso”.

Eliminar contenido antiguo de un sitio de noticias

49:42 “¿Vale la pena eliminar/no indexar/rechazar noticias antiguas en un sitio web de noticias? ¿Noticias como hace más de 10 años? ¿Hace algo en la calidad del sitio web en general y optimiza el presupuesto de rastreo? Es un sitio con más de 3 millones de páginas. ¿Le hace algo a eso?”

“No creo que obtenga mucho valor eliminando solo las noticias antiguas. Tampoco es algo que recomendaría a los sitios web de noticias porque a veces toda la información sigue siendo útil. Desde ese punto de vista, no haría esto por razones de SEO. Si las razones por las que desea eliminar contenido o colocarlo en una sección de archivo en su sitio web por razones de usabilidad o mantenimiento […], eso es algo que definitivamente puede hacer. Pero no eliminaría ciegamente el contenido antiguo porque es antiguo”.