Horario de oficina de SEO: 24 de diciembre de 2021

Publicado: 2021-12-29

Este es un resumen de las preguntas y respuestas más interesantes del Google SEO Office Hours con John Mueller el 24 de diciembre de 2021.

ocultar contenido
1 Contenido de pago y encubrimiento
2 Posibles problemas de indexación
3 Actualización de reseñas de productos: idiomas y países afectados
4 Localización de páginas para países de habla inglesa
5 Agregar contenido dinámico a las páginas
6 Representación e indexación de archivos JavaScript
7 URL de indexación generadas a través de la búsqueda dentro de un sitio web
8 sitios SEO como YMYL
9 Implementación de datos estructurados de migas de pan
10 Traducir solo algunas páginas de un sitio web
11 Presupuesto de rastreo y URL generadas automáticamente
12 Rastreo de URL con parámetros

Contenido de pago y encubrimiento

00:49 “Con respecto a los datos de pago con contenido de pago. […] Tenemos un sitio web. Hicimos muchos artículos, y Google puede acceder a todo. Y nos gustaría agregar un muro de pago allí, pero […] solo […] muestre el contenido del muro de pago a Google con los fragmentos de datos estructurados que tiene. ¿Se considera encubrimiento?

Entonces, verifico si es Googlebot, y solo [entonces] muestro […] los datos estructurados, […] los datos de pago. Pero luego, para el usuario normal […], no muestro los datos estructurados, ¿está bien?”

John no vio el problema con esta solución: “Está bien. Técnicamente , todavía se consideraría encubrimiento, porque estás mostrando algo diferente, pero según nuestras políticas, eso es aceptable. Porque los usuarios, […] si pasan por el muro de pago, […] verán el contenido que está mostrando Googlebot”.

Posibles problemas de indexación

03:38 “Publico contenido de alta calidad, envié un mapa del sitio y, a veces, solicito la indexación de Google Search Console. Pero sigo teniendo problemas para indexar contenido nuevo, o está indexado [con retraso]. […] ¿Es un error de Google o es una nueva actualización del algoritmo?

John respondió: “No hay ningún error de nuestro lado en ese sentido. […] Simplemente no indexamos todo el contenido , y algunos sitios web generan mucho contenido. Y si no indexamos todo […], puede estar bien. Pero tal vez quiera que todo esté indexado, y no podemos hacer todo todo el tiempo.

La parte complicada […] es que, en el pasado, […] muchos sitios web técnicamente no eran tan buenos. Estaba un poco más claro qué tipo de contenido no se indexaba. Hoy en día, los sitios web están técnicamente bien, y es […] como si la barra de calidad fuera un poco más alta […]. Cualquiera puede publicar algo que, teóricamente, podría ser indexado, pero […] tenemos que asegurarnos de que estamos indexando las cosas correctas que son realmente útiles y relevantes para los usuarios. Así que a veces tenemos que dejar algunas cosas sin indexar”.

Actualización de reseñas de productos: idiomas y países afectados

14:01 “Acerca de la actualización de reseñas de productos. […] Incluso si la actualización solo afecta a los sitios web de habla inglesa, también estaba viendo algunos movimientos en la búsqueda alemana. Me preguntaba si también podría haber un efecto en los sitios web en otros idiomas por esta actualización de reseñas de productos o de algún tipo […]?”

Como dijo John: “ Mi suposición era que esto era global y en todos los idiomas […]. Pero, por lo general, tratamos de presionar al equipo de ingeniería para que tome una decisión al respecto, de modo que podamos documentarlo correctamente en la publicación del blog. No sé si eso sucedió con la actualización de las reseñas de productos. […] Parece algo que podríamos estar haciendo en varios idiomas y no estaría atado solo al inglés. E incluso si fuera inglés inicialmente, se siente como algo que es relevante en todos los ámbitos, y deberíamos tratar de encontrar formas de implementarlo también en otros idiomas con el tiempo. Así que no estoy particularmente sorprendido de que veas los cambios en Alemania […]”.

Después de enterarse de que la publicación del blog de Google solo mencionaba la actualización que afectaba a los sitios web en inglés, John dio más detalles:

“Con este tipo de actualizaciones, tratamos de comenzar con un idioma o una ubicación y ver qué necesitamos modificar, y luego nos expandimos a partir de ahí. […] Con algo que está más relacionado con el contenido, por lo general lleva un poco más de tiempo expandirse a diferentes idiomas […]”.

Localización de páginas para países de habla inglesa

17:53 “¿Conoces alguna otra forma de localizar el mismo conjunto de páginas para diferentes países de habla inglesa? […] Tenemos varios subdominios con dominio de nivel superior .jo, como quizás subdominios de Australia, Nueva Zelanda, y hemos configurado el país en el backend de JSA y también usamos hreflang en el nivel de página. […] No pudimos encontrar otras formas de ayudarnos a localizar estos subdominios. ¿Tiene algún buen método o alguna forma en que podamos mejorar?

Así es como John discutió este tema:

“Creo que cubriste los principales. Eso es orientación geográfica en Search Console y la configuración de hreflang.

La orientación geográfica funciona en un nivel de subdirectorio o subdominio, todas las páginas están ahí.

Hreflang es por página. Si tiene una página de inicio para un país y diferentes páginas de productos para el mismo país, entonces cada una de esas páginas deberá tener un enlace cruzado con hreflang.

La otra cosa que siempre trato de recomendar es tener algún tipo de plan de respaldo, […] algo así como un banner basado en JavaScript que puedes mostrar cuando reconoces que el usuario está en la versión incorrecta de un sitio. Por ejemplo, si un usuario de Australia termina en la página de Inglaterra, podría mostrar un banner de JavaScript que diga: "Oye, aquí tenemos una versión australiana de esta página". Puedes ir allí directamente. La ventaja de un banner basado en JavaScript es que puede bloquearlo con robots.txt para que, desde el punto de vista de la indexación, no aparezca. Y si no redirige automáticamente, […] [los motores de búsqueda] podrán procesar esas dos versiones de forma independiente.

Si estas páginas son esencialmente las mismas, puede suceder que tratemos una de estas páginas como la versión canónica. Por ejemplo, si tiene una página para Nueva Zelanda y Australia, y todo el contenido es el mismo, lo único que es ligeramente diferente es la moneda en la página, entonces […] juntamos esas páginas y elegimos una de ellas como un canónico, y utilícelo como base para la búsqueda.

Si tiene un hreflang, en esas páginas también usaremos el hreflang para mostrar la versión correcta de la URL. Pero el contenido indexado será solo de la versión canónica, y todos los informes en Search Console serán para la versión canónica. Eso a veces lo hace un poco complicado, especialmente si tiene un sitio web más grande con […] el mismo contenido para diferentes países”.

Agregar contenido dinámico a las páginas

25:0 “Mi sitio web tiene millones de páginas, como categoría, subcategoría y producto, comercio electrónico […] páginas. Hemos agregado contenido dinámico, porque [con] millones de páginas […] [es] difícil agregar contenido separado o […] contenido único en cada página. Hemos agregado […] contenido basado en plantillas en páginas de categorías, páginas de subcategorías y páginas de productos. […] Eso sería bueno para el rendimiento de nuestro sitio web o no, ¿o deberíamos actualizar el contenido de cada página? […]”.

Así es como Juan respondió:

Agregar dinámicamente contenido relevante a una página […] puede tener sentido porque […] [es] esencialmente hacer […] una búsqueda en la base de datos y agregar contenido basado en eso. […] Realmente depende de cómo lo tengas configurado.

Lo principal que evitaría es que se encuentre en una situación en la que esté agregando contenido artificialmente a una página solo con la esperanza de que esta página se clasifique mejor para las palabras clave que agrega artificialmente. […] Cuando los usuarios vayan allí, estarán como '¿Por qué están estas palabras clave aleatorias en esta página?' […] Asegurarme de que realmente tiene contenido bueno y relevante para esas palabras clave clave, eso es más en lo que me centraría […]”.

Cuando se le preguntó además si era necesario escribir contenido relevante para cada página para que Google viera que las páginas brindan valor, John dijo:

“Debe haber algo en la página que sea relevante. Y si es una página de categoría, entonces los productos que ha enumerado allí son muy relevantes […] y, por lo general, tiene una descripción de esa categoría. […] No es que tengas que escribir un artículo de Wikipedia en la parte inferior sobre todos estos productos y de dónde vienen […] pero un poco de información que sea relevante para la página, eso sí importa”.

Representación e indexación de archivos JavaScript

28:28 “Mi sitio web […] [usa] React con representación del lado del cliente, […] cuando apagamos el JavaScript y el navegador, mi página está totalmente en blanco. ¿Esa puede ser la causa de una clasificación más baja o tal vez el bajo rendimiento de la página web?

La respuesta de John fue: “ No debería ser. […] Para la búsqueda, renderizamos y procesamos el JavaScript en las páginas. Si es visible en un navegador normal y no está haciendo nada particularmente malo, entonces podremos indexar esas páginas normalmente. Puede verificar dos veces con la herramienta Inspeccionar URL en Search Console para ver si el contenido es realmente visible cuando Googlebot intenta mostrar la página, y si el contenido es visible, entonces debería estar listo ”.

Indexación de URL generadas a través de la búsqueda dentro de un sitio web

30:11 “Ya hemos agregado un cuadro de búsqueda en nuestro sitio web , por lo que el usuario ingresa a nuestro sitio web y busca allí, y genera una URL única para cada búsqueda. ¿Estas URL deberían ser indexables o no ?”

Como dijo John: “ Normalmente no. […] Hay dos razones principales para ello.

Por un lado, es muy fácil terminar en una situación en la que tiene otro millón de URL que son solo búsquedas diferentes, lo que no le proporciona ningún valor. Lo llamamos un espacio infinito […]. Eso es algo que quieres evitar.

La otra cosa que desea evitar es que las personas hagan spam en el cuadro de búsqueda e intenten indexar esas cosas , lo que podría ser algo así como buscar su número de teléfono y […] su tipo de negocio […]. De repente, la página de búsqueda de su sitio web se clasifica para ese tipo de negocio y muestra su número de teléfono, incluso si no tiene ningún contenido que coincida con esas consultas, […] lo hacen para tratar de ser visibles en los resultados de búsqueda. Bloquearía este tipo de páginas de búsqueda con robots.txt. De esa manera, puede estar seguro de que no podremos indexar ninguno de los contenidos”.

Sitios SEO como YMYL

31:55 "¿Se clasificaría una empresa de SEO como un sitio web Your Money or Your Life , o solo está relacionado con sitios web de asesoramiento médico y financiero?"

Según John, “[…] No creo que los sitios web de SEO sean tan importantes para la vida de las personas. Obviamente, si trabaja en una empresa de SEO, entonces está atado a eso, pero no es que el sitio web en sí sea un sitio web del tipo Su dinero o su vida. […] No todos los sitios web que venden algo entran en esta categoría.

Lo que recomendaría aquí es, en lugar de tratar de ver a ciegas '¿Este tipo de sitio web entra en esta categoría específica?', [...] lea de dónde proviene esta categoría, es decir, las Pautas del evaluador de calidad, y comprenda un poco más . lo que Google está tratando de hacer con la comprensión de estos diferentes tipos de sitios web . […] Eso le dará un poco más de información de fondo sobre lo que realmente está sucediendo […]”.

Implementación de datos estructurados de migas de pan

39:56 “Cuando se trata de datos estructurados de migas de pan, ¿tiene que ser exactamente igual a las migas de pan que un visitante vería en una página? A veces veo una versión condensada de migas de pan en la página, mientras que los datos estructurados son una ruta de migas de pan completa. ¿Son ambas opciones aceptables?

Como dijo John, “[…] Intentamos reconocer si los datos estructurados son visibles en una página o no. Y si no es […], tenemos que averiguar “¿Todavía tiene sentido mostrar esto en los resultados de búsqueda?

Si está haciendo algo como mostrar una versión más corta de una ruta de navegación en una página, y no podemos igualar eso, podría ser un poco impredecible, si realmente tomamos esa marca de ruta de navegación y la usamos.

Si está tomando migas individuales o […] los elementos individuales en la lista de migas de pan, y solo está mostrando algunos de ellos, pero no todos, es posible que solo recojamos esos. Puede ser que todavía recojamos el resto porque vemos […] muchas coincidencias de migas de pan.

No se garantiza que podamos recoger y usar el marcado de ruta de navegación completo que tiene si no lo muestra en la página , y eso es similar a otros tipos de datos estructurados.

Creo que la principal excepción […] es […] el marcado de preguntas frecuentes, donde tiene preguntas y respuestas, donde […] la parte importante es que la pregunta es realmente visible, y la respuesta puede ser algo así como una sección colapsada en un página, pero […] al menos tiene que ser visible”.

Traducir solo algunas páginas de un sitio web

44:00 “Tenemos un sitio con menos de 300 páginas de índice, todo en inglés. Buscamos traducir aproximadamente la mitad de estas páginas en español, que se colocarán en el subdirectorio del mismo dominio, como /ES, y se etiquetarán como versiones en idiomas alternativos del contenido en inglés. ¿Está bien traducir solo parte del contenido de la página, o deberíamos traducir todo para reflejar exactamente el sitio web en inglés y tener la mejor oportunidad de clasificar en otras ubicaciones?

John dijo: “ Está bien simplemente traducir algunas páginas de un sitio web. Miramos el idioma de las páginas individualmente. Si tiene algunas páginas en español, solo miramos esas páginas en español, cuando alguien está buscando en español. No es el caso que diríamos: 'Aquí hay muchas más páginas en inglés que en español. Por lo tanto, el sitio español es menos importante.' […] Estas son páginas en español, y pueden posicionarse bien en español. […] Para los usuarios, a veces, tiene sentido traducir tanto contenido como sea posible. Pero por lo general, esto es algo que mejora gradualmente con el tiempo, donde comienza con algunas páginas, las localiza bien y agrega más páginas […].

Las anotaciones hreflang también se realizan por página. Si tiene algunas páginas en inglés y en español, y las vincula, está perfectamente bien. Si tiene algunas páginas solo en español, está bien, no necesita hreflang. Algunas páginas solo en inglés, eso también está bien. Desde ese punto de vista, esta parece una forma razonable de comenzar”.

Presupuesto de rastreo y URL generadas automáticamente

46:12 “El sitio web del que estoy hablando es un sitio web de WordPress. Genera automáticamente varias URL no deseadas. […] ¿hay alguna manera de detener el rastreador para encontrar estas URL? Sé que puedo 'no indexarlo', y esas son todas las URL sin indexar. Pero luego, puedo verlos en la consola de búsqueda en la parte Excluida. […] Es un sitio web de noticias, tenemos miles de URL. […] ¿Va a afectar el presupuesto de rastreo?”

John preguntó sobre el tamaño del sitio web y le dijeron que tenía entre 5000 y 10 000 URL.

Dado eso, John dijo: “ No me preocuparía por el aumento del presupuesto. […] Podemos rastrear esa cantidad de páginas con bastante rapidez, generalmente en unos días. La otra cosa […] es que 'noindex' es una etiqueta meta en la página. Tenemos que rastrear la página para ver la metaetiqueta, lo que significa que no puede evitar que revisemos las páginas 'noindex'. […] Si vemos que hay un 'noindex' en la página, generalmente, con el tiempo, rastreamos esas páginas con menos frecuencia. Todavía revisaremos dos veces de vez en cuando, pero no revisaremos tanto como una página normal que de otra manera está indexada. El otro enfoque es usar robots.txt. Con el archivo robots.txt, puede bloquear completamente el rastreo de esas páginas. La desventaja es que a veces la propia URL puede indexarse ​​en los resultados de búsqueda, no el contenido de la página […]”.

Juan también dio el siguiente ejemplo:

“Si […] tiene un sitio web de noticias de fútbol, ​​y tiene algunos artículos que están bloqueados y algunos artículos que se pueden rastrear, entonces si alguien está buscando noticias de fútbol, ​​encontrarán las versiones indexables de sus páginas, y no importará que haya otras páginas bloqueadas por robots.txt. Sin embargo, si alguien realiza explícitamente una consulta del sitio para esas páginas bloqueadas, entonces podrá ver esas URL en la búsqueda […]. En una situación como la tuya, […] no me preocuparía por el presupuesto de rastreo”.

John también agregó: “ Desde un punto de vista práctico, tanto 'noindex' como robots.txt serían equivalentes. […] Es probable que este contenido no aparezca en los resultados de búsqueda, y aun así tendríamos que rastrearlo si hay 'noindex', pero los números son tan pequeños que en realidad no importan. Todavía podríamos indexarlo con una URL si están bloqueados por robots.txt […]”.

Con respecto al método preferido, John dijo: “Yo elegiría el que sea más fácil de implementar de su lado. Si […] tiene WordPress y puede tener una casilla de verificación en la publicación que dice 'Esta página no tiene índice', tal vez ese sea el enfoque más fácil […]”.

Rastreo de URL con parámetros

54:25 “Vemos en nuestros archivos de registro, y también demostramos que es Googlebot a través de IEP, mucho rastreo desde el bot orgánico a URL de parámetros UTM, Google Display y campañas universales de aplicaciones. […] No vemos ningún enlace que venga de ninguna parte a esas URL. […] ¿Tienes alguna idea de dónde o por qué podría estar pasando esto?”

John respondió que “El único lugar donde con Googlebot también rastreamos las páginas que enumeras en las campañas publicitarias […] es para la búsqueda de productos. Si tiene un feed de búsqueda de productos o un feed de Merchant Center […] configurado, también rastrearíamos esas páginas para que Googlebot nos asegure de que podamos recogerlas para Merchant Center. Si tiene URL etiquetadas allí, […] conservaremos esas URL etiquetadas y las reprocesaremos.

También puede ser que otras personas puedan enviar este tipo de productos, […] puede que no sea necesariamente usted quien los envíe, sino alguien que esté trabajando en su nombre o que tenga permiso para hacerlo también.

Si encontramos enlaces a estas páginas en alguna parte, intentaremos rastrearlos. Si ha etiquetado enlaces internos dentro de un sitio web, aún intentaremos recogerlo y rastrearlo. Si tiene cosas configuradas en JavaScript que tal vez tenga URL de seguimiento con estos parámetros configurados en alguna parte, y cuando procesamos el JavaScript, parece que es un enlace a esas URL de seguimiento, también podríamos procesar eso. […] Me parece que no se trata de casos individuales […], sino de una gran cantidad de estas URL, y eso se parece mucho al lado de Merchant Center”.