8 de febrero de 2019 – Notas de la conversación de ayuda de Google
Publicado: 2019-02-14Esta semana, John tuvo una gran perspectiva sobre la Guía de evaluadores de calidad, de la que somos grandes admiradores, cuando se trata de la confiabilidad de un sitio web. A continuación se encuentran las preguntas y respuestas seleccionadas a mano que consideramos más útiles para los SEO. ¡Video completo y transcripción a continuación!
¿Cómo interpreta Google una página cuando se utilizan etiquetas h en lugar de <p>?
4:34

No veo un gran problema con eso, quiero decir, obviamente, como tú, ya que notas que probablemente sea algo que tendría sentido limpiar, pero no es que diríamos que esto es un efecto negativo, sino más bien lo que estás haciendo allí. al decir que todo es importante nos estás diciendo que todo tiene la misma importancia. Entonces es como si todo fuera importante, por lo tanto, nada es particularmente importante. Así que tenemos problemas para entender el contexto dentro de la página. Así que es por eso que principalmente limpiaría eso. Podemos averiguar qué partes son realmente importantes y qué partes están en un texto normal y de esa manera podemos entender estas páginas un poco mejor. No sé si vería un cambio de clasificación directo debido a la corrección de eso, pero nos facilita descubrir de qué se trata realmente la página. No creo que esto sea algo que veríamos como spam o algo que veríamos como problemático, es realmente solo que no nos estás dando tanta información como podrías estar diciéndonos que esto es realmente importante y este es un tipo de contenido normal
Resumen: Esto probablemente no sea un gran problema. Sin embargo, John confirmó que Google puede usar etiquetas h para determinar qué contenido de la página es importante y de qué trata la página.
¿Por qué Google a veces no respeta el canonical en el contenido sindicado?
8:56

Creo que esta siempre es una situación complicada. Intentamos averiguar qué página es la más relevante para algunas de estas consultas y señalar a los usuarios directamente allí, pero si estos son sitios web completamente separados y solo publican el mismo artículo, entonces hay también mucho tipo de valor adicional del resto del sitio web y eso podría ser información en esa página específica podría ser un tipo de valor adicional que el resto del sitio web aporta donde cuando alguien va a ese artículo tal vez se va y mira otras cosas en ese sitio web porque por lo demás también fue muy agradable. Entonces, eso es algo que siempre puede suceder y si está distribuyendo contenido, eso es algo que debe tener en cuenta que podría suceder que el contenido que distribuyó a otro sitio web termine clasificándose por encima de su contenido que no siempre es completamente evitable . Entonces, esas son una especie de compensaciones que tienes que ver allí. Creo que el canonical es una buena manera de hacernos saber que estas dos páginas van juntas, pero también es cierto que un canonical no es realmente correcto en ningún caso como esto porque las propias páginas pueden ser completamente diferentes. Puede ser que haya este bloque de texto que es el mismo en ambas páginas, pero puede ser que haya mucho más contenido alrededor de esa página que es completamente diferente que podrían ser comentarios de los usuarios, que podrían ser el resto de el sitio web en sí. Entonces, nuevamente, es una especie de compensación que debe analizar, tiene sentido llevar la información a una audiencia más amplia mediante la distribución del contenido, pero por otro lado, debe tener en cuenta que tal vez estos otros sitios web se clasificarán por encima. su sitio web cuando se trata de buscar ese contenido específico.
Resumen: si está distribuyendo contenido, Google puede optar por indexar el contenido en los sitios de republicación en lugar del suyo propio. Si hay muchos otros contenidos (como comentarios) en una de estas páginas, es posible que Google no respete el canónico.
¿Google siempre reconoce el marcado de datos estructurados?
26:58

Así que no sé a qué te refieres con la organización de datos estructurados, pero en general tenemos algoritmos que tratan de averiguar cuándo tiene sentido mostrar datos estructurados como resultados enriquecidos en los resultados de búsqueda y cuándo sentimos que tal vez no lo haga. sentido o cuando sentimos que tal vez no estamos cien por ciento seguros acerca de este sitio web o acerca de la forma en que se implementan los datos estructurados en este sitio web y seremos un poco más cautelosos. Eso es algo en lo que si proporciona un marcado de datos estructurados válido, no es una garantía de que siempre se mostrará exactamente así en los resultados de búsqueda.
Resumen: si los datos estructurados no le producen resultados enriquecidos (como estrellas en los resultados de búsqueda), es posible que no estén implementados correctamente. Pero, también podría deberse a que los algoritmos de Google decidieron no mostrarlo.
¿Google siempre reconoce el marcado de datos estructurados?
53:46

Creo que siempre es un poco complicado, por lo general hay dos aspectos que están involucrados. Uno es más un problema, especialmente con los sitios web más nuevos donde el nombre del sitio web o el nombre de la empresa se parece más a una consulta genérica. Entonces, si por ejemplo, el nombre del sitio web es "Best Lawyers in Pittsburgh" o algo así. Entonces, por un lado, ese podría ser el nombre de la empresa, por otro lado, si alguien escribiera eso en la búsqueda, probablemente asumiríamos que no está buscando esa empresa específica, sino que está buscando información para esa consulta. . Eso es especialmente con las empresas más nuevas, eso es algo que vemos de vez en cuando. Vemos que los foros o las personas allí dicen, oh, no estoy clasificado para mi nombre de dominio, y luego su nombre de dominio es algo así como No conozco los mejores proveedores de VPN. com es como bueno, es un nombre de dominio pero no No significa que clasificará para esa consulta. Entonces, eso es una cosa cuando se trata de sitios que están un poco más establecidos que ya existen, por lo general, es más una señal de que ya no confiamos tanto en ese sitio web. Entonces, eso es algo en lo que podemos reconocer que en realidad las personas están buscando esta empresa, pero creemos que tal vez el sitio web de la empresa en sí no es el resultado más relevante aquí, tal vez sentimos que hay un tipo de información auxiliar sobre esa empresa que es más importante que los usuarios. vea primero dónde podría resultar en que suceda algo como esto. Por lo general, eso es más una cuestión de cosas que se mezclan en las primeras una o dos páginas en los resultados de búsqueda. Sería muy raro que algo así resultara en que un sitio web no apareciera en las primeras dos páginas de los resultados de búsqueda. Creo que eso es algo de lo que resaltó allí con su pregunta y eso es algo en lo que creo que está bien, incluso si ya no confiamos tanto en este sitio web, al menos deberíamos tenerlo en algún lugar de los resultados de búsqueda porque si podemos decir que alguien está buscando explícitamente ese sitio web sería un perjuicio para el usuario no mostrarlo en absoluto. Tal vez para consultas genéricas, se podría argumentar que tal vez no sea el resultado perfecto, pero si podemos decir que realmente están buscando ese sitio web, al menos deberíamos darle al usuario la oportunidad de ver ese sitio web también. Por eso es que tomé eso y dije: bueno, tal vez deberíamos captar esto un poco mejor y no sé si nuestros algoritmos están entendiendo correctamente qué tan confiable sería su sitio web. No conozco el sitio web, por lo que es muy difícil para mí juzgarlo, pero incluso si pensamos que no era confiable en absoluto, tal vez deberíamos mostrarlo en algún lugar de los resultados de búsqueda en la primera página. La otra cosa que tal vez debería mirar si aún no lo ha hecho es mirar las pautas de calificación de calidad que tenemos y hay mucha información sobre el tipo de confiabilidad allí. Algo de eso vale la pena tomarlo con pinzas, no es que tomemos ese tipo de uno a uno y lo usemos como un factor de clasificación, pero hay muchas ideas allí, especialmente cuando estás hablando de un tema. ese es un tipo de sitio web legal o sitio web médico, entonces tiene sentido mostrar a los usuarios por qué está proporcionando esta información, por qué deberían confiar en usted.
Resumen: si tiene una nueva marca que tiene palabras clave en el nombre de la marca y la URL, esto no significa que deba clasificar automáticamente para esas palabras clave. Sin embargo, si los algoritmos de Google no confían en su sitio, no se clasificará bien. John nos remite a las Directrices de evaluadores de calidad para obtener más información. Nuestra nota: aquí también hay buena información sobre cómo creemos que las actualizaciones recientes de algoritmos están conectadas con la confianza.
Si te gustan estas cosas, ¡te encantará mi newsletter!
Mi equipo y yo informamos todas las semanas sobre las últimas actualizaciones de algoritmos de Google, noticias y consejos de SEO.
¡¡Éxito!! Ahora revise su correo electrónico para confirmar su suscripción al boletín de Google Update.
Video completo y transcripción
Nota de Juan 0:33: solo quería hablar brevemente de una cosa antes de pasar a las preguntas. Como probablemente hayas visto, hicimos una publicación de blog sobre la consola de búsqueda, algunos de los cambios que se avecinan en la consola de búsqueda. El año pasado comenzamos a mudarnos a una nueva plataforma en la consola de búsqueda y para nosotros, el equipo de la consola de búsqueda, esto es algo en lo que han estado trabajando durante bastante tiempo y es algo que tenemos que completar más o menos hacia el fin de año a más tardar. Por lo tanto, nuestro objetivo con la publicación de blog con algunos de los cambios que se avecinan es asegurarnos de informarles a todos lo antes posible. Entonces, cuando las cosas cambien o desaparezcan de una manera que creemos que podría afectarlo, queremos informarle lo antes posible. Creo que cambiar siempre es un poco complicado, especialmente cuando tienes procesos que funcionan bastante bien y alguien cambia las herramientas o cambia los datos que se proporcionan en las herramientas, siempre es un poco frustrante. Entonces, algunos de estos cambios no podemos evitarlos, creemos que deberíamos haberlos hecho al principio cuando comenzamos con la consola de búsqueda sabiendo ahora que si sabíamos, lo que sabemos ahora es algo así como el cambio canónico que anunciamos. esta semana. Así que me doy cuenta de que a veces esto es un poco frustrante, pero esperamos tener un buen camino en el futuro y queremos informarle con anticipación y permitirle probar las cosas temprano para que no se sorprenda demasiado cuando las cosas cambien. También tenemos muchas cosas realmente geniales en fila y, al cambiar a una nueva plataforma y eliminar algunas de las funciones antiguas, el equipo tiene mucho más tiempo para avanzar y crear cosas nuevas y sofisticadas. Tan bien que puede hacerlo allí si está convencido de que ciertas cosas van a desaparecer o que faltan o que le gustaría ver en una nueva herramienta, asegúrese de usar una función de comentarios en la consola de búsqueda y no simplemente vaya. allí y diga que realmente quiero esto, pero más bien bríndenos información sobre lo que le gustaría ver de eso, como qué está tratando de lograr al tener esta nueva función o tener lo mismo que teníamos en el antiguo en el nuevo porque darnos un poco más de información nos ayuda a descubrir cómo debemos priorizar esto es algo que tal vez nos perdimos algo en lo que deberíamos haber pensado antes. ¿Es esto algo que tal vez podamos brindarle una mejor manera de brindarle esa información o ayudarlo a hacer esa cosa que la que teníamos en la herramienta anterior? Así que asegúrese de acceder a la herramienta de comentarios envíenos información envíenos sus comentarios sobre lo que cree que le gustaría ver de manera diferente algunas de estas cosas que podremos hacer algunas de ellas pueden tomar un poco más de tiempo porque realmente necesitamos para primero limpiar todas estas cosas viejas que hemos recopilado a lo largo de los años y mover todo a la nueva plataforma. Entonces, para algo de eso, me encanta tener un poco de paciencia, pero también está bien decirnos vocalmente si hay algo que te haga sentir muy fuerte, así que no seas demasiado tímido.
Pregunta 4:34 - Encontramos uno de los sitios de nuestros clientes, la forma en que construyeron el sitio web no tiene texto de párrafo, todas son etiquetas h1 h2 h3 h4. Entonces, estos usan la etiqueta del encabezado 4 en lugar de la etiqueta P. Su contenido principal del sitio web utilizan la etiqueta de encabezado 4 para el contenido principal del sitio web. ¿Tiene esto algún impacto negativo en su ranking?
Respuesta 4:40: no veo un gran problema con eso, quiero decir, obviamente, como tú, ya que notas que probablemente sea algo que tendría sentido limpiar, pero no es que diríamos que esto es un efecto negativo, sino más bien qué estás haciendo allí al decir que todo es importante nos estás diciendo que todo tiene la misma importancia. Entonces es como si todo fuera importante, por lo tanto, nada es particularmente importante. Así que tenemos problemas para entender el contexto dentro de la página. Así que es por eso que principalmente limpiaría eso. Podemos averiguar qué partes son realmente importantes y qué partes están en un texto normal y de esa manera podemos entender estas páginas un poco mejor. No sé si vería un cambio de clasificación directo debido a la corrección de eso, pero nos facilita descubrir de qué se trata realmente la página. No creo que esto sea algo que veríamos como spam o algo que veríamos como problemático, es realmente solo que no nos estás dando tanta información como podrías estar diciéndonos que esto es realmente importante y este es un tipo de contenido normal
Pregunta 7:03 - Seguimos recibiendo enlaces rotos al azar en la consola de búsqueda. Me pregunto qué deberíamos estar haciendo allí, redirigiéndolos o dejándolos como están.
Respuesta 7:15: no sé qué enlaces rotos aleatorios ves allí que podrían ser algo para publicar en el foro para obtener algunos consejos también, pero en general, si ves un enlace que apunta a tu sitio web que no no funciona en absoluto, entonces está bien devolver 404 para una URL que no existe. Para eso sirve el código de estado 404 y eso es algo con lo que nuestros sistemas funcionan bien. Entonces, si hay una URL que nunca existió, devuelve 404, está perfectamente bien. Por otro lado, si ve que hay enlaces que llegan a su sitio web que apuntan a su otro lugar, puede adivinar lo que significan y tal vez solo tienen un error tipográfico o un punto adicional al final o algo así, entonces eso podría tener sentido. para redirigir, especialmente cuando ve personas que pasan por esos enlaces porque eso parece algo o alguien intenta recomendar su sitio web pero no lo entendieron perfectamente. Por lo tanto, podría tener sentido redirigirlos a la página correcta. Creo que para ambas situaciones eso es algo en lo que también puedes observar un poco el tráfico a través de esas URL si muchas personas van a esas URL, de alguna manera eso es alentador porque las personas quieren ir a tus páginas, entonces podría tener sentido. para encontrar una manera de determinar qué significaba este enlace y dónde podría señalarlo, adónde podría redirigir a las personas.
Pregunta 8:56 - ¿Qué factores pueden hacer que una parte del contenido que se ha sindicado en un sitio asociado obtenga una buena clasificación? Esto es a pesar del hecho de que el canonical está configurado en el contenido original de mi parte y ha estado allí durante varios meses. ¿Es una cuestión de sitio, nicho o autoridad? ¿Qué podríamos hacer allí?
Respuesta 9:19: creo que esta es siempre una situación complicada. Intentamos averiguar qué página es la más relevante para algunas de estas consultas y señalar a los usuarios directamente allí, pero si estos son sitios web completamente separados y solo están publicando el mismo artículo, entonces también hay mucho tipo de valor adicional del resto del sitio web y eso podría ser información en esa página específica, podría ser un tipo de valor adicional que el resto del sitio web aporta cuando alguien va a ese artículo tal vez van y miran otras cosas en ese sitio web porque, de lo contrario, también fue muy bueno. Entonces, eso es algo que siempre puede suceder y si está distribuyendo contenido, eso es algo que debe tener en cuenta que podría suceder que el contenido que distribuyó a otro sitio web termine clasificándose por encima de su contenido que no siempre es completamente evitable . Entonces, esas son una especie de compensaciones que tienes que ver allí. Creo que el canonical es una buena manera de hacernos saber que estas dos páginas van juntas, pero también es cierto que un canonical no es realmente correcto en ningún caso como esto porque las propias páginas pueden ser completamente diferentes. Puede ser que haya este bloque de texto que es el mismo en ambas páginas, pero puede ser que haya mucho más contenido alrededor de esa página que es completamente diferente que podrían ser comentarios de los usuarios, que podrían ser el resto de el sitio web en sí. Entonces, nuevamente, es una especie de compensación que debe analizar, tiene sentido llevar la información a una audiencia más amplia mediante la distribución del contenido, pero por otro lado, debe tener en cuenta que tal vez estos otros sitios web se clasificarán por encima. su sitio web cuando se trata de buscar ese contenido específico.
Pregunta 11:24: Google informa nuestras páginas de productos vencidos como 404 suave porque estas URL redirigen a productos alternativos relevantes con un mensaje que dice que el producto que querían no está disponible. ¿La redirección está causando un 404 suave o el contenido de la página de redirección?
Respuesta 11:47: sospecho que lo que está sucediendo aquí es que nuestros algoritmos están mirando estas páginas y ven que tal vez hay un banner en esta página que dice que este producto ya no está disponible y asumen que eso se aplica a la página de el usuario terminó en. Entonces eso a veces no es realmente evitable allí. Si realmente está reemplazando un producto con otro, podría tener sentido simplemente redirigir.
Pregunta 12:32 - ¿Cuánto tarda Google en reconocer las etiquetas Hreflang? ¿Es posible que Google primero indexe desde Suiza y muestre una versión CH de un sitio web bajo el TLD alemán?
Respuesta 13:02: por lo tanto, en realidad no indexamos primero el contenido de Suiza, nuestros rastreadores y nuestros sistemas están más ubicados en los EE. UU. que en Suiza. Por lo tanto, no creo que prioricemos el contenido suizo sobre otro contenido, pero lo que sucede con los enlaces hrefLang en general es un proceso de varios pasos. Primero tenemos que rastrear e indexar esas diferentes versiones de la página. Luego, tenemos que indexarlos con la misma URL que especifica dentro del marcado hreflang y luego debemos poder seguir ese marcado hreflang entre esas diferentes versiones de la página y para hacer eso también necesitamos tener esa confirmación. . Entonces, es algo que toma un poco más de tiempo que el rastreo y la indexación normales, tenemos que entender la red entre estas diferentes páginas que se supone que son parte de este conjunto de páginas hreflang. Así que eso es algo en lo que probablemente sea normal que tomemos, no sé, tal vez dos o tres veces más de lo que haríamos para simplemente rastrear e indexar una página individual para que podamos entender el vínculo entre las versiones de hreflang. Nuevamente, no hay preferencia por Suiza sobre otros países de Europa. Creo que sería bueno solo para mí personalmente desde un punto de vista egoísta, pero no tendría sentido en el tipo de área global en general. Tratamos de tratar todos los sitios web de la misma manera. Entonces, el hecho de que un sitio web tenga una versión CH no significa que se clasifique automáticamente por encima de una versión alemana. Entonces, la otra cosa con hreflang es que, en su mayor parte, no cambia las clasificaciones, solo intercambia las URL.
Pregunta 15:12 - Recientemente cambié el dominio de mi sitio de este a otro redireccionamiento 301 en su lugar. Se ha iniciado el cambio de dirección, sigo viendo las URL antiguas y han pasado más de tres semanas, ¿es normal? Tuve algunos problemas con los 301 que no estuvieron activos durante una semana después de la migración, pero ahora están activos. Para algunas consultas, tanto el sitio antiguo como el nuevo aparecen en los resultados de búsqueda. ¿Qué podría estar haciendo diferente aquí?
Respuesta 15:46 - Entonces, la redirección 301 es realmente lo que deberías tener en cuenta. Es importante para nosotros que la redirección 301 sea por página. Entonces, todas las páginas antiguas redirigen a la misma página en el nuevo sitio web. Tenemos todo eso cubierto en nuestra información en el Centro de ayuda para movimientos de sitios, por lo que lo verificaría dos veces y lo revisaría paso a paso y URL por URL incluso para ver que esto realmente funciona de la manera que debería funcionar. . La otra cosa a tener en cuenta es que rastreamos e indexamos las URL individualmente. Por lo tanto, no rastreamos todo el sitio web a la vez y luego cambiamos las cosas, lo hacemos paso a paso y algunas de estas páginas se rastrean e indexan muy rápidamente en un par de horas, algunas de ellas tardan mucho más en ser re- rastreado y reindexado y eso podría llevar varios meses. Así que eso es algo que también podría estar jugando un papel aquí donde tal vez simplemente no hemos tenido la oportunidad de rastrear e indexar y procesar la redirección para todas estas páginas, por lo que todavía hay algunas que solo hemos visto en el sitio web anterior. y algunos que ya hemos visto en el nuevo. Eso también podría estar jugando un papel aquí, especialmente si está considerando un período de tres o cuatro semanas y eso sería algo normal y, finalmente, lo que también juega un poco en esto es algo que los SEO y los webmasters encuentran realmente confuso. que incluso después de que hayamos procesado esa redirección si alguien busca explícitamente la URL anterior, le mostraremos la URL anterior. Eso es un poco confuso, nuestros sistemas están tratando de ser útiles aquí y dicen que sabemos que esta antigua URL solía existir y tenemos el nuevo contenido aquí, pero se lo mostraremos porque eso es posiblemente lo que está buscando. Entonces, por ejemplo, si realiza una consulta del sitio para la URL anterior, incluso quizás aquí después de mover su sitio, aún podemos mostrarle algunas de las URL de su sitio web anterior con una consulta del sitio, aunque ya hayamos procesado la redirección para esas URL. . Entonces, cuando cambie el nombre de su sitio, por ejemplo, verá dentro de la consulta del sitio que verá las URL antiguas con el nuevo nombre del sitio que se menciona allí y, desde nuestro punto de vista, eso funciona según lo previsto. Estamos tratando de ayudar a la el usuario medio que busca una URL. Para un webmaster que acaba de cambiar de sitio, es un poco confuso. Entonces, no sé si eso es algo que cambiaremos, pero en general creo que tiene sentido.

Pregunta 21:46 - ¿Cómo ve el bot de búsqueda de Google la personalización del sitio web? Tenemos una nueva capa de productos que el sitio web permite la personalización según la ubicación de la industria, incluso para una sola empresa, lo que nos permite ajustar realmente el contenido.
Respuesta 22:12: creo que también analizamos esto por última vez, pero solo para dar una respuesta rápida aquí, la parte importante es que Googlebot rastrea principalmente desde los EE. UU. Por lo tanto, si publica contenido diferente en diferentes países, es probable que Googlebot solo vea la versión estadounidense del contenido. No podríamos indexar diferentes versiones del contenido para diferentes ubicaciones. Entonces, si hay algo que desea indexar, asegúrese de que esté en la parte genérica de su sitio web para que Googlebot pueda detectarlo. Puede usar la personalización para agregar información adicional en toda la página, pero si desea que algo se indexe, debe estar en la parte de la página que no está vinculada a la personalización.
Pregunta 22:59 - Me pregunto cuánto está afectando una tasa de rendimiento muy baja en web.div a la clasificación de Google de un sitio web.
Respuesta 23:06 - No lo sé. Por lo tanto, web.dev es una herramienta realmente interesante que reúne las diferentes pruebas que tenemos en Lighthouse y le brinda puntajes y lo guía a través del proceso de mejora de esos puntajes. Entonces, cuando se trata de acelerar las cosas, debe estar atento a las cosas que podría intentar y, con el tiempo, realiza un seguimiento del progreso de su sitio web y, a medida que revisa los diferentes contenidos que hay en la herramienta. Eso es algo que, en general, creo que es una buena práctica para seguir y trabajar, pero también es algo que estas son buenas prácticas para seguir, pero no significa que automáticamente darán como resultado una clasificación más alta. Del mismo modo, si tiene puntajes bajos aquí, no significa que su sitio web esté clasificado terriblemente porque no está siguiendo las mejores prácticas. Entonces, hay un aspecto de, por un lado, si su sitio web es tan malo que no podemos indexarlo correctamente, lo que podría ser el caso con un puntaje de SEO realmente bajo en Lighthouse donde no podemos acceder a las URL o no hay URL en esta página y es solo un shell de JavaScript para el que no podemos procesar el JavaScript. Que podría tener un efecto severo en su SEO pero, por otro lado, si su sitio es un poco lento o no está perfectamente optimizado, no sé si eso causaría un efecto significativo en su sitio web. Entonces, mi recomendación aquí es mirar los consejos que se brindan en herramientas como web.dev y pensar en lo que puede implementar, pensar en las partes que cree que son importantes para su sitio web, por un lado, para los motores de búsqueda, por supuesto, si está preguntando esto aquí, por otro lado, también para sus usuarios porque, en última instancia, si está haciendo algo que mejora las cosas para sus usuarios, eso también tendrá una especie de efecto de goteo a largo plazo en el resto de su sitio web.
Pregunta 26:58 - ¿Puede Google decidir si mostrar o no información de la organización de datos estructurados?
Respuesta 27:05: no sé a qué te refieres con organización de datos estructurados, pero en general tenemos algoritmos que tratan de averiguar cuándo tiene sentido mostrar datos estructurados como resultados enriquecidos en los resultados de búsqueda y cuándo creemos que tal vez no tiene sentido o cuando sentimos que tal vez no estamos cien por ciento seguros acerca de este sitio web o acerca de la forma en que se implementan los datos estructurados en este sitio web y seremos un poco más cautelosos. Eso es algo en lo que si proporciona un marcado de datos estructurados válido, no es una garantía de que siempre se mostrará exactamente así en los resultados de búsqueda.
Pregunta 28:31 - Pregunta sobre la estructura del sitio web y la configuración multirregional multilingüe. ¿Debería preocuparme por la configuración de los parámetros de URL al dividir los dominios por carpetas para servicios separados en la consola de búsqueda?
Respuesta 28:52 - Entonces, creo que, por un lado, es bueno que esté investigando este tipo de problemas, por otro lado, me preocupa un poco que tenga diferentes configuraciones para un sitio web por subdirectorio porque eso suena como si tal vez no estuviera haciendo algo tan limpio con los parámetros de configuración de URL en general en todo el sitio web. Entonces, eso es algo en lo que no conozco el sitio web aquí específicamente, por lo que es muy difícil de decir, pero parece que tiene diferentes parámetros que significan cosas diferentes o que pueden ignorarse o que no deben ignorarse según el tipo individual de subdirectorio dentro de su sitio web. Por un lado, eso debería ser posible, deberíamos poder lidiar con eso, por otro lado, si hay situaciones en las que podemos ignorar por completo los parámetros de URL individuales y, en otros casos, donde estos mismos parámetros exactos son críticos para el contenido, entonces eso se siente. como algo donde nuestros algoritmos podrían confundirse y decir, bueno, siempre necesitamos mantener estos parámetros o nunca necesitamos mantener estos parámetros, y luego, de repente, faltan partes de su contenido o partes de su contenido se indexan varias veces. Entonces, usar la herramienta de parámetros de URL definitivamente nos ayuda en un caso como este, pero me parece que probablemente tendría más sentido tratar de limpiar estos parámetros de URL en general y encontrar una manera de tener una estructura consistente para las URL de sus sitios web para que que los algoritmos no tienen que adivinar, que los algoritmos no tienen que averiguar, Oh, en este camino en particular este parámetro es importante y en estos otros caminos podemos ignorarlo. Cada vez que agrega tanta complejidad adicional al rastreo e indexación del sitio web, se encuentra con una situación en la que tal vez las cosas salgan mal. Por lo tanto, cuanto más fácil pueda mantenerlo, cuanto más limpio pueda mantenerlo, cuanto más simple y pueda mantenerlo dentro de su estructura de URL, más probable será que podamos rastrear e indexar ese sitio sin tener que pensarlo dos veces y como siempre. hay otros motores de búsqueda que no tienen la herramienta de configuración de URL. Que los datos que tenemos allí no podrían verlos y que podría estar causando problemas en esos otros motores de búsqueda o tal vez también juega un papel en la forma en que se comparte su contenido en las redes sociales. Así que todas estas cosas entran en juego aquí. Mi recomendación general aquí sería no pasar demasiado tiempo tratando de ajustar la herramienta de manejo de parámetros de URL para todos estos subdirectorios diferentes, sino tomarse ese tiempo e invertirlo en pensar qué le gustaría tener como URL. estructura a largo plazo y pensando en los pasos que necesitaría para llegar a esa estructura de URL más limpia.
Pregunta 32:17: espero obtener información sobre un problema que publiqué relacionado con el contenido del índice como URL enviada duplicada no seleccionada como canónica.
Respuesta 33:04 - Entonces, en general, lo que creo que está sucediendo aquí es por cualquier motivo que nuestros algoritmos crean que estas páginas son equivalentes y que podemos plegarlas y, por eso, elegimos una canónica de una de estas páginas y parece como mirar las páginas manualmente en un navegador que en realidad son páginas bastante diferentes, por lo que unirlas no tendría sentido, por lo tanto, seleccionar una canónica de este recurso tampoco tendría sentido. Una de las cosas que he visto en el pasado que han llevado a algo como esto es cuando no podemos representar el contenido correctamente. Cuando en realidad no podemos acceder al contenido correctamente, cuando básicamente vemos una página vacía que decimos, bueno, esta es la misma que la otra página vacía que vimos, tal vez podamos juntarlas. Así que, de improviso, esa es la dirección que tomaría allí para pensar en cómo piensa Google que estas páginas son equivalentes. Es posible que tal vez en la prueba de compatibilidad con dispositivos móviles no tengan contenido real. ¿Podría ser que estoy mostrando un intersticial a un accidente de Googlebot y solo se indexa ese intersticial? ¿Qué podría estar sucediendo aquí? No tuve la oportunidad de analizarlo con tanto detalle aquí todavía, por lo que podría ser que algo así esté sucediendo de su lado, podría ser que algo extraño esté sucediendo de nuestro lado y necesitemos arreglar eso, pero eso es amable. de la dirección que tomaría en un caso como este.
Pregunta 34:41 - Quiero que mis clientes naveguen un poco mejor en mi sitio web. Quiero asegurarme de que esto no confunda a Google. Me gustaría configurar mi estructura de URL para tener como un dominio y luego una categoría y luego un producto en una ruta o tal vez lo configuro de manera diferente, ¿qué debo hacer, qué estructura de URL debo elegir?
Respuesta 35:13: desde nuestro punto de vista, puede usar cualquier estructura de URL. Entonces, si está utilizando una especie de estructura de subdirectorio de subdominio de ruta que está perfectamente bien, es importante para nosotros que no nos quedemos sin espacios infinitos. So if you use URL rewriting on your server that it's not the case that you can just add like the last item in your URL and just continue adding that multiple times and just it always shows the same content but it should be a clean URL structure where we can crawl from one URL to the other without getting lost in infinite spaces along the way. You can use your URL parameters if you want but if you do decide to use your URL parameters like I mentioned in one of the previous questions try to keep it within a reasonable bound. So that we don't again run off into infinite spaces where lots of URLs lead to the same content but whether or not you put the product first or the category first or you use an ID for the category or write out the category as text that's totally up to you. That doesn't have to be a line between your ecommerce site on your blog that can be completely different on both of these. So I think it's good to look at this but on the other hand I lose too much sleep over this and rather define the URL structure that works for you in the long run in particular one that you don't think you need to change in the future. So try not to get too narrow down and pick something that works for you, works for your website.
Question 37:43 - We're developing an application for angular Universal with some sections we want to change the appearance of the URLs in the browser but keep it the same on the server side. So for the server it would be luxury goods leather bags but the user would see just leather bags. Is there any problem with this in angular Universal using dynamic rendering?
Answer 38:08- So just from from a practical point of view Googlebot doesn't care what you do on the server you can track that however you want on your server. The important part for us is that we have separate URLs for separate pages that we have links that Googlebot can click on that are in kind of a elements with an href pointing to a URL that we can follow and that we can access these URLs without any history is with them. So if we take one URL from your website we can copy and paste it into an incognito browser and it should be able to load that content and if it loads that content if you have proper links between those pages then from our point of view how you handle that on your server is totally up to you. Using angular Universal with dynamic rendering or if you have something of your own that you set up that's all totally up to you that's not something that we would care about. It's not something we would even see because we see the HTML that you serve us and the URLs that you serve us.
Question 39:18 - My website fetches individual web pages which are not interlinked through an API but no links are displayed through clicks. It has a search box where every individual page shows search results is Google is successfully crawling all links as valid via sitemap does Google see this is a valid practice because links and millions will harm rankings or increase ranking.
Question 39:48 - So there are lots of aspects in this question where I say this sounds kind of iffy there is some things that sound kind of ok. So if Google is already indexing these pages then something is working out right. In general I I'd be careful to avoid setting up a situation where normal website navigation doesn't work. So we should be able to crawl from one URL to any other URL on your website just by following the links on the page. If that's not possible then we lose a lot of context. So if we're only seeing these URLs through your sitemap file then we don't really know how these URLs are related to each other and it makes it really hard for us to be able to understand how relevant is this piece of content in the context of your website, in the context of the whole web. So that's that's one thing to kind of watch out for and the other thing to watch out for. The other thing too watch out for I think is if you're talking about millions of pages that you're generating through an API with a search box and just so many of those via sitemap files. I may be kind of cautious there with regards to the quality of the content that you're providing there. So in particular if you have like product feeds if you're using RSS feeds to generate these pages, if you're doing anything to automatically pull content from other websites or from other sources and just kind of republishing that on your site then that's something where I could imagine our quality algorithms maybe not being so happy with that. Similarly if this is all really completely republished from other web sites I could imagine the web spam team taking a look at that as well and saying well why should we even index any of this content because we already have all of the content indexed from from the original sources. Like what is the value that your website is providing that the rest of the web is not providing. So that's one thing to kind of watch out for. I don't want to kind of suggest that your website is spammy I haven't seen your website but it is something that we do see a lot and it's something where as a developer you go, oh I have all of these sources and I can create code therefore I can combine all of these sources and create HTML pages and now have a really large website without doing a lot of work, and that's really tempting and lots of people do that, lots of people also buy frameworks that do this for you but it doesn't mean that you're creating a good website. It doesn't mean that you're creating something that Google will look at and say oh this is just what we've been waiting for we will index it and ranked it number one for all of these queries. So it might mean that it looks like very little work in the beginning because you could just combine all of these things but in the end you spend all this time working on your website when actually you're not providing anything of value then you end up starting over again and trying to create something new again. So it looks tempting to save a lot of work in the beginning but in the long run you basically lose that time. So it might make more sense to figure out how can you provide significant value of your own on your website in a way that isn't available from other sites.
Question 43:34 - We're facing an issue where lots of resources couldn't load through the to the same page not getting rendered in the snapshot for Googlebot while debugging these issues we couldn't find a solution and Google is marking them as other error. What could that be?
Answer 43:51 - So this is also a fairly common question what is essentially happening here is we're making a trade-off between a testing tool and the actual indexing and within the testing tool we try to get information as quickly as possible directly from your server but at the same time we also want to give you an answer fairly reasonably quickly so that you can see what is happening. What what tends to happen here is if you have a lot of resources on your pages that need to be loaded in order for your page to load then it could happen that our systems essentially timeout and we try to fetch all of these embedded resources but we don't have enough time because we want to provide an answer to you as quickly as possible. So you end up seeing these embedded resources not being pulled and you see an error in the live rendering of the page like that. When it comes to indexing our systems are quite a bit more complex though we cache a lot of these resources. So if we try to index an HTML page we'll know all of these CSS files we've seen before we can just pull them out of our cache we don't have to fetch them again we can render those pages normally and that just works. One thing you can do or maybe they're two you can do to to kind of help improve that for the testing tool and for users in general. On the one hand you can reduce the number of embedded resources that are required on your pages. So instead of having a hundred CSS files you've you kind of throw them into the tool you create one CSS file out of that that's one thing that you can do that makes sense for both users and for search engines. You can do that for JavaScript as well you can minify the JavaScript you can combine things and kind of make packages rather than individual files I think that's a good approach. The other thing is if you're seeing this happening for your pages and you don't have a lot of embedded content then that's kind of a hint that your server is a bit slow and that we can't kind of fetch enough content from your server to actually make this work. So that might be a chance to look at your server your network connectivity and to think about what you can do to make that a little bit faster so that these tools don't time out so that it's also faster for users as well. So in both of these cases the net effect is that users will mostly be seeing the speed improvement but the side effect will also be that you'll be able to use these tools a little bit better because they tend not to time out as much.
So what what I would do there is try to use some other tools to figure out is this really a problem on your side somehow that things are a little bit slow or is this something just on Google side that we we tend not to have as much time to fetch all of these individual resources so what you could do is use the the chrome developer tools what is it the network tab that you have there and to figure out like how many of these resources are being loaded how long does it take you can use webpagetest.org it also creates a kind of a waterfall diagram for your content also listing the the time that it takes for those test URLs and the size of the resources that were to return and by using those two you can kind of figure out is is it the case that it just takes 20 seconds to load my page with all of the embedded content with all of the high resolution images or is it the case that these testing tools say my page loads in 3 or 4 seconds with all of the embedded content therefore it's probably more an issue on Google side I don't have to worry about it.
Question 53:46 - I've noticed as a result of the last several updates that have been coined the the medic update. I've seen some websites that no longer show on the first page of search results for their own company, for their own brand, and I was wondering why in general what would that be?
Answer 54:35 - I think that's that's always a bit tricky there usually are two aspects that are involved there. One is more an issue especially with newer websites where the website name or the company name is more like a generic query. So if for example the the website's name is “ Best Lawyers in Pittsburgh” or something like that. Then on the one hand that might be the company name, on the other hand if someone were to type that into search, we would probably assume that they're not looking for that specific company but rather they're looking for information for that query. So that's especially with newer companies that's something that we see every now and then. We see that the forums or people there saying, oh I'm not ranking for my domain name, and then their domain name is something like I don't know best VPN providers.com it's like well, it's a domain name but it doesn't mean that you will rank for for that query. So that's one thing when it comes to sites that are a little bit more established that are out there already usually it's more a sign that we just don't really trust that website as much anymore. So that's something where we might recognize that actually people are searching for this company but we feel maybe the company website itself is not the most relevant result here, maybe we feel that there is kind of auxiliary information about that company which is more important that users see first where which could result in something like this happening. Usually that that's more a matter of things kind of shuffling around on the first one or two pages in the search results. It would be really rare that that's something like that would result in a website not showing up at all the first couple pages of the search results. I think that's that's kind of what you highlighted there with your question and that's something where I think well, even if we didn't trust this website as much anymore then we should at least have it somewhere in the search results because if we can tell that someone is explicitly looking for that website it would be a disservice for the user to not show it at all. Like for maybe for generic queries one could argue maybe it's not the perfect result but if we can tell that they're really looking for that website at least we should give the user a chance to see that website as well. So that's kind of why I took that and said well maybe we should be catching this a little bit better and II don't know if our algorithms are correctly kind of understanding how trustworthy your website there would be. I don't know the website so that's really hard for me to judge but even if we think that it wasn't trustworthy at all maybe we should still show it somewhere in the search results on the first page. The other thing to maybe look at if you haven't done so already is look at look at the quality rater guidelines that we have and there's a lot of information about kind of trustworthiness in there. Some of that is worth taking with a grain of salt it's not that we take that kind of one-to-one and use that as a ranking factor but there there are a lot of ideas in there especially when you're talking about a topic that's a kind of legal website or medical website then it does make sense to show users like why are you providing this information why should they trust you.
