19 de marzo de 2019 – Notas de la conversación de ayuda de Google
Publicado: 2019-03-28En este Hangout de ayuda para webmasters, John Mueller respondió algunas preguntas interesantes. Aquí están los que pensamos que serían los más útiles.
Actualmente estoy renombrando y migrando un segmento de nuestro sitio a un nuevo Dominio. Actualmente están bien clasificados. ¿Google tratará este contenido de la misma manera que antes o será tratado de manera diferente?
0:34

Definitivamente también puedes hacerlo en un nuevo dominio. En general, lo que sucederá si divide el sitio de su sitio web en partes separadas es que tendremos que analizar esas partes individualmente. Así que tendríamos que reevaluar esas páginas en una especie de páginas por página. Por lo tanto, definitivamente puede clasificarse así, pero no es el caso de que pueda decir que clasificará exactamente igual que antes porque será una situación diferente: tendrá una configuración de sitio web diferente.
Resumen: el contenido se encuentra en un contexto diferente y se volverá a evaluar página por página. Puede clasificarse bien nuevamente, pero es posible que no se clasifique exactamente como lo hizo en el pasado.
¿La actualización del algoritmo central del 12 de marzo tiene algo que ver con la actualización del 1 de agosto?
20:20

No sé cómo se relacionaría esto con las actualizaciones de agosto. Entonces, en general, cuando hacemos actualizaciones de algoritmos, tratamos de trabajar con un estado y trabajamos hacia un nuevo estado y, a veces, mejoramos cosas donde reconocemos que tal vez el algoritmo fue un poco demasiado lejos y, a veces, mejoramos cosas donde reconocemos el algoritmo no fue lo suficientemente lejos. Entonces, este tipo de cambios algorítmicos creo que son completamente normales con solo actualizaciones de algoritmos en general.
Resumen : este tipo de cambios algorítmicos son completamente normales. A veces, Google intenta modificar las cosas para mejorar los resultados de búsqueda. Pero estos dos no están relacionados.
Comenzamos a clasificar por términos no relacionados y medicamentos farmacéuticos. Creemos que hemos sido hackeados. ¿Hay alguna manera de que pueda verificar si esto es cierto?
27:22

Entonces, mi sospecha es que tal vez lo piratearon después de todo, por lo que no conozco su sitio web, pero por lo general esto no es algo que sucede al azar que un sitio web comienza a clasificarse para términos farmacéuticos, sino que tal vez fue pirateado de una manera que no es completamente obvio de ti mismo. Entonces, lo que podría hacer es ingresar a Search Console y en la sección de análisis de búsqueda, verifique las páginas que se clasificaron para estas y use la herramienta de inspección de URL, la opción de búsqueda en vivo allí para verificar cómo se ve esta página cuando Googlebot mira esas páginas y, a veces, podemos ver en la parte visual, a veces en el HTML, puedes ver que en realidad alguien agregó un montón de enlaces farmacéuticos a esas páginas y eso es una especie de señal de que tal vez hay algo que fue pirateado en estas páginas. A veces, también es algo que persiste un poco cuando un sitio web fue pirateado en el pasado y usted lo limpió. Así que esas son las direcciones que buscaría allí, no asumiría que un sitio web normal de repente se clasifica para términos farmacéuticos sin ningún motivo. Por lo general, hay algo detrás.
Resumen : en Search Console, en la sección Análisis de búsqueda, puede ver qué páginas están clasificadas y, si usa la herramienta de inspección de URL, puede verificar el HTML y ver si se han agregado enlaces, podría ser una señal de que esas páginas están siendo hackeado Es posible que estos permanezcan después de que se haya limpiado.
Al desautorizar backlinks además de desautorizar el backlink de spam en sí mismo, ¿debemos desautorizar todas las demás URL desde las que se hace referencia?
30:45

No, así que si eres un enlace problemático, ese enlace no se tendrá en cuenta. Si cree que todo el sitio web, todos los accesos a su sitio web desde el sitio web de otra persona son problemáticos, entonces desautoriza todo el dominio. Esa es la forma más fácil de cubrir sus bases allí, pero no necesita seguir la cadena hacia todos los demás enlaces que apuntan a esa página con el enlace incorrecto. A menudo es solo ese enlace el que necesitas desautorizar. Y, a menudo, no es necesario que desautorices las cosas, si no es el caso de que tienes una acción manual o miras tus enlaces y dices, bueno, Google me dará una acción manual la próxima semana porque se ve muy mal. entonces, por lo general, no necesita usar la herramienta de desautorización en absoluto.
Resumen : solo debe preocuparse por desautorizar los enlaces no naturales de los sitios que lo enlazan.
Tenemos un sitio web que crea páginas dinámicamente. Si un usuario está buscando programadores en Oxford, tenemos una base de datos que crea una página que extrae información sobre programadores y extrae información sobre Oxford y los reúne. ¿Tiene alguna recomendación sobre un sitio construido como este?
38:56

Me preocuparía un poco la configuración que tienes allí. Eso suena mucho como si estuviera tomando muchos fragmentos de la base de datos y generando automáticamente combinaciones de esas páginas y me parece que muchas de estas variaciones podrían ser muy delgadas, de muy baja calidad y que tal vez usted no No tienes mucho contenido para esas variaciones y rápidamente te encuentras con la situación en la que creas miles de páginas con todas estas combinaciones y la cantidad real de contenido es mínima. Entonces, lo que podría suceder en el lado de Google es que salimos, rastreamos e indexamos todas estas páginas y pensamos que hay tantas cosas aquí que podemos recoger todas estas cosas, pero en un segundo paso cuando miramos el los detalles eran como, en realidad no hay mucha información realmente útil aquí y especialmente si también está tomando los trabajos tal vez de fuentes existentes de otros sitios web. Luego, lo que vemos es esencialmente solo una combinación de información de la ciudad, información de roles, listados de trabajos que ya hemos capturado en otro lugar y miramos eso en general y decimos, ¿cuál es el valor adicional de tener su página? indexado además de las cosas que ya hemos indexado sobre todas estas combinaciones y creo que esa es la parte difícil allí y ahí es donde debes intervenir y decir, en realidad, la forma en que tengo las cosas combinadas es completamente diferente de todo. más. Hay mucho valor que agrego a través de estas páginas que cuando las personas van a estas páginas ven claramente que esto no es solo como una combinación de fuentes existentes, sino que en realidad hay algo realmente fantástico aquí que nadie más ha capturado hasta ahora.
Resumen : tenga cuidado si su sitio está construido de esta manera. Cuando Google va a indexar estas páginas, terminan recogiendo pequeños fragmentos de su información. Para este ejemplo, Google vería un poco de información sobre una ciudad y una descripción del trabajo. Entonces vería esto en todo su sitio. Esto posiblemente podría verse como contenido delgado y puede optar por no indexarlo porque no tiene ningún valor adicional para los usuarios.
Si te gustan estas cosas, ¡te encantará mi newsletter!
Mi equipo y yo informamos todas las semanas sobre las últimas actualizaciones de algoritmos de Google, noticias y consejos de SEO.
¡¡Éxito!! Ahora revise su correo electrónico para confirmar su suscripción al boletín de Google Update.
P 0:34 Pregunta sobre el cambio de marca y el cambio de sitio. Sí, ¿quieres que te hagan la misma pregunta otra vez? Entonces, la pregunta es: queremos migrar un segmento o parte de nuestro sitio web. Digamos, 100-102 páginas, a un nuevo dominio con fines de cambio de marca. En este momento estamos bien posicionados para estos segmentos, pero estamos bien, ¿podremos clasificar bien para estos segmentos en un nuevo dominio, o se trata como un negocio/sitio web independiente o separado como Google?
A 1:09 Definitivamente también puedes hacerlo en un dominio nuevo. En general, lo que sucederá si divide el sitio de su sitio web en partes separadas es que tendremos que analizar esas partes individualmente. Así que tendríamos que reevaluar esas páginas en una especie de páginas por página. Por lo tanto, definitivamente puede clasificarse así, pero no es el caso de que pueda decir que clasificará exactamente igual que antes porque será una situación diferente: tendrá una configuración de sitio web diferente.
P 1:54 Anteriormente, cuando usábamos GSC, existía la opción de "página de destino". Cuando extrajimos una URL en esa página de destino, pudimos ver qué palabra clave estaban clasificando. ¿Hay alguna alternativa a esto ahora?
A 2:14 Entonces, ¿cómo ver qué palabras clave se clasifican para qué consultas? Eso debería estar en la sección de análisis de búsqueda. No debería ser problema.
P 2:35 En la vista exacta de esa [forma] anterior, pudimos ver qué página de destino en la consola de búsqueda.
A 2:45 Entonces, ¿ver qué página de destino se mostraría?
Q 2:52 Erm, ¿puedes dejarme averiguar eso?
A 2:52 Sí, porque esencialmente en el nuevo GSC la función de análisis de búsqueda es muy similar a la función de análisis de búsqueda en la antigua consola de búsqueda. Por lo tanto, debería poder ver las páginas de destino, los clics y las consultas e impresiones, la posición...
P 3:18 Sí, pero ahora solo puedo ver la información de mis sitios web que había enviado a la consola de búsqueda de Google. Mientras que antes podía ver información de las palabras clave de cualquier sitio web para las que ese sitio web estaba clasificado.
A 3:23 No, no, eso no estaba en la consola de búsqueda, que yo sepa. Entonces, ¿quizás estabas mirando?...
Q 3:32 No, porque todavía he encontrado una cuenta que todavía funciona. te mostrare eso
A 3:37 Ok, porque realmente necesitas tener un sitio verificado para que podamos mostrarte los datos en la consola de búsqueda. Por lo tanto, no se daría el caso de que pudiera ver los datos de clics e impresiones de un sitio web de terceros que no haya verificado.
Q 3:54 Pero antes pude ver que había
A 5:56 No en Search Console... Sí, eso no debería estar en Search Console y tampoco debería ser algo que llegará a Search Console.
P 4:15 Ok, otra pregunta: ¿existen pautas sobre la paginación y las citas?
Una paginación de 4:17, ¡tenemos muchas pautas sobre la paginación! Hay un artículo del centro de ayuda sobre la paginación. Hay un…
P 4:30 ¿Puedes poner el enlace aquí?
A 4:30 Claro, debería ser solo paginación. Sí, se llama “indicación de contenido paginado a Google”. Oh genial - Barry lo ha publicado. Enfriar.
Q 4:57 Hola, John, está bien, en la nueva consola de búsqueda, vi la pestaña de enlaces. Tuve un problema en los últimos meses donde había un sitio clonado... Creaba muchos backlinks porque este sitio clonado usaba todos mis sitios y enlaces relativos, creando me gusta, todas las noticias, creando enlaces. Entonces, en realidad, tengo sitios con enlaces principales que todavía, incluso si desautorizo ese dominio, todavía dice que tengo 986,000 enlaces. El segundo es 69.000. Entonces, como puede ver, son diez veces los vínculos de retroceso normales para el sitio en comparación con el segundo. Así que rechacé, y probablemente debería haber funcionado, pero también veo en la pestaña de enlace que hay otra tabla que muestra el ancla "mejores cuerpos de playa". Así que esta es la pregunta, esta tabla ha cambiado debido a esos vínculos de retroceso, ¿puede esto afectar mi ranking de búsqueda? Puedo verme si busco ese ancla que estoy en primera posición.
A 7:58 Entonces, no creo que eso sea un problema, una de las partes confusas podría ser el recuento de los enlaces que mostramos allí. Probablemente sea solo una señal de que este es un enlace de todo el sitio desde el sitio web. Por lo tanto, se siente como una gran cantidad de enlaces, pero en realidad es solo de un sitio web, por lo que en realidad no es problemático. Además, si rechaza esos enlaces, no los tomaremos en cuenta. Eso es bastante fácil de hacer, simplemente desautorizar el dominio. Lo que no sucedería es que los enlaces no desaparecerían [de GSC] debido a la desautorización. Entonces, en la herramienta de enlaces, mostramos todos los enlaces a su sitio web, incluso los que ignoramos. Entonces, si ha desautorizado esos enlaces, no desaparecerán del GSC. (y también las anclas)
Notas por CD (10-20 min)
P 09:30 - [pregunta resumida] para un sitio que transmite videos y aloja videos a pedido, ¿hay algo más que un esquema que lo ayudaría a aparecer mejor en los SERP? Además, ¿qué tipo de optimizaciones se pueden hacer en los videos para obtener un fragmento destacado?
A 11:58 - “No estoy seguro por el lado de la transmisión, creo que es algo que no he investigado mucho. Pero en general, creo que lo primero que querría verificar es el lado de la indexación, como si realmente pudiéramos indexar las páginas y el contenido, el contenido de video por un lado, las transmisiones por otro lado. parece que eso no es realmente un problema, que podemos mostrar estos videos en la búsqueda... ¿es correcto? [La persona que pregunta responde "sí"] Entonces, creo que la base básica ya está establecida, eso es bueno, así que podemos recoger el contenido, podemos indexar los videos, esa es una especie de base allí. Para los datos estructurados en general, creo que querrás diferenciar entre transmisiones y contenido grabado. Esa es una cosa que sería muy importante dejar en claro con respecto a los datos estructurados. Entonces, cuando envía videos, contenido grabado que está disponible, en cualquier momento, eso es algo en lo que puede usar un marcado de video normal para eso. O también puede usar los mapas del sitio de video para brindarnos más información sobre esos videos. Por ejemplo, si el contenido del video solo está disponible en ciertos países, puede informarnos sobre eso en el mapa del sitio del video. Para transmisiones, ahí es donde no estoy realmente seguro de cuál es el enfoque correcto allí. Creo que también existe la API de indexación que podría usar para videos, para contenido de transmisión en vivo; no estoy 100% seguro, es posible que desee verificarlo dos veces. Pero en cualquier caso, realmente desea diferenciar el contenido grabado del contenido de transmisión en vivo, y tratarlos de manera diferente y asegurarse de que estén marcados por separado a su manera. Con respecto a los fragmentos destacados, no creo que mostremos transmisiones en vivo en los fragmentos destacados. Creo que, hasta donde yo sé, el tipo de vistas previas de video que mostramos en los cuadros de video uno son más para el contenido grabado. No creo que mostraríamos transmisiones allí, pero si lo tiene grabado, entonces eso es algo que sería elegible. [El autor de la pregunta vuelve a intervenir para reiterar la segunda parte de su pregunta, ¿hay algo más además del marcado de esquema para que sus videos sean extraídos para un fragmento destacado] . No necesitas hacer nada especial más allá de eso. Si podemos seleccionar el contenido del video y mostrarlo en los resultados de la búsqueda de videos, por ejemplo, si ingresa al modo de video y busca, si podemos mostrar la miniatura del video, eso significa que tenemos todos los detalles que necesitamos para el contenido de vídeo Las partes importantes son que podemos rastrear e indexar la miniatura, de modo que tenga una imagen en miniatura que no esté bloqueada por robots.txt, y que el archivo de video al que vincula también sea indexable”.
P 15:41 (este sigue siendo el mismo tipo que el anterior, estoy parafraseando de nuevo): hay una tabla que muestra los resultados de los partidos, que es parte de los fragmentos destacados. ¿De dónde vienen?
A 16:23: “No conozco ningún atajo allí, en realidad es solo una clasificación de búsqueda normal. Para mucho de este tipo de contenido, si podemos mostrarlo en forma tabular, obviamente tener ese tipo de contenido en una tabla en la página en HTML ayuda mucho”.
P 17:14: [Barry tiene una pregunta técnica de SEO] Así que tienes una URL, y en la URL tienen un parámetro que dice desde dónde hiciste clic, lo cual no recomiendo, pero este sitio web lo tiene, como ellos. un parámetro que muestra que puede desde la "Sección A" o la "Sección B" que se muestra en la URL. También tienen, como, page=1 de un conjunto rel=next/rel=prev. ¿Deberían mantener el parámetro de sección en la URL y también rel=next/rel=prev? Creo que tiene más sentido probablemente rel=canonical… puedes usar canonical y rel=next/prev al mismo tiempo, ¿verdad? [John dice “sí”] … entonces, rel=canonical a la URL principal sin el parámetro de sección, y luego rel=next/rel=prev ¿debería excluir el parámetro de sección? [Juan dice “sí”].
A 18:08: “Creo que siempre que puedas simplificarlo para tener menos URL que lleven al mismo contenido, entonces ese es un enfoque que tomaría. [Barry agrega que su enfoque número uno habría sido eliminar los parámetros de la sección, pero dijeron que no pueden hacer eso con fines de seguimiento] Sí, a veces tienes estas cosas para el seguimiento, así que tienes que lidiar con lo que tienes. . A veces, lo que puede hacer es moverlo a un fragmento en lugar de a un parámetro de consulta normal, lo que generalmente significa que lo descartaremos para la indexación [Barry dice: "Yo también sugerí eso, pero dijeron que no, así que fin"].
P 19:09 Dado que Google confirmó que ninguna de las actualizaciones principales se alineó con ninguna de las actualizaciones de coincidencia neuronal, ¿es seguro decir que los sitios realmente deberían buscar mejorar la calidad y la relevancia a largo plazo, cuando se trata de estos amplias actualizaciones básicas?
A 19:24: “Creo que es seguro decirlo, independientemente de las actualizaciones, ¿verdad? Como, siempre vale la pena mejorar las cosas. No tengo idea de lo que quiere decir con las actualizaciones de coincidencia neuronal, suena como algo de "aprendizaje automático" [agita las manos] que alguien está tratando de sacar y separar. Usamos el aprendizaje automático en muchas partes de nuestra infraestructura, por lo que sacar eso como algo específico a veces es más artificial que realmente útil.

P 20:04: Con la actualización del algoritmo central del 12 de marzo, hubo muchos otros sitios que experimentaron un movimiento positivo que disminuyó considerablemente durante la actualización anterior. ¿Hubo un ablandamiento con lo que sea que se lanzó en agosto?
A las 20:20: “No sé cómo se relacionaría esto con las actualizaciones de agosto. Entonces, en general, cuando hacemos actualizaciones de algoritmos, tratamos de trabajar con un estado y trabajamos hacia un nuevo estado y, a veces, mejoramos cosas donde reconocemos que tal vez el algoritmo fue un poco demasiado lejos y, a veces, mejoramos cosas donde reconocemos el algoritmo no fue lo suficientemente lejos. Entonces, este tipo de cambios algorítmicos creo que son completamente normales con solo actualizaciones de algoritmos en general”.
P 20:51: Etag versus if-modified-since, ¿cuál de los siguientes encabezados HTTP recomendaría usar para la optimización del presupuesto de rastreo y por qué?
A21:03: “Así que creo que estas son dos cosas separadas. Por ejemplo, if-modified-since es un encabezado que enviamos con una solicitud y el Etag es algo que se envía con la respuesta, así que obviamente hay una coincidencia en ese if-modified-since se basa en una fecha y Etag es una especie de sistema de tipo IDE, en general ambos funcionan. Intentamos usarlos cuando se trata de rastrear, pero no los usamos todo el tiempo, así que tenga en cuenta que muchos sitios no los implementan o los han implementado incorrectamente, por lo que es algo que no cambia por completo la forma en que rastreamos el sitio web. Nos ayuda un poco, pero en su mayor parte los sitios generalmente no tienen que preocuparse por ese nivel cuando se trata de rastrear. Cuando se trata de usuarios, ese tipo de optimizaciones pueden marcar una gran diferencia, especialmente con los usuarios que regresan regularmente, podrán reutilizar el CSS o JavaScript y cosas así”.
P 22:20: Publicación reciente en el blog central de webmasters sobre las fechas, Google dijo que sea consistente en el uso, tengo un cliente que quiere mostrar una 'fecha de herencia' (quizás una jerarquía). Probablemente lo esté diciendo mal, ya que una fecha de publicación en las páginas del artículo. ¿Está bien mostrar eso en las partes individuales y usar datos gregorianos y estructurados?
A las 22:35: “Sí, puedes hacer eso. Los diferentes formatos son un problema menor y los datos de infraestructura definitivamente necesitamos tener las fechas de Google Rhian, por lo que debe especificarlo con facilidad. Oh, ¿qué es? Pete 601, no estoy completamente seguro del código de idioma que especificamos. allá. Debe usar ese código para especificar la fecha y la hora, idealmente también con zonas horarias para que tengamos ese tipo de forma adecuada. Pero si dentro de la parte visual de la página desea utilizar su formato de fecha local, por lo general está bien. Eso es algo que deberíamos ser capaces de entender y recoger también”.
P 23:15: Somos una empresa nueva que ayuda a las empresas a trabajar con agencias de temperamento en todo el Reino Unido. Cuando comenzamos, creamos dinámicamente páginas para combinaciones de ubicaciones y roles de trabajo y, debido a un error, creamos 13 páginas para cada combinación. Estamos tratando de eliminar todos estos con una metaetiqueta sin índice, pero todavía están allí. ¿Qué podemos hacer para arreglar esto?
A 23:43: “Entonces, en general, la metaetiqueta noindex es el enfoque correcto aquí. Significa que cuando volvamos a rastrear esas páginas, las eliminaremos de nuestro índice. Eso es perfecto para algo como esto. Lo que puede hacer si cree que necesita eliminarlos más rápido es usar las herramientas de eliminación de URL si tiene un tipo de subdirectorio limpio que puede eliminar, o usar un archivo de mapa del sitio para decirnos que estas URL cambiaron recientemente con una nueva fecha de último cambio y luego saldremos e intentaremos rastrearlos un poco más rápido. Sin embargo, en general, especialmente si se trata de un sitio web más grande, a veces solo nos lleva semanas y meses volver a rastrear todo, especialmente si salimos, rastreamos e indexamos como una faceta oscura de su sitio web, entonces probablemente esas son URL que no hacemos. cronograma para rastrear con frecuencia, por lo que probablemente sea algo que puede tomar medio año más o menos para abandonar por completo. Sin embargo, en la práctica, eso no debería ser un gran problema porque podemos reconocer en qué URL desea enfocarse y nos enfocaremos principalmente en esos también, por lo que estos antiguos se indexarán por un tiempo hasta que pueda procesarlos y eliminarlos. ellos, pero no deberían afectar la indexación del resto de su sitio web”.
P 25:04: Tengo algunos clientes que obtienen su panel de conocimiento local activado por términos sin marca. ¿Sabes qué señales pueden influir en esto?
A 25:13: “No tengo ni idea. Entonces eso cae en el negocio local general, resultados de Google My Business. Así que realmente no sé qué podría desencadenar eso. Probablemente algo con la lista con el sitio web, pero quiero decir que solo estoy adivinando, probablemente como lo estarías adivinando. Recomiendo ir al foro de ayuda de Google My Business y ver lo que dicen otros expertos".
P 25:47: ¿La búsqueda de imágenes es diferente de la búsqueda web? He bloqueado una imagen utilizando la imagen de Googlebot no permitida, ¿significa que el valor predeterminado de Googlebot tampoco rastreará la imagen y no se mostrará en la búsqueda web?
A 25:59: “Entonces, sí, es diferente. Me gusta cómo mencionaste que tenemos diferentes directivas para los diferentes lugares. Si bloquea una imagen para la imagen de Googlebot, no la mostraremos en la búsqueda de imágenes y tampoco la usaremos para la búsqueda web dentro de los resultados universales porque los resultados universales se filtran para que sean buenos para la imagen Búsqueda de imágenes de Google resultados. Entonces, si esa imagen está bloqueada, esencialmente no usaremos esa imagen. No sería un problema para sus resultados web normales, por lo que no es el caso de que cuando tenemos una página web y la indexamos para la búsqueda web, necesitamos tener todas estas imágenes disponibles para la búsqueda web porque hacemos algo elegante o algo así. alrededor de eso con las imágenes, pero en realidad es solo una cuestión de que no podemos rastrear estas imágenes, por lo que no podemos mostrarlas en la búsqueda de imágenes, no tiene ningún efecto secundario positivo o negativo de que las imágenes no estén disponibles en la web normal. búsqueda. Entonces, para el tipo normal de búsquedas de tipo de texto”.
P 27:05: Comenzamos a clasificar los ingredientes no relacionados que no vendemos ni tenemos el contenido de fármacos similares. No hemos sido pirateados. No hemos sido pirateados. No tenemos texto de anclaje entrante con esos términos. ¿Es esto un problema y, de ser así, qué puedo comprobar?
A 27:22: “Entonces, mi sospecha es que tal vez lo piratearon después de todo, así que no conozco su sitio web, pero por lo general esto no es algo que sucede al azar que un sitio web comienza a clasificarse para términos farmacéuticos, sino que tal vez fue pirateado de una manera que no es completamente obvia para usted. Entonces, lo que podría hacer es ingresar a Search Console y en la sección de análisis de búsqueda, verifique las páginas que se clasificaron para estas y use la herramienta de inspección de URL, la opción de búsqueda en vivo allí para verificar cómo se ve esta página cuando Googlebot mira esas páginas y, a veces, podemos ver en la parte visual, a veces en el HTML, puedes ver que en realidad alguien agregó un montón de enlaces farmacéuticos a esas páginas y eso es una especie de señal de que tal vez hay algo que fue pirateado en estas páginas. A veces, también es algo que persiste un poco cuando un sitio web fue pirateado en el pasado y usted lo limpió. Así que esas son las direcciones que buscaría allí, no asumiría que un sitio web normal de repente se clasifica para términos farmacéuticos sin ningún motivo. Por lo general, hay algo detrás de esto”.
Resumen: en Search Console, en la sección Análisis de búsqueda, puede ver qué páginas están clasificadas y, si usa la herramienta de inspección de URL, puede verificar el HTML y ver si se han agregado enlaces, podría ser una señal de que esas páginas están siendo hackeado Es posible que estos permanezcan después de que se haya limpiado.
P 28:41: Hablando de este planificador de palabras clave anterior, ves cuando hago clic en -- [John:] esa es la herramienta de Adwords. [Pregunta]: Preguntaré en la nueva infraestructura, esta opción no está disponible. ¿Hay alguna alternativa a esto?
A 29:16: “No sé. Esa es la herramienta de planificación de palabras clave de Adwords, así que no sé cuáles son los planes del lado de Adwords. Eso no es algo que esté relacionado con Search Console. Eso es realmente puramente uno del equipo de anuncios”.
P 30:45 Al desautorizar backlinks además de desautorizar el backlink de spam en sí mismo, ¿debemos desautorizar todas las demás URL desde las que se hace referencia?
A 30:55 No, así que si eres un enlace problemático, ese enlace no se tendrá en cuenta. Si cree que todo el sitio web, todos los accesos a su sitio web desde el sitio web de otra persona son problemáticos, entonces desautoriza todo el dominio. Esa es la forma más fácil de cubrir sus bases allí, pero no necesita seguir la cadena hacia todos los demás enlaces que apuntan a esa página con el enlace incorrecto. A menudo es solo ese enlace el que necesitas desautorizar. Y, a menudo, no es necesario que desautorices las cosas, si no es el caso de que tienes una acción manual o miras tus enlaces y dices, bueno, Google me dará una acción manual la próxima semana porque se ve muy mal. entonces, por lo general, no necesita usar la herramienta de desautorización en absoluto.
Nuestra nota: Google es realmente bueno analizando y encontrando enlaces de spam e ignorándolos. Lo más importante a tener en cuenta es si tiene enlaces no naturales que se crearon con fines de SEO.
P 31:45 ¿Cómo trata Google los vínculos de retroceso de sitios web de análisis de sitios web o perfiles de usuario o contenido generado por el usuario, sitios de contenido generado automáticamente?
A 32:00 En su mayor parte, los ignoramos, porque se vinculan con todo y es fácil de reconocer, así que eso es algo que esencialmente ignoramos.
Q 32:10 Nuestro negocio se trata de desarrollo de software y servicios DevOps, tenemos una página separada para el servicio que brindamos y páginas de blog. Los artículos del blog tienen diversos temas, desde cómo contratar un buen equipo de programadores hasta cómo vencer la procrastinación y el papel de la mujer en los negocios. Me preocupa que un espectro tan amplio de temas pueda diluir los temas generales de nuestro sitio web y, como resultado, podría ser difícil clasificar para nuestras palabras clave transaccionales que venden nuestro servicio. ¿Es eso un problema?
A 32:50 No, no creo que eso sea un problema. Creo que vagamente todos estos están relacionados. En lo que me centraría más es si las personas van a esas páginas y no tienes absolutamente ningún valor de esos usuarios que van a esas páginas, entonces tal vez no sea una buena combinación desde el punto de vista comercial.
P 33:45 Pregunta sobre fragmentos enriquecidos: nuestra empresa y nuestras ofertas con sede en Suiza, en nuestro caso, a menudo vemos sitios web de Alemania con precios en euros. Desde mi punto de vista, eso no es realmente útil, ¿podemos usar datos estructurados para mostrarnos en lugar de esos otros sitios web?
A 34:15 Como alguien en Suiza, estoy de acuerdo en que, a veces, ver muchos sitios de Alemania no es muy útil. Pero esencialmente, si no tenemos un buen contenido local y si no podemos decir que lo usamos buscando algo desde un punto de vista local, entonces es difícil para nosotros decir que estas páginas no deberían mostrarse en los resultados de búsqueda. . Entonces, por ejemplo, si podemos reconocer que el usuario realmente está buscando algo local y tenemos algo de contenido local, intentaremos mostrarlo. Pero si no se puede decir y están buscando información sobre un tema determinado, entonces tal vez deberíamos mostrar información sobre ese tema, independientemente de si es o no para Alemania, Suiza u otro país. Así que eso no es algo que puedas especificar claramente, son datos estructurados. Lo que puede hacer es usar el marcado Hreflang si tiene una versión de varios idiomas y países, puede especificarlo para su uso y también puede usar la orientación geográfica que aparece en la consola de búsqueda para decirnos que su sitio web está orientado específicamente a Alemania o más específicamente. Suiza y lo tendremos en cuenta cuando reconozcamos que un usuario está buscando algo local.
P 35:50 Veo una cantidad inquietante de redes de enlaces y esquemas nefastos de creación de enlaces que utilizan las empresas de vapeo. Informé esto como se sugirió, pero ¿hay algo más que podamos hacer?
A 36:00 Así que reportarlos en la Consola de búsqueda, formulario de reporte de spam, ese es un buen lugar para ir. Eso nos ayuda a comprender mejor que estas páginas debemos revisarlas desde el punto de vista del spam web manual. En realidad, nunca está garantizado que eliminemos esas páginas por completo. Entonces, cuando se trata de áreas competitivas, lo que a menudo vemos es si esos sitios web hacen algunas cosas realmente bien y algunas cosas realmente mal y tratamos de tomar una imagen general y usarla para la clasificación general. Por ejemplo, puede ser que un sitio use el relleno de palabras clave de una manera realmente terrible, pero el negocio en realidad es realmente fantástico y a la gente realmente le encanta ir allí, les encanta encontrarlo en la búsqueda, tenemos muchas señales realmente buenas para ese sitio, por lo que aún podría mostrarlos en el número uno, aunque reconozcamos que están haciendo un relleno de palabras clave. Muchas veces, lo que sucederá también es que nuestros algoritmos reconocerán este tipo de 'estados negativos' e intentarán ignorarlos. Así que hacemos eso específicamente con respecto a los enlaces, también el relleno de palabras clave, algunas otras técnicas también en las que si podemos reconocer que están haciendo algo realmente extraño con los enlaces o con el relleno de palabras clave, entonces podemos ignorar eso y simplemente centrarnos en las partes buenas donde tenemos señales razonables que podemos usar para clasificar. Entonces, ¿qué podría estar sucediendo aquí? No miré estos sitios o específicamente lo que se informó, pero lo que podría estar sucediendo es que están haciendo cosas de construcción de enlaces realmente terribles, ignoramos la mayor parte de eso y están haciendo algunas cosas bastante bien en el lado y en función de lo que están haciendo bastante bien, estamos tratando de clasificarlos adecuadamente en los resultados de búsqueda. Es un poco frustrante cuando miras esto y dices, estoy haciendo todo bien y por qué estos muchachos están clasificados por encima de mí, por otro lado, tratamos de ver el panorama general y tratar de comprender un poco mejor la relevancia. Y a veces es algo que también funciona a su favor porque tal vez haga algo realmente terrible en su sitio web y los algoritmos de Google lo miren y digan 'oh, eso parece un error, tal vez podamos simplemente ignorarlo y centrarnos en el good parts of the website and not remove that site completely from search because they found some bad advice online'.
Q 38:56 - We help companies find recruitment agencies to work with and broadly what we have on our site is it dynamically creates pages for combinations of jobs and locations. So you might type in a programmer in Oxford and it'll show you a page saying program in Oxford. And so I had these dynamic pages created and I put them into the search engine and when I first did this I saw a real uptick in volume coming from search because previously I've been relying on paid clicks. Then we made this mistake where we had every single link had 13 different pages and I've tried to get them out. What's happened as I seem like you know my impressions just go down over time to zero and literally the only thing I'm coming up for is my brand name. I went to the old version a search console and said can you ignore these web links for me and it still hasn't made any difference. I still seem to be having nothing coming in and I'm kind of very nervous about what you said, saying it could take months for this to come through, because as a start-up I know it's not Google's business but it's very hard for me to get traffic in. Is there anything could be doing?
The second part of this question, the way I do my pages is I have in my database I have a little bit written about a role and a little bit written about a town and I combine them together on a page to say, here are programmers in Oxford. So a programmer or job spec will say these things and you should pay, this amount of money for a programmer, and about employment in Oxford. But of course, the piece about Oxford is repeated on every single job role and then the piece about programmers is repeated on every single location. Does that mean those pages will get deranked?
A 40:52- I would be kind of worried about the setup that you have there. So that sounds a lot like you're just taking a lot of chunks from the database and just automatically generating combinations of those pages and it feels to me that a lot of these variations could be very thin, very low quality and that maybe you don't have a lot of content for those variations and you quickly run into the situation where you create thousands of pages with all these combinations and the actual amount of content there is very minimal. So what could happen on Google side is, we go off and crawl and index all of these pages and we think oh like there's so much stuff here we can kind of pick up all of this stuff but in a second step when we look at the details were like, actually there's not a lot of really useful information here and especially if you're also taking the jobs maybe from existing feeds from other websites. Then what we see is essentially just a mix of like some some city information, some role information, job listings which we've already captured somewhere else and we kind of look at that overall and say like, what's the additional value of having your page indexed in addition to the things we already have indexed about all of these combinations and that's I think the tricky part there and that's kind of where you need to jump in and say, actually the might the way I have things combined are completely different from everything else. There's a lot of value that I add through these pages that when people go to these pages they clearly see that this is not just like a combination of existing feeds but actually there's something really fantastic here that nobody else has captured so far.
Barry chimes in about a similar story.
I could imagine for ads maybe that's that's slightly different than if you were if you have ads landing pages but especially from an indexing from a quality point of view that's something where I would expect that you would have a really tough time unless you're really providing a lot of like really strong value in addition just to those listings there.
I think what you really want to do especially for search, is make sure that you have a significant amount of value there that's much more than what other people have for that kind of content. So in particular one approach I usually take is like, if you bring this problem to me and you say that your site is not ranking well and I take that problem to the search ranking engineers and they say, well actually we have this combination already index five times why should we add this other variation and I don't have a good reason to tell them like, instead of these five you should take this new one. Then that's something that's that's really hard for me to justify and that means that in the end you'll be competing against a lot of kind of established players in that scene and you're kind of a new player in that scene and you don't have significant unique value that you're adding to that. So it's really from our algorithmic point of view it's like why should we spend time on this website that's not significantly changing the web for our users.
Q 49:15 - This is relating to structure kind of website this is a magazine you know they have is in a Drupal site in its I'm trying to figure out the best structure since there is articles and every category and those articles could be repeated through categories but there's also landing pages for each category and subcategory so I'm kind of trying to avoid such a big mess and try and condense that do you have any advice for that
A 49:52 -I guess in general what you want to make sure is that the pages that you do have index for search that they're able to stand on their own. So if you have all of these different combinations of like categories and landing pages and things like that. Then I try to figure out which of those variations you think you want to keep first switch and no index the other ones.
