Transcripción del podcast de SNYCU con Marie y John Mueller
Publicado: 2020-06-03Podcast de SNYCU con Marie y John Mueller
Una transcripción del podcast SNYCU de MHC con John Mueller de Google el 3 de junio de 2020. Puede escuchar el episodio completo aquí.
Si desea suscribirse, puede encontrar los podcasts aquí:
itunes | Spotify | Google Play
O míralo aquí:
M: Así que bienvenidos a un episodio muy especial de Search News You Can Use y soy la Dra. Marie Haynes y tengo mi primera invitada en el podcast; John Müller de Google. Bienvenido Juan.
J: Genial estar aquí Marie.
M 0:15 - Entonces, John, dime: creo que todos sabemos que eres un analista de tendencias para webmasters en Google, ¿cuánto tiempo llevas en Google ahora?
J 0:23 - Oh chico, qué es... 12 o 13 años, algo así.
M 0:30 - ¿En serio? Así que mi primera introducción al SEO fue en... ¿recuerdas los foros de chat de SEO? No sé si fuiste parte de ellos, pero eso fue más o menos en 2008. Y luego, en algún momento, comencé a ver tus videos de Hangouts de ayuda de Google. ¿Los empezaste poco después de unirte a Google?
J 0:57 - Um, veamos. No sé cuándo empezamos exactamente. Creo que eso ocurrió más o menos cuando apareció Google plus, así que tan pronto como la configuración completa estuvo allí y pudimos hacer estos hangouts públicos y pedirles a las personas que se unieran, todo eso, entonces ahí es donde comenzamos a hacer eso para tipo de probarlos para ver qué funciona, qué no funciona.
M 1:29 - Te pillé. En primer lugar, quiero agradecerles, quiero decir, de parte de toda la comunidad de SEO, que han ido más allá a lo largo de los años y no sé cómo lo hacen. Iba a comenzar con nuestra primera pregunta sobre carpetas versus subdominios o ya sabes, pero no lo soy, no lo soy. Ha cubierto mucho eso y no puedo imaginar cómo es cada palabra que dice, nosotros, como la comunidad de SEO, saltamos y diremos "Bueno, esto es lo que dice Google" y debe ser muy difícil tener cada una de tus palabras analizadas y aquí vamos de nuevo! Le haremos un montón de preguntas para analizar. Creo que simplemente comenzaremos con las preguntas y veremos a dónde van las cosas. En cualquier momento, si quieres saltar y decir algo, cualquier cosa que quieras decir sería muy útil. Quiero comenzar con una pregunta divertida y preguntarte, ¿cuál es el problema con las bananas y el queso?
J 2:28 - Plátanos y queso... Bueno, supongo que el queso es algo obvio, es como en Suiza hay mucho queso, así que, no sé, esa es la parte fácil allí. Creo que un tweet que comenzó todo, desde mi cuenta fue I love Cheese. Ese tweet, en realidad lo hizo Gary, así que no es mi culpa. No sé. Fui a tomar un café y Gary dijo: "oh, Twitter está abierto", así que se fue e intentó publicar algo. Probablemente trató de encontrar algo que no hiciera que lo despidieran así.
M: Podría haber sido mucho peor, sí.
J: Y Bananas es más aleatorio porque estaba buscando algo para probar con Google Trends y Bananas fue solo la primera palabra que me vino a la mente y comencé a recibir todos estos correos electrónicos como Google Trends para bananas estaba subiendo o bajando. hacia abajo, fue como bien "Está bien".
M: Eso es fantástico. Entonces, ¿todavía recibes correos electrónicos sobre las tendencias de las bananas?
J: Sí, sí.
M 3:52 La forma en que se nos ocurrieron nuestras preguntas fue que tenemos un equipo completo que trabaja para mí y mi equipo en realidad entrena en sus videos de Hangouts de ayuda para que los vean y sepa que surgirá algo y sabrá que Hablando de una etiqueta canónica y mi equipo, mis nuevos aprendices dirán "Bueno, ¿qué es eso?" y comenzaremos a hablar sobre esas cosas. Y así, gran parte de mi equipo hizo preguntas y algunos de mis oyentes de mi podcast también hicieron preguntas. Hablemos de nofollow y Google anunció el año pasado que se producirían algunos cambios en la forma en que podía usar nofollow. Creo que en ese momento nos diste rel=sponsored y rel=ugc. Siento que hay un poco de confusión acerca de cómo Google puede usar enlaces no seguidos y parte de la confusión es... bueno, la gente me pregunta a menudo, si alguien me ha señalado enlaces de spam en un intento de SEO negativo, como spam de comentarios y enlaces como eso, y todos son enlaces nofollowed. ¿Se pueden usar esos enlaces no seguidos como señales para Google?
J 5:02 - Bueno, no los usamos de manera negativa. Entonces, si podemos usarlos para descubrir contenido nuevo, creo que tratamos de usarlos, pero no es el caso en el que decimos que estos son enlaces normales en la web, por lo que los contaremos con todo su peso y si son enlaces malos en la web, contarán en su contra y ese tipo de cosas. Entonces, si estos son enlaces que no desea asociar con su sitio y tienen un nofollow, entonces está perfectamente bien. Creo que muchos de los anuncios en Internet también tienen nofollow, eso es algo en lo que no lo veríamos como un enlace pago solo porque ahora entendemos un poco mejor los enlaces nofollow.
M 5:44 - Eso tiene sentido. Así que creo que una de las preocupaciones, una pregunta que mucha gente me ha hecho es si deberían desautorizar porque hay una gran cantidad de enlaces no seguidos, entonces ya sabes, la escala podría indicar algo y siempre hemos sostenido que hay No tiene sentido desautorizar un enlace no seguido porque el objetivo de desautorizar es decirle a Google 'No quiero pasar estas señales', así que creo que tiene sentido, ¿verdad? ¿Estamos en el camino correcto?
J 6:11 - Sí, no hay necesidad de repudiarlos.
M 6:15 - Esta es una pregunta de la que hablamos. La primera y única vez que nos conocimos en persona fue en Nueva York en la oficina de Google y me encantaría que la revisáramos porque creo que hay mucha confusión sobre quién debería usar la herramienta de desautorización. Entonces, la pregunta principal es que sabemos que la herramienta de desautorización está ahí si tiene una acción manual e intentamos eliminar los enlaces no naturales y los que no podemos eliminar, los colocamos en la herramienta de desautorización. Lo que hablamos antes es si alguna vez hay una razón para que un sitio que no tiene una acción manual use la herramienta de desautorización. Así que empecemos con eso quizás
J 7:00 - Creo que hay dos momentos en los que quizás tendría sentido usar la herramienta de desautorización. Por un lado, cuando observa los enlaces a su sitio, está bastante seguro de que obtendrá una acción manual. Entonces, por ejemplo, si el SEO anterior estaba haciendo todo tipo de cosas extrañas con respecto a los enlaces a su sitio, si no estaban comprando enlaces, haciendo publicaciones de invitados, todas las cosas habituales en las que diríamos que esto va en contra de la pautas y si aún no ha recibido una acción manual para eso, entonces eso es algo en lo que si va y mira un sitio como ese y ve todo esto, parece algo que le gustaría limpiar de manera proactiva. Básicamente, el tipo de actividades que haría cuando recibe una acción manual, hágalo de manera proactiva con anticipación para que ni siquiera se meta en todo este problema de acción manual. Y eso es algo en lo que de vez en cuando me encuentro con personas así que tal vez vengan a uno de los lugares de reunión de horas de oficina o publiquen en Twitter o en los foros de ayuda donde, si miran esos enlaces, pueden decir bien que han estado haciendo muchas cosas que probablemente no deberían haber hecho y no está claro si las hicieron ellos mismos o si contrataron a un SEO para hacer eso, en realidad no importa y tal vez no tengan un acción manual todavía, pero supondría que si el equipo de spam web se encontrara con ese sitio, probablemente tomaría medidas. Así que ese es el tipo de cosas en las que diría que puedes ocuparte de eso tú mismo con la desautorización limpiando los enlaces tanto como puedas, creo que eso es lo más obvio. El otro es más similar a si realmente no está seguro de lo que harán los algoritmos de Google porque realmente tratamos de ignorar los enlaces de spam, tratamos de ignorar los enlaces aleatorios que se colocan en los foros que a veces son acaba de caer automáticamente todo tipo de lugares. Y si realmente no está seguro de si los algoritmos de Google los ignorarán, simplemente puede ponerlos en el archivo de desautorización y decir, bueno, hice lo que podía hacer, al menos no tengo que preocuparme por esto.
M 9:26 - La negación es una prevención para una acción manual. Eso tiene sentido, ¿verdad? Si nos fijamos en un perfil de enlace que está muy abiertamente en contra de las directrices de Google y decimos: ¡Dios mío, si el equipo de spam web mirara esto de esta manera sería aterrador, probablemente deberíamos desautorizarlo! Creo que la confusión es lo que mencionaste sobre los algoritmos de Google y entiendo que hay ciertas cosas que no puedes compartir por razones obvias. Hemos tenido casos en los que realmente sentimos que presentamos una desautorización, el sitio no tenía acciones manuales y luego, en algún momento, ya sea unas semanas o un par de meses después, el sitio comienza a ver un aumento en el tráfico y nuestro Pensé que, como hablamos en la ciudad de Nueva York, los algoritmos de Google podrían tener menos confianza en su perfil de enlace y el desautorizado mejoró esa confianza y vio los beneficios. Así que creo que lo principal, y nuevamente puedo entender si no puede responder esto, entonces sabemos que podemos desautorizar de manera preventiva para evitar una acción manual, pero podemos ver las mejoras en las clasificaciones de Google, el tráfico de Google de desautorización incluso si no No tiene una acción manual.
J 10:47 - Creo que eso sería muy raro. Entonces, teóricamente, podría imaginar una situación en la que nuestros algoritmos estén realmente molestos por los enlaces a un sitio y al desautorizar podrías limpiar eso, pero eso es algo en lo que esencialmente sería una situación muy similar a si un miembro del equipo de spam web mirara el sitio. Entonces, solo porque hay algunos enlaces aleatorios y estás limpiando las cosas y te estás enfocando en los enlaces que sabes que son buenos, no esperaría ver ningún cambio en la visibilidad de un sitio en la búsqueda de algo. como eso. Así que eso es algo en lo que supongo que es algo así: lo más probable es que veas los efectos de otras cosas que están sucediendo en la búsqueda, que podrían ser actualizaciones de algoritmos, tal vez cambios en el ecosistema en general, todas las cosas habituales que pueden aumentar. y hacia abajo en la búsqueda.
M 11:38 - Eso tiene sentido. Siempre es difícil probar algo en SEO, ¿verdad? Porque algo que cambiamos hoy, no es que no vayamos a hacer cambios mañana o el resto del mes o algo así. Me gustaría preguntarle algo sobre: hay un caso que tenemos ahora en el que estamos lidiando con una acción manual para un cliente que comenzó a usar acciones manuales para enlaces no naturales y recuerdo cuando comencé a ayudar a las personas con enlaces no naturales, fue muy fácil que pudiéramos ver oh, hay estos directorios de spam y PageRank R US o algo así, esos eran súper obvios. Y siento que los tipos de enlaces no naturales ahora que causan acciones manuales son los que realmente podrían mover la aguja de los sitios. Son los que estaban funcionando y los algoritmos de Google no los estaban manejando o lo que sea, por lo que el equipo de spam web les ha dado una acción manual. Este cliente nuestro en particular, la mayoría de los enlaces que han hecho están en artículos. Y están en artículos en lugares relativamente autorizados, como lugares, como si no fueran artículos ultra spam y podemos ver cuando los miramos que están claramente hechos para SEO pero son artículos que la gente leería. Y una de las dificultades que tenemos para comunicarnos con este cliente es que todavía se clasifica muy bien para sus palabras clave principales. Entonces entramos y dijimos 'Mira, hay una lista de cientos de enlaces que sabemos que hiciste para SEO, tienes una acción manual y queremos que comiences a eliminarlos o rechazarlos si no puedes' y son diciendo 'Bueno, estamos clasificando para todos estos términos, ¿por qué querríamos hacer eso?'. ¿Tiene alguna idea sobre eso, hay algún consejo que pueda darnos sobre esa situación?
J 13:20 - Esas son esencialmente publicaciones de invitados en las que si crean los artículos e incluyen un enlace a su sitio allí, eso es algo en lo que el equipo de spam web diría 'bueno, esto es nuevamente, en contra de nuestras pautas'. Con respecto a que todavía se clasifican para esas palabras clave, supongo que es un poco difícil de decir. Quiero decir, no conozco la situación allí, pero es algo en lo que si hay una acción manual, mi consejo general siempre sería tratar de limpiar eso tanto como sea posible y no dejarlo ahí porque no está mal. suficiente, tipo de cosas. Así que ese es el tipo de lugar en el que trataría de limpiar si ve que las personas están leyendo esos artículos, haciendo clic en su sitio y luego poniendo un nofollow en esos enlaces y eso es tan útil para el tráfico a su sitio y en Al mismo tiempo, realmente ayuda mostrarle al equipo de spam web que está bien, realmente entendiste que esto era problemático, colocas el nofollow allí, los pones en desautorización donde no podías hacer eso y los ayudas a decir 'está bien, podemos dejar este sitio sea completamente natural en la búsqueda'.
M 14:36 - Está bien, y creo que a veces esa es la lucha; un sitio que tiene algunos enlaces naturales bastante buenos combinados con un sitio que ha hecho 'construcción de enlaces de alto nivel', construcción de enlaces en formas que usted sabe, algunas de ellas son buenas. No siempre está mal pedir un enlace, está perfectamente bien, pero la escala puede ser difícil, tal vez puede ser bueno cuando tenía cinco de estos enlaces, pero ahora que tiene 500, no es tan bueno. Una de las cosas que es confusa para mucha gente es que cuando observamos las pautas de Google sobre los esquemas de enlaces, son un poco vagas sobre los enlaces en los artículos. Por lo que dice en las pautas "marketing de artículos a gran escala o campañas de publicación de invitados con enlaces de texto de anclaje ricos en palabras clave" y lo que encontramos a menudo en estos días es que estas acciones manuales que estaban obteniendo, los enlaces de ejemplo que Google nos envía no siempre son palabras clave. anclado y creo que no está claro para mucha gente que un enlace antinatural puede seguir siendo antinatural si el ancla no es una palabra clave, eso es correcto, ¿no?
J 15:46 - Correcto, quiero decir que, en última instancia, un enlace es un enlace, puede pasar señales a otro sitio y eso es lo que el equipo de spam web está buscando.
M 15:57 - Está bien, sí, siempre tratamos de señalar: llamamos a esto antinatural porque los esquemas de enlaces de Google dicen esto y la mayoría de los enlaces que hemos recibido estos días como enlaces de ejemplo son enlaces en artículos. No todos son necesariamente publicaciones de invitados. Son 'Oye, escribí este contenido, necesitas contenido, así que déjame dártelo'. No hay dinero involucrado y, por cierto, hay un enlace a mi sitio en él'. Así que esos son antinaturales, ¿verdad?
J 16:25 - Sí
M: Sí, está bien. Esa es una lucha con la que creo que luchan muchas empresas de SEO; 'siempre y cuando no usemos anclas de palabras clave, estamos bien' y siento que eso es un riesgo.
M 16:38 - Saldremos de las acciones manuales en un minuto, pero teníamos muchas preguntas al respecto. ¿Puede decirnos si hubo un retraso en la respuesta a las acciones manuales debido a la pandemia?
J 16:51 - No sé mucho sobre un retraso, pero fue mucho más lento de lo habitual
M: Hemos estado recibiendo algunas respuestas ahora, ¿sabes si estás de vuelta en el camino?
J: Entonces, ayer, algunas personas del equipo de spam web verificaron dos veces para asegurarse de que no dijera nada loco y parece que están bastante bien encaminados. Quiero decir que siempre hay una cierta cantidad de tiempo que lleva revisarlos manualmente y, en su mayor parte, tratamos de revisarlos manualmente y tratamos de hacer que este proceso sea un poco más rápido. Lo único que está haciendo el equipo de spam web es tratar de encontrar formas de automatizar esto. Entonces, en particular, si un sitio es pirateado, eso es algo en lo que podemos intentar averiguar automáticamente si el sitio todavía está pirateado después de la solicitud de reconsideración y si nuestros algoritmos están bastante seguros de que esto se resolvió, entonces podemos dejarlo pasar. Y eso libera algo de tiempo para que el resto del equipo de acciones manuales trabaje a través de las colas que obtienen.
M 18:00 - Eso tiene sentido. ¿Puede decirnos? Sé que ha mencionado que todas las acciones manuales son revisadas por humanos. Y eso tiene sentido para situaciones de piratería en las que es posible que desee usar una máquina para hacerlo. ¿Puede decirnos algo sobre el proceso de revisión? ¿Es un miembro del equipo de spam web el que revisa las acciones manuales? ¿Es un proceso de dos pasos en el que alguien ve como 'Están dando algunos pasos aquí, pasemos eso a un miembro senior'? ¿Hay algo que pueda compartir con nosotros al respecto?
J 18:34 - Depende un poco del tamaño y la complejidad del problema. Entonces, si hay algo que está afectando a una gran parte de la web, si es algo que es particularmente complejo y está un poco en el límite y depende de cómo lo mires, entonces ese es el tipo de situación en la que el equipo de spam web a menudo atraerá a otras personas para tratar de obtener una segunda opinión para ello. Y creo que en general eso tiene sentido. También es algo que tratamos de hacer si llega una segunda solicitud de reconsideración, que no siempre es la misma persona mirando el mismo sitio, bueno, no cambiaron mucho. Mientras que si alguien más lo estuviera mirando, entonces podría decir: bueno, en realidad, esto es lo suficientemente lejos con respecto a lo que esperaríamos que hicieran. A veces, es un poco difícil dibujar esa línea porque cuando la miras manualmente, definitivamente hay algunas cosas en las que esta es una línea clara, podemos decir que todo lo que está por encima debe aceptarse y todo lo que está por debajo debe rechazarse. Pero hay muchos casos, por ejemplo, con enlaces o con contenido de baja calidad, y puedes decir que hicieron una cantidad significativa de trabajo, pero ¿cómo lo cuantificas? Realmente no es posible decir que hicieron el 17% de lo que deberían haber hecho. como si no pudieras dar con un número.
M 19:57 - Siento que les decimos a nuestros clientes que el objetivo es convencer al equipo de spam web de que entienden el problema y que están avanzando, saben que no están haciendo lo mismo. Eso puede ser un desafío a veces, especialmente para estos sitios que tienen una mezcla real de 'bueno, esto fue por este esfuerzo de SEO y este esfuerzo de SEO tal vez fue demasiado lejos' y, a veces, puede ser muy difícil eliminar estas cosas. Pero sí le dije a la gente que a veces es bueno tener uno porque entonces sabes que estos son los problemas, sabes que tienes que seguir adelante y encontrar mejores formas de obtener enlaces o lo que sea.
M 20:35 - Pasaremos a otro tema divertido: el contenido delgado, que es algo en lo que hemos ido y venido como SEO a lo largo de los años. Voy a leer esta pregunta porque creo que proviene de mi equipo. “Mencionaste en el pasado que cuando Google evalúa la calidad del sitio, tienen en cuenta todas las páginas indexadas. Hay un sitio grande con más de 100 000 páginas indexadas y, con el tiempo, muchas de esas páginas ya no son relevantes o ya son escasas. ¿La ausencia de indexación o redirección para reducir el número de páginas aumentaría la percepción de calidad y el flujo de Google para aumentar las clasificaciones, nuevamente con UX sin cambios?
J 21:18 - Sí, creo que lo que veo mucho allí con este tipo de pregunta es que las personas a veces ven que todas las páginas son iguales, mientras que desde nuestro punto de vista, las cosas son muy diferentes con respecto a la importancia de una página para una página web. Eso es algo en lo que es realmente difícil decir bien, ha eliminado 1000 páginas, por lo tanto, las otras 90 000 páginas son buenas. Entonces, un ejemplo podría ser que tiene una sala de conciertos o un sitio de eventos y suponiendo que todos regresen a los conciertos, lo que estoy seguro sucederá en algún momento, pero podría tener este sitio y algún artista muy conocido allí, tiene algunos realmente buen contenido sobre los conciertos allí y tienes un calendario de eventos en el que puedes hacer clic hasta el año 9999 y la mayoría de esos días estarán vacíos. Entonces, al mirar algo así, es posible que tenga cientos de miles de páginas realmente vacías y un puñado de páginas realmente buenas y solo porque tenga cientos de miles de páginas delgadas de baja calidad no significa necesariamente que el 90% de su sitio web es mal y hay que limpiar eso. Porque lo que sucederá de nuestro lado es que trataremos de averiguar cuáles son las páginas más importantes y trataremos de centrarnos en ellas. Y esos son probablemente los conciertos actuales o lo que sea que esté sucediendo allí. Y a pesar de que tiene todas estas otras páginas de contenido delgado, no significa necesariamente que su sitio web haya promediado algo mediocre. Entonces, desde ese punto de vista, no tiene sentido mirar los números absolutos**, sino cuál es el contenido importante para su sitio y si ese contenido es realmente de alta calidad.
M 23:13 - De acuerdo, eso es muy interesante porque siempre hemos sostenido que un sitio tiene... Supongamos que su CMS crea estas páginas de imágenes aleatorias y se incluyen en el índice... Así que Google debería ignorarlas en términos de calidad para el sitio. No es como eliminar, digamos que el 90% de las páginas de índice eran páginas aleatorias que no deberían haber entrado en el índice, ¿eliminarlas del índice puede mejorar la evaluación de calidad de Google para el resto de su sitio?

J 23:44 - No sé. Muchas veces, como si fuera algo que ya ignoraríamos, entonces no creo que eso haga ninguna diferencia. La principal diferencia que haría es con respecto al rastreo del sitio web y poder encontrar el contenido nuevo y actualizado un poco más rápido, donde si nos quedamos atrapados en un calendario infinito, saldríamos y pasaríamos mucho tiempo allí porque Googlebot es muy paciente, pero ese no es el contenido que realmente necesita rastrear para su sitio web. Así que esa es, creo, la parte principal allí. Sin embargo, creo que hay espacio para este término medio, no necesariamente cosas que son completamente inútiles, sino algún tipo de término medio en el que ves que estas son páginas que reciben mucho tráfico de la búsqueda, pero cuando las miro son realmente páginas por las que no quiero ser conocido. Es casi como si pudiera reconocer que los algoritmos de Google piensan que estas son páginas importantes pero en realidad no son páginas importantes para mí. Y si estás en esa situación, entonces es una situación en la que puedes tomar medidas. Por lo tanto, no necesariamente miro la cantidad absoluta de páginas que tiene, pero estas son las páginas que obtienen tráfico de la búsqueda y estas son en las que quiero que Google se concentre, por lo tanto, intentaré deshacerme de las cosas que tal vez son menos importantes. para mejorarlos, algo así.
M 25:08 - ¿Qué pasa con una situación en la que un sitio web más pequeño, como tal vez... Quiero decir, hace años se les dijo a las empresas que publicaran blogs todos los días y hay muchas personas que tienen blogs de muy mala calidad porque son como aquí está mi café hoy, aquí están las bananas y John recibió una alerta al respecto y cosas que tal vez no necesitaban estar en el índice. Y luego digamos bien, a partir de este año me metí en el juego y dije oh, todo lo que pongo en mi blog tiene que ser lo mejor de su tipo. ¿Podría eso mejorar la evaluación de Google sobre la calidad de mi blog en general si volviera y no indexara algunas de esas publicaciones de blog que a nadie le importan o si Google solo tiene eso en mente y solo se enfoca en las cosas nuevas?
J 25:52 - No creo que eso marque una diferencia significativa, especialmente si tienes esta porción significativa de contenido realmente bueno, si estás comenzando a publicar contenido nuevo. Entonces, no creo que no indexar el contenido anterior haga una gran diferencia. Pero similar a un sitio de periódico donde publicas quizás 20 artículos al día y 19 de esos artículos que después de una semana serán irrelevantes, entonces no significa que esos 19 artículos sean automáticamente cosas que no deberías indexar en algún momento. pero tal vez muévalos a una sección de archivo donde tengan menos empatía por los usuarios y por la búsqueda, pero aún puede conservarlos. No es que estemos diciendo que esto es algo malo y necesitas deshacerte de él o limpiarlo.
M 26:40 - Está bien, eso tiene sentido. ¿Puede darnos algún consejo sobre cómo Google realiza una evaluación de calidad en cuanto a qué tipos de contenido podrían considerarse de alta calidad? ¿Google está usando BERT ahora para comprender mejor si el contenido es bueno?
J 27:00 - Así que realmente no tengo mucha idea de cómo determinamos cuándo las cosas son contenido de alta calidad, pero supongo que la única cosa que a veces hace que la gente se desconcierte es con respecto a BERT, los algoritmos BERT, todo esas cosas. Esos son esencialmente algoritmos para comprender mejor el contenido. No se trata tanto de entender la calidad del contenido sino más bien de entender de qué se trata este contenido, de qué se trata esta oración, de qué se trata esta consulta para averiguar cuáles son las diferentes entidades que podrían estar involucradas aquí y cómo están siendo atado aquí. Donde ese tipo de superposición en el lado de la calidad del contenido es cuando estás escribiendo de tal manera que esencialmente es imposible entender qué es lo que estás tratando de decir. Y ese es el tipo de situación en la que los algoritmos BERT dirán bien, realmente no sé qué es lo que están tratando de decir y no es tanto que el algoritmo BERT suponga que se trata de contenido de baja calidad. es más como si no supiera qué hacer con esto. Y a veces sospecho... No he visto esto de primera mano ni lo he probado con ninguna página, pero sospecho que algunos de los escritos de SEO de la vieja escuela caen en eso donde simplemente estás intercambiando todos los sinónimos que posiblemente puede agregar a una oración y, como ser humano, cuando lees que eres así es totalmente exagerado y puedo imaginar que nuestros algoritmos están bien, esto no se lee como una oración real, no lo hago Se muy bien que destacar. ¿Se trata realmente de este tema o se trata de un tema diferente, como cuál es el elemento principal en esta oración o este párrafo?
M 28:54 - ¿Y eso es algo que podría verse como algo negativo? Como, por ejemplo, si tenemos un sitio de comercio electrónico que tiene una página de producto y a menudo se ve en la parte inferior de la página, lo llamamos copia SEO, ya sabes, está escrito para motores de búsqueda y es solo un gran bloque de texto que contiene un montón de palabras clave y ningún ser humano lo leerá nunca. Entonces, de la forma en que estoy pensando en BERT tratando de averiguar si esta consulta coincide con esta página, tal vez BERT simplemente tenga problemas y diga que esto no es relevante o lo que sea. ¿O podría Google tratar eso como algo negativo para decir 'Oh, parece que esta página fue optimizada para SEO, estas palabras clave están aquí para Google y hacen que eso sea un perjuicio real para la página?
J 29:41: he visto algunos casos en los que eso sucede, pero por lo general se trata de un relleno de palabras clave. Así que no es tanto como si estuvieran escribiendo un artículo de wikipedia sobre el tema y colocándolo en la parte inferior de una página de zapatos, sino que simplemente están agregando miles de variaciones de las mismas palabras clave a una página y luego nuestro algoritmo de relleno de palabras clave podría intervenga y diga, bueno, en realidad esto parece un relleno de palabras clave, tal vez deberíamos ser más cautelosos con respecto a cómo clasificamos esta página individual. Entonces, no es que BERT esté confundido y, por lo tanto, nuestros algoritmos estén confundidos y diremos que la página es mala porque nuestros algoritmos siempre están confundidos, siempre hay algo en la web que es confuso, por lo que sería malo decir eso solo porque algo es confuso, es de baja calidad. Pero supongo que con respecto a BERT, una de las cosas que se podrían hacer porque muchos de estos algoritmos son de código abierto, hay mucha documentación y material de referencia a su alrededor, es probar cosas y tomar algo de este SEO. texto y tírelo a uno de estos algoritmos y vea si se extrae el contenido principal, si las entidades pueden reconocerse correctamente y no es uno a uno lo mismo que lo haríamos porque estoy bastante seguro de que nuestros algoritmos son basado en ideas similares pero probablemente sintonizado de manera diferente, pero puede darle una idea de si está escrito de tal manera que en realidad es demasiado confuso para que un sistema entienda de qué está escribiendo.
M 31:25 - Está bien, estás diciendo que tomes el texto, lo pongas en un procesador de lenguaje natural y veas si la herramienta puede determinar 'oh, esta página trata sobre esto' y, si no, entonces tal vez necesitemos reescribirlo porque si el ¿La herramienta no puede resolverlo como si los humanos probablemente lo encontraran aburrido o no quisieran leerlo?
J 31:41: no creo que eso sea factible en el día a día, pero podría ser un experimento interesante simplemente tomar algunos de esos textos de SEO de la vieja escuela y agregarlos a estos algoritmos modernos y ver cómo funciona. Todavía descubro de qué se trata esta página y cuál es la diferencia si reescribo este artículo de wikipedia en un resumen de dos oraciones que podría ser legible por un usuario, ¿los algoritmos aún descubrirían que se trata de lo mismo?
M 32:16 - Entonces, en lugar de tener ese texto de SEO al final de una página de comercio electrónico, ¿tienes recomendaciones? Quiero decir que hay algunas cosas obvias que los usuarios querrían, pero ¿hay ciertas cosas que serían útiles en términos de lo que Google querría ver en una página de comercio electrónico que pueda compartir con nosotros?
J 32:35 - Es difícil de decir. Lo único que noté al hablar con la gente de indexación móvil es que cuando las páginas de categorías de comercio electrónico no tienen ningún otro contenido que no sean enlaces a los productos, entonces es muy difícil para nosotros clasificar esas páginas. Así que no estoy diciendo que todo ese texto en la parte inferior de su página sea malo, pero tal vez el 90%, el 95% de ese texto es innecesario, pero es útil tener una cierta cantidad de texto en una página para que podamos entender lo que esta página es sobre. Y en ese punto, probablemente esté con la cantidad de texto que un usuario probablemente también podrá leer, comprender. Así que ahí es donde yo me dirigiría en ese sentido. La otra cosa en la que podría imaginar que nuestros algoritmos a veces se confunden es cuando tienen una lista de productos en la parte superior y esencialmente un artículo gigante en la parte inferior cuando nuestros algoritmos tienen que descubrir la intención de esta página. ¿Es esto algo que tiene fines comerciales o es una página informativa? ¿Cuál es la razón principal por la que existe esta página? Me imagino que nuestros algoritmos a veces se confunden con esta gran parte del texto donde decimos oh, esta es una página informativa sobre zapatos, pero puedo decir que los usuarios lo están intentando. para comprar zapatos para no enviarlos a esta página informativa.
M 34:05 - Está bien, y eso parece ser... Entonces, ¿BERT también está acostumbrado a entender la consulta?
J 34:13 - Sí, entonces usamos estos algoritmos para entender esencialmente el texto y eso viene en la consulta y eso viene en las propias páginas.
M 34:24 - Está bien, y sé que esto se ha insinuado antes... Creo que fue la búsqueda en el Área de la Bahía, creo que Gary dijo algo que me hizo pensar en esto. Son la mayoría de los resultados de búsqueda. Mencionaste que Google quiere determinar si la persona quiere comprar esto. Are there a certain amount of spaces, like if Google has figured out oh this is probably a commercial query then we want to rank only sites that seem to be transactional or do you say well let's throw in a couple of informational ones? Or am I just simplifying things too much?
J 35:00 - I think you would see some amount of mixed there naturally where our algorithms tend not to be completely on or off where we say 'well this is clearly commercial in nature' and therefore we would only show commercial pages because we just don't know for sure what it is what the user is searching for. That's something where I think 10-15% of all queries are still new so these are things where even if we wanted to manually classify all these queries and say well this is clearly someone trying to buy shoes, that's something that we would never be able to do because people come and ask us in different ways all the time. So that's something where I suspect our algorithms will try to say 'well probably it's this or very very likely it's this' so we will try to include, in our search results page, I don't know 80% like this and a little bit like that just to cover those other variations.
M 36:08 - Okay that makes sense. Let's have another great subject that's fun to talk about; doorway pages. So sometimes a lot of websites struggle with location pages. So lets say a client came to us and they had a business that serviced 50-100 cities in their radius and what tends to happen is their location pages, they're unique in terms of words but really for the user, they could be all the same page. The services of the business are the same no matter the city. Is it within Google's guidelines for me to have 50 different city pages? Is there a better way to do it?
J 36:56 - A lot of times these tend to go into the doorway direction and tend to end up being low quality. And I'd say the quality aspect is almost a bigger issue there in that you have all of these pages on your site and you say well these are really important for my site but at the same time they're essentially terrible pages. Like you wouldn't be able to send a user there and say like well you're in this city therefore this page mentions your city name and the service that you're looking for so we should show that to you. So that's something where from the point of view I try to discourage that. Obviously if you have locations in individual cities, sometimes you have those addresses on separate pages with separate opening hours, all that. Another option is of course to list those different addresses on a single page, maybe by region with a map, a dynamic map, something like that. But otherwise I think it's really kind of tricky where if you're saying well I don't really have locations in these cities but anyone from any of these cities are welcome to call me up then making individual pages for all of those cities feels kind of tricky. And I realize sometimes these sites rank, sometimes these kind of pages rank well but it is something where I could imagine the search quality team saying well we need to figure out a way to deal with this better.
M 38:39 - Do you give many penalties or manual actions for doorways pages these days? It's been a while since I've seen one.
J: 38:46 - I don't know.
M: Yeah it's been a long time. I'm not saying you should by any means. If all of a sudden people start getting- I think they fell under thin content penalties, it's not my fault if that happens.
M: This is a subscribers question. I'm going to shorten it down because it's a long one but it's about… This person has a site that's YMYL, it competes with major brands and government websites so '.gov' websites. And something that we really noticed lately is that Google, for a lot of YMYL queries are really really favouring authoritative sites. So this person is saying that their content is better, I mean that's subjective, but their content is better, solves the user's query better, great videos, optimized to the fullest and they want to know, and I know this is hard because you haven't seen the site, I haven't seen the site but is it ever possible to outrank a giant authoritative website for a YMYL query.
J 39:53 - Sure, I mean it's possible to outrank these sites. It's not that any of these search results positions are hard coded and they can never change so that's something where I would say that's certainly possible but depending on the topic, depending on the competition, it can get hard so I wouldn't expect that to be something where you can just throw together a website, make some really nice looking pages, have someone rank some really good content for your page and to automatically have that rank above these authoritative sites. Especially on topics where it's kind of important that we make sure we are providing high quality, correct information to people. So technically, it's possible. Waiting it out is something I personally wouldn't recommend in cases like this. Obviously you need to continue working on your site, it's not something where you can just say okay I'll wait til my site is 10 years old then it'll be just as good as these other 10 year old sites. That's not the way it happens, you have to kind of keep at it all the time. And the other thing to keep in mind is that if these are really good websites then generally speaking you'd expect to see some traffic from other sources as well so obviously search is a big source of traffic but there are lots of other places where you can also get traffic and that's something where kind of combining all of that and continuing to work on your website, focusing maybe on other traffic sources if that's something that you can do and kind of growing out from there. But it's not that we would never rank these sites for these kinds of queries but it will be really hard, you have to prove that what you're providing is something of equal quality, equal relevance, equal correctness as maybe an official government website which depending on the government website might be hard, might be a little bit easier, it feels like government websites are generally getting better and better so that competition is not going to get less.
M 42:08 - Yeah I think in the past a lot of the time we'd say oh this .gov site page is ranking but it's horrible so if I can create something better then I can outrank it. Is this connected to EAT? Like let's say I went on a particular type of diet and it worked really well for me and I wanted to create a website about this diet but the people who are ranking on the first page are the mayo clinic and some government authoritative site. Can you give me any tips on what types of things would have to happen. Let's say I was a multimillionaire and I had access to any resource, what would it have to take for me to be able to compete with websites that are of authority like that?
J 43:03 - I don't know. I don't have any magic bullet where you can just say like be on national tv or be listed in wikipedia or something like that. It's really hard to say.
M: Can I get an 'it depends'?
J: It depends, sure. Like even if I knew a specific situation, it wouldn't be something where I'd be able to say oh you just need to tweak this one factor here and buy some gold plated network cables and then you're all set.
M 43:43 - Understandable and that was a bit of an unfair question. I think I ask it because people do that all the time, you know people come to us and say hey I want to dominate this and I've got investors. I think in the past if you had enough money you could buy links that would trick Google so we're trying to essentially tell people like you can't be the biggest authority unless you are the biggest authority and that's a struggle that SEO can't always generally fix.
M 44:14 - We're going to rap it up soon. This was an interesting one. We have a client whose site is used in the quality raters guidelines as an example of a low quality site and it's a screenshot from many years ago. And they've changed, the page is way better now. They wanted me to ask you is there anything they can do to appeal to Google to be taken out because it's not good for their brand. Any thoughts on that?
J 44:43 - I'm happy to pass something on if you have some examples of things like that but in general, the quality rater guidelines are not meant to be absolute in a sense that this particular URL should be rating like this but rather, this kind of problem should be rated like this when it comes to the general quality raters set up where were trying to figure out what are the best algorithms to use with regards to search ranking. So it's not something where I generally say like just because we have that particular site there doesn't mean that people should be watching out for that particular site and then be taking this action but rather.. this is a really obvious example of this one particular case and this is the kind of situation you need to watch out and not this is the exact URL you need to watch out for. I think the alternatives that we could use in a case like that… I mean I'm happy to pass that on..
M 45:48 - In all honesty I mean I hesitated to ask you that question because I don't Google to take away those examples. There is a lot to be learned to what you point out as high quality and potentially low quality so.. But I can see as well, I'd be quite upset if people were using my site as like 'oh Google says your site is low quality', nevermind that was something 10 years ago or whatever but fair enough.
M 46:15 - So John I hear you have your own podcast coming out soon? Tell us about that.
J 46:20 - We're working on it. We started looking into that I think at the beginning of the year. At some point we got all the equipment set up in the office and like ready to go and we recorded the trailer and all that went really well and then the office closed and everything went downhill so that kind of threw a wrench in the gears there. So we've started to pick that up again and I hope we can get the first episode or two out fairly soon. I don't know what the timing is there. But it is something where we thought we'd do something a little bit less formal and provide some human look behind the scenes of what's going on with regards to Google.
M 47:16 - Will it be something where we can ask questions like this sort of thing or is it more of a kind of fun, light..
J 47:23 - I don't know. We'll see how it evolves.
M: And we'll see how challenging it is as we pummel you with questions. I'm looking forward to it, I think it'll be good.
J: It's not meant to be a replacement for the office hangouts so it's not something where it's question, answer, question, answer type of thing but more where we realize people would kind of like to know what actually happens behind the scenes at Google when they make these kind of decisions and that's kind of what we'd like to bring in.
M 47:56 - There was a video that came out years ago of, I think it was Matt Cutts in a search meeting where the whole team was discussing 'well we could do this and it would take longer to load.' That was fascinating. I would love to see more stuff like that, what goes on behind the scenes. Just a thought. Is it going to be video? Or I guess you don't know right now right? Or is it a podcast.
J 48:22 - It's just a podcast.
M 48:24 - Alright was there anything else that you wanted to share with us at this point?
J 48:29 - Nope, it went pretty good.
M 48:31 - John, thank you so much for doing this. I can't tell you how much I appreciate it and thank you for being on twitter and putting up with all of our questions and humour too. Do you know how many times we throw into our slack channel 'oh John' because you're just such a great guy and very helpful. Anyways, I'll stop. I'm going to make you blush so thanks again John and I hope that everything's going okay for you in staying at home and all that. Hope to one day see you. We were supposed to meet again in Munich for SMX and that got cancelled like a week before we were going to be there so one day I'll see you again sometime.
J: It'll happen, don't worry.
M: Take care!
J: Thanks a lot bye.
