График работы SEO, 18 февраля 2022 г.
Опубликовано: 2022-02-28Это краткое изложение самых интересных вопросов и ответов из Google SEO Office Hours с Джоном Мюллером 18 февраля 2022 года.
Типы веб-сайтов, затронутых обновлением «Обзоры продуктов»
4:03 «[…] Мой вопрос касается обновления отзывов о продуктах […]. Я хотел понять, как Google определяет, связана ли страница или сайт с обзорами продуктов. […] Например, есть сайт электронной коммерции […] и у них также есть блог, где они делают обзоры своих продуктов. Они пишут о плюсах и минусах своих продуктов, сравнивают разные продукты. […] Скажет ли Google, что […] это также обзоры продуктов и их можно проанализировать с помощью обновления обзоров продуктов? […]”
Как объяснил Джон, «[…] Рекомендации, которые у нас есть для обзоров продуктов […], будут актуальны для любого вида обзоров продуктов. Так что я бы не стал пытаться выяснить, считает ли Google мой сайт сайтом с обзорами продуктов или нет […]. Но если вы считаете, что эти передовые методы применимы к вашему контенту, просто применяйте эти передовые методы [...]».
Использование API индексирования
6:53 «[…] [в документации Google] упоминается, что Indexing API следует использовать для таких страниц, как размещение вакансий или трансляции событий. Можем ли мы попробовать этот API для другого типа контента, например, некоторых новостных статей или контента блога?»
Джон ответил: «Люди пробуют. Но, по сути, то, что мы задокументировали, — это то, для чего мы используем API. Если у вас нет контента, подпадающего под эти категории, API вам в этом не поможет».
EAT и алгоритмы Google
10:54 «[…] EAT упоминается в [ Руководстве по оценке качества ], но я хочу знать, [включают ли] реальные алгоритмы такие факторы EAT, как опыт автора?»
Джон сказал: «Я бы предположил, что есть какая-то косвенная работа, чтобы попытаться сделать подобные вещи. […] Мы поместили это в рекомендации, чтобы мы могли направить тестировщиков качества на перепроверку этих вещей. И если мы думаем, что это что-то важное, то я бы предположил, что люди, занимающиеся качеством поиска, также работают над тем, чтобы попытаться понять это более алгоритмическим способом.
Но я бы не увидел [...] [чтобы был] балл EAT, и вы должны получить пять или что-то в этом роде. Это больше попытка понять контекст контента в сети».
Несвязанные упоминания брендов и пользовательский контент
12:01 «[…] Я вижу, что люди говорят о несвязанных упоминаниях бренда […]. Считаете ли вы, что это также важно для алгоритмов [Google] […]?»
Под несвязанными упоминаниями бренда человек имел в виду ситуации, когда другие сайты упоминают ваш бренд, но не содержат ссылки на ваш веб-сайт.
Джон сказал: «[…] Я думаю, что это довольно сложно, потому что мы на самом деле не знаем, каков контекст. Я не думаю, что это плохо [...] для пользователей, потому что, если они могут найти ваш сайт по этому упоминанию, это всегда хорошо. Но я бы не стал предполагать, что есть какой-то […] фактор SEO , который пытается выяснить, где кто-то упоминает название вашего сайта».
12:58 «[…] А как насчет отзывов или комментариев пользователей? Как вы думаете, это также фактор ранжирования статьи или продукта?»
Джон ответил, что «[…] Часто люди пишут о странице своими словами, и это дает нам немного больше информации о том, как мы можем показать эту страницу в результатах поиска. С этой точки зрения, я думаю, что комментарии — это хорошо на странице. Очевидно, найти способ поддерживать их в разумных пределах иногда сложно, потому что люди также спамят эти комментарии […]. Если вы сможете найти способ поддерживать комментарии на веб-странице, это даст вам немного больше контекста и поможет людям, которые ищут по-разному, также найти ваш контент».
Googlebot и бесконечная прокрутка
24:00 «[…] Знаете ли вы, достаточно ли продвинут Googlebot, чтобы обрабатывать бесконечную прокрутку , или, по крайней мере, что-то, где контент продолжает что-то наращивать?»
Джон сказал: « Немного […].
Что происходит, когда мы отображаем страницу, так это то, что мы используем довольно высокое окно просмотра, например, если у вас очень длинный экран, и мы визуализируем страницу, чтобы увидеть, что она там покажет. Обычно это вызывает некоторую бесконечную прокрутку в любых методах JavaScript, которые вы используете для запуска бесконечной прокрутки. Что бы там ни было загружено, это будет то, что мы сможем проиндексировать.
[…] В зависимости от того, как вы реализуете бесконечную прокрутку, может случиться так, что эта длинная страница окажется в индексе. Возможно, у нас нет всего, что поместилось бы на этой странице. Потому что в зависимости от того, как вы запускаете бесконечную прокрутку, может случиться так, что вы просто загружаете следующую страницу. Тогда у нас может быть две или три из этих страниц, загруженных на одну страницу с бесконечной прокруткой, но не все. […] Я бы порекомендовал проверить это с помощью инструмента проверки [URL] и просто посмотреть, сколько Google получит».
Обновление и обнаружение данных в отчете "Статистика сканирования"
33:32 «В отчете Search Console [ Статистика сканирования ] 97% запросов сканера — это обновление, и только 3% — это обнаружение. Как это оптимизировать и позволить Google обнаружить больше страниц?»
Джон ответил: «[…] Это нормально для […] более старого, более известного веб-сайта, когда у него много обновлений, потому что мы будем смотреть на количество известных нам страниц, которое со временем растет. И количество новых страниц, которые появляются, имеет тенденцию быть довольно стабильным. Это довольно распространено, особенно для веб-сайта, который вроде как устоялся и только медленно растет, чтобы иметь такой баланс, когда большая часть сканирования приходится на сканирование с обновлением, а не столько на сканирование с обнаружением.
Я думаю , что было бы иначе, если бы у вас был веб-сайт […], на котором появляется много новых статей, а старый контент очень быстро становится неактуальным. Тогда я думаю, что мы склонны больше фокусироваться на открытиях. […] Если у вас есть что-то вроде сайта электронной коммерции, где вы просто медленно увеличиваете количество имеющегося у вас контента, а большая часть старого контента остается в силе, […] объем сканирования с обновлением, вероятно, будет быть немного выше».
Уменьшение сканирования веб-сайта
35:09 «За последние несколько недель я заметил огромное падение статистики сканирования с 700 до 50 в день. Есть ли способ понять из отчета Search Console, что может быть причиной этого падения? Может ли это быть загрузка исходной страницы? Как я могу правильно прочитать разбивку запросов на сканирование?»
Джон подробно объяснил, как Google сканирует веб-сайты и какие факторы влияют на сканирование: «[…] Есть несколько факторов, влияющих на объем сканирования, которое мы выполняем.

[…] Мы пытаемся выяснить, сколько нам нужно сканировать с веб-сайта, чтобы информация оставалась свежей и полезной в наших результатах поиска. И это зависит от понимания качества вашего веб-сайта, того, как все меняется на вашем веб-сайте. Мы называем это спросом на сканирование.
С другой стороны, [есть] ограничения, которые мы видим на вашем сервере, [...] веб-сайте, […] сетевой инфраструктуре в отношении того, сколько мы можем сканировать на веб-сайте. Мы пытаемся сбалансировать эти два.
И ограничения, как правило, связаны с двумя основными вещами: […] общее время ответа на запросы
на веб-сайт, и […] количество [...] ошибок сервера, которые мы видим во время сканирования. Если мы увидим много ошибок сервера, то будем замедлять сканирование […]. Если мы увидим, что ваш сервер стал работать медленнее, то мы также замедлим сканирование […].
Сложность с аспектом скорости заключается в том, что у нас есть два [...] разных взгляда на скорость. Иногда это сбивает с толку, когда вы смотрите на скорость сканирования. Что касается скорости сканирования, мы просто смотрим, как быстро мы можем запросить URL-адрес с вашего сервера?
И другой аспект скорости, с которым вы, вероятно, столкнетесь, — это все, что связано с Core Web Vitals , и скорость загрузки страницы в браузере. Скорость, которую он принимает в браузере, как правило, не связана напрямую со скоростью, необходимой нам для получения отдельного URL-адреса на веб-сайте. Потому что в браузере вы должны обрабатывать JavaScript, загружать все эти внешние файлы, отображать содержимое, пересчитывать позиции всех элементов на странице. И это занимает другое время, чем просто получение этого URL-адреса.
[…] Если вы пытаетесь диагностировать изменение скорости сканирования, не смотрите на то, сколько времени требуется для отображения страницы. […] Посмотрите, сколько времени требуется, чтобы получить этот URL-адрес с сервера.
Другое дело […] в том, что […] мы пытаемся понять, где размещен веб-сайт […]. Если мы обнаружим, что веб-сайт меняет хостинг с одного сервера на другой сервер — это может быть другой хостинг-провайдер, [...] переход на CDN или изменение CDN […] — тогда наши системы автоматически вернутся к некоторым безопасная скорость, когда мы знаем, что не создадим никаких проблем, а затем, шаг за шагом, снова увеличиваем.
Каждый раз, когда вы вносите большие изменения в хостинг вашего веб-сайта, я предполагаю, что скорость сканирования упадет. А затем в течение следующих нескольких недель он вернется к тому, что, по нашему мнению, мы можем безопасно сканировать на нашем веб-сайте. Это может быть то, что вы видите здесь.
Другое дело, что время от времени наши алгоритмы, определяющие, как мы классифицируем веб-сайты и серверы […], также могут обновляться. […] Даже если вы ничего не меняете в своей инфраструктуре хостинга, наши алгоритмы попытаются выяснить, [что] этот сайт размещен на этом сервере, и этот сервер часто перегружен. Мы должны быть более осторожными при сканировании этого веб-сайта, чтобы не создавать проблем. Это то, что со временем автоматически проходит, обычно через пару недель […].
[…] В Search Console [Google] вы можете указать скорость сканирования […], и это помогает нам понять, что у вас есть определенные настройки […] для вашего веб-сайта, и мы постараемся учесть это. Сложность с настройкой скорости сканирования заключается в том, что это максимальная настройка. Это не признак того, что мы должны сканировать столько, а то, что мы должны сканировать максимум то, что вы там укажете. Обычно этот параметр более полезен в тех случаях, когда вам нужно уменьшить объем сканирования, а не когда вы хотите увеличить объем сканирования.
[…] Одна вещь, которую вы также можете сделать, это в Справочном центре для Search Console у нас есть ссылка, чтобы сообщить о проблемах с Googlebot. Если вы заметили, что сканирование вашего веб-сайта выходит за рамки ожидаемого, вы можете сообщить о проблемах с роботом Googlebot по этой ссылке […]».
Как Google определяет страны, на которые нацелены страницы
56:25 «[…] Что касается геотаргетинга, помимо использования hreflang, как Google определяет, на какую [страну] вы ориентируетесь [с] этим конкретным веб-сайтом или конкретным подкаталогом?»
Джон ответил: « Мы пытаемся сгруппировать URL-адреса по четким шаблонам, которые мы можем распознать [...], например, по поддомену или подкаталогу. Если у вас есть страна в подкаталоге на более высоком месте в пути, то нам намного проще сказать, что все по этому пути для этой страны, все по этому другому пути для другой страны.
Вы также можете проверить отдельные пути в Search Console […], что немного упрощает нам задачу. На практике я не слышу много отзывов от людей, говорящих, что это имеет большое значение.
[…] Я бы попытался сделать это […] как можно более ясным, какая страна актуальна для отдельных URL-адресов, с четким путем в URL-адресе. Я думаю, что кто-то также задал вопрос об использовании страны в качестве параметра URL в конце. Теоретически вы можете сделать это […]. Для наших систем гораздо сложнее распознать, какие URL принадлежат какой стране […]. Если вы используете hreflang, то это не проблема, потому что вы можете сделать это для каждого URL».
Большое количество URL-адресов, помеченных как обнаруженные — в настоящее время не проиндексированы
58:25 «[…] Мы являемся огромным сайтом электронной коммерции, и когда мы проверили наш отчет о сканировании, мы обнаружили, что в разделе [ Обнаружено — в настоящее время не проиндексировано ] огромное количество URL-адресов . Является ли это признаком [а] проблемы [на нашем сайте] […]?»
Джон сказал: « Я думаю, это зависит от того, что это за страницы и как вы их используете на своем веб-сайте. […] Мы находим в Интернете всевозможные URL-адреса, и многие из этих URL-адресов не нужно сканировать и индексировать, потому что, возможно, это просто варианты уже известных нам URL-адресов или […] какой-то случайный форум или парсер. script скопировал URL-адреса с вашего веб-сайта и включил их неверным образом. […] Вполне нормально иметь множество этих URL-адресов, которые либо просканированы, но не проиндексированы, либо обнаружены, но не просканированы, просто потому, что в Интернете так много разных источников URL-адресов.
[...] Попробуйте загрузить […] образец из них, чтобы вы могли посмотреть отдельные примеры и […] классифицировать, какие из этих URL-адресов вам интересны, а какие [...] можно игнорировать.
[…] Те, которые вам небезразличны, это то, где я попытался бы выяснить, что вы могли бы сделать, чтобы лучше связать их на своем веб-сайте в отношении таких вещей, как внутренние ссылки. Поэтому, если это отдельные продукты или категории, которые не были найдены, попробуйте выяснить, что вы можете сделать систематически, чтобы убедиться, что все эти URL-адреса лучше связаны друг с другом. […] Это может быть сложно, особенно с большим сайтом электронной коммерции, потому что вы не можете все время просматривать каждый URL по отдельности.
Но иногда есть трюки, которые вы можете сделать, когда скажете: все, что относится к категории первого уровня, я даю ссылку на это со своей домашней страницы. И я удостоверяюсь, что моя категория первого уровня имеет не более […], может быть, 100 элементов или 200 элементов, чтобы у вас была некоторая принудительная функция с точки зрения того, что вы даете Google для сканирования и индексации. Исходя из этого, вы можете построить его немного более систематически.
[…] В какой-то степени я бы просто согласился с тем, что Google не может сканировать и индексировать все. […] Если вы обнаружите, например, что […] отдельные продукты не сканируются и не индексируются, убедитесь, что по крайней мере страница категории для этих продуктов сканируется и индексируется. Потому что таким образом люди все еще могут найти контент для этих отдельных продуктов на вашем веб-сайте […].
Посмотрите, можете ли вы самостоятельно сканировать свой веб-сайт, чтобы у вас было немного больше прямых данных о том, как можно сканировать веб-сайт, подобный вашему. Существуют различные инструменты для сканирования. […] Самостоятельно просканировав веб-сайт, вы можете увидеть, какие из этих URL-адресов связаны очень далеко от главной страницы, а какие из них связаны ближе к вашей домашней странице. И исходя из этого, иногда вы можете немного изменить структуру сайта, чтобы убедиться, что все достаточно близко или достаточно стабильно в отношении расстояния от вашей домашней страницы».
