Часы работы SEO — 17 сентября 2021 г.
Опубликовано: 2021-09-21Это краткое изложение самых интересных вопросов и ответов из Google SEO Office Hours с Джоном Мюллером 17 сентября 2021 года.
Ограничения на количество слов
09:05 «Каков лимит слов, которые мы должны использовать на страницах [категории]?»
Джон заявил, что таких ограничений нет, и добавил, что «[…] особенно со страницами категорий, вам нужно иметь некоторую информацию на странице, чтобы мы понимали, что это за тема. Но это вообще очень мало информации. И во многих случаях мы понимаем это из продуктов, которые вы перечислили, в любом случае, если названия продуктов достаточно ясны для нас, чтобы понять. […] Но иногда названия продуктов немного трудно понять, и тогда может иметь смысл добавить туда некоторый контекст. Но обычно это дополнительный контекст размером, может быть, в одно, два или три предложения».
Никаких изменений в показателях покрытия индекса
10:57 «Я работаю над большим веб-сайтом с парой миллионов страниц. Мы сделали перенаправление между двумя языками. […] Так что миграция проходит нормально, трафик уходит со второго пути. Просто чтобы уточнить, это проекция между двумя подпапками или всем в одном домене. Что я хочу здесь отметить, так это то, что мы не видим никаких изменений в показателях покрытия после почти трех недель после этого перенаправления. […] Никакого удаления действительных страниц, ни увеличения исключенных страниц из-за перенаправлений или чего-то подобного. Должны ли мы беспокоиться об этом?»
«Я не думаю, что существует фиксированная временная шкала, по которой такие вещи должны быть видны. […] Мы сканируем страницы с разной скоростью на сайте. И некоторые страницы мы будем сканировать каждый день, а другие страницы мы будем сканировать, может быть, раз в месяц или каждые несколько месяцев. Таким образом, если контент в этих папках, который вы объединяете, является контентом, который очень редко сканируется, то для его отражения потребуется много времени. В то время как если это контент, который очень активно сканируется, то вы должны увидеть изменения в нем в течение, как правило, я не знаю, недели или около того».
Обновления отчета о покрытии индексов
13:25 При объединении двух подпапок «[…] трафик идет из одной части сайта в другую. Все идет хорошо, и мы также видим это в файлах журнала. […] Но мы не видим этого в показателях покрытия. Мы обеспокоены тем, что это может быть либо сообщение об ошибке, либо нам следует ждать весь день?»
Джон ответил: «[…] Отчет о покрытии индексов обновляется примерно два раза в неделю. […] Многие отчеты в Search Console публикуются один или два раза в неделю, так что это может быть просто задержка. Но если вы видите, что трафик идет на нужные страницы, если вы смотрите на отчет об эффективности и видите такой сдвиг, то я думаю, что это прекрасно. Я не думаю, что вам нужно следить за отчетом о покрытии индекса для чего-то подобного. Потому что обычно при объединении таких страниц наши системы сначала должны выяснить, что нам нужно найти новый канонический код для этих страниц. Итак, вы берете две страницы и складываете их в одну. Затем мы видим, что это набор страниц, нам нужно выбрать каноническую, и этот процесс занимает немного времени. И затем требуется некоторое время, чтобы это отразилось в отчетах. А если вы сделаете что-то вроде чистого переноса сайта, то мы можем просто перенести все. У нас нет этого процесса канонизации, который мы должны выяснить. Так что я мог представить, что просто нужно больше времени, чтобы быть там видимым».
Понимание качества сайта
15:22 «Мой вопрос касается [...] особенно алгоритмов с новыми страницами […] когда появляется Google, вызывает его и пытается понять это. Затем он сравнивает эти страницы с более старыми унаследованными страницами на сайте и говорит: «Хорошо, хорошо, эти страницы великолепны, но эти гораздо более старые страницы на самом деле мусор». Так что это повлияет на качество новых страниц и страниц категорий. Это то, что делают алгоритмы [...], чтобы действительно понять качество веб-сайта?»
Джон сказал, что «[…] Когда мы пытаемся понять качество веб-сайта в целом, это просто процесс, который занимает много времени. И у него - я не знаю - довольно долгое время подготовки. Таким образом, если вы добавите пять страниц на веб-сайт, на котором уже 10 000 страниц, то мы, вероятно, сначала сосредоточимся на большей части сайта, а затем со временем посмотрим, как это изменится с новым содержанием; там тоже».
Эквивалент передаваемой ссылки
17:06 «Если вы получаете обратную ссылку, [Google] не просто предполагает, что это качественная обратная ссылка, а затем просто слепо передает ссылочный вес сайту. Так Google, когда он сканирует эти обратные ссылки, либо смотрит на реферальный трафик и учитывает это в алгоритме? Или, если он не видит эту информацию, пытается ли он, я думаю, оценить, есть ли высокая склонность переходить по этой ссылке? Итак, если есть высокая склонность переходить по этой ссылке, то они передадут вес ссылки? Если нет, то скажите, что вы знаете, [...] вы могли бы буквально создать блог и дать ссылку прямо сейчас. В этом случае Google говорит, что на самом деле трафика нет; на самом деле здесь не так много всего происходит, так почему мы должны передавать какую-либо форму ссылочного капитала? […] Влияет ли это на то, передается ли ссылочный вес сайту или нет?»
«Я так не думаю. Мы не используем такие вещи, как трафик по ссылке, когда пытаемся оценить, как должна оцениваться ссылка. Насколько я знаю, мы также не смотрим на такие вещи, как вероятность того, что кто-то нажмет на ссылку, в отношении того, как мы должны ее оценивать. Потому что иногда ссылки — это просто ссылки, и мы не ожидаем, что люди будут нажимать на каждую ссылку на странице . Но если кто-то ссылается на ваш сайт и говорит, что я делаю это, потому что этот эксперт сказал сделать это. Тогда люди не будут переходить по этой ссылке, а всегда […] будут смотреть на ваш сайт и подтверждать все, что там написано. Но они увидят это почти как отсылку. […] Если им нужно было узнать больше информации, они могли пойти туда. Но им это не нужно. И с этой точки зрения, я не думаю, что мы будем принимать это во внимание, когда дело доходит до оценки ценности ссылки».
Миграция доменного сайта
20:53 « Мы выполнили миграцию домена сайта с одного домена на новый и выполнили все требования и рекомендации по миграции. Мы обновили перенаправления, канонические теги и заранее протестировали в среде разработки. Мы добавили новое свойство и проверили новый домен в Google Search Console. При изменении адреса мы получаем сообщение об ошибке проверки, в котором говорится, что с домашней страницы выполняется перенаправление 301, и он не может получить старый домен. Как нам пройти проверку для инструмента смены адреса?»
«Прежде всего, самое важное, о чем следует помнить, это то, что инструмент «Смена адреса» — это всего лишь один дополнительный сигнал, который мы используем в отношении миграции. Это не требование. Поэтому, если по какой-либо причине вы не можете заставить инструмент смены адреса работать на вашем веб-сайте, если у вас правильно настроена переадресация и все эти вещи, тогда вы должны быть настроены. Это не то, что вам абсолютно необходимо делать. Я полагаю, что большинство сайтов [...] на самом деле не используют этот инструмент. Это больше похоже на то, что те, кто знает о Search Console, и те, кто знает обо всех этих причудливых вещах, могут ее использовать. Что касается того, почему он может дать сбой, очень трудно сказать, не зная названия вашего сайта или URL-адресов, которые вы там тестируете.
Одна вещь, которую я видел, это если у вас есть версия с www и версия без www вашего сайта, и вы шаг за шагом перенаправляете через это. Так, например, вы перенаправляете на версию без www, а затем перенаправляете на новый домен. Затем может случиться то, что нас сбивает с толку, если вы отправляете изменение адреса в версии сайта, которая не является основной версией. Так что это может быть одно: перепроверить в отношении инструмента смены адреса, который вы отправляете версию, которая уже проиндексирована или которая в настоящее время проиндексирована, или вы отправляете, возможно, альтернативную версию в Search Console».
Добавление нескольких типов схемы
23:36 «Можно ли добавить несколько типов схемы на одну страницу? Если да, то как лучше всего объединить схему часто задаваемых вопросов и схему рецептов на одной странице?»
« Вы можете разместить на своей странице столько структурированных данных, сколько захотите. Но в большинстве случаев, когда дело доходит до расширенных результатов, которые мы показываем в результатах поиска, мы склонны выбирать только один тип структурированных данных или один тип расширенных результатов и просто сосредотачиваемся на этом. Так что, если на вашей странице есть несколько типов структурированных данных, очень высока вероятность того, что мы просто выберем один из этих типов и покажем это. Поэтому, если вы хотите, чтобы в результатах поиска отображался какой-либо конкретный тип, и вы видите, что нет комбинированных вариантов использования, когда вы смотрите на результаты поиска в противном случае, я бы попытался сосредоточиться на типе, который вы хотите, а не просто комбинировать его. с другими вещами. Так что в идеале выберите тот, который вам действительно нужен, и сосредоточьтесь на нем».

404 против возможности сканирования и индексации
24:39 « Наш отчет GSC Crawl Stats показывает устойчивый рост 404 страниц, которые НЕ являются частью нашего сайта (их нет в нашей карте сайта и они не генерируются внутренним поиском). Похоже, что это поисковые запросы Google, которые добавляются к нашим URL-адресам, и Google пытается их просканировать. Согласно разбивке ответов сканирования, эти ошибки 404 составляют более 40% ответов сканирования. Как мы можем убедиться, что это не повлияет негативно на наши возможности сканирования и индексации?»
«Во-первых, мы не придумываем URL-адреса, поэтому мы не будем использовать поисковые запросы Google, а затем создавать URL-адреса на вашем веб-сайте. Я думаю, это просто случайные ссылки, которые мы нашли в Интернете. […] Так что это происходит постоянно. И мы находим эти ссылки, а потом сканируем их. Мы видим, что они возвращают 404, а потом начинаем их игнорировать. Так что на практике это не то, о чем вам нужно заботиться. […] Обычно с такими ссылками происходит следующее: мы пытаемся выяснить в целом для вашего веб-сайта, какие URL-адреса нам нужно сканировать и какие URL-адреса нам нужно сканировать с какой частотой. А потом уже учитываем, после того, как проработали, что нам абсолютно необходимо сделать, что мы можем сделать дополнительно. И в этом дополнительном блоке, который также похож на очень, я думаю, градуированный набор URL-адресов, по сути, он также будет включать […] случайные ссылки с сайтов парсеров, например. Поэтому, если вы видите, что мы сканируем множество URL-адресов на вашем сайте, которые приходят по этим случайным ссылкам, по сути, вы можете предположить, что мы уже закончили сканирование вещей, которые нам небезразличны и которые, по нашему мнению, являются вашими. сайт важен для. У нас просто есть время и ресурсы на вашем сервере, и мы просто собираемся попробовать другие вещи. Таким образом, с этой точки зрения эти ошибки 404 не вызывают проблем при сканировании вашего веб-сайта. Это скорее признак того, что у нас достаточно ресурсов для вашего сайта. И если у вас окажется больше контента, чем вы на самом деле связали на своем веб-сайте, мы, вероятно, просканируем и проиндексируем и его. Так что, по сути, это почти как хороший знак, и вам определенно не нужно блокировать их с помощью robots.txt, это не то, что вам нужно подавлять […]»
Блокировка трафика из других стран
27:34 « У нас есть сервисный сайт, работающий только во Франции. И к нам поступает много трафика из других стран с очень плохой пропускной способностью, из-за чего наши оценки CWV снижаются. […] Поскольку мы не работаем за пределами Франции, нам не нужен трафик за ее пределами. Рекомендуется ли блокировать трафик из других стран?»
Вот что сказал Джон: «Я бы постарался не блокировать трафик из других стран. Я думаю, что это что-то, где в конечном итоге это зависит от вас. Это ваш сайт; вы можете выбрать, что вы хотите сделать. […] В этом случае следует иметь в виду, что мы сканируем почти все веб-сайты из США. Поэтому, если вы находитесь во Франции и блокируете все другие страны, вы также блокируете сканирование Googlebot . И тогда, по сути, мы не сможем проиндексировать какой-либо ваш контент. С этой точки зрения, если вы хотите заблокировать другие страны, убедитесь, что вы, как минимум, не блокируете страну, из которой сканирует Googlebot. По крайней мере, если вас волнует поиск.
Перегруппировка страниц
35:38 « Google недавно перегруппировал > 30 000 страниц на нашем сайте, которые заметно различаются по показателям CWV. […] Это увеличило средний показатель LCP для этих страниц до 3,4 с, несмотря на то, что до перегруппировки наши страницы продуктов в среднем составляли 2,5 с. Мы работали над тем, чтобы страницы были на 2,5 секунды ниже порогового значения, но наша тактика теперь кажется слишком незначительной, чтобы достичь нужного нам результата. Устанавливается ли группировка, а затем берется средний балл, или берется балл, а затем устанавливается группировка? – (это поможет нам установить, поможет ли получение этих страниц продукта под 2.5s решить проблему или нет)».
«[…] У нас нет четкого или точного определения того, как мы делаем группировку, потому что это то, что должно немного развиваться со временем в зависимости от объема данных, которые у нас есть для веб-сайта. Таким образом, если у нас есть много данных для множества различных типов страниц на веб-сайте, нашим системам будет намного проще сказать, что мы будем группировать немного более детально, а не так грубо, как раньше. Принимая во внимание, что если у нас не так много данных, мы, возможно, даже придем к ситуации, когда мы возьмем весь веб-сайт как одну группу. Так что это одна вещь. Другое дело, что данные, которые мы собираем, основаны на полевых данных. Вы видите это и в Search Console, а это значит, что мы не будем брать среднее значение отдельных страниц и просто усреднять их по количеству страниц. Но на практике это скорее средневзвешенное значение трафика в том смысле, что на некоторых страницах будет намного больше трафика, и у нас будет больше данных. А на других страницах будет меньше трафика, и у нас там будет не так много данных. Так что это может быть что-то, где вы видите такие различия. Если на вашу домашнюю страницу заходит много людей, а не на отдельные продукты, то может случиться так, что домашняя страница имеет больший вес только потому, что у нас там больше данных. Так что я бы пошел именно в этом направлении, и на практике это означает, что вместо того, чтобы уделять столько внимания отдельным страницам, я бы предпочел смотреть на такие вещи, как ваша Google Analytics или другая аналитика, которая вам нужна, чтобы выяснить, какие страницы или какие типы страниц получают большой трафик. И затем, оптимизируя эти страницы, вы, по сути, пытаетесь улучшить взаимодействие с пользователем […], и это то, что мы попытаемся подобрать для оценки Core Web Vital. Таким образом, по сути, меньше усреднения по количеству страниц и больше усреднения по трафику того, что люди на самом деле видят, когда они заходят на ваш сайт».
Алгоритм MUM
42:44 « С появлением алгоритма MUM результаты поиска будут ответом на несколько источников? Я имею в виду, что когда пользователь ищет тему, ответы выбираются из нескольких источников и предоставляются ему в виде пакета? Мы думаем, что конкуренция в будущем станет своего рода взаимодействием между конкурентами. Вместе они могут удовлетворить потребности искателя. Сайты сосредоточены на услугах, которые они могут предоставить лучше. Несколько конкурентов могут удовлетворить потребности искателей. Портфолио потребностей пользователей дополняется несколькими сайтами, которые соревнуются за лучший сервис, где они более известны».
Джон ответил: «Я не знаю; может быть, это произойдет в какой-то момент. У нас действительно есть идея попытаться предоставить разнообразный набор вариантов в результатах поиска, где, если мы можем сказать, что могут быть такие вещи, как очень сильные или разные мнения по конкретной теме . И вопрос в том, какие мнения существуют. Тогда может иметь смысл предоставить что-то вроде разнообразного набора результатов, которые охватывают разные аспекты этой темы. Я не думаю, что это применимо к большинству запросов, но иногда мы пытаемся это учитывать».
Миграция сайта
47:11 « Что, если при переносе сайта и в тот день, когда мы нажмем на курок, мы: robots.txt заблокируем оба домена [...], сделаем временную переадресацию 302 (через несколько дней или недель переключимся на 301s после того, как разработчики ничего не сделают сломался) и обслуживать сайт со статусом 503 HTTP в течение дня или нескольких часов, пока разработчики проверяют, не сломано ли что-нибудь?»
По словам Джона, «[…] Это все разные ситуации. И это не тот случай, когда мы сказали бы, ну, это переезд сайта с этой вариацией. Но скорее, если вы что-то блокируете, если что-то сломано, тогда мы, прежде всего, будем рассматривать это как нечто сломанное. И если на более позднем этапе мы увидим, что они на самом деле перенаправляют, то мы скажем, что теперь сайт перенаправляет. И мы относимся к ним как к отдельным штатам. Так что если в тот день, когда вы захотите сделать перенос сайта, что-то сломается и на вашем сервере все будет сломано, то мы просто хорошо увидим, на сервере все сломано. Мы не знали бы, что вы намеревались перенести сайт, потому что мы просто увидим, что все сломано. Поэтому с этой точки зрения я бы рассматривал их как отдельные состояния. И, конечно же, постарайтесь как можно быстрее исправить любое неисправное состояние и, по сути, перейти к миграции как можно быстрее после этого».
Удаление старого контента с новостного сайта
49:42 «Стоит ли удалять/не индексировать/запретить старые новости на новостном сайте? Новостям вроде 10+ лет? Влияет ли это на качество сайта в целом и оптимизирует ли краулинговый бюджет? Это сайт с более чем 3 миллионами страниц. Это как-то влияет на это?»
«Я не думаю, что вы получите большую пользу от удаления только старых новостей. Это также не то, что я бы рекомендовал новостным сайтам, потому что иногда вся информация все еще полезна. С этой точки зрения я бы не стал этого делать по причинам SEO. Если причины, по которым вы хотите удалить контент или поместить его в раздел архива на своем веб-сайте из соображений удобства использования или обслуживания […], это то, что вы определенно можете сделать. Но я бы не стал слепо удалять старый контент только потому, что он старый».
