19 февраля 2019 г. — Google Help Hangout Notes

Опубликовано: 2019-02-26

Это еще одна видеовстреча для веб-мастеров с нашим главным человеком, Джоном Мюллером. На этой неделе у него было отличное представление о ссылках, скорости страницы, UTM и партнерских ссылках. Как всегда, полное видео и стенограмма доступны ниже. Кроме того, если вы найдете эти обзоры полезными, вам следует ознакомиться с нашей новостной рассылкой! Мы собираем и отбираем все лучшие SEO-статьи недели и резюмируем их для вас в кратких и понятных сводках.

Если вы ранее принимали ручные меры по неестественным ссылкам, это навсегда заклеймит сайт?

5:20

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Иногда трудно говорить, но в целом, если ручное действие разрешено, то это ручное действие больше не влияет на сайт. Таким образом, нет такого эффекта сдерживания, который удерживал бы веб-сайт и говорил, что они сделали то же самое неправильно, и поэтому, как только мы предотвратим их появление в поиске, ничего подобного нет. Но, в частности, когда речь идет о ссылках, если у вас было много неестественных ссылок и, возможно, ваш сайт ранжировался из-за этих неестественных ссылок, а не путем очистки этих неестественных ссылок, тогда, конечно, возникает новая ситуация, к которой наши алгоритмы должны как бы приспосабливаться. первый. Так что это то, что может в какой-то степени повлиять на это. Я бы подошел к этому, просто продолжая работать над веб-сайтом, как обычно, и убедиться, что вы снова не столкнетесь с ситуацией, когда команда веб-спама сталкивается с проблемами, связанными с вашими ссылками. Так что не ходите и не говорите типа: «О, я удалил эти ссылки, поэтому вместо этого я куплю несколько ссылок на другом сайте и как бы удостоверюсь, что то, что вы делаете, действительно предназначено для долгосрочного использования вашего сайта». .


Резюме: после удаления ручного действия оно полностью удаляется. Тем не менее, неестественные ссылки по-прежнему могут навредить сайту алгоритмически. Это может занять много времени, чтобы прояснить ситуацию.


Если ваш сайт быстро загружается для пользователей, но инструмент PageSpeed ​​Insights от Google считает его медленным, следует ли предпринять какие-либо действия?

11:29

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Таким образом, многие из этих показателей, на которые вы смотрите с маяка, в первую очередь представлены вам в отношении того, с какой стороной вещей сталкивается пользователь. Итак, с нашей точки зрения, с точки зрения поиска, мы берем вместе множество этих показателей, чтобы выяснить, как мы должны видеть сайт в отношении скорости, но какие абсолютные измерения вы видите там в маяке. вещи, которые, скорее всего, сильнее влияют на то, как пользователи видят ваш сайт. Поэтому вместо того, чтобы спрашивать Google о SEO, например, этот сайт слишком медленный, я бы посмотрел на него с пользователями и вместо этого получил их отзывы, и если вы говорите, что ваш сайт на самом деле довольно быстр для пользователей, он предоставляет контент довольно быстро, то, вероятно, вы находитесь в хорошем состоянии там.


Резюме: самое главное, быстро ли загружаются ваши страницы для реальных пользователей.

Наше В настоящее время мы считаем, что мы хотели бы видеть улучшения скорости страницы для сайтов с низкими показателями «первой отрисовки контента» в Lighthouse, поскольку это число является приблизительным показателем того, сколько времени требуется для отображения контента, который можно прочитать.


Если страница ранжировалась по определенным ключевым словам, а вы перенаправляете ее на новую страницу, сможет ли эта страница ранжироваться по этим ключевым словам?

16:25

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Так что, по сути, мы пытаемся, если мы действительно сможем перенести все, что мы делаем, один на один, в новый домен, тогда этот новый домен будет вместо старого домена. И он может ранжироваться по старым ключевым словам, и он может ранжироваться по новым ключевым словам, и снова, если вы внесете существенные изменения во время этого перехода, тогда, конечно, это новое состояние должно быть принято во внимание, и это не просто так, мы можем перенаправить все на новое один, потому что новый — это не просто перенесенная версия старого.


Резюме: Когда Google видит, что ссылки проходят через перенаправление, они пытаются определить, следует ли передавать сигналы ссылок. Если новая страница похожа, то есть большая вероятность, что ссылочные сигналы, указывающие на предыдущую страницу, также перейдут.


Можно ли использовать параметры UTM для внутренних ссылок?

17:33

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Я думаю, это всегда немного сложная ситуация, потому что вы, по сути, даете нам смешанные сигналы. С одной стороны, вы говорите, что это те ссылки, которые я хочу проиндексировать, потому что именно так вы размещаете внутренние ссылки на своем веб-сайте. С другой стороны, эти страницы, когда мы их открываем, имеют rel canonical, указывающий на другой URL. Итак, вы говорите, что индексируете это, а исходя из этого вы говорите, что на самом деле индексируете другое. Итак, в конечном итоге наши системы пытаются взвесить различные типы URL-адресов, которые мы находим для этого контента. Вероятно, мы можем признать, что этот контент, эти URL-адреса ведут к одному и тому же контенту. Таким образом, мы можем поместить их в одну группу, а затем выбрать, какую из них на самом деле использовать для индексации, и, с одной стороны, у нас есть внутренние ссылки, указывающие на версии UTM, с другой стороны, у нас есть относительная каноническая версия. указывая на более чистую версию. Более чистая версия, вероятно, также является более коротким URL-адресом и более красивым URL-адресом, который также играет с нами в строке, но с нашей точки зрения все еще не гарантируется, что мы всегда будем использовать более короткий.

Таким образом, rel canonical, очевидно, является сильным признаком. Внутренняя ссылка также является более сильным сигналом, поскольку это то, что находится под вашим контролем. Итак, если вы явно связались с этими URL-адресами, и мы думаем, что, возможно, вы хотите, чтобы они были проиндексированы таким образом. Так что на практике, что, вероятно, произойдет здесь, мы будем индексировать сочетание URL-адресов, некоторые из них мы будем индексировать более короткую версию, потому что, возможно, мы найдем другие сигналы, указывающие на более короткую версию. Некоторые из них мы, вероятно, проиндексируем с версией UTM, и мы постараемся ранжировать их нормально как версию UTM.

На практике в поиске вы не увидите никакой разницы в ранжировании, вы просто увидите, что эти URL-адреса могут отображаться в результатах поиска. Таким образом, они будут иметь одинаковый рейтинг с UTM или без UTM, и они будут просто перечислены по отдельности в результатах поиска. И с практической точки зрения это просто означает, что в консоли поиска вы можете увидеть сочетание этих URL-адресов. В отчете о производительности вы можете увидеть что-то вроде этого сочетания. В отчете об индексировании вы можете увидеть смесь некоторых других отчетов. Возможно, вокруг AMP или структурированных данных, если вы используете что-то подобное, вы также можете увидеть этот микс. В некоторых случаях вы также можете увидеть ситуацию, когда он переключается между URL-адресами, поэтому может случиться так, что мы проиндексируем его с параметрами UTM в какой-то момент, а затем через пару недель, если мы переключимся на более чистую версию, и мы скажем, ну, вероятно, эта более чистая версия лучше, а затем в какой-то момент позже или алгоритм, чтобы посмотреть на него еще раз и сказать, что на самом деле больше сигналов указывает на версию UTM, которую мы переключим обратно, что теоретически также может произойти.

Итак, что я бы порекомендовал сделать, если у вас есть предпочтения в отношении ваших URL-адресов, убедитесь, что вы как можно более четко указываете на своем веб-сайте, какую версию вы хотите проиндексировать. С параметрами UTM вы также создаете ситуацию, когда нам придется сканировать обе эти версии, поэтому это немного больше накладных расходов, если это всего лишь одна дополнительная версия, которая, вероятно, не такая уж большая проблема. Если у вас есть несколько параметров UTM, которые вы используете на веб-сайте, мы попытаемся просканировать все различные варианты, что, в свою очередь, будет означать, что, возможно, мы просканируем, я не знаю, в пару раз больше URL-адресов, чем ваш веб-сайт. на самом деле должен быть в состоянии идти в ногу с индексацией. Так что это, вероятно, то, чего вы хотели бы избежать. Так что я бы порекомендовал попытаться максимально очистить это, чтобы мы могли придерживаться чистых URL-адресов. К URL-адресам, которые вы хотите проиндексировать, вместо того, чтобы оказаться в этом состоянии, когда, возможно, мы подберем их вот так, может быть, мы подберем их вот так, и в ваших отчетах это может быть так, это может быть как это. Вы должны следить за этим все время. Так что держите его как можно проще.


Резюме: Будьте осторожны. Внутренние ссылки показывают Google, какие страницы важны на вашем сайте. Если вы ссылаетесь на страницы с параметрами utm, Google может просканировать несколько URL-адресов с одинаковым содержанием. Это не проблема для пары страниц, но потенциально может повлиять на способность Google сканировать сайт, если это делается в больших масштабах.

Четко укажите, какая версия является канонической, чтобы все сигналы передавались на эту страницу. Следующее поможет:

  • Используйте канонический тег во всех версиях страницы, который указывает на URL-адрес, отличный от utm.
  • Убедитесь, что содержимое каждой версии страницы одинаково.


Можно ли показывать роботу Googlebot текст привязки к ссылкам, отличный от того, который видят реальные пользователи?

23:08

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Таким образом, Googlebot должен видеть ту же версию страницы, которую видят пользователи. Так что, если это что-то полезное для пользователей, я бы порекомендовал показать это и роботу Googlebot. Это то, где, если вы говорите о скорости, необходимой для отображения этих страниц, стоит иметь в виду, что мы смотрим на скорость целостно, мы не просто смотрим на скорость страницы, как Googlebot получение этой страницы, когда речь идет о скорости в отношении использования скорости в качестве фактора ранжирования. Для сканирования, конечно, иметь страницы, которые доступны очень быстро, что немного помогает нам, так что имеет смысл сделать что-то быстрое для Google, по крайней мере, для сканирования. Одна вещь, которую я бы порекомендовал здесь, это попытаться избежать специального корпуса Googlebot, если это вообще возможно, потому что это означает, что обслуживание намного сложнее. Если вы делаете что-то особенное для робота Googlebot, гораздо сложнее определить, видит ли робот Googlebot ошибки на странице, а пользователи видят обычный контент, и робот Googlebot начинает удалять эти страницы из поиска из-за этих ошибок. Поэтому в идеале относитесь к ним так же, как к пользователям. Один из способов сделать это — использовать JavaScript для асинхронной загрузки дополнительной информации. Так что обычно это довольно легко выполнимо, вероятно, с меньшими усилиями, чем маскировка для робота Googlebot в подобном случае.


Резюме: Нет. Вы не хотите создавать особые случаи, когда робот Googlebot видит другой контент, чем обычный пользователь.

Наше примечание: это может рассматриваться как маскировка и может привести к выпадению страниц из индекса.


Если есть ссылки, указывающие на страницу А, а страница А канонизирована до страницы Б, рассматривает ли Google эти ссылки как указывающие на страницу Б?

26:18

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Так что, с нашей точки зрения, здесь я сыграл несколько вещей. Я думаю, что прежде всего эти страницы должны быть эквивалентны, если вы говорите, что для этой страницы есть каноническая версия, она также должна быть эквивалентна последней странице. Таким образом, не должно иметь значения, какая из этих страниц используется для перенаправления ссылок, потому что вы, по сути, говорите нам, что эти страницы одинаковы, и мы можем относиться к ним одинаково. Таким образом, для наших алгоритмов не должно иметь значения, получаем ли мы эти ссылки на этой странице или на другой странице. Поэтому я также предположил бы, что не всегда, как в другом вопросе с параметрами UTM, мы выбираем URL-адрес, указанный как канонический, как тот, который мы фактически индексируем. Поэтому, если эти ссылки различаются в разных версиях страниц, это означает, что мы можем не передать PageRank так, как вы ожидаете. Так что все это объединяется, и, с моей точки зрения, я бы порекомендовал просто убедиться, что эти страницы эквивалентны. Так что вам не нужно беспокоиться о том, откуда какие ссылки проходят PageRank. Но скорее предположим, что это может быть эта страница, это может быть другая страница, rel canonical — это сильный сигнал для нас, но это не директива, которая мешает нам полностью использовать эту страницу.


Резюме: если страницы действительно эквивалентны, то да, ссылки, указывающие на страницу А, помогут поддержать страницу Б.


Стоит ли создавать отдельный веб-сайт для каждой страны, в которой вы хотите, чтобы вас видели?

26:58

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Так что короткий ответ нет, это ужасная идея. Особенно, если у вас нет контента, уникального для каждой страны мира. В частности, если вы используете hreflang для разных стран и языковых версий. Вы должны иметь в виду, что hreflang не повышает рейтинг этих страниц в этих странах, а просто заменяет эти URL-адреса. Таким образом, вы все еще должны быть в состоянии ранжироваться в этих отдельных местах. Это означает, что если у вас есть один фрагмент контента, и вы разделите его по каждой стране мира и умножите на каждый язык, то вы значительно разбавите свой контент по большому количеству URL-адресов. Это означает, что у любой части контента будет гораздо больше проблем с отображением в результатах поиска. Потому что вместо одной мощной страницы, которую мы потенциально могли бы показывать по всему миру, у нас есть масса разных страниц, на которых отображается более или менее одно и то же содержание, и ни одна из них не является особенно сильной. Так что когда дело доходит до стратегии интернационализации, я настоятельно рекомендую обратиться за помощью к людям, которые успешно сделали это для других веб-сайтов. Так что можно реально взвесить все за и против. С одной стороны, у вас есть преимущество в том, что вы можете настроить таргетинг на отдельные страны и языки с контентом, который действительно специально предназначен для них, а с другой стороны, вы должны взвесить это, если вы слишком разбавляете контент, тогда все эти версиям будет намного сложнее быть видимыми в поиске. Так что, с одной стороны, хороший таргетинг, с другой стороны, нужно убедиться, что версии, которые у вас есть, достаточно сильны, чтобы их можно было увидеть в поиске, и моя общая мысль заключается в том, чтобы ошибиться в сторону использования меньшего количества версий, а не использование большего количества версий. Так что, если у вас нет действительно серьезного варианта использования контента, специально предназначенного для отдельных стран, и я ошибаюсь, возможно, лучше один глобальный веб-сайт, чем разделять вещи.


Резюме: в большинстве случаев имеет смысл иметь только один веб-сайт и правильно использовать атрибут hreflang, чтобы помочь Google найти правильную версию. В некоторых случаях имеет смысл иметь веб-сайты с отдельными ДВУ на уровне страны. Часто это непростое решение. Джон рекомендует проконсультироваться с SEO-специалистом, имеющим опыт интернационализации.


Можно ли использовать как схему рейтинга, так и схему вопросов и ответов для одного и того же контента?

29:33

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г. Конечно, я не вижу навскидку, почему бы и нет. Главное помнить, что структурированные данные должны быть ориентированы на основной контент страницы. Поэтому я не знаю, как именно вы могли бы объединить рейтинг и схему контроля качества на странице, но, возможно, это что-то вроде того, что у вас есть вопросы и ответы по продукту, и у вас также есть рейтинги для этого продукта. Это может быть вариант, но в целом это не значит, что эти типы разметки являются исключительными, и вы можете использовать только один тип, вы можете комбинировать несколько типов разметки.


Резюме: Да


Рассматриваются ли партнерские ссылки как признак более низкого качества веб-сайта?

41:05

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Так что в целом, насколько я знаю, это не так, мы явно не заходим на сайт и не говорим, что есть ссылки, которые выглядят как партнерские ссылки, поэтому мы будем рассматривать этот сайт как сайт более низкого качества. В целом, основные проблемы, которые я вижу в отношении партнерских веб-сайтов, заключаются в том, что они, как правило, являются веб-сайтами более низкого качества. Таким образом, дело не столько в том, где находится процесс оформления заказа, сколько в том, что в целом контент часто имеет низкое качество, и из-за низкого качества контента наши алгоритмы могут уловить это и сказать, что, вероятно, это не так. наиболее релевантный результат для отображения в результатах поиска, и могут быть действительно качественные партнерские веб-сайты, которые хороши. Так что дело не столько в том, есть партнерская ссылка или нет, сколько в том, как насчет остального сайта? Это то, что было бы уместно показать пользователям, или здесь есть что-то проблематичное? Я думаю, по крайней мере, насколько мне известно, это применимо ко всем направлениям, поэтому не имеет большого значения, какова конкретная тематическая область веб-сайта, но в целом есть несколько действительно хороших партнерских сайтов, а есть действительно ужасные. партнерские сайты. Так что вопрос в том, хорош сайт или ужасен?


Резюме: наличие партнерских ссылок не является признаком низкого качества. Однако, если у вас есть аффилированный сайт, для того, чтобы получить хороший рейтинг, вам нужно предоставить достаточную ценность, чтобы Google захотел ранжировать ваш контент вместе с контентом исходного поставщика.


Если на ваш сайт поступает поток нерелевантных ссылок, следует ли их дезавуировать?

47:01

Видеовстреча помощи Джона Мюллера, 19 февраля 2019 г.

Конечно, вы можете это сделать. Да, это как раз то, для чего нужна запись домена в файле отклонения, таким образом, это как все эти миллионы или тысячи ссылок, вы можете просто сказать все с этого сайта, я просто не имею ничего общего с этим. Обычно в таких случаях, когда вы видите эту совершенно случайную ссылку на сайт, происходит то, что сайт, вероятно, был взломан, и по какой-то причине кто-то решил удалить все эти ссылки при взломе веб-сайта, и обычно мы довольно хорошо это улавливаем. и пытаемся сохранить состояние до того, как они взломают наши системы. Так что, вероятно, мы уже игнорируем эти ссылки, возможно, что, возможно, или даже индексируем веб-сайт раньше, а не с взломанным контентом. Так что обычно я не слишком беспокоюсь об этом, потому что такие взломы очень распространены, и у нас есть немного практики, чтобы справиться с этим. Но если вы беспокоитесь об этом, вы знаете, что это похоже на настоящее безумие, и я думаю, что ссылки на ремонт инструментов, вероятно, не то, где вы говорите, о, это убьет мой веб-сайт, если я связан со скрипками, может быть, контент для взрослых - это то, к чему вы были бы более осторожны, тогда я бы просто использовал файл отклонения, отправьте это, и вы уверены, что они не принимаются во внимание.\


Резюме: в большинстве подобных случаев Google уже игнорирует необычный поток ссылок. Интересно, однако, отметить, что Джон рекомендовал отказаться от ссылок, если они носят взрослый характер Например, если ваш сайт по ремонту музыки получил тысячи неестественных ссылок, указывающих на него с якорем «ремонт скрипки», вы можете отклонить их.


Если вам нравятся такие вещи, вам понравится мой информационный бюллетень!

Моя команда и я каждую неделю сообщаем о последних обновлениях алгоритма Google, новостях и советах по SEO.

Успех!! Теперь проверьте свою электронную почту, чтобы подтвердить подписку на новостную рассылку обновлений Google.

При отправке подписки произошла ошибка. Пожалуйста, попробуйте еще раз.

Полное видео и стенограмма

Вопрос 1:25. Будут ли мета-заголовки X robots останавливать Google после перенаправления местоположения, например 301 или 302?

Ответ 1:37 - Нет. Таким образом, nofollow будет применяться только к ссылкам на этой странице, и, поскольку это перенаправление на стороне сервера, мы даже не будем смотреть на содержимое страницы. Таким образом, у нас не было бы ссылок, по которым можно было бы перейти, так что это ничего не изменило бы.

Вопрос 1:58 — Один из наших клиентов — интернет-магазин. Они были заблокированы несколькими интернет-провайдерами, мобильными интернет-провайдерами, и нам было интересно, как насчет того, что повлияло на их органический рейтинг.

Ответ 2:15. Таким образом, я думаю, с нашей точки зрения, главное, будет ли робот Googlebot также заблокирован, и если робот Googlebot не заблокирован, то мы сможем нормально сканировать и индексировать контент. Но, конечно, если Googlebot также заблокирован, потому что он, я не знаю, заблокирован, например, в США, тогда это, конечно, приведет к тому, что эти страницы выпадут из поиска. Но если это просто отдельные пользователи, у меня нет к этому доступа, а индексация и сканирование в остальном работают нормально, это обычно не так важно, конечно, у вас есть косвенные эффекты, которые эти пользователи не смогут рекомендовать сайт и мы не сможем получить эти рекомендации, потому что их нет у этих пользователей. Очевидно, что если вы заблокируете большинство пользователей, которые перейдут на ваш сайт, это, вероятно, окажет долгосрочное влияние на сайт.

Ответ 3:25. И это то, что некоторые сайты даже делают специально, не особенно для мобильных пользователей по сравнению с настольными, но некоторые сайты говорят: «У меня нет ничего, что я мог бы предложить пользователям в этих отдельных странах или по какой-либо политической причине». мой контент является незаконным в Швейцарии, потому что он недостаточно нейтрален или что-то в этом роде, тогда этот сайт может заблокировать пользователей в этих странах, и с этим нам все равно придется иметь дело. Таким образом, эти пользователи не смогут рекомендовать его, там могут быть некоторые долгосрочные последствия, но если мы все еще можем сканировать и индексировать контент, то в целом это нормально.

У нас было ручное действие из-за ссылок. Мы медленно возвращались к нижней части страницы 1, иногда к верхней части страницы 2. Мне было интересно, связано ли это с отсутствием ссылок сейчас или мы можем что-то сделать, чтобы восстановить это доверие, чтобы мы могли вернуться к нашему исходное положение?

Ответ 5:20 - Иногда трудно говорить, но в целом, если ручное действие разрешено, то это ручное действие больше не влияет на сайт. Таким образом, нет такого эффекта сдерживания, который удерживал бы веб-сайт и говорил, что они сделали то же самое неправильно, и поэтому, как только мы предотвратим их появление в поиске, ничего подобного нет. Но, в частности, когда речь идет о ссылках, если у вас было много неестественных ссылок и, возможно, ваш сайт ранжировался из-за этих неестественных ссылок, а не путем очистки этих неестественных ссылок, тогда, конечно, возникает новая ситуация, к которой наши алгоритмы должны как бы приспосабливаться. первый. Так что это то, что может в какой-то степени повлиять на это. Я бы подошел к этому, просто продолжая работать над веб-сайтом, как обычно, и убедиться, что вы снова не столкнетесь с ситуацией, когда команда веб-спама сталкивается с проблемами, связанными с вашими ссылками. Так что не ходите и не говорите типа: «О, я удалил эти ссылки, поэтому вместо этого я куплю несколько ссылок на другом сайте и как бы удостоверюсь, что то, что вы делаете, действительно предназначено для долгосрочного использования вашего сайта». .

Вопрос 7:32. Как правило, вопрос касается веб-сайта, который переместился на другое доменное имя, и они переместили другую структуру, а также другую платформу через угловой сайт, а не статический HTML-сайт, и поскольку они сделали этот шаг, они наблюдается значительное падение позиций в поиске в целом.

Ответ 7:57. Итак, я просмотрел кучу тем с веб-сайта и попытался разобраться с чем-то внутри, чтобы увидеть, что именно здесь происходит, и это довольно сложная ситуация, когда у меня действительно нет прямой ответ. В частности, происходит переход от домена верхнего уровня с кодом страны к общему домену верхнего уровня, поэтому некоторая информация о географическом таргетинге немного теряется. Вначале были некоторые проблемы с возможностью индексировать контент вообще. В частности, на новом сайте есть некоторые существенные изменения в способе предоставления контента на новом сайте по сравнению со старым сайтом. Так что в целом на этом пути было много довольно значительных изменений, и некоторые из них были проблематичными, например, невозможность индексировать контент, а некоторые из них были просто изменениями, которые обычно происходят на веб-сайте, где вы, например, значительно изменили бы контент. И я думаю, что здесь происходит то, что все эти изменения затруднили нашим алгоритмам вычисление того, каким должен быть новый стабильный этап для этого веб-сайта, и, вероятно, это просто то, что занимает намного больше времени, чем обычное перемещение сайта. . Так что, я думаю, это одна из тех осторожных ситуаций, когда вы хотите внести кучу изменений и, внеся довольно значительные изменения сразу, вы вызываете много путаницы в отношении наших алгоритмов. Там, где может иметь смысл выполнять эти изменения шаг за шагом, чтобы протестировать их по отдельности, чтобы увидеть, что на самом деле каждый промежуточный шаг работает так, как должен быть, чтобы вы были уверены, что вся цепочка изменений, которые вы делаете, не обязательно приведет к результату. в больших негативных последствиях в отношении поиска. Поэтому я думаю, что моя рекомендация здесь будет заключаться в том, чтобы продолжать и продолжать смотреть на сайт, работающий над сайтом, чтобы сделать его лучше. Я думаю, что с точки зрения индексации вы находитесь в довольно хорошем состоянии, вы используете своего рода предварительный рендеринг на стороне сервера, что позволяет нам довольно быстро получать контент. Похоже, вы внесли существенные изменения в скорость работы веб-сайта в целом, так что это тоже положительное изменение. И я подозреваю, что со временем все эти вещи будут складываться, чтобы отразиться и в поиске. Я бы хотел, чтобы такого рода изменения могли обрабатываться немного быстрее, поэтому я также пропинговал некоторых людей из отдела поисковых систем, чтобы еще раз проверить, все ли там работает так, как ожидалось. Но в целом, с большим количеством ухабистых изменений на сайте и переходом на другой домен, все эти вещи могут усложнить создание сайта.

Вопрос 11:03 - У нас есть хороший первый осмысленный контент две секунды, но наше время до интерактивности составляет от 12 до 15 секунд, на что влияет большое количество скриптов, согласно маяку, хотя он загружается очень быстро для пользователей. Мы собираемся запустить новый веб-сайт, и нам интересно, важно ли исправить это до запуска или можно подождать несколько месяцев, как Google видит время до интерактивности?

Ответ 11:29. Таким образом, многие из этих показателей, на которые вы смотрите с маяка, в первую очередь представлены вам в отношении того, с какой стороной вещей сталкивается пользователь. Итак, с нашей точки зрения, с точки зрения поиска, мы берем вместе множество этих показателей, чтобы выяснить, как мы должны видеть сайт в отношении скорости, но какие абсолютные измерения вы видите там в маяке. вещи, которые, скорее всего, сильнее влияют на то, как пользователи видят ваш сайт. Поэтому вместо того, чтобы спрашивать Google о SEO, например, этот сайт слишком медленный, я бы посмотрел на него с пользователями и вместо этого получил их отзывы, и если вы говорите, что ваш сайт на самом деле довольно быстр для пользователей, он предоставляет контент довольно быстро, то, вероятно, вы находитесь в хорошем состоянии там.

Ответ 12:24 — Google только что объяснил в официальном документе, опубликованном несколько дней назад, что он использует PageRank через ссылки в Интернете для алгоритмической оценки авторитетности и надежности. Можем ли мы предположить, что экспертиза в первую очередь оценивается через качество контента алгоритмически? Можете ли вы рассказать об этом вообще?

Ответ 12:51 - У меня нет никакого понимания. Так что тут у меня нет ничего особенного. Я только что видел этот технический документ, которого я не знаю, вчера или позавчера. Выглядит довольно интересно, но, конечно, это довольно длинный документ, и в нем много разных тем, а PageRank — это просто более или менее побочный комментарий. . Так что я бы не хотел говорить, что все это просто PageRank.

Вопрос 13:23. Несколько месяцев назад команда лаборатории Google Chrome выпустила быструю ссылку. Что обеспечивает более быструю последующую загрузку страниц за счет предварительной выборки ссылок в области просмотра во время простоя. Я знаю, что это полезно для пользователей, но повлияет ли это на робота Googlebot и рейтинг, или каждая страница, которую посещает робот Googlebot, рассматривается как первое посещение, с чистого листа?

Ответ 13:45 - Вы правы. Таким образом, каждый раз, когда Google загружает страницу, которая воспринимается как первый новый визит на этот сайт или на эту страницу, мы, как правило, не сохраняем никаких файлов cookie, это не значит, что мы сохраняем состояние сеанса, когда мы сказали бы, о, мы загрузили это. одна страница, и мы переходим по ссылкам здесь, поэтому мы сохраним это состояние и, например, нажмем на эти ссылки, чтобы перейти на эти новые страницы, но вместо этого мы найдем эти URL-адреса, а затем получим эти URL-адреса по отдельности. Так что в таком случае я не вижу никакого положительного или отрицательного влияния на робота Googlebot. Похоже, что это что-то, что значительно ускорит работу пользователей, так что это хорошо, и вы, вероятно, видите здесь некоторые косвенные эффекты, и что когда пользователи могут использовать ваш сайт очень быстро, часто они проводят больше времени на сайте, они немного больше осматриваются, и, в свою очередь, вероятно, более вероятно, что они смогут порекомендовать этот сайт другим, а это кое-что что мы могли бы забрать.

Вопрос 12:52. Сколько времени может занять восстановление рейтинга, если я перенесу сайт со старого домена на совершенно новый и удостоверюсь, что все 301 редиректы работают?

Ответ 15:02. Так что это может произойти очень быстро, если вы сделаете чистый перенос сайта с одного домена на другой, где все по существу останется таким же, где мы можем распознать, что этот старый URL-адрес перенаправляется на тот же URL-адрес в новом домене, а затем как правило, мы можем подобрать это довольно быстро, и обычно вы увидите своего рода обзор индексации в поисковой консоли, вы увидите, что один падает примерно так же, как другой растет, и все меняется, может быть, через день или около того. какая-то шишка между ними. С другой стороны, если вы внесете значительные изменения на свой веб-сайт, такие как разные URL-адреса, разные структуры, разные виды контента, то все это может значительно усложнить нам задачу, и нам действительно придется полностью переоценивать новый сайт и на основе новый веб-сайт выяснить, как мы должны позиционировать этот сайт. Это своего рода различия, но если это действительно просто чистый URL-адрес, который перемещается на тот же URL-адрес в другом типе изменения домена, это действительно не проблема.

Вопрос 16:18. Унаследует ли новый домен SEO-составляющую, а также ранжирование по новым ключевым словам?

Ответ 16:25. Так что, по сути, мы пытаемся, если мы действительно сможем перенести все, что мы делаем, один на один, в новый домен, тогда этот новый домен будет вместо старого домена. И он может ранжироваться по старым ключевым словам, и он может ранжироваться по новым ключевым словам, и опять же, если вы внесете существенные изменения во время этого перехода, тогда, конечно, это новое состояние должно быть принято во внимание, и это не просто так, мы можем перенаправить все на новое. один, потому что новый — это не просто перенесенная версия старого.

Вопрос 16:58 - Вопрос относительно URL-адресов параметров со ссылками UTM. Будут ли эти ссылки разбавлять ценность ссылки, если они сильно связаны внутри? Мы получаем страницы, проиндексированные с параметрами, где канонический указывает на предпочтительную версию, как это повлияет в долгосрочной перспективе, если мы будем ссылаться на веб-сайт с 80% параметров и 20% чистыми URL-адресами.

Ответ 17:33 - Я думаю, это всегда немного сложная ситуация, потому что вы по сути даете нам смешанные сигналы. С одной стороны, вы говорите, что это те ссылки, которые я хочу проиндексировать, потому что именно так вы размещаете внутренние ссылки на своем веб-сайте. С другой стороны, эти страницы, когда мы их открываем, имеют rel canonical, указывающий на другой URL. Итак, вы говорите, что индексируете это, а исходя из этого вы говорите, что на самом деле индексируете другое. Итак, в конечном итоге наши системы пытаются взвесить различные типы URL-адресов, которые мы находим для этого контента. Вероятно, мы можем признать, что этот контент, эти URL-адреса ведут к одному и тому же контенту. So we can kind of put them in the same group and then it's a matter of picking which one to actually use for indexing and on the one hand we have the internal links pointing to the UTM versions, on the other hand we have the rel canonical pointing to kind of the cleaner version. The cleaner version is probably also a shorter URL and nicer looking URL that kind of plays in inline with us as well but it's still not guaranteed from our point of view that we would always use the shorter.

So rel canonical is obviously a strong sign internal linking is also kind of a stronger signal, in that that's something that's under your control. So if you explicitly linked to those URLs and we think maybe you want them indexed like that. So in practice what what would probably happen here is we would index a mix of URLs some of them we would index the shorter version because maybe we find other signals pointing at the shorter version as well. Some of them we probably index with the UTM version and we would try to rank them normally as the UTM version.

In practice in search you wouldn't see any difference in ranking you would just see that these URLs might be shown in the search results. So they would rank exactly the same with UTM or without UTM and they would just be listed individually in the search results. And from a practical point of view that just means that in search console you might see a mix of these URLs. In the the performance report you might see kind of this mix. In the indexing report you might see a mix in some of the other reports. Maybe around the AMP or structured data if you use anything like that you might also see this mix. You might also see in some cases situation where it swaps between the URLs so it might be that we index it with UTM parameters at one point and then a couple weeks later if we switch to the cleaner version and we say, well probably this cleaner version is better, and then at some point later on or algorithm to look at it again and say well actually more signals point to the UTM version we'll switch back, that could theoretically happen as well.

So what I would recommend doing there is if you have a preference with regards to your urls make sure that you're being as clear as possible within your website about what version you want to have indexed. With UTM parameters you're also creating the situation that we'd have to crawl both of those versions so it's a little bit more overhead if it's just one extra version that's probably not such a big deal. If you have multiple UTM parameters that you're using across the website then we would try to crawl all of the different variations which would in turn mean that maybe we crawl, I don't know, a couple times as many URLs as your website actually has to be able to keep up with indexing. So that's probably something you'd want to avoid. So my recommendation would be really to try to clean that up as much as possible, so that we can stick to the clean URLs. To the URLs that you want to have indexed instead of ending up in this state where maybe we'll pick them up like this, maybe we'll pick them up like this, and in your reporting it could be like this, it could be like this. You have to watch out for that all the time. So keep it as simple as possible.

Question 21:56 - Will there be any ability to test and view desktop renders with screenshots in the URL inspection tool in search console?

Answer 22:05 - I get these kind of questions all the time. It's like will you do this in search console or will you do that. And in general we try not to pre-announce things so I don't really have any insight that I can give you there with regards to what will happen in the future. It does seem like something that is kind of a missing aspect of the tool in that it's focusing on mobile at the moment but it might be nice to actually test the desktop version as well. So I'll definitely pass that on to your team to make sure that that's on their radar somewhere.

Question 22:41 - On one website with a couple million pages we have a sidebar which has internal links in it and next to each there's a number which represents how many sub pages that link leads to. Sort of as an information informative visual aid and generating those numbers takes a lot of time is it okay to remove those numbers for the front page when Googlebot is detected?

Answer 23:08 - So Googlebot should be seeing the equivalent version of the page as users would be seeing. So if this is something that's useful for users I'd recommend showing it to Googlebot as well. It's something where if you're talking about the speed that it takes to to render these pages it's worth keeping in mind that we look at speed on kind of a holistic way we don't just look at the speed of a page as Googlebot is fetching that page when it comes to speed with regards to using speed as a ranking factor. For crawling of course having the pages that are available very quickly that helps us quite a bit so that makes sense to kind of make things fast for Google for crawling at least. One thing I'd recommend here though is try to avoid special casing Googlebot if if at all possible because it does mean that maintenance is a lot harder. If you're doing special for Googlebot then it's a lot harder to tell if Googlebot is seeing errors on the page and users are seeing normal content and Googlebot starts dropping those pages from search because of those errors. So ideally treat them a lot the same as users. One way you could do that here is to use some kind of JavaScript to just asynchronously load that extra information. So that's usually pretty easily doable probably less effort than cloaking to Googlebot in a case like this.

Question 24:47 - Does link equity pass through links on canonical pages or is it just ignored and everything flows to the canonical? So I think the question is more that you have one page it has a rel canonical pointing to a different page and the question is will those links on that original page kind of work pass PageRank or will only that pay the links on the specified canonical page pass PageRank?

Answer 25:18 - So from our point of view there are multiple things I've come into play here. I think first of all those pages should be equivalent if you're saying that there's a canonical for that page it should be equivalent to the final page as well. So it shouldn't matter which of these pages is used for forwarding links because you're essentially telling us these pages are the same we can treat them the same. So it shouldn't matter for our algorithms like if we pick up those links on that page or we pick up the links on the other page. So II would also assume there that not always kind of like in the other question with UTM parameters we would pick the URL that is specified as canonical as the one that we actually index. So if those links are different across versions of pages then that's something where we might not pass PageRank in the way that you're expecting. So all of that kind of comes together and from my point of view what I'd recommend there is just really making sure that those pages are equivalent. So that you don't have to worry about from where, which links are passing PageRank. But rather assume that it could be this page, it could be the other page, the rel canonical is a strong signal for us but it's not a directive that prevents us from using that page completely.

Question 26:50 - Is it a good idea to create a website for every country in the world?

Answer 26:58 - So the short answer there is no that's a terrible idea. Especially if you don't really have content that's unique to every country in the world. In particular if you're using hreflang between the different country and language versions. You need to keep in mind that hreflang does not make those pages rank higher in those countries it just swaps out those URLs. So you still have to be able to rank in those individual locations. Which means if you have one piece of content and you split it up across every country in the world and multiply it by every language then you'll have diluted your contents significantly across a large number of URLs. Which means that any piece of content there will have a lot more trouble being shown in the search results. Because instead of one strong page that we could show potentially worldwide, we have a ton of different pages that all show more or less the same content and none of them are particularly strong. So that's something where when it comes to an internationalization strategy I would strongly recommend getting help from people who have done this successfully for other websites. So that you can really weigh kind of the pros and the cons there. On the one hand you have the advantage of being able to target individual countries and languages with content that's really uniquely kind of specialized for them and on the other hand you have to weigh that if you're diluting the content too much then all of those versions will have a lot harder time to be visible in search. So on the one hand targeting well on the other hand kind of making sure that the versions that you do have available are strong enough to actually be be visible in search and my general thought there is to err on the side of using fewer versions rather than using more versions. So unless you have a really strong use case for having content specifically targeted for individual countries and I err on the side of well maybe one global website is better rather than splitting things up.

Question 29:25 - Can we use both rating schema and question-and-answer schema for question answers

Answer - 29:33 - Sure I don't see offhand why not. The main thing to keep in mind is that the structured data should be focused on the primary content of the page. So I don't know how exactly you would kind of combine the rating and the QA schema on a page but maybe it's something like you have questions and answers to a product and you have ratings at that product as well. That might be an option there but in general it's not that these types of markups are exclusive and you can only use one type you can combine multiple types of markup.

Question 30:41 - So our site had maybe like 5,000 Google visitors per day for several months now we're down to under 500. This was due to a sudden, just happened in one day, we think it's due to an automatic security penalty that we got removed within one business day and we just haven't seen any change within three weeks. So I'm wondering how long was something like that it might take to recover from and if there's anything else that would cause just a sudden one day drop like that?

We got a message in search console that social engineering content was detected. It turns out that was due to our email service provider there click track my software was was automatically flagged because I guess another clients was using it so we were we got a manual review and within a business day and they said it was ok but you know.

Answer 31:48 - Ok so if there was a manual review then that would be resolved. So it's not that there is kind of a hold back after manual review that says, oh we have to be careful with this website, but that should be resolved there. I know It's kind of hard to say just in a general case with regards to a site like that there there are sometimes algorithmic changes that happen that roll out we're bigger change happens with within a day or so. So that might also be playing a role here it might also be that there's something else kind of playing in with the site there. So what what I generally recommend doing is maybe starting a thread in the webmaster help forum with the URL of your site and some of the queries where you're seeing changes. So not just like we had this many queries and now it's like down to this but rather like people are searching for our company name they're still finding our company name but for this particular kind of query we're no longer visible anymore. So that that kind of thing is it's really useful to post in the webmaster help forum and usual also when when people can't find an answer for that, the experts there are able to escalate that on to us so that we can take a look at that as well.

Question 33:24 - So they have multiple sites in German for different countries and they have the a hreflang setup. It sounds like instead of properly. So this is just what the example URLs, it's hard to say but they're saying that they're not seeing a lot of indexing of these URLs across the different country versions so what what could be happening here?

Ответ 33:54. Обычно, когда я вижу такие вопросы, все сводится к тому, что наши алгоритмы просматривают эти страницы и говорят, что эти страницы по существу являются дубликатами друг друга. Таким образом, мы можем проиндексировать одну из этих версий и показать ее пользователям, потому что все они одинаковые. Так что, в частности, на немецком языке это то, что я вижу довольно часто, я думаю, что на некоторых других языках это похоже, вероятно, на испанском, где есть несколько испаноязычных стран, или, конечно, на английском языке, где содержание по существу такое же, и оно просто предназначено для разные страны. Итак, что здесь происходит, так это то, что с точки зрения индексации мы, вероятно, по крайней мере потенциально, сложим эти URL-адреса вместе, чтобы из нескольких немецких версий мы выбрали одну немецкую версию и сказали, что это каноническая версия для немецкой версии с разметкой hreflang, которую мы d по-прежнему может отображать другие URL-адреса. Таким образом, мы могли бы проиндексировать, возможно, швейцарско-немецкую версию, и если пользователь в Германии, которого мы ищем, мы могли бы поменять этот URL-адрес на немецкую версию в результатах поиска. Но в отчете об индексации в консоли поиска вы увидите только тот URL, который индексируется для швейцарской версии, которую мы выбрали канонической. Таким образом, вы не увидите этого для немецкой версии, на практике это может быть нормально, если эти страницы действительно точно такие же, потому что мы меняем URL-адреса, пользователи получают правильную версию, что в значительной степени нормально, и сложность может быть что если у вас есть что-то в заголовке или если у вас есть цены или другие структурированные данные на этих страницах, это может быть что-то, что может сбить пользователей с толку, поскольку пользователь в Германии может искать, мы показываем немецкий URL-адрес, но во фрагменте это швейцарский валюта как цена где-то. Так что это может сбить людей с толку, поэтому обычно есть два подхода к этому, с одной стороны, вы можете принять подход и сказать, что объединение этих URL-адресов вместе — это нормально, это как бы делает эти евро немного сильнее для меня, это нормально. Затем вы можете зайти туда и сказать: «Хорошо, я позабочусь о том, чтобы эти страницы были общими и подходили ко всем немецким версиям, поэтому для меня не имеет значения, какой URL-адрес действительно индексируется». Другой подход заключается в том, чтобы убедиться, что эти URL-адреса четко видны как ведущие отдельные URL-адреса. Таким образом, убедитесь, что содержимое действительно значительно отличается в разных языковых версиях, чтобы наши системы, когда они просматривают эти страницы, говорили, ну, это одна немецкая страница, а это другая немецкая страница, между этими двумя есть ссылка hreflang. поэтому мы можем поменять местами эти URL-адреса, но это уникальные страницы, которые нужно индексировать по отдельности. Так что это своего рода два подхода, с одной стороны, вы можете сложить вещи вместе, а с другой стороны, вы можете сказать: ну, я хочу, чтобы они были явно разделены.

Вопрос 37:00 - Что бы вы посоветовали, если бренд имеет международное присутствие и когда-то закрылся для определенных регионов. Что вы делаете с сайтами, ориентированными на другие страны, если они перенаправляют основной сайт?

Ответ 37:14 - По сути, это своего рода ситуация с миграцией сайта. Я думаю, если у вас есть сайт в одной стране, и вы говорите, что этот сайт больше не доступен, я перенаправлю его на другую версию себя. Это то, что вы можете сделать. Чего вы действительно не можете сделать, так это указать в поиске, что мы не должны показывать этот сайт в определенных странах. Таким образом, вы можете как бы сложить свои немецкие версии вместе и сказать, как Германия, Австрия, Швейцария, что все они должны быть просто одним немецким веб-сайтом, это нормально, но я не хочу показывать свой сайт пользователям в Швейцарии, возможно, но вы не можете. Нет метатега, с помощью которого можно запретить Google показывать мой сайт в Швейцарии. Максимум, что вы можете сделать, это заблокировать доступ пользователей в этой стране к сайту, но вы не можете запретить Google показывать его в результатах поиска для этой страны.

Вопрос 38:18 - Это был мой вопрос. Наш веб-сайт на английском языке, и у нас есть уникальный контент для разных стран. Поэтому из-за бизнес-решений они как бы закрывают определенные регионы. Итак, если мы сделаем какое-то перенаправление для сайта, повлияет ли это на мой основной сайт, будет ли это отрицательным или положительным эффектом? Я имею в виду, что в настоящее время у нас есть этот hreflang для всех подмножеств, которые имеют общие страницы, где мы можем видеть, что я имею в виду, что мы предлагаем один продукт в одной конкретной стране и один продукт в другой стране с разным контентом и всем местным контентом региона. Вот мне интересно, что будет с этими страницами? если я перенаправлю эти страницы на свой основной сайт, будут ли мои основные страницы ранжироваться в этих конкретных регионах?

Ответ 39:19 - Потенциально это может произойти, но опять же, это не то, что вы действительно можете контролировать. Поэтому, если вы перенаправляете эти страницы, если эти страницы все еще существуют, они могут ранжироваться и в этих местах. страна.

Вопросы 39:50 — У Google есть эта книга для вас, чтобы порадовать пользователей в разных нишах. Считаются ли они частью рейтинга или вы можете дать некоторое представление об этом?

Ответ 40:02. Итак, насколько я знаю, эти UX-игры выпускаются рекламной командой, и это больше вопрос, ну, это лучшие практики UX и хорошие вещи, которые можно делать на веб-сайте, а не то, что мы Скажем так, это влияет на ранжирование, но очевидно, что если вы сделаете хороший веб-сайт, который хорошо работает для пользователей, то косвенно вы, безусловно, сможете увидеть влияние на ранжирование. Но это не значит, что мы бы сказали посмотреть на эти UX-игры и использовать их как факторы для ранжирования.

Вопрос 40:38 - Каково влияние партнерских ссылок, когда они смешиваются с контентом, ориентированным на деликатные темы. Мы знаем, что агрессивная монетизация может быть проблематичной, особенно когда партнерские ссылки не раскрываются пользователям и когда акцент на монетизацию важнее, чем предоставление пользователям отличного контента, но мне интересно, как это будет работать для таких тем, как здоровье, медицина, финансы. так далее.?

Ответ 41:05 - Насколько я знаю, в целом это не так, мы явно не заходим на сайт и не говорим, что есть ссылки, которые выглядят как партнерские ссылки, поэтому мы будем рассматривать этот сайт как более низкокачественный. В целом, основные проблемы, которые я вижу в отношении партнерских веб-сайтов, заключаются в том, что они, как правило, являются веб-сайтами более низкого качества. Таким образом, дело не столько в том, где находится процесс оформления заказа, сколько в том, что в целом контент часто имеет низкое качество, и из-за низкого качества контента наши алгоритмы могут уловить это и сказать, что, вероятно, это не так. наиболее релевантный результат для отображения в результатах поиска, и могут быть действительно качественные партнерские веб-сайты, которые хороши. Так что дело не столько в том, есть партнерская ссылка или нет, сколько в том, как насчет остального сайта? Это то, что было бы уместно показать пользователям, или здесь есть что-то проблематичное? Я думаю, по крайней мере, насколько мне известно, это применимо ко всем направлениям, поэтому не имеет большого значения, какова конкретная тематическая область веб-сайта, но в целом есть несколько действительно хороших партнерских сайтов, а есть действительно ужасные. партнерские сайты. Так что вопрос в том, хорош сайт или ужасен?

Вопрос 42:35. Поскольку выборка и рендеринг устарели в старой поисковой консоли и заменены инструментом проверки URL, будет ли обновлен инструмент проверки UL, чтобы включить параллельное визуальное сравнение того, как Googlebot видит страницу, и как пользователь увидеть их?

Ответ 42:53 - Я не знаю, как и в случае с другим вопросом, мы стараемся не объявлять заранее, чтобы я не мог сказать что-то конкретное о том, что произойдет в будущем. Я также рад передать это команде для ознакомления с расстановкой приоритетов. С практической точки зрения я всегда чувствовал, что это сравнение в настоящее время менее полезно, потому что большинство сайтов довольно хорошо удостоверяются, что страница может быть отображена для поисковых систем. По крайней мере, те сайты, которые я просматривал, как правило, в этом плане хороши. Так что, в частности, в начале, когда сайты не были так привыкли к тому, что поисковые системы действительно пытались отобразить страницу, это было большой проблемой, но в настоящее время я не знаю, действительно ли это такая большая проблема, например, если javascript блокируется a robots.txt, такие вещи, которые, как мне кажется, значительно изменились за эти годы, но я рад заплатить, что они передаются команде, и они, вероятно, дважды проверят, действительно ли есть проблемы, которые нам нужны.

Вопрос 44:12. Может ли дезавуирование ссылок повысить рейтинг?

Ответ 44:17 - Боже мой, это такой большой вопрос. Таким образом, теоретически, если ваш веб-сайт будет понижен в должности с помощью ручного действия в отношении ссылок, которые вы купили или которые кто-то купил для вашего веб-сайта с течением времени. Может быть, предыдущее SEO, может быть, что-то, что было настроено до того, как вы обратились в эту компанию, а затем вы можете использовать инструмент отклонения, чтобы удалить эти ссылки из наших систем, а затем вы можете использовать форму запроса на пересмотр, чтобы сообщить нам об этом изменении. а затем команда по борьбе с веб-спамом вручную посмотрит и перепроверит, чтобы убедиться, что текущий статус в порядке. И если текущий статус чистый, они разрешат это ручное действие, и в целом ваш сайт снова сможет естественным образом ранжироваться. Таким образом, во многих случаях веб-сайт может немного подняться, а рейтинг в некоторых случаях также может быть связан с тем, что эти неестественные ссылки изначально неестественно поддерживали веб-сайт. Таким образом, удаление этих ссылок может привести к тому, что эта поддержка исчезнет, ​​что является своего рода естественным состоянием. Таким образом, я думаю, что более короткий ответ заключается в том, что здесь нет ни да, ни нет, поскольку отказ от ссылок действительно меняет то, что мы видим как ссылки на ваш сайт, и это может повлиять на ваш сайт положительно или отрицательно. Итак, моя рекомендация в отношении инструмента отклонения: используйте его, если у вас есть ручное действие в отношении ссылок, и вы не можете удалить эти ссылки, или если вы, просматривая свои ссылки, понимаете, о, это была сумасшедшая вещь, которую мы сделал, может быть, два года назад, и команда веб-спама этого не заметила, но, возможно, пришло время очистить наши действия и очистить это, тогда это то, где имеет смысл использовать инструмент отклонения. Я бы не стал просто случайно использовать это и сказать, что это странные ссылки, и я не хочу, чтобы с ними ассоциировались. Я надеюсь, что Google может лучше ранжировать мой веб-сайт, когда я удалю подобные, так что это вряд ли произойдет.

Вопрос 46:27 - Джон, могу ли я задать вопрос, основанный на дезавуациях здесь. Таким образом, иногда мы видим, я предполагаю, что, возможно, конкуренты, мы просто видим, что буквально одно место отправило 1,1 или 1,2 ссылки на нашу домашнюю страницу. Совершенно не по теме, сайт по ремонту инструментов из Ирландии, явно не имеющий ничего общего с тем, чем мы занимаемся. У меня нет инструментов или возможности дезавуировать все ссылки, лучше ли тогда дезавуировать сайт?

Ответ 47:01 - Конечно, вы можете это сделать. Да, это как раз то, для чего нужна запись домена в файле отклонения, таким образом, это как все эти миллионы или тысячи ссылок, вы можете просто сказать все с этого сайта, я просто не имею ничего общего с этим. Обычно в таких случаях, когда вы видите эту совершенно случайную ссылку на сайт, происходит то, что сайт, вероятно, был взломан, и по какой-то причине кто-то решил удалить все эти ссылки при взломе веб-сайта, и обычно мы довольно хорошо это улавливаем. и пытаемся сохранить состояние до того, как они взломают наши системы. Так что, вероятно, мы уже игнорируем эти ссылки, возможно, что, возможно, или даже индексируем веб-сайт раньше, а не с взломанным контентом. Так что обычно я не слишком беспокоюсь об этом, потому что такие взломы очень распространены, и у нас есть немного практики, чтобы справиться с этим. Но если вы беспокоитесь об этом, вы знаете, что это похоже на настоящее безумие, и я думаю, что ссылки на ремонт инструментов, вероятно, не то, где вы говорите, о, это убьет мой веб-сайт, если я связан со скрипками, может быть, контент для взрослых — это то, к чему вы были бы более осторожны, тогда я бы просто использовал файл отклонения, отправьте это, и вы уверены, что это не принимается во внимание.

Вопрос 48:44. Два быстрых вопроса относительно этого URL-адреса. Это URL-адрес категории для веб-сайта электронной коммерции, который имеет своего рода параметр просмотра всех, в основном наша проблема заключается в том, что URL-адрес имеет каноническую версию без параметра. Он связан с версией без параметра по всему веб-сайту, он находится в карте сайта без параметра, но каким-то образом Google решает, что это не каноническая версия, и все наши сигналы указывают на другую версию, и я не думаю, что это действует так сильно, но Я не понимаю, почему Google не выбирает нашу версию, когда все наши сигналы указывают в одном направлении?

Вопрос 48:24 - Не знаю, навскидку сложно сказать. Поэтому я думаю, что нужно иметь в виду, что это индексация для мобильных устройств. Так что, возможно, мобильная версия немного отличается, может быть, там есть канонический rel, может быть, есть что-то с JavaScript, что меняет канонический rel, я не знаю, но об этом всегда нужно помнить. Поэтому, когда вы тестируете его в браузере и убедитесь, что вы дважды проверяете мобильное представление, но, как и другие вопросы ранее, также возможно, что по каким-то другим причинам мы решаем, что хорошо, на самом деле это чище версия.

Вопрос 50:33 - Если на него нет ссылок, и вы знаете, что внутренние ссылки не указывают на него. Это не карта сайта, и при проверке URL-адреса Google действительно видит правильный канонический, который мы сказали, это просто выбранный Google канонический, это все еще тот, который мы пометили. Поэтому я не знаю, будет ли это иметь какой-либо эффект, я просто беспокоюсь, что мы можем что-то упустить, что может повлиять и на другие страницы.

Ответ 51:11 - Да, я не знаю, я должен посмотреть. В целом, если это один и тот же контент, то рейтинг будет таким же. Так что не факт, что там что-то изменится. Я не знаю, было бы особенно полезно подкупить меня средствами по уходу за волосами, но я не знаю. Итак, я имею в виду, что это ситуация, когда у вас есть своего рода страница просмотра всех и другая версия страницы, где мы можем получить некоторые сигналы, говорящие о том, что это версия просмотра всех, которую мы должны сохранить. этот вместо другого, потому что он может быть разбит на страницы или что-то в этом роде, но да, я не знаю, и мне придется копаться в этом. Еще одна вещь, которую, возможно, стоит упомянуть, это то, что мы хотели бы составить некоторый документ, касающийся лучших практик в отношении сайтов электронной коммерции в целом. Так что, если вы сталкиваетесь с такими странными вещами, как это, которые мы хорошо используем с сайтами электронной коммерции, у вас часто есть эти страницы категорий с тоннами контента, нумерацией страниц, фильтрацией и просмотром, все вещи довольно сложны, тогда это то, где я хотел бы получить обратную связь. Так что, может быть, примеры, может быть, просто общие вопросы, касающиеся сайтов электронной коммерции, все это было бы действительно полезно иметь. В идеале, может быть, отправить их через Twitter, чтобы я мог собрать их там. Я начал твит об этом, и, надеюсь, мы сможем что-то объединить с некоторыми, я думаю, передовой опыт в отношении сайтов электронной коммерции о том, как вы можете убедиться, что индексирование и сканирование работает идеально.