19 марта 2019 г. – Google Help Hangout Notes
Опубликовано: 2019-03-28В этой видеовстрече для веб-мастеров Джон Мюллер ответил на несколько важных вопросов. Вот те, которые, по нашему мнению, будут наиболее полезными.
В настоящее время я занимаюсь ребрендингом и переносом сегмента нашего сайта на новый домен. В настоящее время они занимают хорошие позиции. Будет ли Google относиться к этому контенту так же, как и раньше, или к нему будут относиться по-другому?
0:34

Вы определенно можете сделать это и на новом домене. В общем, что произойдет, если вы разделите свой веб-сайт на отдельные части, так это то, что нам придется рассматривать эти части по отдельности. Таким образом, нам пришлось бы переоценить эти страницы в виде постраничных страниц. Таким образом, вы определенно можете ранжироваться так, но это не тот случай, когда вы можете сказать, что вы будете ранжироваться точно так же, как раньше, потому что это будет другая ситуация - у вас будет другая настройка веб-сайта.
Резюме: содержимое находится в другом контексте и будет переоцениваться для каждой страницы отдельно. Вы можете снова занимать хорошие позиции, но возможно, что ваши позиции уже не такие, как в прошлом.
Связано ли обновление основного алгоритма от 12 марта с обновлением от 1 августа?
20:20

Я не знаю, как это будет связано с обновлениями в августе. Я имею в виду, что в целом, когда мы делаем обновления алгоритма, мы пытаемся работать с одним состоянием и работать над новым состоянием, и иногда мы улучшаем то, что, как мы понимаем, возможно, алгоритм зашел слишком далеко, а иногда мы улучшаем то, что мы распознаем. алгоритм не зашел достаточно далеко. Так что такого рода изменения алгоритмов, я думаю, совершенно нормальны, если речь идет об обновлениях алгоритмов в целом.
Резюме : Алгоритмические Изменения такого рода совершенно нормальны. Иногда Google пытается что-то изменить, чтобы улучшить результаты поиска. Но эти двое не связаны.
Мы начали ранжирование по несвязанным терминам и фармацевтическим препаратам. Мы считаем, что нас взломали. Можно ли как-то проверить, правда ли это?
27:22

Итак, я подозреваю, что, возможно, вас все-таки взломали, поэтому я не знаю ваш веб-сайт, но обычно это не то, что происходит случайно, когда веб-сайт начинает ранжироваться по фармацевтическим терминам, а, возможно, он был взломан таким образом, что это не так. совершенно очевидно из себя. Итак, что вы можете сделать, это зайти в консоль поиска и в разделе аналитики поиска, проверить страницы, которые были ранжированы для них, и использовать инструмент проверки URL, опцию живой выборки, чтобы проверить, как эта страница выглядит, когда Googlebot просматривает эти страницы, и иногда мы можем видеть в визуальной части, иногда в HTML вы можете увидеть, что на самом деле кто-то добавил кучу фармацевтических ссылок на эти страницы, и это своего рода признак того, что, возможно, на этих страницах есть что-то, что было взломано. Иногда это также что-то, что немного задерживается, когда веб-сайт был взломан в прошлом, и вы устранили взлом. Так что это своего рода направления, которые я бы посмотрел там, я бы не стал предполагать, что обычный веб-сайт просто внезапно ранжируется по фармацевтическим терминам без какой-либо причины. Так что обычно за этим что-то стоит.
Резюме : в Search Console в разделе Search Analytics вы можете увидеть, какие страницы ранжируются, и если вы используете инструмент проверки URL, вы можете проверить HTML и увидеть, есть ли добавленные ссылки, это может быть признаком того, что эти страницы взломан. Они могут остаться после очистки.
При отклонении обратных ссылок, помимо отклонения самой спам-обратной ссылки, нужно ли нам отклонять все другие URL-адреса, с которых она связана?
30:45

Нет, поэтому, если вы являетесь проблемной ссылкой, эта ссылка не будет учитываться. Если вы считаете, что весь веб-сайт, все переходы на ваш веб-сайт с чужого веб-сайта проблематичны, тогда вы дезавуируете весь домен. Это самый простой способ охватить там свои базы, но вам не нужно следовать по цепочке ко всем другим ссылкам, указывающим на эту страницу с плохой ссылкой. Очень часто вам нужно отклонить только одну ссылку. И часто вам действительно не нужно дезавуировать что-то, если это не тот случай, когда у вас есть ручное действие или вы смотрите на свои ссылки и говорите, ну, Google собирается дать мне ручное действие на следующей неделе, потому что это выглядит так плохо, то обычно вам вообще не нужно использовать инструмент дезавуирования.
Резюме : вам нужно беспокоиться только об отклонении неестественных ссылок с сайтов, которые ссылаются на вас.
У нас есть веб-сайт, который динамически создает страницы. Если пользователь ищет программистов в Оксфорде, у нас есть база данных, которая создает страницу, которая извлекает информацию о программистах, извлекает информацию об Оксфорде и объединяет их. Есть ли у вас какие-либо рекомендации по сайту, созданному таким образом?
38:56

Я бы немного беспокоился о настройке, которая у вас есть. Так что это звучит очень похоже на то, что вы просто берете много кусков из базы данных и просто автоматически создаете комбинации этих страниц, и мне кажется, что многие из этих вариантов могут быть очень тонкими, очень низкого качества и что, возможно, вы не у вас нет большого количества контента для этих вариантов, и вы быстро столкнетесь с ситуацией, когда вы создаете тысячи страниц со всеми этими комбинациями, а фактическое количество контента там очень мало. Итак, что может произойти со стороны Google, так это то, что мы идем, сканируем и индексируем все эти страницы, и мы думаем, что здесь так много всего, что мы можем подобрать все это, но на втором этапе, когда мы смотрим на подробности были такие, на самом деле здесь не так много действительно полезной информации, особенно если вы также берете на себя работу, возможно, из существующих каналов с других веб-сайтов. Затем то, что мы видим, представляет собой, по сути, просто смесь какой-то информации о городе, некоторой информации о ролях, списков вакансий, которые мы уже захватили где-то еще, и мы как бы смотрим на это в целом и говорим, например, какова дополнительная ценность наличия вашей страницы. проиндексировано в дополнение к вещам, которые мы уже проиндексировали обо всех этих комбинациях, и это, я думаю, сложная часть, и именно здесь вам нужно вскочить и сказать, на самом деле, возможно, то, как я сочетаю вещи, полностью отличается от всего еще. Эти страницы очень ценны тем, что когда люди заходят на эти страницы, они ясно видят, что это не просто комбинация существующих каналов, но на самом деле здесь есть что-то действительно фантастическое, чего до сих пор никто не запечатлел.
Резюме : Будьте осторожны, если ваш сайт построен таким образом. Когда Google индексирует эти страницы, они в конечном итоге собирают небольшие фрагменты вашей информации. В этом примере Google увидит небольшую информацию о городе и описание работы. Тогда бы это было видно по всему вашему сайту. Это может быть расценено как малосодержательный контент, и он может не индексировать его, поскольку он не имеет дополнительной ценности для пользователей.
Если вам нравятся такие вещи, вам понравится мой информационный бюллетень!
Моя команда и я каждую неделю сообщаем о последних обновлениях алгоритма Google, новостях и советах по SEO.
Успех!! Теперь проверьте свою электронную почту, чтобы подтвердить подписку на новостную рассылку обновлений Google.
Q 0:34 Вопрос о ребрендинге и переносе сайта. Да, вы хотите, чтобы они снова задали тот же вопрос? Итак, вопрос в том, что мы хотим перенести сегмент или часть нашего веб-сайта. Скажем, 100-102 страницы, на новый домен для целей ребрендинга. Прямо сейчас у нас хороший рейтинг для этих сегментов, но хорошо, сможем ли мы хорошо ранжироваться для этих сегментов в новом домене, или он рассматривается как независимый или отдельный бизнес/веб-сайт, как Google.
О 1:09 Вы определенно можете сделать это и на новом домене. В общем, что произойдет, если вы разделите свой веб-сайт на отдельные части, так это то, что нам придется смотреть на эти части по отдельности. Таким образом, нам пришлось бы переоценить эти страницы в виде постраничных страниц. Таким образом, вы определенно можете ранжироваться так, но это не тот случай, когда вы можете сказать, что вы будете ранжироваться точно так же, как раньше, потому что это будет другая ситуация - у вас будет другая настройка веб-сайта.
Q 1:54 Раньше, когда мы использовали GSC, была опция «целевая страница». Когда мы вытягивали URL-адрес этой целевой страницы, мы могли видеть, по какому ключевому слову они ранжируются. Есть ли альтернатива этому сейчас?
О 2:14 Итак, вы видите, какие ключевые слова ранжируются по каким запросам? Это должно быть в разделе поисковой аналитики. Это не должно быть проблемой.
Q 2:35 В точном представлении для того предыдущего [пути] мы могли видеть, какая целевая страница в поисковой консоли.
О 2:45 Итак, посмотрите, какая целевая страница будет показана?
Q 2:52 Эээ, вы можете мне это узнать?
О 2:52 Да, потому что в новом GSC функция аналитики поиска очень похожа на функцию аналитики поиска в старой консоли поиска. Таким образом, вы должны иметь возможность видеть целевые страницы, клики, запросы и показы, позицию....
В 3:18 Да, но теперь я могу видеть только информацию о своих веб-сайтах, которую я отправил в консоль поиска Google. Принимая во внимание, что раньше я мог видеть информацию о любых ключевых словах веб-сайтов, по которым этот веб-сайт ранжировался.
О 3:23 Нет, нет, насколько мне известно, этого не было в консоли поиска. Так, может быть, вы смотрели?...
В 3:32 Нет, потому что я все еще нашел одну учетную запись, для которой она все еще работает. я покажу тебе это
О 3:37 Хорошо, потому что вам действительно нужно проверить сайт, чтобы мы могли показать вам данные в консоли поиска. Таким образом, вы не сможете увидеть данные о кликах и показах для стороннего веб-сайта, который вы не подтвердили.
Вопрос 3:54 Но раньше я видел, что там
О 5:56 Не в Search Console… Да, этого не должно быть в Search Console, и этого не должно быть в Search Console.
В 4:15 Хорошо, еще один вопрос: есть ли какие-нибудь рекомендации по нумерации страниц и цитированию?
Разбивка на страницы 4:17, у нас есть много рекомендаций по разбивке на страницы! В справочном центре есть статья о нумерации страниц. Eсть…
Q 4:30 Вы можете разместить здесь ссылку?
A 4:30 Конечно, это должна быть просто нумерация страниц. Да, это называется «указание постраничного контента в Google». О, отлично - Барри опубликовал это. Прохладный.
В 4:57 Привет, Джон, окей, в новой поисковой консоли я увидел вкладку ссылок. У меня была проблема в последние несколько месяцев, когда был сайт-клон... Он создал много обратных ссылок, потому что этот сайт-клон использовал все мои сайты и относительные ссылки, создавая лайки, все новости, создавая ссылки. Итак, на самом деле у меня есть сайты с основными ссылками, которые остаются, даже если я отклоняю этот домен, он все равно говорит, что у меня 986 000 ссылок. Второй - 69000. Итак, как вы можете видеть, это в десять раз больше обычных обратных ссылок для сайта по сравнению со вторым. Так что я дезавуировал, и это, наверное, должно было сработать, но также я вижу во вкладке ссылки, что есть еще одна таблица, которая показывает якорь «лучшие пляжные тела». Итак, вот в чем вопрос, эта таблица изменена из-за этих обратных ссылок, может ли это повлиять на мой поисковый рейтинг? Я могу видеть себя, если я ищу тот якорь, что я нахожусь на первой позиции.
О 7:58 Так что я не думаю, что это будет проблемой, одной из запутанных частей может быть количество ссылок, которые мы там показываем. Вероятно, это просто признак того, что это ссылка на весь сайт с веб-сайта. Так что кажется, что много ссылок, но на самом деле это только с одного сайта, так что на самом деле это не проблема. Кроме того, если вы отклоните эти ссылки, мы не примем их во внимание. Так что это довольно легко сделать, просто откажитесь от домена. Чего не будет, так это того, что ссылки не исчезнут [из GSC] из-за дезавуирования. Таким образом, в инструменте ссылок мы показываем все ссылки на ваш сайт, даже те, которые мы игнорируем. Таким образом, если вы отклоните эти ссылки, они не исчезнут из GSC. (а также якоря)
Заметки по компакт-диску (10-20 мин)
В 09:30 — [обобщенный вопрос] для сайта, который транслирует видео и размещает видео по запросу, есть ли что-нибудь, кроме схемы, которая помогла бы ему лучше отображаться в поисковой выдаче? Кроме того, какие виды оптимизации можно выполнить для видео, чтобы получить избранный фрагмент?
A 11:58 - «Я не знаю точно из-за потоковой передачи, я думаю, что это то, чем я особо не интересовался. Но в целом, я думаю, первое, что вы хотели бы перепроверить, это сторона индексации, например, можем ли мы действительно индексировать страницы и контент — видеоконтент, с одной стороны, потоки, с другой стороны — это похоже, это не проблема, что мы можем показывать эти видео в поиске… это правильно? [Спрашивающий отвечает «да»] Итак, я думаю, что базовая основа уже заложена, это хорошо, так что мы можем подобрать контент, мы можем проиндексировать видео, это своего рода основа. Для структурированных данных в целом, я думаю, вы хотели бы различать потоки и записанный контент. Это одна вещь, которую было бы очень важно прояснить в отношении структурированных данных. Так что, когда вы отправляете видео, записанный контент, который доступен, например, в любое время, это то, где вы можете использовать для этого обычную видеоразметку. Или вы также можете использовать файлы Sitemap для видео, чтобы рассказать нам больше об этих видео. Например, если видеоконтент доступен только в определенных странах, вы можете сообщить нам об этом в карте сайта для видео. Что касается потоков, то здесь я не совсем уверен, какой правильный подход. Я считаю, что есть также API индексирования, который вы могли бы использовать для видео, для контента в прямом эфире — я не уверен на 100%, вы можете дважды проверить это. Но в любом случае вы действительно хотите отличить записанный контент от контента прямой трансляции, относиться к ним по-разному и убедиться, что они размечены отдельно по-своему. Что касается избранных фрагментов, я не думаю, что мы показываем прямые трансляции в избранных фрагментах. Я думаю, насколько я знаю, вид видео-превью, который мы показываем в коробках с видео, больше подходит для записанного контента. Я не думаю, что мы будем показывать там стримы, но если у вас есть запись, это будет приемлемо. [Спрашивающий вмешивается, чтобы повторить вторую часть своего вопроса, есть ли что-нибудь еще, кроме разметки схемы, чтобы их видео извлекались для избранного фрагмента] . После этого ничего особенного делать не нужно. Если мы можем выбрать видеоконтент и показать его для результатов поиска видео, например, если вы перейдете в режим видео и выполните поиск, если мы сможем показать миниатюру видео, это означает, что у нас есть все детали, которые нам нужны для видеоконтент. Важно то, что мы можем сканировать и индексировать миниатюру, чтобы у вас была миниатюра, не заблокированная robots.txt, и чтобы видеофайл, на который вы ссылаетесь, также индексировался».
Q 15:41 (это все тот же парень, что и выше, я снова перефразирую): есть таблица, показывающая результаты матчей, которая является частью избранных сниппетов. Откуда они?
A 16:23: «Я не знаю никаких ярлыков, это просто обычный поисковый рейтинг. Для большого количества такого контента, если мы можем отобразить его в табличной форме, то, очевидно, наличие такого контента в виде таблицы на странице в HTML очень помогает».
Вопрос 17:14: [Барри задает технический вопрос по SEO] Итак, у вас есть URL-адрес, и в URL-адресе есть параметр, указывающий, откуда вы нажали — что я не рекомендую, но на этом веб-сайте он есть — как и у них. параметр, который показывает, что вы можете из «Раздел A» или «Раздел B», отображаемый в URL-адресе. У них также есть, например, page=1 набора rel=next/rel=prev. Должны ли они сохранить параметр section в URL-адресе, а также rel=next/rel=prev? Я думаю, что имеет смысл использовать rel=canonical… вы можете использовать canonical и rel=next/prev одновременно, верно? [Джон говорит «да»] … значит, rel=canonical для основного URL без параметра section, а затем rel=next/rel=prev должен просто исключить параметр section? [Джон говорит «да»].
A 18:08: «Я думаю, что в любое время вы можете упростить его, чтобы у вас было меньше URL-адресов, ведущих к одному и тому же контенту, тогда я бы выбрал именно этот подход. [Барри добавляет, что его подход номер один заключался в том, чтобы удалить параметры раздела, но они сказали, что не могут сделать это для целей отслеживания] Да, иногда у вас есть эти вещи для отслеживания, так что вам приходится иметь дело с тем, что у вас есть. . Иногда вы можете переместить его во фрагмент вместо обычного параметра запроса, что обычно означает, что мы отбросим его для индексации [Барри говорит: «Я тоже это предлагал, но они отказались, так что конец»].
Вопрос 19:09 Поскольку Google подтвердил, что ни одно из основных обновлений не соответствует ни одному из обновлений нейронного сопоставления, можно ли с уверенностью сказать, что сайты действительно должны стремиться к улучшению качества и релевантности в долгосрочной перспективе, когда дело доходит до этих широкие обновления ядра?
A 19:24: «Я думаю, это можно с уверенностью сказать, независимо от каких-либо обновлений, верно? Мол, всегда стоит что-то улучшать. Я понятия не имею, что вы имеете в виду под обновлениями нейронного сопоставления, это звучит как что-то «машинное обучение» [машет руками], что кто-то пытается вытащить и отделить. Мы используем машинное обучение во многих частях нашей инфраструктуры, поэтому использовать его как что-то конкретное иногда скорее искусственно, чем действительно полезно.

Q 20:04: После обновления базового алгоритма от 12 марта было много других сайтов, на которых положительное движение сильно упало во время предыдущего обновления. Было ли какое-то смягчение после того, что вышло в августе?
А 20:20: «Не знаю, как это будет связано с августовскими обновлениями. Я имею в виду, что в целом, когда мы делаем обновления алгоритма, мы пытаемся работать с одним состоянием и работать над новым состоянием, и иногда мы улучшаем то, что, как мы понимаем, возможно, алгоритм зашел слишком далеко, а иногда мы улучшаем то, что мы распознаем. алгоритм не зашел достаточно далеко. Так что такого рода алгоритмические изменения, я думаю, совершенно нормальны, если просто обновлять алгоритмы в целом».
Вопрос 20:51: Etag или if-modified-since, какой из следующих HTTP-заголовков вы бы рекомендовали использовать для оптимизации бюджета сканирования и почему?
A21:03: «Итак, я думаю, что это две разные вещи. Например, if-modified-since — это заголовок, который мы отправляем с запросом, а Etag — это то, что отправляется с ответом, так что я имею в виду, что, очевидно, есть совпадение в том, что if-modified-since как бы основан на дате и Etag представляет собой своего рода систему типов IDE, в целом они оба работают. Мы пытаемся использовать их, когда дело доходит до сканирования, но мы не используем их постоянно, поэтому понимаем, что многие сайты либо не реализуют их, либо реализовали неправильно, так что это не полностью меняет способ мы сканируем сайт. Это немного помогает нам, но по большей части сайтам не нужно беспокоиться об этом уровне, когда дело доходит до сканирования. Когда дело доходит до пользователей, такого рода оптимизации могут иметь большое значение, особенно для пользователей, которые регулярно возвращаются, они смогут повторно использовать CSS или JavaScript и тому подобное».
Q 22:20: Недавний пост в центральном блоге для веб-мастеров о датах, Google сказал, что будьте последовательны в использовании, у меня есть клиент, который хочет показать «иерархическую дату» (возможно, иерархию) — я, вероятно, говорю это неправильно — поскольку дата публикации на страницах статьи. Можно ли показать это в отдельных частях и использовать григорианские и структурированные данные?
A 22:35: «Да, вы можете сделать это. Различные форматы - это меньшая проблема, и данные инфраструктуры, которые нам определенно нужны, чтобы иметь даты Google Rhian, поэтому вам нужно указать их с легкостью, о, что это, Пит 601, я не совсем уверен, какой код языка мы указали там. Вам нужно использовать этот код, чтобы указать дату и время, в идеале, также с часовыми поясами, чтобы у нас было это правильно. Но если в визуальной части страницы вы хотите использовать свой локальный формат даты, это нормально. Это то, что мы также должны понять и усвоить».
Вопрос 23:15: Мы — новый бизнес, который помогает компаниям работать с агентствами по темпераменту по всей Великобритании. Когда мы начинали, мы динамически создавали страницы для комбинаций местоположений и должностей, и из-за ошибки мы создали 13 страниц для каждой комбинации. Мы пытаемся удалить все это с помощью метатега noindex, но они все еще там. Что мы можем сделать, чтобы исправить это?
A 23:43: «В общем, метатег noindex здесь правильный подход. Это означает, что когда мы повторно сканируем эти страницы, мы удаляем их из нашего индекса. Это идеально подходит для чего-то вроде этого. Что вы можете сделать, если считаете, что вам нужно удалить их быстрее, так это либо использовать инструменты удаления URL-адресов, если у вас есть чистый подкаталог, который вы можете удалить, либо вы используете файл карты сайта, чтобы сообщить нам, что эти URL-адреса недавно изменились с помощью новую дату последнего изменения, а затем мы попробуем просканировать их немного быстрее. Однако в целом, особенно если это большой веб-сайт, иногда нам требуются недели и месяцы, чтобы повторно просканировать все, особенно если мы отключились, просканировали и проиндексировали какой-то неясный аспект вашего веб-сайта, тогда, вероятно, это URL-адреса, которые мы не расписание для частого сканирования, так что, вероятно, это может занять полгода или около того, чтобы полностью выпасть. На практике это не должно быть большой проблемой, потому что мы можем распознать, на каких URL-адресах вы хотите сосредоточиться, и мы сосредоточимся в основном на них, поэтому эти старые будут проиндексированы на некоторое время, пока вы не сможете их обработать и удалить. их, но они не должны влиять на индексацию остальной части вашего сайта».
В 25:04: У меня есть несколько клиентов, у которых локальная панель знаний активируется небрендовыми терминами. Знаете ли вы, какие сигналы могут повлиять на это?
А 25:13: «Понятия не имею. Таким образом, это относится к общему местному бизнесу, результатам Google My Business. Так что я действительно не знаю, что может вызвать это. Вероятно, что-то со списком на веб-сайте, но я имею в виду, что я просто догадываюсь, вероятно, как вы бы догадались. Я бы порекомендовал посетить справочный форум Google My Business и узнать, что там говорят другие эксперты».
Вопрос 25:47: Отличается ли поиск изображений от поиска в Интернете? Я заблокировал изображение с помощью запрещенного изображения Googlebot. Значит ли это, что Googlebot по умолчанию также не будет сканировать изображение и не будет отображаться в веб-поиске?
A 25:59: «Значит, да, это другое. Мне нравится, как вы упомянули, что у нас разные директивы для разных мест. Если вы заблокируете и изображение для изображения Googlebot, мы не будем показывать его в поиске изображений, и мы также не используем его для веб-поиска в виде универсальных результатов, потому что универсальные результаты фильтруются по тому, насколько они подходят для изображения. Поиск изображений Google. полученные результаты. Поэтому, если это изображение заблокировано, мы, по сути, не будем его использовать. Это не будет проблемой для ваших обычных веб-результатов, поэтому это не тот случай, когда у нас есть веб-страница и мы индексируем ее для веб-поиска, нам нужно, чтобы все эти изображения были доступны для веб-поиска, потому что мы делаем что-то необычное или что-то в этом роде. вокруг этого с изображениями, но на самом деле это просто вопрос, как будто мы не можем сканировать эти изображения, поэтому мы не можем показывать их в поиске изображений, у вас нет никаких положительных или отрицательных побочных эффектов изображения, недоступные в обычном Интернете поиск. Итак, для обычного поиска текстового типа».
Вопрос 27:05: Мы начали ранжировать по несвязанным ингредиентам, которые мы не продаем и не имеем содержания, например, для фармацевтических препаратов. Мы не были взломаны, у нас нет входящего анкорного текста с этими терминами. Является ли это проблемой, и если да, то что я могу проверить?
A 27:22: «Итак, я подозреваю, что, возможно, вас все-таки взломали, поэтому я не знаю ваш веб-сайт, но обычно это не то, что случайно происходит, когда веб-сайт начинает ранжироваться по фармацевтическим терминам, а, возможно, он был взломан. способом, который не совсем очевиден для вас самих. Итак, что вы можете сделать, это зайти в консоль поиска и в разделе аналитики поиска, проверить страницы, которые были ранжированы для них, и использовать инструмент проверки URL, опцию живой выборки, чтобы проверить, как эта страница выглядит, когда Googlebot просматривает эти страницы, и иногда мы можем видеть в визуальной части, иногда в HTML вы можете увидеть, что на самом деле кто-то добавил кучу фармацевтических ссылок на эти страницы, и это своего рода признак того, что, возможно, на этих страницах есть что-то, что было взломано. Иногда это также что-то, что немного задерживается, когда веб-сайт был взломан в прошлом, и вы устранили взлом. Так что это своего рода направления, которые я бы посмотрел там, я бы не стал предполагать, что обычный веб-сайт просто внезапно ранжируется по фармацевтическим терминам без какой-либо причины. Так что обычно за этим что-то стоит».
Резюме: в Search Console в разделе Search Analytics вы можете увидеть, какие страницы ранжируются, и если вы используете инструмент проверки URL, вы можете проверить HTML и посмотреть, есть ли добавленные ссылки, это может быть признаком того, что эти страницы взломан. Они могут остаться после очистки.
Вопрос 28:41: Говоря об этом предыдущем планировщике ключевых слов, вы видите, когда я нажимаю -- [Джон:] это инструмент Adwords. [Вопрос]: Спрошу в новой инфраструктуре такой опции нет. Есть ли альтернатива этому?
А 29:16: «Я не знаю. Итак, это планировщик ключевых слов Adwords, так что я не знаю, каковы планы со стороны Adwords. Это не то, что связано с Search Console. На самом деле это чисто рекламная команда».
В 30:45 При дезавуировании обратных ссылок, помимо дезавуирования самой спам-обратной ссылки, нужно ли нам дезавуировать все другие URL-адреса, с которых на нее ссылаются?
A 30:55 Нет, поэтому если вы являетесь проблемной ссылкой, то эта ссылка не будет учитываться. Если вы считаете, что весь веб-сайт, все переходы на ваш веб-сайт с чужого веб-сайта проблематичны, тогда вы дезавуируете весь домен. Это самый простой способ охватить там свои базы, но вам не нужно следовать по цепочке ко всем другим ссылкам, указывающим на эту страницу с плохой ссылкой. Очень часто вам нужно отклонить только одну ссылку. И часто вам действительно не нужно дезавуировать что-то, если это не тот случай, когда у вас есть ручное действие или вы смотрите на свои ссылки и говорите, ну, Google собирается дать мне ручное действие на следующей неделе, потому что это выглядит так плохо, то обычно вам вообще не нужно использовать инструмент дезавуирования.
Наше примечание: Google действительно хорошо анализирует и находит спам-ссылки и игнорирует их. Самое главное, на что следует обратить внимание, — это наличие неестественных ссылок, созданных в целях SEO.
В 31:45 Как Google обрабатывает обратные ссылки с веб-сайтов анализа веб-сайтов или профилей пользователей или созданного пользователями контента, автоматически созданных контентных сайтов?
A 32:00 По большей части мы игнорируем их, потому что они ссылаются на все, и их легко распознать, поэтому мы по существу их игнорируем.
В 32:10 Наш бизнес связан с разработкой программного обеспечения и услугами DevOps. У нас есть отдельная страница для услуг, которые мы предоставляем, и страницы блога. Статьи в блоге имеют самые разные темы: от того, как нанять хорошую команду программистов, до борьбы с прокрастинацией и роли женщин в бизнесе. Меня беспокоит, что такой широкий спектр тем может размыть общие темы нашего веб-сайта, и в результате может быть сложно ранжироваться по нашим транзакционным ключевым словам, которые продают наши услуги. Это проблема?
A 32:50 Нет, я не думаю, что это будет проблемой. Я думаю, что смутно все это связано. На чем я хотел бы сосредоточиться больше, так это на том, что если люди заходят на эти страницы, и вы не имеете абсолютно никакой ценности от этих пользователей, посещающих эти страницы, то, возможно, это не очень хорошее совпадение с точки зрения бизнеса.
Q 33:45 Вопрос о расширенных сниппетах: Наша компания и наши предложения базируются в Швейцарии, в нашем случае мы часто видим веб-сайты из Германии с ценами в евро. С моей точки зрения, это не очень полезно, можем ли мы использовать структурированные данные для отображения вместо этих других веб-сайтов?
О 34:15 Как человек в Швейцарии, я согласен, что иногда просмотр большого количества сайтов из Германии не очень полезен. Но по сути, если у нас нет хорошего местного контента и если мы не можем сказать, что используем его для поиска чего-то с местной точки зрения, нам трудно сказать, что эти страницы не должны отображаться в результатах поиска. . Так, например, если мы можем понять, что пользователь действительно ищет что-то локальное, и у нас есть некоторый локальный контент, мы постараемся показать это. Но если они не могут сказать, и они ищут информацию по определенной теме, то, возможно, нам следует просто показать информацию по этой теме, независимо от того, относится ли она к Германии, Швейцарии или другой стране. Так что это не то, что вы можете четко указать, это структурированные данные. Что вы можете сделать, так это использовать разметку Hreflang, если у вас есть версия для нескольких языков и стран, вы можете указать это для использования, а также вы можете использовать геотаргетинг, представленный в консоли поиска, чтобы сообщить нам, что ваш веб-сайт специально ориентирован на Германию или, более конкретно, ориентирован на Германию. Швейцария, и мы учтем это, когда поймем, что пользователь ищет что-то местное.
Q 35:50 Я вижу тревожное количество сетей ссылок и гнусных схем построения ссылок, используемых вейп-компаниями. Я сообщил об этом, как было предложено, но можем ли мы сделать что-нибудь еще?
A 36:00 Итак, сообщите о них в консоли поиска, форма отчета о спаме, это хорошее место. Это помогает нам лучше понять, что эти страницы нам нужно проверить с точки зрения ручного веб-спама. Никогда не гарантируется, что мы полностью отбросим эти страницы. Итак, когда дело доходит до конкурентных областей, мы часто видим, что веб-сайты делают что-то очень хорошо, а что-то очень плохо, и мы пытаемся составить общую картину и использовать ее для общего рейтинга. Например, может случиться так, что один сайт использует наполнение ключевыми словами действительно ужасным образом, но бизнес на самом деле действительно фантастический, и людям действительно нравится туда ходить, им нравится находить его в поиске, у нас есть много действительно хороших сигналов для этого сайта, поэтому мы может по-прежнему показывать их на первом месте, даже если мы понимаем, что они наполняются ключевыми словами. Во многих случаях наши алгоритмы будут распознавать такие «плохие состояния» и пытаться их игнорировать. Таким образом, мы делаем это специально в отношении ссылок, а также наполнения ключевыми словами, а также некоторых других методов, где, если мы можем распознать, что они делают что-то действительно странное со ссылками или наполнением ключевых слов, тогда мы можем как бы проигнорировать это и просто сосредоточиться на хороших частях, где у нас есть разумные сигналы, которые мы можем использовать для ранжирования. Итак, что здесь может происходить, я не смотрел на эти сайты или конкретно на то, о чем сообщалось, но что могло произойти, так это то, что они делают действительно ужасные вещи для построения ссылок, которые мы игнорируем большую часть этого, и они делают что-то довольно хорошо на стороны, и на основе того, что они делают довольно хорошо, мы пытаемся ранжировать их соответствующим образом в результатах поиска. Это немного расстраивает, когда вы смотрите на это и говорите, что я все делаю правильно, и почему эти ребята ранжируются выше меня, с другой стороны, мы пытаемся взглянуть на более широкую картину и попытаться немного лучше понять релевантность. И иногда это работает и в вашу пользу, потому что, возможно, вы сделаете что-то действительно ужасное на своем веб-сайте, и алгоритмы Google увидят это и скажут: «О, это похоже на ошибку, может быть, мы можем просто проигнорировать это и сосредоточиться на good parts of the website and not remove that site completely from search because they found some bad advice online'.
Q 38:56 - We help companies find recruitment agencies to work with and broadly what we have on our site is it dynamically creates pages for combinations of jobs and locations. So you might type in a programmer in Oxford and it'll show you a page saying program in Oxford. And so I had these dynamic pages created and I put them into the search engine and when I first did this I saw a real uptick in volume coming from search because previously I've been relying on paid clicks. Then we made this mistake where we had every single link had 13 different pages and I've tried to get them out. What's happened as I seem like you know my impressions just go down over time to zero and literally the only thing I'm coming up for is my brand name. I went to the old version a search console and said can you ignore these web links for me and it still hasn't made any difference. I still seem to be having nothing coming in and I'm kind of very nervous about what you said, saying it could take months for this to come through, because as a start-up I know it's not Google's business but it's very hard for me to get traffic in. Is there anything could be doing?
The second part of this question, the way I do my pages is I have in my database I have a little bit written about a role and a little bit written about a town and I combine them together on a page to say, here are programmers in Oxford. So a programmer or job spec will say these things and you should pay, this amount of money for a programmer, and about employment in Oxford. But of course, the piece about Oxford is repeated on every single job role and then the piece about programmers is repeated on every single location. Does that mean those pages will get deranked?
A 40:52- I would be kind of worried about the setup that you have there. So that sounds a lot like you're just taking a lot of chunks from the database and just automatically generating combinations of those pages and it feels to me that a lot of these variations could be very thin, very low quality and that maybe you don't have a lot of content for those variations and you quickly run into the situation where you create thousands of pages with all these combinations and the actual amount of content there is very minimal. So what could happen on Google side is, we go off and crawl and index all of these pages and we think oh like there's so much stuff here we can kind of pick up all of this stuff but in a second step when we look at the details were like, actually there's not a lot of really useful information here and especially if you're also taking the jobs maybe from existing feeds from other websites. Then what we see is essentially just a mix of like some some city information, some role information, job listings which we've already captured somewhere else and we kind of look at that overall and say like, what's the additional value of having your page indexed in addition to the things we already have indexed about all of these combinations and that's I think the tricky part there and that's kind of where you need to jump in and say, actually the might the way I have things combined are completely different from everything else. There's a lot of value that I add through these pages that when people go to these pages they clearly see that this is not just like a combination of existing feeds but actually there's something really fantastic here that nobody else has captured so far.
Barry chimes in about a similar story.
I could imagine for ads maybe that's that's slightly different than if you were if you have ads landing pages but especially from an indexing from a quality point of view that's something where I would expect that you would have a really tough time unless you're really providing a lot of like really strong value in addition just to those listings there.
I think what you really want to do especially for search, is make sure that you have a significant amount of value there that's much more than what other people have for that kind of content. So in particular one approach I usually take is like, if you bring this problem to me and you say that your site is not ranking well and I take that problem to the search ranking engineers and they say, well actually we have this combination already index five times why should we add this other variation and I don't have a good reason to tell them like, instead of these five you should take this new one. Then that's something that's that's really hard for me to justify and that means that in the end you'll be competing against a lot of kind of established players in that scene and you're kind of a new player in that scene and you don't have significant unique value that you're adding to that. So it's really from our algorithmic point of view it's like why should we spend time on this website that's not significantly changing the web for our users.
Q 49:15 - This is relating to structure kind of website this is a magazine you know they have is in a Drupal site in its I'm trying to figure out the best structure since there is articles and every category and those articles could be repeated through categories but there's also landing pages for each category and subcategory so I'm kind of trying to avoid such a big mess and try and condense that do you have any advice for that
A 49:52 -I guess in general what you want to make sure is that the pages that you do have index for search that they're able to stand on their own. So if you have all of these different combinations of like categories and landing pages and things like that. Then I try to figure out which of those variations you think you want to keep first switch and no index the other ones.
