2019 年 3 月 5 日 - Google 帮助环聊笔记
已发表: 2019-03-12我们在这个网站管理员帮助环聊中加入了约翰穆勒的家。 我们对 Page Speed、hreflang 和 Backlinks 有一些很好的问题。 视频和完整的转录可以在我们的总结之后找到。 如果您喜欢这个,请考虑注册我们的每周时事通讯! 我们以易于消化的方式总结了本周最好的 SEO 文章。
你能解释一下通过标签管理器使用 json - ld 的问题吗?
11:18
所以我认为我们已经讨论过很多次了,还有很多这样的视频群聊,还有来自包括 Barry 在内的各种人的新博客文章。 但本质上它可以追溯到,对于我们来说,能够从标签管理器中提取内容意味着我们需要能够渲染 JavaScript 处理来自标签管理器的脚本文件并在那里输出文字并包括索引端。 所以这对我们的系统来说总是需要大量的工作,并且并不总是我们对所有页面都做的事情,特别是当我们看到页面否则会相同时,那么我们的系统很难证明这一点是合理的我们还需要处理所有这些 JavaScript。 最重要的是,许多测试工具也不处理标签管理器和输出,因此工具很难确认该标记是否正常工作。 在搜索中处理它需要更长的时间,它可能有点不稳定,并且您并不真正知道它在任何给定时间被索引的确切内容。 因此,从我的角度来看,这些都是为什么我可以将标签管理器用于其他任何事情的原因。 将它用于此以及用于搜索中的结构化数据的 JsonLD 也很好,但值得记住的是,对于搜索中的结构化数据而言,这不是一个好方法。 它们是直接在网页上提供结构数据的更直接的方法,使维护更容易,更容易跟踪测试所有这些。 所以这就是我推荐的做法,我并不是说你不能在这里使用标签管理器,你当然可以使用它,我们会尽力把它捡起来并使用它等等,但它并不完全当涉及到直接在页面上提供结构数据时,同样的速度、灵活性和安全性。
总结:虽然可以通过 Google Tag Manager 使用 JSON-LD 和其他结构化数据,但这并不是最好的方法。 让谷歌从标签管理器中提取内容,并且必须呈现 JavaScript。 处理来自跟踪代码管理器的脚本并输出文字,然后编制索引。 有直接在页面上提供结构化数据的简单方法,这使得在 Google 上更容易。
Google 如何选择要在搜索中显示的网址?
15:20
因此,这种问题涉及 Google 如何选择要在搜索中显示的 URL 的一般问题,一方面,在这种情况下,有一个方面,例如图像 1 的登录页面具有相对规范设置为查看所有页面,将意味着这些页面是不等价的。 因此,我们会选择并使用该规范,这是一种成功或失败,这是我认为要记住的一个方面。 要记住的另一件事是,即使我们确实了解这些页面可以被视为等效,这也是我们使用多种因素来确定这些页面中的哪些是实际规范的问题。 因此,为此,我们使用 rel 规范,如果我们有任何东西,我们使用重定向。 我们使用内部外部链接,我们使用站点地图、hreflang 链接之类的东西,所有这些都有助于我们了解这些 URL 中的哪一个是我们应该显示的,以及您指定的规范 URL 是否是您在其余部分中从未使用过的您的网站,那么我们很可能会说,使该链接相对规范是一个错误,网站管理员实际上并没有那样的意思,也许我们将不得不选择一个不同的 URL 作为规范。 所以我猜这里会发生什么是我们将忽略 rel 规范,因为它们不是一回事,或者我们将选择其他现有页面之一,因为那是其中一个页面中的强链接网站。 所以我认为这个特定的设置在你的情况下不会那么有用。
摘要:Google 使用 rel 规范、重定向、内部链接、站点地图、 hreflang来理解 URL 是 Google 应该展示的。 但是,如果指定的规范 URL 从未在您网站的其余部分中使用过,Google 可能会忽略 rel 规范并选择另一个内部链接严重的页面。
在博客文章中包含作者而不是通用编辑器用户是个好主意吗?
17:38

我认为这是一个很好的举措,特别是如果您知道这篇文章最初是谁写的,并且您可以将其视为作者登录页面,我认为这是一个很好的举措。 即使只是从纯粹的用户角度来看,如果有人访问您的网站并且他们突然看到哦,这些文章是由 Barry 而不仅仅是编辑撰写的,并且您有该作者的登录页面,那么这可能表明它对用户可能是用户选择的东西,或者他们去作者的登录页面看看哦,这位作者实际上是该领域的专家,并且已经在那里活跃了几年,我认为在网站上总是有用的一般而言,关于谷歌排名,很难说这是否会产生任何直接影响。 但至少间接影响是用户可能会更信任您的内容,就像推荐的那样,或者我认为这是可以预期的。
总结:是的! 拥有作者登陆页面是展示作者 EAT 的一种方式。 与一般的“编辑器”或“管理员”相比,它还将总体上改善用户体验
如果您的 UI 可以翻译成其他语言,但补充内容(例如用户生成的内容)保留在另一种语言中,有什么建议?
21:48
所以这是经常发生的事情,尤其是对于用户生成的内容。 因此,如果您有一个论坛或博客或其他东西,并且人们用一种语言发表评论,但您已经进行了设置,以便 UI 可以更改为其他语言。 然后,您很快就会遇到这样一种情况,即 UI 可能是法语或德语,但内容可能仍然是西班牙语,例如,因为每个人都在用西班牙语发表评论,而这本质上是您可以通过多种方式处理的事情。 所以你可以说我的规范版本是西班牙语版本,一切都和西班牙语版本一样,这是你可以做的一个选择。 您可以在这些版本之间使用 hreflang 注释说这是我可以提供的内容的最法语版本,主要内容不是法语,但 UI 是法语,因此用户访问该页面将能够进行导航我的网站是你可以做的。 本质上,这些是您可以在那里提供的不同变体,让我们更多地了解您的偏好。 从实际的角度来看,最终取决于您希望如何在搜索中显示。 因此,如果您认为法国用户访问您的网站并登陆页面上的西班牙语内容和法语用户界面很有用,那么一定要在这些版本之间使用 hreflang 注释。 如果您认为如果主要内容是西班牙语,即使 UI 是法语的,法国的用户在浏览您的网站时根本会遇到问题,那么将西班牙语版本与西班牙语 UI 编入索引也许是有意义的。 所以这最终取决于你,我认为这些都不是完美的解决方案。 有时,这在一定程度上取决于您的内容的统一程度,以及您对想要索引哪些语言版本以及用户希望在搜索结果中看到哪些版本的理解程度。 因此,例如,如果您是一个非常国际化的论坛,并且人们以各种不同的语言发帖,那么说您只希望对这个 UI 版本进行索引可能会很棘手,也许将所有 UI 版本都编入索引是有意义的。 当然,将所有 UI 版本编入索引的缺点是它会使您的网站突然拥有的网址数量成倍增加。 所以这意味着我们必须爬更多,如果它是一个大型的用户生成内容站点,这意味着我们必须爬取,一方面是所有用户生成的内容,然后我们必须为每个不同的内容爬取所有倍数语言版本,我不知道这是否有用,如果这对您的网站来说爬行太多,如果这会阻止更新的内容快速出现在搜索结果中。 那是另一回事。 如果您只是在谈论几千篇文章,那么这可能不是什么大问题。
摘要:您可以选择一种语言版本作为规范版本,也可以在这些语言版本之间添加 hreflang 注释。
我应该拒绝大量链接到我的网站的随机网址吗?
27:58
不,这本质上是正确的做法,尤其是如果这是您真正担心的事情。 所以我认为对于大多数网站来说,走出去否认那些像不确定和奇怪的事情是没有意义的,因为在大多数情况下我们只是忽略了这些。 所以特别是关于链接,如果当你看到它时你说得很好,这可以被视为这些链接被我们购买,就像我们自然放置在那里一样,如果网站团队的某个人要采取手动查看它,他们会认为,这是我们在做一些愚蠢的事情,这就是我想说的那种事情,可能会否认它们或将它们删除将是正确的举动,否则如果它只是一个不确定的链接并且它看起来就像那里有数以百万计的其他链接,有人运行了一个工具并将大量链接放入该论坛,那么这就是我们的算法已经发现的东西。 所以这不是我不会担心的事情。
摘要:谷歌擅长找出哪些链接可以忽略。 但在拒绝方面,最好是安全而不是抱歉。
页面速度对 Google 有多重要?
42:30

目前的政策是什么? 所以速度对我们来说确实很重要,它对用户有很大的影响,所以我个人会非常认真地对待这一点,我认为速度的好处是有各种工具可以为你提供非常客观的衡量标准你可以实际工作。 关于我们中的很多人或围绕 SEO 的其他问题,我不知道他们的内容质量,比如速度是可以衡量的,你可以处理的事情,它也应该是我们使用的东西直接影响了您网站内的用户行为。 因此,这不仅仅是从谷歌的角度来看,就像我们说速度很重要,它是排名跟踪器,而是当用户访问您的网站并且您的网站突然需要几秒钟的时间来加载这些用户时,您会直接看到它将在您的网站上做出完全不同的反应,无论您如何在网站上定义客户,您都很难将他们转化为客户。
摘要:速度对于 Google 来说极其重要。 这是一个易于跟踪且易于操作的指标。 有很多很棒的工具可以很好地了解您的网站的表现以及您可以做些什么来帮助提高页面速度。
如果我为 Google Ads 付费,我的排名会更好还是更差?
47:24
所以我们时不时会收到这个问题,这里的问题是,我的排名会受到影响,但更好或更坏的部分是我们也听到一些人说,如果你使用 Google Ads,你的排名不会变得更好有人说如果你使用谷歌广告,你的排名会降低,因为我们希望你购买更多的广告,而这些都不是真的。 因此,我们的搜索结果完全独立于您是否使用 Google Ads,它们完全独立于您在网站上使用的技术。 因此,如果您使用诸如分析之类的东西或其他完全取决于您的跟踪工具。 如果您通过 Adsense 或任何其他广告网络获利,完全取决于您。 因此,无论您是否在您的网站中使用 Google 产品,您是否为您的网站使用其他 Google 服务完全取决于您。 这就是我们更喜欢让这些服务独立存在的东西,如果你说这是谷歌服务不好的一个特殊原因,我不想使用它,那么请随意使用其他东西。 我们不想让您陷入那种困在专注于您的网站和做您认为适合您的用户的事情和不得不使用这个特定产品之间的盒子里。 因此,我们确实没有将这些联系在一起,我们明确地这样做,我们努力确保这些事情运作良好。
摘要:Google Ads 对自然排名没有影响。
如果你喜欢这样的东西,你会喜欢我的时事通讯!
我和我的团队每周都会报告最新的 Google 算法更新、新闻和 SEO 技巧。
成功!! 现在检查您的电子邮件以确认您订阅了 Google 更新简报。
完整的视频和成绩单
问题 1:14 - 两周前,我们的网站在一夜之间失去了 Google 94% 的流量。 由于过去 20 年的搜索流量保持一致并且没有重大变化,我们假设某些技术可以通过像 cloudfare 这样的 CDN 共享 IPS 或 SSL 导致算法上的流量大幅下降。 我们深入挖掘,发现一些网站在同一个 IP 上似乎具有极高风险的内容。 我们可以改变我们的主题并拥有一个专门的证书,但是我们仍然会遇到交通问题,这里会发生什么?
回答 2:01 - 但一般来说,仅仅因为其他站点托管在同一个 IP 地址上通常不是担心的原因。 所以特别是与较大的主机共享 IP 地址是相当常见的,与 CDN 共享 IP 地址是极其常见的。 这会发生变化,因为许多 CDN 在不同国家/地区都有端点,并且它们与活跃在那里的不同网站共享这些端点。 因此,基本上用户和德国可能会看到与美国用户不同的 IP 地址,但总的来说,这是一种非常普遍的做法,共享 IP 地址,不会有问题。 在早期的方式中,这有时对于识别日期和主机非常有用。 如果我们看到一个 IP 地址和 9000 个具有静态地址的站点并且它们都是垃圾邮件,并且如果在同一主机上还有其他两个网站,那么我们可能很难意识到这两个站点是否真的完全与这 9,000 个其他站点相比。 这对算法来说是一个棘手的情况。 但在大多数情况下,我们会看到各种不同网站的混合,因此不同国家的不同语言的不同网站有不同的目标用户一些垃圾邮件网站一些非垃圾邮件网站在同一 IP 地址上,所有这些都很好. 所以这不是我们说的理由,哦,因为这个 IP 地址上有一个垃圾邮件站点,这将是一个问题。 所以我不知道这个网站具体发生了什么我看了一下,总的来说,我们网站的方面在搜索方面做得很好这么多年,然后我倾向于说这对你的网站,但这不一定是我们会一直保持这种状态的东西。
因此,仅仅因为该网站在过去和搜索方面表现良好并不意味着它会在搜索方面继续表现良好,是的,用户期望会发生变化,另一方面 Google 的算法也会发生变化。 因此,这些事情总是会发生变化,有时事情可能会发生重大变化,我们的目标不是说这个特定网站是糟糕的算法,而是说我们已经认识到,也许我们错过了服务用户的期望或我们一直在以不再符合用户期望的方式做事,因此我们的算法会改变,以尝试将结果说用户和现在相关的结果带回搜索结果。 因此,根据网站的类型,这总是可以发挥作用的。
问题 5:49 - 很久以前,该网站的排名似乎超过了我们,基本上是窃取我们的内容然后修改它,这样他们就不会侵犯版权,然后排名超过我们。 当我们回顾并做了一些研究时,我们注意到了这种模式,似乎会重新设计我们的网站,提高我们的质量,提高排名,然后他们会复制它,然后在接下来的一两个月的某个时候,他们会开始排名我们和它 嗯,在我们看来,算法不知何故被混淆了,并给予该网站作为内容发起者而不是我们的信誉,然后在排名中压制我们。
回答 6:37 - 我不知道,我必须查看这些站点以了解那里到底发生了什么。 所以从算法的角度来说,这有点棘手,就像我们的算法总是会在您的网站上为这些查询选择该网站。 但是我通常的目标是,如果这些网站正在复制您的内容,那么请尝试找到从根本上解决该问题的方法,以鼓励他们不要复制您的内容。 因此,也许可以调查诸如 DMCA 投诉之类的事情,我不知道这是否与您的情况相关,但是任何尝试以搜索不必猜测这些版本中的哪个版本的方式来处理该问题的方法内容应该对这些查询进行排名。
问题 11:18 -你能解释一下通过标签管理器使用 json-ld 的问题吗? 标签管理器用于验证搜索控制台和可能的分析,因此它肯定足够稳定。
回答 11:33 - 所以我认为我们已经讨论过很多次了,还有很多这样的视频群聊,还有来自包括 Barry 在内的各种人的新博客文章。 但本质上它可以追溯到,对于我们来说,能够从标签管理器中提取内容意味着我们需要能够渲染 JavaScript 处理来自标签管理器的脚本文件并在那里输出文字并包括索引端。 所以这对我们的系统来说总是需要大量的工作,并且并不总是我们对所有页面都做的事情,特别是当我们看到页面否则会相同时,那么我们的系统很难证明这一点是合理的我们还需要处理所有这些 JavaScript。 最重要的是,许多测试工具也不处理标签管理器和输出,因此工具很难确认该标记是否正常工作。 在搜索中处理它需要更长的时间,它可能有点不稳定,并且您并不真正知道它在任何给定时间被索引的确切内容。 因此,从我的角度来看,这些都是为什么我可以将标签管理器用于其他任何事情的原因。 将它用于此以及用于搜索中的结构化数据的 JsonLD 都很好,但值得记住的是,对于搜索中的特别结构化数据来说,这不是一个好方法。 它们是直接在网页上提供结构数据的更直接的方法,使维护更容易,更容易跟踪测试所有这些。 所以这就是我推荐的做法,我并不是说你不能在这里使用标签管理器,你当然可以使用它,我们会尽力把它捡起来并使用它等等,但事实并非如此在实际直接在页面上提供结构数据时,速度和灵活性和安全性水平相当。
问题 14:00 - 客户端通过使用 302 而不是 301 进行了 HTTPS 迁移,他们是否需要将其更改为 301? 谷歌需要多长时间才能明白这是一个永久重定向?
回答 14:14 - 所以可能我们也会发现很多人使用错误的重定向标签进行网站移动,我们仍在努力尝试正确解决这个问题。 查看正在发生的事情的一种快速方法是检查搜索控制台以查看是否正确索引了事物。 因此,如果新域运行良好,那可能已经没问题了。 也就是说,如果您在网站上发现此类问题或任何其他易于修复的技术问题并感觉它们可能会产生重大影响,那么我们将继续进行修复。 尤其是错误的重定向类型,就像大多数网站上的 htaccess 文件中的一行更改。 所以这就是很容易解决的问题。 这样您就不必担心搜索引擎会以错误的方式解释它。
问题 15:20 - 我们的图片库有一个像 /gallery/image1 或 /image2 或 /image 3 这样的图片的唯一 URL,我们想添加图片库 /view all 并将其用作规范 URL,但我们没有此链接我们可以在网站上的任何地方这样做吗? 视图是否都需要对读者可见?
回答 15:46 - 因此,这种问题涉及 Google 如何选择要在搜索中显示的 URL 的一般问题,一方面,在这种情况下,有一个方面,例如图像 1 的登录页面具有相对规范设置为查看所有页面,将意味着这些页面是不等价的。 因此,我们会选择并使用该规范,这是一种成功或失败,这是我认为要记住的一个方面。 要记住的另一件事是,即使我们确实了解这些页面可以被视为等效,这也是我们使用多种因素来确定这些页面中的哪些是实际规范的问题。 因此,为此我们使用 rel 规范,如果我们有任何东西,我们会使用重定向。 我们使用内部外部链接,我们使用站点地图、hreflang 链接之类的东西,所有这些都有助于我们了解这些 URL 中的哪一个是我们应该显示的,以及您指定的规范 URL 是否是您在其余部分中从未使用过的您的网站,那么我们很可能会说,使该链接相对规范是一个错误,网站管理员实际上并没有那样的意思,也许我们将不得不选择一个不同的 URL 作为规范。 所以我猜这里会发生什么是我们将忽略 rel 规范,因为它们不是一回事,或者我们将选择其他现有页面之一,因为那是其中一个页面中的强链接网站。 所以我认为这个特定的设置在你的情况下不会那么有用。
问题 17:38 - 对于那些想要为其他语言和国家/地区提供大量内容但到目前为止他们只翻译了界面而不是主要内容的网站,您有什么建议。
回答 17:55 - 所以这是经常发生的事情,尤其是对于用户生成的内容。 因此,如果您有一个论坛或博客或其他东西,并且人们用一种语言发表评论,但您已经进行了设置,以便 UI 可以更改为其他语言。 然后,您很快就会遇到这样一种情况,即 UI 可能是法语或德语,但内容可能仍然是西班牙语,例如,因为每个人都在用西班牙语发表评论,而这本质上是您可以通过多种方式处理的事情。 所以你可以说我的规范版本是西班牙语版本,一切都和西班牙语版本一样,这是你可以做的一个选择。 您可以在这些版本之间使用 hreflang 注释说这是我可以提供的内容的最法语版本,主要内容不是法语,但 UI 是法语,因此用户访问该页面将能够进行导航我的网站是你可以做的。 本质上,这些是您可以在那里提供的不同变体,让我们更多地了解您的偏好。 从实际的角度来看,最终取决于您希望如何在搜索中显示。 因此,如果您认为法国用户访问您的网站并登陆页面上的西班牙语内容和法语用户界面很有用,那么一定要在这些版本之间使用 hreflang 注释。 如果您认为如果主要内容是西班牙语,即使 UI 是法语的,法国的用户在浏览您的网站时根本会遇到问题,那么将西班牙语版本与西班牙语 UI 编入索引也许是有意义的。 所以这最终取决于你,我认为这些都不是完美的解决方案。 有时,这在一定程度上取决于您的内容的统一程度,以及您对想要索引哪些语言版本以及用户希望在搜索结果中看到哪些版本的理解程度。 因此,例如,如果您是一个非常国际化的论坛,并且人们以各种不同的语言发帖,那么说您只希望对这个 UI 版本进行索引可能会很棘手,也许将所有 UI 版本都编入索引是有意义的。 当然,将所有 UI 版本编入索引的缺点是它会使您的网站突然拥有的网址数量成倍增加。 所以这意味着我们必须爬更多,如果它是一个大型的用户生成内容站点,这意味着我们必须爬取,一方面是所有用户生成的内容,然后我们必须为每个不同的内容爬取所有倍数语言版本,我不知道这是否有用,如果这对您的网站来说爬行太多,如果这会阻止更新的内容快速出现在搜索结果中。 那是另一回事。 如果您只是在谈论几千篇文章,那么这可能不是什么大问题。
问题 21:25 - 从一开始,我们的电子商务网站旁边就有一个博客,这些博客文章被标记为由通用编辑器用户撰写。 查看质量指南和 EAT,我们想用帖子作者的真实姓名替换编辑器,这种操作是积极的还是可能会看到垃圾邮件?
回答 21:48 - 我认为这是一个很好的举措,特别是如果您知道这篇文章最初是谁写的,并且您可以将其视为作者登录页面,我认为这是一个很好的举措。 即使只是从纯粹的用户角度来看,如果有人访问您的网站并且他们突然看到哦,这些文章是由 Barry 而不仅仅是编辑撰写的,并且您有该作者的登录页面,那么这可能表明它对用户可能是用户选择的东西,或者他们去作者的登录页面看看哦,这位作者实际上是该领域的专家,并且已经在那里活跃了几年,我认为在网站上总是有用的一般而言,关于谷歌排名,很难说这是否会产生任何直接影响。 但至少间接影响是用户可能会更信任您的内容,就像推荐的那样,或者我认为这是可以预期的。
问题 22:58 - 带有桌面和 amp 版本的架构标记,如果桌面版本使用微数据实现但 amp 版本使用 json-ld 可以吗?
回答 23:09 - 当然这很好。 关于格式或那里使用的格式,我认为唯一要记住的是,据我所知,某些结构化数据仅在 json-ld 中可用。 因此,您可能需要仔细检查您正在使用的结构化数据的类型,但您的网站的一个版本使用一种类型的结构数据,而另一个版本使用不同的类型,即使在同一个桌面移动设备中也是如此应用程序变体,这当然是可能的,例如,如果您有一个博客,我不知道,您的网站和电子商务网站上的产品目录,并且电子商务网站的评论使用 json-ld,而您的博客使用使用微数据的文章标记,我不知道这是否是正确的方法,但那会很好。
问题 24:19 - 关于隐藏内容 display:none 是否可以谷歌支持,并提到白色背景白色字体或字体大小为零将违反指南,但 display:none 呢?
回答 24:32 - 隐藏内容通常不是我们所欣赏的。 特别是当网站试图将关键字推送到 Google 的索引中时,这些关键字实际上在页面本身上并不可见。 所以这是我真正要避免的事情。 您提到了响应式设计以及您的其他问题,我认为这是在这里发挥作用的一个方面。 因此,如果您使用响应式设计来让移动用户或桌面用户可以看到这些内容,那很好。 但是,如果这个内容基本上总是不可见的,比如零字体或白色背景上的白色字体或黑色背景上的黑色字体,那么这些就是我们的系统会接受并说好的东西,也许这里的文本不那么相关否则可能是这样,从实际的角度来看,您可能不会从这样的事情中获得手动操作。 但除了试图弄清楚这一点之外,他们还会在搜索时尝试贬低该内容。 因此,它不太可能显示在片段中,不太可能在这些页面上被视为非常重要。

问题 25:55 - 在链接手动操作后,一旦重新考虑请求被接受但未重新获得其潜在的流量排名,Google 会在多长时间内处理域?
回答 26:08 - 所以我认为一方面它们是两个方面,如果手动操作得到解决,那么在没有手动操作的情况下,该站点几乎直接在搜索中可见。 所以这里有一个例外,如果一个网站因为纯粹的垃圾邮件原因被删除,那么它基本上会从我们的索引中完全删除。 因此,并不是说我们可以重新打开它并再次显示它,它需要我们实际重新抓取并且我们处理该站点有时需要几周时间,但对于所有其他手动操作,一旦手动操作得到解决,事情就会发生回到以前的状态并不是谷歌怀恨在心,说这里有手动操作,或者我需要格外小心,它真的解决了,它已经解决了。 当然,关于链接,如果您的网站由于非自然链接而人为地在搜索结果中排名,并且您进行了手动操作并通过删除这些非自然链接来解决该问题,那么您的网站当然不会因为以下原因而人为地排名更高那些不自然的链接现在已经消失了。 因此,在解决此类问题后,看到可见性发生变化是完全正常的,类似地,如果由于您网站上的其他内容而导致网站不自然可见,并且您通过删除这些其他内容来解决该问题,那么显然您的网站将再次自然可见,但由于您删除的那些东西,它不会不自然地可见,因此请记住这一点。
Question 27:59 - In looking at some of our backlink profile we had found, I don't even know how our links ended up on these pages, like on pages that have just like 7,000 links and things like that. We disavowed them when we found them. Is there anything we need to be concerned about other than doing that with when we find stuff like that?
Answer 28:20 - No that's that's essentially the right move to do and especially if it's something that you're really worried about. So I think for most websites it doesn't make sense to go out there and disavow things that are just like iffy and weird because for the most part we just ignore those. So in particular with regards to links, if it's something that when you look at it you say well this could be seen as these links be being bought by us, like naturally placed there by us, if someone from the website team were to take a look at this manually and they would assume that, this is us doing something stupid, that's the kind of thing where I'd say probably disavowing them or getting them removed would be the right move there but otherwise if it's just an iffy link and it looks like it's something like there are millions of other links on there someone ran a tool and dropped tons of links into this forum then that's something our algorithms have figured out already. So that's not something I wouldn't worry about.
Question 30:06 - What do you suggest to tackle a low traffic, low quality pages on a site? There lots of suggestions regarding content pruning what recommendations do you have regarding that?
Answer 30:20 - So I think first off the assumption that a page that has low traffic is also low quality is something that I would question and sometimes pages just have low traffic because a lot of people search for them but they're still a really good truck pages. So II would question kind of the assumption that you can just go into analytics and sort of your pages by a number of page views and delete all of the lowest pages there because I don't think that necessarily picks up like that these pages are really low quality or not. So that's kind of a first assumption there, if you know your website then obviously you can combine different metrics to try to figure out where the low quality pages are but I would still recommend making sure that these are really low quality pages before you take any kind of harsh action on those pages. And then as a next step if you do know that these are low quality pages when whenever I talk to our engineers from the quality team they tell us not to tell web masters to just go off and delete those pages but instead to going to improve them. So if you know that they're low quality pages that probably means you know what is missing and that probably means you know there are ways to kind of make these higher quality pages. So that's kind of the direction I would take there and not just delete things that are low quality but figure out a way to make them more high quality instead. So that could be by combining pages maybe it's something where you see this one-page, its kind of thin but it matches this your page and you have otherwise on your website maybe combining them makes sense. So 301 redirecting them to kind of one shared URL instead that might be an option. Rewriting them to be higher quality is obviously a good idea obviously takes work so it's not this one simple magic trick to make number one. Then finally if it's really something that you can't resolve at all or that is such a big mass of pages that are low quality that you can't really fix then maybe deleting them is it right. So those are kind of the different variations there that are available but again I would strongly question the the assumption that low traffic equals low quality. So if you're looking even looking at a larger site don't just assume that because something has low traffic is sign that it's not important for your website or for the rest of the web.
Answered Cont' 34:03 - Yeah so I think one way you could look at this is to say given this state of content that you have what would be your preferred new website look like? So kind of saying like assuming I had all of this content and I had to create a new website out of it what would it look like and then to try to find a way to migrate your existing content into this new structure that you have in mind and like I said it could improve include combining pages, combining maybe tens of different pages together into one stronger page, it could be deleting pages where you say, well these don't make any sense for my website anymore maybe it was something that users cared about a couple years ago but now, I don't know, nobody is playing ingress anymore so all of those ingress pages on my website I have to make a hard decision and delete them. I can see the shocked faces everywhere in here now. But these kind of things happen over time and it makes sense to clean things up over time and sometimes it means deleting, sometimes that means combining, sometimes that just means rewriting and cleaning up. So it's it's hard to have one one answer that works for every side in every situation.
Question 36:36 - How to fix the crawl frequency of low priority pages within a website? Will Google crawl more of such pages because the quantity of these pages is more compared to the important pages?
Answer 36:49 - So I think this was your question as well in general you don't need things the the crawl rate of pages unless these are pages that are being changed more frequently than the crawl rate. So if you have an article that you wrote and it's being crawled once every three months and you're never changing this article that's that's perfectly fine we don't need to crawl it more often. There is no ranking bonus for being crawled more often. So crawling from our site is more of a technical thing where we say, this page has changed we should find a way to pick up this change as quickly as possible. It's not that we would say well the stage has been crawled twice in the last week therefore we will rank it higher those are completely separate parts of our algorithms.
Question 37:48 - I was checking the log files and 90% of our crawl budget is going to those specific URLs only and only 10% is crawling my product pages. So I was wondering I could make them crawl less frequently for those specific sections and maybe Google can start crawling or kind of giving more importance to my other sections of a set?
Answer 38:18 - Okay so you actually want to do the opposite which is I think a good move too. To have those pages crawled less frequently. So from from our point of view there's really no way to do that. So it's something that you would need to almost attack from the other way around to say, that I think these are other pages that are important on my website and therefore I'll link them prominently within my website. I'll make sure that all of my other pages refer to those pages, that they're specifying the sitemap file with the last modification page that we can confirm. So all of those signals to help us understand we need to be able to crawl these pages more frequently because there are changes on these pages. On the other hand if there are no changes on these pages we don't really to recall them for more free company so that's kind of be the other aspect there. If these are pages that are important for you but they are not changing frequently then there's no need to artificially force them to be crawled more often.
Question 40:11 - Can you tell if with redirection only link penalty passes or link penalty and content penalties both pass for example at website with pure spam manual action is redirected to another site so technically the URLs will be a soft 404, will it affect the redirected website?
Question 40:37 - So I'm not quite sure with which part of this question you're you're kind of focusing on. On the one hand if a random spammy website redirects to your website that's usually something we can recognize and just ignore. On the other hand if yours is that spammy website and you're redirecting to another website to try to escape that penalty then probably we will be able to follow that site migration and apply that manual action or algorithmic action to the new website as well. So my recommendation there would be instead of trying to get away by doing fancy redirects or other types of site moves. I would recommend just cleaning up the issues so that you don't have to worry about those anymore. So if there are link actions with regards to that website then clean up those those links so that you're in a clean state again. The reconsideration process is great for that because someone from the web spam team will take a manual look at your website and they'll say, this looks good this is fine like. You did good work and clean things up it's clear that you understand what you should be doing now so we can remove them. So I think that's really useful to have there from a practical point of view. So that would be kind of my recommendation if you're the website that has this problem. On the other hand if like I mentioned some random website redirects to your website and that's usually something that we can recognize, this is not a normal site move this is just the read website redirecting to you to another website and we can get that.
Question 42:30 - John two quick general questions one related to site load speed, we've read and heard various things including recently people saying that like every microsecond counts and things like that, what is the current policy I know in the past you said as long as it's not ridiculously long to load you're fine?
Answer 42:53 - What is the current policy? So speed is something that does matter quite a bit to us and it has a big effect on users so that's something that I would personally take quite seriously and I think the the nice part about speed is there various tools that gives you pretty objective measures there that you can actually work on. With regards to a lot of us or other issues around SEO like, I don't know the quality of their content things like that speed is something that that is quite measurable and something that you can kind of work on, and it should also be something we're used a direct effect from your users behavior within your website. So it's not just something that from from Google's point of view like we say speed is important it is rank tracker but it's something that you will see directly when users come to your website and your website is suddenly taking a couple seconds longer to load those users will react quite differently on your website and you'll have more trouble converting them into customers however you define customers on your website.
Question 44:08 - From the standpoint of like if it's 1.1 seconds versus 1.2 second that kind of thing would would you say that that's very important to try to really optimize those?
Answer 44:21 - I think the tricky part with speed is there's so many different measures in the meantime that it's hard for me to say like, load time is the only thing you should be thinking about, but there ways to to kind of determine how quickly the page is is generally accessible. How quickly they the content is visible on the page, even kind of ignoring the aspect that maybe the rest of the page below the fold is still rendering and still takes a bit of time to actually be ready, maybe the part that users care about is actually visible fairly quickly. So from from that point of view usually small differences are less of a thing but kind of like I mentioned speed is something where you can use these different tools who could come up with a different metrics and you can focus on those metrics and try to improve those and you can measure that yourself and you can kind of work on that without having to go through various Google tools and waiting for things to update in the index in these tools.
Question 45:47 - Can I use Google official videos in my blog or can I only link to them for example Matt Cutts videos about SEO. I will use Adsense on the blog when I have enough adsense my blog will be complete in 6 months.
Answer 46:03 - I don't think there are any restrictions with regards to embedding videos for a channel but if there were no restrictions then I think the embed option YouTube wouldn't be available there. So if the embed option is there then then go for it. I think in in general I'd be cautious about using just a video as the primary piece of content on a web page and you should really work to kind of use the video in a way that supports your primary content but not that it replaces your primary. So for example I wouldn't take any of these videos and just put them on a blog post and add a title to them and expect them to show up highly in search. But if you have specific content around that video if you have a transcription of that many don't you have some comments to that transcription to the content that are shown in the video or you're using that video as kind of a point of reference with regards to your content and I think that's a perfectly fine approach. But just purely using a video on a page is something that atleast in a web search point view makes it really hard for us to determine what is actually useful on this page and why should we show it in the search results.
Question 47:27 - If I pay for Google Ads will my ranking be better or worse?
回答 47:34 - 所以我们时不时会收到这个问题,这里的问题是,我的排名会受到影响,但更好或更坏的部分是我们也听到一些人说,你的排名不会得到如果您使用 Google Ads 会更好 有人说如果您使用 Google Ads,您的排名会降低,因为我们希望您购买更多广告,而这些都不是真的。 因此,我们的搜索结果完全独立于您是否使用 Google Ads,它们完全独立于您在网站上使用的技术。 因此,如果您使用诸如分析之类的东西或其他完全取决于您的跟踪工具。 如果您通过 Adsense 或任何其他广告网络获利,完全取决于您。 因此,无论您是否在您的网站中使用 Google 产品,您是否为您的网站使用其他 Google 服务完全取决于您。 这就是我们更喜欢让这些服务独立存在的东西,如果你说这是谷歌服务不好的一个特殊原因,我不想使用它,那么请随意使用其他东西。 我们不想让您陷入困境,在专注于您的网站和做您认为适合您的用户的事情和不得不使用这个特定产品之间。 因此,我们确实没有将这些联系在一起,我们明确地这样做,我们努力确保这些事情运作良好。
