SEO 办公时间 – 2021 年 12 月 24 日

已发表: 2021-12-29

这是2021 年 12 月 24 日Google SEO Office HoursJohn Mueller的最有趣问题和答案的摘要

内容隐藏
1付费内容和伪装
2潜在的索引问题
3产品评论更新——受影响的语言和国家
4英语国家的本地化页面
5向页面添加动态内容
6渲染和索引 JavaScript 文件
7通过在网站内搜索生成的索引 URL
8个 SEO 网站作为 YMYL
9实现面包屑结构化数据
10仅翻译网站上的某些页面
11抓取预算和自动生成的 URL
12带参数的抓取网址

付费内容和伪装

00:49 “关于带有付费专区内容的付费专区数据。 […] 我们有一个网站。 我们写了很多文章,Google 可以访问所有内容。 我们想在那里添加一个付费墙,但 [...] 仅 [...] 向 Google 显示付费墙内容以及您拥有的结构化数据片段。 它被认为是隐身吗?

所以,我检查它是否是 Googlebot,然后只 [然后] 显示 [...] 结构化数据 - [...] 付费墙数据。 但是对于普通用户 [...],我不显示结构化数据,可以吗?”

约翰没有看到这个解决方案的问题:“没关系。 技术上讲,仍会被视为隐身,因为您展示的是不同的东西,但根据我们的政策,这是可以接受的。 因为用户会 [...] 如果他们通过付费墙, [...] 会看到您向 Googlebot 展示的内容。”

潜在的索引问题

03:38 “我发布了高质量的内容,我提交了站点地图,有时还从 Google Search Console 请求索引。 但是我在索引新内容时仍然遇到问题,或者它被索引[延迟]。 [...] 是来自 Google 的错误,还是新的算法更新?”

约翰回答说:“在这方面,我们这边没有错误。 […]我们只是不索引所有内容,有些网站会生成大量内容。 如果我们不对所有内容进行索引 [...],那也可以。 但是也许您希望所有内容都被索引,而我们不能一直做所有事情。

棘手的部分 [...] 是,在过去,[...] 很多网站在技术上并不是那么好。 哪种内容没有被编入索引更清楚了。 如今,网站在技术上还可以,而且 [...] 就像质量标准有点高 [...]。 任何人都可以发布理论上可以被编入索引的内容,但是 [...]我们必须确保我们正在编入对用户真正有用和相关的正确内容。 所以我们有时不得不留下一些未编入索引的东西。”

产品评论更新——受影响的语言和国家

14:01 “关于产品评论更新。 […] 即使更新只影响英语网站,我也看到德语搜索中的一些变化。 我想知道此产品评论更新或任何类型的 [...] 是否也会对其他语言的网站产生影响?”

正如 John 所说,“我的假设是这是全球性的并且跨越所有语言[...]。 但通常,我们会尝试推动工程团队对此做出决定,以便我们可以在博客文章中正确记录它。 我不知道产品评论更新是否发生了这种情况。 […] 这似乎是我们可以用多种语言做的事情,而不仅仅局限于英语。 即使最初是英语,它也感觉像是全面相关的东西,我们应该尝试找到方法随着时间的推移将其推广到其他语言。 所以我对你看到德国的变化并不感到特别惊讶 [...]。”

在得知谷歌博文只提到影响英语网站的更新后,约翰进一步阐述:

“通过这种更新,我们尝试从一种语言或一个位置开始,看看我们需要调整什么,然后我们从那里扩展。 [...] 对于与内容更相关的内容,通常需要更长的时间才能扩展到不同的语言 [...]。”

英语国家的本地化页面

17:53 “你知道其他方法可以为不同的英语国家本地化同一组页面吗? [...] 我们有几个带有 .jo 顶级域的子域,比如可能来自澳大利亚、新西兰的子域,我们在 JSA 后端设置了国家,并且还在页面级别使用了 hreflang。 [...] 我们想不出其他方法来帮助我们本地化这些子域。 你有什么好的方法或者我们可以改进的方法吗?”

以下是约翰讨论这个话题的方式:

“我认为你涵盖了主要的内容。 这就是 Search Console 中的地理定位和 hreflang 设置。

地理定位适用于子目录或子域级别,所有页面都在其中。

Hreflang 是基于每页的。 如果您有一个国家/地区的主页和同一国家/地区的不同产品页面,那么这些页面中的每一个都需要与 hreflang 交叉链接。

我一直尝试推荐的另一件事是制定某种备份计划,[...] 类似于基于 JavaScript 的横幅,当您识别出用户访问了错误版本的网站时,您可以显示该横幅。 例如,如果来自澳大利亚的用户最终访问了来自英格兰的页面,您可以显示一个 JavaScript 横幅,上面写着:“嘿,我们这里有这个页面的澳大利亚版本。 你可以直接去那里。 基于 JavaScript 的横幅的优点是您可以使用 robots.txt 阻止它,这样从索引的角度来看,它不会出现。 如果您不自动重定向,[...] [搜索引擎] 将能够独立处理这两个版本。

如果这些页面本质上是相同的,那么我们可能会将其中一个页面视为规范版本。 例如,如果您有新西兰和澳大利亚的页面,并且整个内容相同,唯一略有不同的是页面上的货币,那么 [...] 我们将这些页面折叠在一起并选择其中一个作为一个规范,并将其用作搜索的基础。

如果您也有 hreflang,那么在这些页面上,我们仍将使用 hreflang 来显示正确版本的 URL。 但索引内容将仅来自规范版本,并且 Search Console 中的所有报告都将针对规范版本。 这有时会有点棘手,特别是如果您有一个更大的网站,并且 [...] 不同国家/地区的内容相同。”

向页面添加动态内容

25:0 “我的网站有数百万个页面,例如类别、子类别以及产品、电子商务 [...] 页面。 我们添加了动态内容,因为 [with] 数百万页 [...] [它] 很难在每个页面上添加单独的内容或 [...] 独特的内容。 我们在类别页面、子类别页面和产品页面上添加了 [...] 基于模板的内容。 […] 这对我们的网站性能有没有好处,还是我们应该更新每个页面的内容? […]”。

以下是约翰的回应:

将相关内容动态添加到页面[...]是有意义的,因为 [...] [它] 本质上只是在 [...] 进行数据库查找并在此基础上添加内容。 [...] 这真的取决于你是如何设置的。

我要避免的主要事情是,您会遇到人为地将内容添加到页面的情况,只是希望该页面对您人为添加的关键字的排名更好。 […] 当用户去那里时,他们会想“为什么这些随机关键字出现在这个页面上?” [...] 确保您实际上拥有与这些关键关键字相关的良好内容,这才是我更关注的 [...]。”

当另外被问及是否有必要为每个页面编写相关内容以便谷歌将页面视为提供价值时,约翰说:

“它应该是页面上相关的内容。 如果它是一个类别页面,那么您在那里列出的产品是非常相关的 [...] 并且通常,您有该类别的描述。 ...

渲染和索引 JavaScript 文件

28:28 “我的网站 [...] [使用] React 与客户端渲染,[...] 当我们关闭 JavaScript 和浏览器时,我的页面完全空白。 这可能是排名较低的原因,也可能是网页性能不佳的原因?”

约翰的回答是:“不应该。 [...] 对于搜索,我们进行渲染,并处理页面上的 JavaScript。 如果它在普通浏览器中可见,并且您没有做任何特别糟糕的事情,那么我们将能够正常索引这些页面。 您可以使用 Search Console 中的Inspect URL 工具仔细检查,以查看当 Googlebot 尝试呈现页面时内容是否实际可见,如果内容可见,那么您应该一切就绪。”

通过在网站内搜索生成的索引 URL

30:11 “我们已经在我们的网站中添加了一个搜索框,所以用户来到我们的网站并在那里搜索,它会为每次搜索生成一个唯一的 URL。 这些 URL 应该是可索引的还是不可索引的?”

正如约翰所说,“通常不会。 [...] 有两个主要原因。

一方面,很容易导致您有另外一百万个 URL 只是不同的搜索,这对您没有任何价值。 我们称之为无限空间[…]。 这是你要避免的事情。

您要避免的另一件事是人们在搜索框中做垃圾邮件并尝试将这些内容编入索引,这可能类似于搜索他们的电话号码和 [...] 他们的业务类型 [...]。 突然,您网站的搜索页面为此类业务排名并显示他们的电话号码,即使您没有任何与这些查询匹配的内容,[...] 他们这样做是为了试图在搜索结果中可见。 我会用 robots.txt 阻止这种搜索页面。 这样您就可以确定我们无法为任何内容编制索引。”

SEO网站作为YMYL

31:55 “SEO 公司会被归类为Your Money or Your Life网站,还是仅与医疗和财务建议网站有关?”

根据约翰的说法,“[...] 我不认为 SEO 网站对人们的生活至关重要。 显然,如果您在一家 SEO 公司工作,那么您就与此有关,但这并不是说该网站本身就是您的金钱或生活类型的网站。 [...] 并非每个销售商品的网站都属于这一类。

我在这里建议的是,不要盲目地试图看到“这种类型的网站属于这个特定类别吗?”,[...] 阅读这个类别的来源,即质量评估指南,了解更多谷歌试图理解这些不同类型的网站 [...] 这将为您提供有关实际情况的更多背景信息 [...]。”

实现面包屑结构化数据

39:56 “当涉及到面包屑结构化数据时,它是否必须与访问者在页面上看到的面包屑完全相同? 我有时会在页面上看到精简版的面包屑,而结构化数据是完整的面包屑路径。 两种选择都可以接受吗?”

正如 John 所说,“[...]我们尝试识别结构化数据是否在页面上可见。 如果不是 [...],我们必须弄清楚“在搜索结果中显示它仍然有意义吗?

如果您要在页面上显示较短版本的面包屑,而我们无法匹配,那么如果我们真的拿起面包屑标记并使用它,它可能会有点命中注定。

如果您正在获取单个面包屑或 [...] 面包屑列表中的单个项目,而您只是显示其中的一些而不是全部,则可能是我们只选择了这些。 可能我们仍然会选择其余的,因为我们看到 [...] 很多面包屑匹配。

如果您没有在页面上显示完整的面包屑标记,我们无法保证我们能够获取并使用完整的面包屑标记,这与其他类型的结构化数据类似。

我认为主要的例外 [...] 是 [...]常见问题标记,您有问题和答案,其中 [...] 重要的部分是问题实际上是可见的,答案可能类似于折叠部分页面,但 [...] 至少必须是可见的。”

仅翻译网站上的某些页面

44:00 “我们运营的网站只有不到 300 个英文索引页面。 我们希望将其中大约一半的页面翻译成西班牙语,这些页面将放置在同一域的子目录中,例如 /ES,并标记为英语内容的替代语言版本。 是否可以只翻译部分页面内容,或者我们应该翻译所有内容以完全反映英文网站并在其他位置获得最佳排名机会?”

约翰说:“只翻译网站上的一些页面就可以了。 我们分别查看页面的语言。 如果您有一些西班牙语页面,当有人用西班牙语搜索时,我们只会查看那些西班牙语页面。 我们不会说:'这里的英文页面比西班牙文页面多得多。 因此,西班牙网站不太重要。 [...] 这些是西班牙语页面,它们在西班牙语中的排名很高。 […] 对于用户来说,有时翻译尽可能多的内容是有意义的。 但通常情况下,随着时间的推移,你会逐渐改进,从一些页面开始,很好地本地化它们,然后添加更多页面[…]。

hreflang 注释也是基于每页的。 如果你有一些英文和西班牙文的页面,并且你链接了它们,那很好。 如果你有一些页面只是西班牙语,那很好——你不需要hreflang。 有些页面只有英文,这也很好。 从这个角度来看,这似乎是一个合理的开始方式。”

抓取预算和自动生成的 URL

46:12 “我所说的网站是一个 WordPress 网站。 它会自动生成多个不需要的 URL。 [...] 有没有办法阻止爬虫找出这些 URL? 我知道我可以“noindex”它,而且这些都是没有索引的 URL。 但是,我可以在 Search Console 的 Excluded 部分下看到它们。 [...] 这是一个新闻网站,我们有数千个 URL。 [...] 它会影响爬行预算吗?”

约翰询问了网站的大小,并被告知它有 5,000 到 10,000 个 URL。

鉴于此,约翰说:“我不会担心爬行预算。 [...] 我们可以相当快地爬取这么多页面,通常在几天内。 另一件事 [...] 是“noindex”是页面上的元标记。 我们必须抓取页面才能看到元标记,这意味着您无法避免我们检查“noindex”页面。 [...] 如果我们看到页面上有一个“noindex”,那么通常随着时间的推移,我们会减少对这些页面的抓取频率。 我们仍然会不时地仔细检查,但我们不会像其他被索引的普通页面那样检查。 另一种方法是使用 robots.txt。 使用 robots.txt 文件,您可以完全阻止对这些页面的抓取。 缺点是有时 URL 本身可以在搜索结果中编入索引,而不是页面上的内容 [...]。”

约翰还举了一个例子:

“如果您 [...] 有一个足球新闻网站,并且您有一些被阻止的文章和一些允许抓取的文章,那么如果有人在搜索足球新闻,他们会找到您页面的可索引版本,并且是否有其他页面被 robots.txt 阻止并不重要。 但是,如果有人明确对这些被阻止的页面进行站点查询,那么您将能够在搜索中看到这些 URL [...]。 在像你这样的情况下,[...] 我不会担心抓取预算。”

John 还补充说:“从实用的角度来看,'noindex' 和 robots.txt 都是等价的。 [...] 该内容可能不会出现在搜索结果中,如果有“noindex”,我们仍然需要抓取它,但数字太小了,它们并不重要。 如果它们被 robots.txt [...] 阻止,我们可能仍会使用 URL 对其进行索引。

关于首选方法,John 说:“我会选择对您而言更容易实施的方法。 如果 [...] 您有 WordPress,并且您可以在帖子上添加一个复选框,上面写着“此页面的 noindex”,那么这可能是最简单的方法 [...]。”

使用参数抓取 URL

54:25 “我们在我们的日志文件中看到,并且还通过 IEP 证明它是 Googlebot,从有机 bot 到 UTM 参数 URL、Google 展示和通用应用广告系列的大量爬网。 [...] 我们没有看到任何来自任何地方的链接到这些 URL。 [...] 你知道这可能发生在哪里或为什么会发生吗?”

John 回应说:“我们还使用 Googlebot 抓取您在广告活动中列出的页面 [...] 的一个地方是产品搜索。 如果您设置了产品搜索 Feed 或Merchant Center Feed [...],那么我们还将为 Googlebot 抓取这些页面,以确保我们可以为 Merchant Center 提取它们。 如果您在其中标记了 URL,[...] 我们将保留这些标记的 URL 并重新处理它们。

也可能是其他人能够提交此类产品,[...] 提交它们的不一定是您,而是代表您工作或有权这样做的人。

如果我们在某处找到这些页面的链接,我们将尝试抓取它们。 如果您在网站内标记了内部链接,我们仍会尝试提取并抓取该链接。 如果您在 JavaScript 中设置了一些东西,也许您在某处设置了带有这些参数的跟踪 URL,并且当我们处理 JavaScript 时,它看起来像是指向这些跟踪 URL 的链接,我们也可以处理它。 [...] 在我看来,这不是个别案例 [...],而是大量此类 URL,感觉很像 Merchant Center 方面的事情。”