JavaScript SEO:您需要遵循的最佳实践
已发表: 2018-11-27介绍:
JavaScript 和 SEO 之间的关系一直是一个争论不休的话题,了解 Java 的基础知识已成为 SEO 专业人员的一项重要任务。 大多数开发中的网站都使用 JavaScript 作为其编程语言。 它使用优秀的框架来创建网页,并控制该页面中的不同元素。
JS 框架最初只在浏览器的客户端实现,同时在客户端渲染方面带来了很多麻烦。 最近,它也被嵌入到主机软件和Web服务器的服务器端,以减少痛苦和麻烦。 这一举措还为将 JavaScript 与 SEO 实践相结合铺平了道路,以提高用 Java 编写的网页的搜索引擎价值。
![]()
JavaScript 如何影响 SEO?
多年来,在虚拟世界中,两者之间的关系并不清楚。 十年前,使用 JavaScript 创建网页是一种著名的做法,但并不清楚它对搜索引擎在措辞和理解内容方面的影响。 搜索引擎也无法充分处理 JS 内容。
随着时间的推移,谷歌改变了处理用 JS 编写的网站的立场。 搜索引擎是否能够抓取 JS 网站以及 Google 是否能够对此类网站进行排名存在极大的疑问。 带有 JS 的网站在其发展过程中具有非凡的优势,它们具有出色的加载时间、更快的服务器以及代码功能可以立即运行而无需等待服务器响应。 实现具有更丰富界面和多功能性的 JS 网站很容易。 但是 JavaScript SEO 在此过程中带来了很多问题,并且网站管理员未能优化基于 JS 代码的内容。
谷歌等搜索引擎无法抓取 JavaScript 代码,但能够对其进行索引和排名。 现在网站管理员必须想办法让谷歌更容易理解生成的内容并帮助它在搜索引擎中对网页进行排名。 有很多工具和插件阻碍了这种方法。
Google 如何读取 JavaScript?
如前所述,Google 很难抓取用 JS 代码编写的网页。 爬取过程都是关于新发现的,过程很复杂。 它使用网络爬虫或蜘蛛来完成该功能。 Googlebot 是此类流行的爬虫之一,从索引的角度来看,它会将网站视为 301 页面。 此类编入索引的 URL 将被重定向的 URL 替换。
Googlebot 会识别网页并跟踪网页中的链接,直到网页被编入索引为止。 这是通过使用解析模块完成的,该模块不呈现页面,而仅分析源代码并提取在脚本中找到的 URL。 这些网络蜘蛛也能够验证 HTML 代码和超链接。 可以通过使用 robots.txt 文件通知哪些页面要抓取以及哪些页面不应该跟踪来帮助 Googlebot。
通过这种方法,爬虫可以访问网页的代码数据。 robots.txt 文件可用于指示 Google 我们希望用户查看哪些页面以及不访问哪些页面。 相同的文件可以用来避免排名下降和错误,也可以提高机器人的速度。
如何使您的 JavaScript 网站 SEO 友好?
一开始,搜索引擎并不能处理基于 AJAX 和 JS 脚本的网站。 系统无法理解写在这些代码上的页面,这让用户和网站都深受其害。 现代 SEO 专业人员应该了解文档对象模型的基础,以便在对网页进行排名之前探索和分析网页。 从 2018 年开始,Google 不再需要 AJAX 来呈现 JavaScript 网页。
在接收到 HTML 文档并识别其 JS 元素后,Google 浏览器会启动 DOM,使搜索引擎能够对网页进行排名。 使 JavaScript 网页 SEO 友好的一些举措是,
1. 让 JS 页面对搜索引擎可见:
Robots.txt 文件为搜索引擎提供了足够的爬取机会,阻止它们会使网页对于网络爬虫来说看起来不同。 因此,搜索引擎无法获得完整的用户体验,Google 可能会将此类行为视为伪装。 为网络爬虫呈现所有资源以以与用户相同的方式查看网页非常重要。
2.内部链接:
这是一个强大的 SEO 工具,用于构建网站架构并将一些重要的网页投射到搜索引擎。 这些内部链接不应被 JS 的点击所取代。 内部链接可以使用常规 HTML 或 DOM 标签构建,以获得更好的用户体验。
3. URL的结构:
JS 网站包含带有其 URL 的片段标识,例如 hashbangs 和单独的哈希,这是谷歌严格不接受的。 建议使用 API,因为它们会更新地址栏中的 URL,并允许 JS 网站利用清晰的 URL。 清晰的 URL 对搜索引擎友好,因为即使非技术用户也能理解。
4. 测试网站:
尽管 Google 能够抓取多种形式的 JS 网页,但其中一些似乎比其他网页更具挑战性。 因此,测试网站以预测可能的问题和错误并避免它们非常重要。 检查网页上的内容是否出现在 DOM 中很重要。 应检查少数网页以确保 Google 是否能够索引内容。

5. HTML 快照:
Google 仍然支持 HTML 快照,尽管它建议将这些作为要避免的元素。 如果搜索引擎无法掌握网站上的 JS,这些将很重要。 将 HTML 快照返回给搜索引擎网络爬虫比完全拒绝内容要好。
但是,只有在 JavaScript 当前存在不正确且无法联系您的支持团队的情况下才这样做。
6.网站的延迟:
当浏览器使用 HTML 文档创建 DOM 时,文档顶部存在大量文件,并且所有其他信息稍后会出现。 希望首先引导对用户至关重要的信息。 最重要的信息应该放在首位,以避免网站延迟并使网站 SEO 友好。
JavaScript SEO的原则:
以下是JS SEO的原则
1. 完成服务端渲染:
无论服务器渲染使用什么技术,都必须确保使用通用方法。 它还可以轻松地为网络爬虫呈现合适的页面以在搜索引擎中列出。
2. 交换图片库:
大多数网站开发人员倾向于通过合并大量图像来提高性能。 但是搜索引擎将依赖图像并将它们呈现为特定于图像的流量。 为了呈现所有图像,网站开发人员必须使用使用 jQuery 的架构来控制搜索引擎中显示的内容。
3.处理标签内容:
网站倾向于使用单个块元素来交换内容,但这也意味着只有第一个选项卡中的内容会被索引,而其他选项卡不会。 除退货政策和隐私声明中的页面外,网站的其他重要内容不应归入此类别。
4. 分页的内容:
只有网页中最先出现的数据被编入索引,其余的则不被编入索引。 所以其他页面上的内容也应该链接到搜索引擎容易解析链接的URL。
5. 元数据:
元数据更新及其路由对于面向 JS 的网站来说可能是噩梦。 Vivaldi 之类的解决方案很好,因为它允许在初始加载及其导航页面中快速创建元数据。 在页面之间导航的用户体验也有一致性,因此谷歌将它们视为排名。
JS 框架的 SEO 基础知识:
JavaScript 框架的 SEO 基础可以列举如下。 这些核心原则元素将有助于解决网页开发人员在索引 JS 内容在搜索引擎中的排名时所面临的任何问题和疑问
- 用加载事件框定的内容应该是可索引的
- 依赖于用户事件的内容不能被搜索引擎索引
- 页面需要最佳 URL 以及对搜索引擎排名的服务器端支持。
- 与传统页面一样,使用 SEO 实践检查呈现的 HTML 元素非常重要。
- 避免 HTML 版本之间的矛盾很重要。
为 SEO 网站实施 JavaScript 实施确实存在一些风险,并且需要用户学习核心原则并修改网站实施。 在为 JS 实施 SEO 时,风险承受能力是一项重要功能。 但是可以从 HTML 迁移整个网站,并通过时间和足够的测试让它们在 Google 中排名。
JavaScript SEO 最佳实践:
许多搜索引擎爬虫难以爬取基于 JS 的网站,因此品牌经理和 Web 开发人员停止在基于 Java 的平台上创建网页。 但确实一些基于 JS 的网站非常出色,用户体验非常好。 现在是我们让 SEO 与 JS 进行战略合作并帮助网站开发人员和最终用户充分利用技术提供给他们的最佳时机。
将 SEO 和 JS 配对的最佳实践之一是在 Google 搜索上呈现页面。 这是因为搜索引擎抓取呈现的页面而不是源代码。 仅考虑源代码可能会遗漏很多内容,并且爬取此类呈现的页面非常耗时,并且对信息的价值很小。
Googlebot 使用来自网络的渲染服务,这是优化网站的最佳位置。 URL 结构是在访问页面时吸引爬虫的第一个有趣的东西。 JS SEO 的一种最佳实践是让搜索引擎可以访问网站 URL。 JS 网页倾向于使用大量的 hast 标签,并且标签之后的任何内容都不会发送到服务器并被 Google 识别。 最好的替代方法是告诉 Google 考虑 URL 的 hashbang。 使网站爬虫能够跟踪 URL 的一种方法是在网页中使用干净的 URL,并利用网站 API 的推送状态功能。
使用可以被搜索引擎抓取和跟踪的内部链接也是一种很好的做法。 整个网站的内部链接将有助于最佳 SEO 实践,也为推广网络内容提供了机会。
加快内容加载时间是 JS 页面中一种有效的 SEO 实践。 元数据是这里最好的策略,因为它在站点的特定位置提供了大量信息,并且还有助于出色的导航。 选项卡式内容也可用于加快加载时间。 当用户仍在浏览第一个选项卡时,第二个、第三个和第四个选项卡上的内容可以继续加载。 但是当谷歌登陆那些内容被隐藏的页面时,它就会从搜索爬虫中逃脱。 因此,最佳实践是为每个选项卡创建独立的页面。
结论:
为了商业成功,网站必须确保受众能够访问和阅读内容。 为了便于访问,谷歌必须在搜索引擎的顶部对页面进行排名。 有足够的技术来确保网站看起来很棒。 但是,如果搜索引擎无法访问该内容,那么网络可见性就会下降太多。 因此,搜索引擎优化需要工作并适应技术的限制,以提高业务盈利能力的知名度和流量。
