JavaScript SEO: 従うべきベスト プラクティス
公開: 2018-11-27序章:
JavaScript と SEO の関係は長い間議論されてきたトピックであり、Java の基本を理解することは SEO 専門家の重要なタスクになっています。 開発中の Web サイトのほとんどは、プログラミング言語として JavaScript を使用しています。 優れたフレームワークを使用して Web ページを作成し、そのページのさまざまな要素を制御します。
JS フレームワークは、最初はブラウザーのクライアント側にのみ実装されていましたが、クライアント側のレンダリングには多くの問題がありました。 最近では、ホスト ソフトウェアや Web サーバーのサーバー側にも組み込まれ、苦痛やトラブルを軽減しています。 このイニシアチブは、Java で記述された Web ページの検索エンジンの価値を高めるために、JavaScript と SEO プラクティスを組み合わせる道も切り開いてきました。
![]()
JavaScript は SEO にどのように影響しますか?
両者の関係は、仮想世界では何年も明確に理解されていませんでした。 10 年前までは、JavaScript を使用して Web ページを作成することはよく知られており、コンテンツの言い回しや理解において、JavaScript が検索エンジンに与える影響について明確な考えがありませんでした。 検索エンジンも、JS コンテンツを適切に処理できませんでした。
時間が経つにつれて、Google は JS で記述された Web サイトの処理に関する立場を変更しました。 検索エンジンが JS の Web サイトをクロールできるかどうか、また Google がそのような Web サイトをランク付けできるかどうかについては、大きな疑問がありました。 JS を使用した Web サイトには、並外れた利点があります。優れた読み込み時間、より高速なサーバー、およびサーバーの応答を待たずにコード機能を即座に実行できます。 より豊富なインターフェースと汎用性を備えた JS Web サイトを簡単に実装できました。 しかし、JavaScript SEO は途中で多くの問題を引き起こし、Web マスターは JS コードに基づくコンテンツを最適化できませんでした。
Google などの検索エンジンは、JavaScript コードをクロールすることはできませんでしたが、インデックスを作成してランク付けすることはできました。 現在、ウェブマスターは、Google が生成されたコンテンツを簡単に理解し、検索エンジンでウェブページをランク付けできるようにする方法を考えなければなりません。 このアプローチの邪魔になるツールやプラグインはたくさんあります。
Google は JavaScript をどのように読み取るのですか?
前述のとおり、JS コードで記述された Web ページを Google がクロールするのは非常に困難です。 クロール プロセスは新しい発見がすべてであり、そのプロセスは複雑です。 Web クローラーまたはスパイダーを使用して機能を実行します。 Googlebot は、インデックス作成の観点から Web サイトを 301 ページのように扱う人気のあるクローラーの 1 つです。 このようなインデックス付き URL は、リダイレクトされた URL に置き換えられます。
Googlebot はウェブページを識別し、ウェブページがインデックスに登録されるまでページ内のリンクをたどります。 これは、ページをレンダリングせず、ソース コードを分析し、スクリプトで見つかった URL を抽出するだけの解析モジュールを使用して実現されます。 これらの Web スパイダーは、HTML コードとハイパーリンクも検証できます。 Googlebot は、robots.txt ファイルを使用して、クロールするページとフォローしないページを通知することで支援できます。
この方法により、クローラーは Web ページのコード データにアクセスします。 robots.txt ファイルを使用して、ユーザーに表示するページとアクセスしないページを Google に指示できます。 同じファイルを使用して、ランキングの低下やエラーを回避し、ボットの速度を向上させることもできます.
JavaScript ウェブサイトを SEO フレンドリーにする方法
当初、検索エンジンには、AJAX および JS スクリプトに基づく Web サイトを処理する機能が備わっていませんでした。 システムは、これらのコードに書かれたページを理解できず、ユーザーと Web サイトの両方に影響を与えました。 現代の SEO 専門家は、Web ページをランク付けする前に、ドキュメント オブジェクト モデルの基礎を理解して調査および分析する必要があります。 2018 年から、Google は JavaScript Web ページをレンダリングするために AJAX を要求しなくなりました。
HTML ドキュメントを受信してその JS 要素を識別した後、Google ブラウザーは DOM を開始し、検索エンジンが Web ページをランク付けできるようにします。 JavaScript Web ページを SEO フレンドリーにするためのいくつかのイニシアチブは、次のとおりです。
1. JS ページを検索エンジンに表示する:
robots.txt ファイルは、検索エンジンに十分なクロールの機会を提供します。それらをブロックすると、Web クローラーにとってページが異なって表示されます。 したがって、検索エンジンは完全なユーザー エクスペリエンスを得ることができず、Google はそのような行為をクローキングと見なす可能性があります。 Web クローラーがユーザーと同じ方法で Web ページを表示するには、すべてのリソースをレンダリングすることが重要です。
2. 内部リンク:
これは、Web サイトのアーキテクチャを構築し、いくつかの重要な Web ページを検索エンジンに投影するための強力な SEO ツールです。 これらの内部リンクは、JS オンクリックに置き換えるべきではありません。 ユーザー エクスペリエンスを向上させるために、通常の HTML または DOM タグを使用して内部リンクを作成できます。
3. URL の構造:
JS Web サイトには、ハッシュバングやローン ハッシュなどの URL を含むフラグメント ID が含まれていますが、これは Google では厳密には受け入れられません。 アドレスバーの URL を更新し、JS Web サイトがクリア URL を利用できるようにするため、API を使用することをお勧めします。 明確な URL は、技術者ではないユーザーでも理解できるため、検索エンジンにとって使いやすいものです。
4. ウェブサイトのテスト:
Google はさまざまな形式の JS Web ページをクロールできますが、一部のページは他のページよりも難しいようです。 したがって、Web サイトをテストして、起こりうる問題や間違いを予測し、それらを回避することが重要です。 Web ページのコンテンツが DOM に表示されるかどうかを確認することが重要です。 Google がコンテンツをインデックスに登録できるかどうかを確認するために、いくつかの Web ページをチェックする必要があります。
5. HTML スナップショット:
Google は引き続き HTML スナップショットをサポートしていますが、避けるべき要素としてこれらを提案しています。 これらは、検索エンジンが Web サイト上の JS を把握できない場合に重要になります。 HTML スナップショットを検索エンジンの Web クローラーに返すことは、コンテンツが完全に拒否されるよりも優れています。

ただし、現在 JavaScript に問題があり、サポート チームに連絡できない場合にのみ行ってください。
6. ウェブサイトの待ち時間:
ブラウザーが HTML ドキュメントで DOM を作成すると、大量のファイルがドキュメントの上に存在し、他のすべての情報が後で表示されます。 ユーザーにとって重要な情報を最初に導くことが望まれます。 サイトの遅延を回避し、Web サイトを SEO フレンドリーにするために、最も重要な情報を一番上に表示する必要があります。
JavaScript SEO の原則:
JS SEOの原則は次のとおりです。
1. サーバー側のレンダリングを実行します。
サーバー レンダリングで使用されている技術が何であれ、普遍的なアプローチが使用されていることを確認する必要があります。 また、Web クローラーが検索エンジンにリストする適切なページを簡単にレンダリングできます。
2. 画像ギャラリーの交換:
ほとんどの Web サイト開発者は、多くの画像を組み込むことでパフォーマンスを向上させる傾向があります。 しかし、検索エンジンは画像に依存し、画像固有のトラフィックをレンダリングします。 すべての画像をレンダリングするために、Web サイト開発者は jQuery を使用したアーキテクチャを使用して、検索エンジンに表示される内容を制御する必要があります。
3. タブ化されたコンテンツを処理します。
Web サイトには、コンテンツを入れ替える単一のブロック要素がある傾向がありますが、これは、最初のタブのコンテンツのみがインデックス化され、他のタブはインデックス化されないことも意味します。 返品ポリシーとプライバシーに関する声明のページを除いて、ウェブサイトのその他の重要なコンテンツは、このカテゴリに分類されるべきではありません.
4. ページ付けされたコンテンツ:
Web ページで最初に表示されるデータのみがインデックス化され、残りはインデックス化されません。 そのため、他のページのコンテンツも、検索エンジンが簡単に解決できる URL にリンクしてリンクする必要があります。
5. メタデータ:
メタデータとそのルーティングによる更新は、JS 指向の Web サイトにとって悪夢になる可能性があります。 Vivaldi などのソリューションは、初期読み込みとそのナビゲーション ページの両方でメタデータを迅速に作成できるため、問題ありません。 ページ間を移動するユーザー エクスペリエンスにも一貫性があるため、Google はそれらをランキングの対象と見なします。
JS フレームワークの SEO の基本:
JavaScript フレームワークの SEO の基本は次のとおりです。 これらの主要な原則要素は、検索エンジンで JS コンテンツのランキングをインデックス化する際に Web ページ開発者が直面する問題や疑問を解決するのに役立ちます。
- load イベントでフレーム化されたコンテンツはインデックス可能である必要があります
- ユーザー イベントに依存するコンテンツは、検索エンジンでインデックス付けできません
- ページには、検索エンジンのランキングに対するサーバー側のサポートとともに、最適な URL が必要です。
- 従来のページと同様に、SEO プラクティスを使用して、レンダリングされた HTML 要素を検査することが重要です。
- HTML バージョン間の矛盾を避けることが重要です。
SEO Web サイトに JavaScript 実装を実装することにはいくつかのリスクがあり、ユーザーはコア原則について学び、Web サイトの実装も修正する必要があります。 リスク許容度は、JS に SEO を実装する際の重要な機能です。 しかし、HTML から Web サイト全体を移行し、時間と適切なテストを行って Google でランク付けすることは可能です。
JavaScript SEO のベスト プラクティス:
多くの検索エンジン クローラーは、JS ベースの Web サイトのクロールに問題を抱えており、その結果、ブランド マネージャーや Web 開発者は、Java ベースのプラットフォームで Web ページを作成することをやめています。 しかし実際、JS ベースの Web サイトの中には、優れたユーザー エクスペリエンスを提供するものもあります。 SEO を JS と戦略的に連携させ、ウェブサイトの開発者とエンドユーザーがテクノロジーが提供するものを最大限に活用できるようにする時が来ました。
SEO と JS を組み合わせるベスト プラクティスの 1 つは、Google 検索でのページ レンダリングです。 これは、検索エンジンがソース コードではなくレンダリングされたページをクロールするためです。 ソース コードだけを考慮すると、多くの情報が見落とされる可能性があり、そのようなレンダリングされたページをクロールするのは時間がかかり、情報の価値はほとんどありません。
Googlebot は、Web サイトを最適化するのに最適な場所である Web のレンダリング サービスを利用します。 URL 構造は、ページにアクセスするときにクローラーを引き付ける最初の興味深いものです。 JS SEO のベスト プラクティスの 1 つは、検索エンジンが Web サイトの URL にアクセスできるようにすることです。 JS Web ページは多くのハッシュタグを使用する傾向があり、ハッシュタグの後にあるものはサーバーに送信されず、Google によって識別されません。 これに代わる最良の方法は、Google に URL を考慮するように指示する hashbang です。 Web サイトのクローラーが URL を追跡できるようにする 1 つの方法は、Web ページでクリーンな URL を使用し、Web サイト API のプッシュ状態機能を利用することです。
検索エンジンがクロールしてたどることができる内部リンクを使用することも良い方法です。 Web サイト全体の内部リンクは、SEO のベスト プラクティスに役立ち、Web のコンテンツを宣伝する機会にもなります。
コンテンツの読み込み時間を高速化することは、JS ページでの効率的な SEO の実践です。 メタデータは、サイトの特定の場所で多くの情報を提供し、優れたナビゲーションを容易にするため、ここでは最良の戦術です. タブ化されたコンテンツを使用して、読み込み時間を短縮することもできます。 2 番目、3 番目、および 4 番目のタブのコンテンツは、ユーザーがまだ最初のタブをナビゲートしている間にロードし続けることができます。 しかし、Google がコンテンツが隠されているページに到達すると、検索クローラーから逃れます。 したがって、ベスト プラクティスは、これらのタブごとに独立したページを作成することです。
結論:
ビジネスの成功のために、ウェブサイトは、オーディエンスがコンテンツにアクセスして読むことができるようにする必要があります。 アクセシビリティを容易にするために、Google はページを検索エンジンの上位にランク付けする必要があります。 ウェブサイトの見栄えを良くするための十分な技術があります。 しかし、検索エンジンがそのコンテンツにアクセスできない場合、Web の可視性は非常に多くのフォールドをドロップします。 したがって、SEO は、ビジネスの収益性のために可視性とトラフィックを強化するために、テクノロジーの限界に取り組み、適応する必要があります。
