SEOオフィスアワー、2022年7月1日

公開: 2022-07-19

これは、2022年7月1日のジョンミューラーGoogleSEOオフィスアワーからの最も興味深い質問と回答の要約です

内容を隠す
1PageSpeedInsightsまたはGoogleSearchConsole –どちらがより正確ですか?
2なぜGooglebotはJavaScriptベースのページのインデックス作成に苦労しているのですか?
3 HTTPページへのリンクはWebサイトのSEOに影響しますか?
4否認ファイルを削除する必要がありますか?
5 robots.txtまたはrobotsメタタグを使用してクロールをブロックする方がよいですか?
6複数のサイトマップファイル内に同じURLを配置できますか?
7埋め込まれたビデオページがインデックスに登録されないようにするにはどうすればよいですか?

PageSpeedInsightsまたはGoogleSearchConsole –どちらがより正確ですか?

0:44 「自分のWebサイトでPageSpeedInsightsのスコアを確認すると、単純な数値が表示されます。 これが検索コンソールとコアWebバイタルレポートに表示されるものと一致しないのはなぜですか? これらの数字のどれが正しいですか?」

ジョンによると、「[…]速度に関しては正しい数字はありません。ウェブサイトがユーザーに対してどのように機能しているかを理解することに関しては。 PageSpeed Insightsでは、デフォルトで、0から100までのスコアである単一の数値が表示されると思います。これは、さまざまなものがユーザーにとって少し速いまたは遅いと仮定するいくつかの仮定に基づいています。 そして、それに基づいてスコアを計算します。

Search Consoleには、速度、応答性、双方向性の3つの数値に基づくCoreWebVitals情報があります。 もちろん、これらの数字はわずかに異なります。これは、1つの数字だけでなく、3つの数字だからです。 しかし、また、これらの数値の決定方法にも大きな違いがあります。 つまり、いわゆるフィールドデータとラボデータには違いがあります。

フィールドデータは、ユーザーがWebサイトにアクセスしたときに表示されるデータです。 そして、これは私たちが検索コンソールで使用するものです。 それは私たちが検索にも使用するものです。 ラボデータはWebサイトの理論上のビューですが、システムには、この種のデバイスを使用し、おそらくこの種の接続を使用して、平均的なユーザーがおそらくこのように考えているという特定の仮定があります。 そして、それらの仮定に基づいて、平均的なユーザーにとってこれらの数値がどうなるかを推定します。 あなたはそれらの見積もりが100%正しいことは決してないだろうと想像することができます。

同様に、ユーザーが見たデータは時間の経過とともに変化します。一部のユーザーは非常に高速な接続または高速なデバイスを使用し、Webサイト上またはWebサイトにアクセスするとすべてが高速になり、他のユーザーはそうではない場合があります。それを持っています。 そのため、この変動は常に異なる数になる可能性があります。

通常、検索コンソールに表示されるフィールドデータを使用して、Webサイトの現在の状況を理解し、ラボデータ、つまり実行できる個々のテストを使用することをお勧めします。あなた自身を直接、あなたのウェブサイトを最適化し、物事を改善しようとします。 また、新しいバージョンのWebサイトで取得したラボデータにかなり満足している場合は、時間の経過とともにフィールドデータを収集できます。これは自動的に行われ、ユーザーがより高速であるかどうかを再確認します。応答性も向上します。

したがって、要するに、これらのメトリックのいずれかに関しては、正しい数値はありません。 […]しかし、むしろ、データを収集するためのさまざまな仮定とさまざまな方法があり、これらのそれぞれは微妙に異なります。」

GooglebotがJavaScriptベースのページのインデックス作成に苦労しているのはなぜですか?

4:19 「robots.txtやサイトマップファイルなしでNext.jsを使用している顧客ページがいくつかあります。 理論的には、Googlebotはこれらすべてのページにアクセスできますが、なぜホームページだけがインデックスに登録されるのでしょうか。 検索コンソールにエラーや警告はありません。 Googlebotが他のページを見つけられないのはなぜですか?」

Johnは次のように述べています。「[…]Next.jsはJavaScriptフレームワークです。つまり、ページ全体がJavaScriptで生成されます。 しかし、一般的な答えも、たとえば、Googleがすべてをインデックスに登録しないのはなぜですか? Googlebotはウェブサイト全体ですべてをインデックスに登録することは決してないということを最初に言うことが重要です。 グーグルがすべてを完全にインデックスに登録することは、自明ではないサイズのウェブサイトには起こらないと思います。 実用的な観点からは、Web全体のすべてにインデックスを付けることはできません。 理想的な状況がすべてであるという仮定が索引付けされるように、私はそれを脇に置いて、Googlebotに重要なページに焦点を合わせてほしいと言います。

もう1つは、Twitterで連絡を取り、自分のWebサイトについてもう少し情報を教えてくれたときに、もう少し明確になりました。それは、Webサイトが他のページへのリンクを生成する方法がグーグルが拾うことができなかった方法で。 したがって、特にJavaScriptを使用すると、HTMLページの任意の要素を取得して、誰かがこれをクリックした場合に、このJavaScriptを実行すると言うことができます。 そして、JavaScriptのその部分は、たとえば、別のページに移動することです。 また、 Googlebotはすべての要素をクリックして何が起こるかを確認するのではなく、通常のHTMLリンクを探します。これは、ウェブサイトの個々のページにリンクする従来の通常の方法です。

そして、このフレームワークでは、これらの通常のHTMLリンクは生成されませんでした。 そのため、クロールするページや見るページがまだまだあることを認識できませんでした。 そして、これはJavaScriptサイトを実装する方法で修正できるものです。 JavaScriptSEOに関する検索開発者向けドキュメントのサイトには、特にリンクのトピックに関する大量の情報があります。これは、リンクがときどき出てくるためです。 リンクを作成するための創造的な方法はたくさんあり、Googlebotはそれを機能させるためにそれらのHTMLリンクを見つける必要があります。 […]」

また、Googleの公式ドキュメントを除いて、ブログでJavaScriptSEOの究極のガイドを確認してください。 「「

HTTPページへのリンクはあなたのウェブサイトのSEOに影響を与えますか?

7:35 「私のページが外部の安全でないウェブサイトにリンクしている場合、それは私のSEOスコアに悪影響を及ぼしますか? つまり、HTTPSではなくHTTPです。」

ジョンは次のように述べています。「まず、SEOスコアの概念がないため、SEOスコアについて心配する必要はありません。

しかし、それにもかかわらず、私は質問が次のようなものであることを理解しています:HTTPSページではなくHTTPページにリンクするのは悪いことですか。 そして、私たちの観点からは、それは完全に問題ありません。 これらのページがHTTP上にある場合は、それをリンクします。 それはユーザーが見つけることを期待するものです。 そのようなサイトにリンクすることに反対するものは何もありません。 HTTPページは古く、無愛想で、HTTPSほどクールではないため、HTTPページへのリンクを回避するというWebサイトの欠点はありません。 私はそれについて心配しません。」

否認ファイルを削除する必要がありますか?

10:16 「過去15年間で、合計11,000を超えるリンクを否認しました。 […]私が否認したリンクは、ハッキングされたサイトからのものか、意味のない自動生成コンテンツからのものである可能性があります。 Googleは現在、これらのタイプのハッキングされたリンクやスパムリンクをアルゴリズムに織り込まないためのより優れたツールがあると主張しているので、否認ファイルを削除する必要がありますか? 削除するだけのリスクやデメリットはありますか?」

ジョンは次のように答えました。「[…]グーグルがおそらくあなたに完全な情報を伝えていないように感じるので、リンクを否定することは常にそれらのトリッキーなトピックの1つです。

しかし、私たちの観点からは、[…]これらのリンクを考慮に入れないように一生懸命取り組んでいます。 そして、私たちは、リンクの否認ツールがややニッチなツールであり、SEOがそれを知っていることを知っているので、それを行いますが、Webサイトを運営する平均的な人はそれについて知りません。 そして、あなたが言及したそれらのリンクのすべては、どんなウェブサイトも何年にもわたって得る種類のリンクです。 そして、私たちのシステムは、これらが私たちのアルゴリズムをゲーム化するためにあなたがやろうとしていることではないことを理解しています。

したがって、その観点から、これらのリンクに関して解決しなければならない手動アクションの周りに何もないことが確実な場合は、否認ファイルを削除し、 […]すべてを脇に置きます。 私が個人的に行うことの1つは、それをダウンロードしてコピーを作成し、削除したものの記録を残すことです。 しかし、そうでなければ、これらがインターネットからの通常の無愛想なものであると確信している場合は、それを削除して次に進みます。 ウェブサイトに関しては、ウェブ上のウェブサイトで発生するこれらのランダムなことを単に否定するだけでなく、時間を費やすことがはるかに多くあります。」

robots.txtまたはrobotsメタタグでクロールをブロックする方が良いですか?

14:19 「どちらが良いですか: robots.txtでブロックするか、ページのrobotsメタタグを使用しますか? クロールを防ぐにはどうすればよいですか?」

ジョン:「[…]最近、これについてもポッドキャストのエピソードを行いました だから私はそれをチェックします。 […]

実際には、ここには微妙な違いがあります。SEOを使用していて、検索エンジンを使用したことがある場合は、おそらくそれをすでに理解しているはずです。 しかし、この地域に不慣れな人にとっては、これらすべての線がどこにあるのか正確にわからないことがあります。

質問で最初に言及したrobots.txtを使用すると、クロールをブロックできます。 そのため、Googlebotが自分のページを見ることさえできないようにすることができます。 また、robotsメタタグを使用すると、Googlebotがページを確認し、robotsメタタグを確認すると、インデックス作成のブロックなどを行うことができます。 実際には、これらは両方とも検索結果にページが表示されない結果になりますが、微妙に異なります。

したがって、クロールできない場合は、何が欠けているのかわかりません。 そして、実際には、このページへの参照がたくさんあると言っているのかもしれません。 多分それは何かに役立ちます。 わかりません。 そして、そのURLは、私たちが見ることができないため、そのコンテンツなしで検索結果に表示される可能性があります。 一方、robotsメタタグでは、ページを見ることができれば、メタタグを見て、たとえばそこにnoindexがあるかどうかを確認できます。 次に、そのページのインデックス作成を停止し、検索結果から完全に削除します。

したがって、クロールをブロックしようとしている場合は、間違いなく、robots.txtが最適です。 ページを検索結果に表示したくない場合は、実装しやすい方を選択します。 一部のサイトでは、このページを検索で見つけたくないというチェックボックスを設定する方が簡単です。そうすると、noindexメタタグが追加されます。 また、robots.txtファイルの編集が簡単な場合もあります。 [それは]あなたがそこに何を持っているかに依存します。」

複数のサイトマップファイル内に同じURLを配置できますか?

16:40XMLサイトマップに異なる属性を持つ重複したURLがあることには、マイナスの影響がありますか? たとえば、hreflangアノテーションが付いた1つのサイトマップの1つのURLと、そのアノテーションが付いていない別のサイトマップの同じURLです。」

ジョンは次のように述べています。「[…]私たちの観点からすると、これはまったく問題ありません。 […]これは時々起こります。 一部の人々は、サイトマップファイルにhreflang注釈が明確に分離されており、その後、すべてのサイトマップファイルにも通常のサイトマップファイルがあります。 そして、そこにはいくつかの重複があります。

私たちの観点からは、これらのサイトマップファイルを可能な限り処理し、そのすべての情報を考慮に入れます。 複数のサイトマップファイルに同じURLを含めることにはマイナス面はありません。  

私が注意する唯一のことは、これらのサイトマップファイルに矛盾する情報がないことです。 たとえば、hreflangアノテーションを使用すると、このページはドイツ向けであり、他のサイトマップファイルでは、実際にはこのページもフランス向けであると言っています[…]システムは、まあ、ここで何が起こっているのかというようなものかもしれません。 この注釈の組み合わせをどうするかはわかりません。 そして、どちらかを選ぶことが起こり得ます。

同様に、このページは20年前に最後に変更されたと言えば[…]、他のサイトマップファイルでは、実際には5分前だったと言えます。 次に、私たちのシステムはそれを見て、あなたの1人が間違っていると言うかもしれません。 どれかわかりません。 たぶん、どちらかをフォローします。 たぶん、その最終変更日を完全に無視します。 ですから、それは注意すべきことです。

ただし、それ以外の場合は、複数のサイトマップファイルについて言及されていて、情報が一貫しているか、連携して機能している場合は、一方に最終変更日があり、もう一方にhreflangアノテーションが付いている可能性があります。これは、まったく問題ありません。」

埋め込まれたビデオページがインデックスに登録されないようにするにはどうすればよいですか?

19:00 「私はビデオ再生プラットフォームを担当しています。埋め込みには個別にインデックスが付けられることがあります。 どうすればそれを防ぐことができますか?」

ジョンは次のように答えました。「[…]私はウェブサイトを見ました。これらは、ビデオプレーヤーが埋め込まれた簡略化されたHTMLページを含むiframeです。

技術的な観点から、ページにiframeコンテンツがある場合、これら2つのHTMLページが表示されます。 また、これらのHTMLページは別々のHTMLページであるため、システムが両方のHTMLページにインデックスを付けた可能性があります。 通常、一方はもう一方に含まれますが、理論的にはそれ自体で立つこともできます。

そして、それを防ぐ1つの方法があります。これは、ロボットのメタタグとのかなり新しい組み合わせです。これは、インデックスが埋め込まれたロボットのメタタグnoindexのロボットのメタタグを組み合わせたものです。

また、埋め込みバージョンでは、ビデオが直接含まれているHTMLファイルで、noindexとindexifembeddedrobotsメタタグの組み合わせを追加します。 つまり、そのページを個別に見つけると、noindex[タグ]があることがわかります。 これにインデックスを付ける必要はありません。

しかし、indexifembededを使用すると、[…]一般的なWebサイトにビデオが埋め込まれているこのページを見つけた場合、そのビデオコンテンツにインデックスを付けることができます。つまり、個々のHTMLページはインデックスに登録されません。 ただし、ビデオ情報が埋め込まれたHTMLページは、通常どおりインデックスに登録されます。 これが私がそこで使用するセットアップです。 そして、これはかなり新しいロボットのメタタグなので、誰もが必要とするわけではありません。 iframeコンテンツまたは埋め込みコンテンツのこの組み合わせはまれであるためです。 しかし、一部のサイトでは、そのようにするのが理にかなっています。」