SEOオフィスアワー、2022年6月3日

公開: 2022-07-04

これは、2022年6月3日のジョンミューラーGoogleSEOオフィスアワーからの最も興味深い質問と回答の要約です

内容を隠す
1ページで2つのHTTP結果コードを使用できますか?
2私のサイトが私の主国ですでに高速である場合、CDNを使用するとランキングが向上しますか?
3クロールを減らすためにAPIリクエストを禁止する必要がありますか?
4内部リンクでrel=” nofollow”を使用する必要がありますか?
5サイトリンクを強制的に表示する方法はありますか?
6私たちのサイトはiframeでPDFを埋め込んでいますが、テキストをOCRする必要がありますか?
7 Googleは構造化データマークアップでURLをクロールしますか?

1つのページで2つのHTTP結果コードを使用できますか?

1:22 「[…]理論的には、ページに2つの異なるHTTP結果コードを含めることは可能ですが、Googleはこれら2つのコードをどのように処理しますか? グーグルもそれらを見ますか? はいの場合、Googleは何をしますか? たとえば、503と302です。」

Johnの応答は次のとおりです。「[…]HTTP結果コードを使用すると、さまざまなものを含めることができます。 Googleは最初のHTTP結果コードを調べ、基本的にそれを処理します。

また、最終ページにつながるリダイレクトである場合、理論的には2つ以上のHTTP結果コードを保持できます。 したがって、たとえば、あるページから別のページにリダイレクトすることができます。 これが1つの結果コードです。 そして、その別のページで、別の結果コードを提供できます。 つまり、これは404ページへの301リダイレクトである可能性があります[…]。 そして、私たちの観点からは、リダイレクトに従って最終結果を得ることができる連鎖的な状況では、基本的にその最終結果に焦点を当てます。

そして、その最終結果にコンテンツが含まれている場合、それは正規化に使用できる可能性があります。 その最終結果がエラーページである場合、それはエラーページです。 そして、それは私たちにとっても問題ありません。」

私のサイトが私の主国ですでに高速である場合、CDNを使用するとランキングが向上しますか?

2:50 「[…]トラフィックの大部分は特定の国から来ています。 その国にあるサーバーでウェブサイトをホストしました。 世界中のユーザーのページ速度を向上させるために、Webサイト全体をCDNの背後に配置することをお勧めしますか、それとも私たちの場合は必要ありませんか?」

ジョンは次のように答えました。「 SEOに関しては、Googleに大きな影響はないと思います。

何かが起こるかもしれないと私が想像できる唯一の効果は、ユーザーが最終的に見るものです。 […]サーバーがそこにあるためにユーザーの大多数がすでに非常に高速なWebサイトを表示している場合、あなたは[…]正しいことをしています。 しかしもちろん、他の場所のユーザーの結果が非常に遅い場合は、おそらくあなたの国とのつながりがそれほど良くないため、それを改善する機会があるかもしれません。

[…]あなたのウェブサイトのためにグローバルに物事を改善するためにあなたができることがあるなら、それは良い考えだと思います。 それは重要ではないと思います[…]。 しかし、それはあなたがあなたの現在の国を超えてあなたのウェブサイトを成長させるためにあなたがすることができる何かです。

たぶん私が明確にしなければならないことの1つは、Googleのクロールが本当に、本当に遅い場合、もちろん、それはWebサイトからクロールしてインデックスを作成できる量に影響を与える可能性があります[…]。 何百万ページも何百万ページも大きくないウェブサイトに関して、これが問題であるとは実際には見ていません[…]。

Googleが検索コンソールでクロールする速度とクロール統計を再確認できます。 そして、それが合理的に見える場合、たとえそれが超高速でなくても、私はそれについて本当に心配することはありません。」

クロールを減らすためにAPIリクエストを禁止する必要がありますか?

5:20 「[…]現在、私たちのサイトはクロール予算の約20%をAPIサブドメインに費やしており、さらに20%を動画の画像サムネイルに費やしています。 これらのサブドメインには、SEO戦略の一部であるコンテンツはありません。 これらのサブドメインのクロールを禁止する必要がありますか、それともAPIエンドポイントがどのように検出または使用されますか?」

Johnが言ったように、「[…]多くの場合、 APIエンドポイントは最終的にWebサイトのJavaScriptによって使用され、ページをレンダリングします。 そして、彼らがあなたのウェブサイトにあるAPIにアクセスする場合、私たちはそのAPIからコンテンツをロードし、それをページのレンダリングに使用しようとします。

また、APIの設定方法やJavaScriptの設定方法によっては、これらのAPI結果をキャッシュするのが難しい場合があります。つまり、これらのAPIリクエストの多くをクロールして、レンダリングされたバージョンを取得しようとする可能性があります。インデックス作成に使用できるように、ページのしたがって、これは通常、これが発見される場所です。 これは、APIの結果をキャッシュできるようにし、APIにJavaScriptを使用しているときにURLにタイムスタンプを挿入しないようにすることで役立ちます[…]。

これらのAPIエンドポイントで返されるコンテンツを気にしない場合は、もちろん、このサブドメイン全体がrobots.txtファイルでクロールされないようにブロックできます。 そして、それは本質的にそれらのAPIリクエストのすべてが発生するのをブロックします。

[…]まず最初に理解する必要があります。これらのAPIの結果は[…]Googleからインデックスに登録したい[…]重要なコンテンツの一部ですか? もしそうなら、おそらくあなたはクロールをブロックするべきではありません。 ただし、[…]ページにとって重要ではない[…]何かを生成している場合[…]、ブロックされたときの外観を再確認する価値があるかもしれません。

また、これを再確認する1つの方法は、APIを呼び出さない、またはAPIエンドポイントに壊れたURLを使用する別のテストページを作成できるかどうかです。 […]このページが実際に私のブラウザでどのようにレンダリングされるかを確認できますか? Googleでどのようにレンダリングされますか?」

内部リンクでrel=” nofollow”を使用する必要がありますか?

8:05 「内部リンクでnofollow属性を使用して、クロールまたはインデックス作成されたくないURLへの不要なクローラー要求を回避するのは適切ですか?」

ジョンの回答は次のとおりです。「[…]ほとんどの場合、内部リンクでnofollowを使用することはほとんど意味がないと思います。 しかし、それがあなたがやりたいことなら、それを選んでください。

ほとんどの場合、 rel = canonicalを使用して、インデックスを作成したいURLを指定したり、robots.txtを使用して実際にクロールしたくないものを指定したりします。

理解してみてください。インデックスを作成してからrel=canonicalを使用することを好むのは、微妙なことのようなものですか[…]。 それとも、あなたが言うところのことです。実際、GooglebotがこれらのURLにアクセスすると、サーバーに問題が発生します。 大きな負荷がかかります。 それはすべてを本当に遅くします。 それは高価か、あなたは何を持っていますか。

そして、そのような場合は、それらのURLのクロールを禁止します。 […]rel= canonicalを使用すると、明らかに、最初にそのページをクロールしてrel=canonicalを確認する必要があります。 しかし、時間の経過とともに、私たちはあなたが定義した標準に焦点を合わせます。 そして、これを主にクロールとインデックス作成に使用します。」

サイトリンクを強制的に表示する方法はありますか?

16:02 「Google検索結果に目的のページをサイトリンクとして表示するための戦略はありますか?」

Johnは、次のように説明しています。「[…]サイトリンクを強制的に表示するために使用できるメタタグや構造化データはありません

[…]私たちのシステムは、ユーザーがこの1つのWebページを見ているときに[…]ユーザーにとって何が関連または関連しているかを把握しようとします[…]? […]基本的に、ウェブサイトの構造を適切に設定し、内部リンクを明確にして、どのページがそれらのページに関連しているかを簡単に認識できるようにし、使用できるタイトルを明確にして[…]として表示することをお勧めします。サイトリンク。

[…]これがそのように表示されるという保証があるわけではありません。 しかし、それは私たちが何が関連しているのかを理解するのに役立ちます。 また、サイトリンクを表示することが理にかなっていると思われる場合は、その情報に基づいて実際にリンクを選択する方がはるかに簡単です。」

私たちのサイトはiframeでPDFを埋め込んでいますが、テキストをOCRする必要がありますか?

17:14 「私たちのウェブサイトはiframeとスクリプトを使用して、PDFファイルを私たちのページとウェブサイトに埋め込みます。 PDFのOCRテキストを取得し、SEOの目的でドキュメントのHTMLのどこかに貼り付けることには利点がありますか、それともGoogleは同じ重みと関連性でPDFコンテンツを解析して、コンテンツのインデックスを作成するだけですか?」

ジョンは次のように答えました。「[…]PDFのテキストを取得し、[…]SEOの目的でHTMLに非表示にしたいようです。 そして、それは私が絶対にお勧めしないことです。 コンテンツをインデックスに登録できるようにする場合は、ページに表示できるようにします。

[…] PDFからテキストを取り出し、PDF自体のインデックスを作成しようとしています。 実用的な観点から、PDFで何が起こるかは、最初のステップの1つとして、それをHTMLページに変換し、HTMLページのようにインデックスを作成しようとします。 […]あなたがしていることは[…]間接的なHTMLページをiframingすることです。 また、iframeに関しては、プライマリページ内のインデックス作成のためにそのコンテンツを考慮に入れることができます。 しかし、とにかくPDFを個別に索引付けすることも起こり得ます。 […]私は質問を振り返り、あなたが何をしたいのかということを組み立てますか?

また、通常のWebページをPDFファイルのコンテンツでインデックス付けする場合は、そのコンテンツがHTMLページにすぐに表示されるようにします。 したがって、PDFを主要なコンテンツとして埋め込むのではなく、HTMLコンテンツを主要なコンテンツにして、PDFファイルにリンクします。

そして、それらのPDFを個別に索引付けするかどうかという質問がありますか? PDFを個別に索引付けしたい場合があります。 また、個別にインデックスを作成したい場合は、それらにリンクするのが最適です。

個別にインデックスを作成したくない場合は、robots.txtを使用してインデックスをブロックすることもできます。 noindex [? x-robots?]HTTPヘッダー。 PDFファイルをiframeで利用できるようにしたいが、実際にはインデックスを作成しない場合は、PDFファイルのヘッダーとして使用する必要があるため、少し複雑になります。」

Googleは構造化データマークアップでURLをクロールしますか?

23:24 「Googleは構造化データマークアップにあるURLをクロールしますか、それともGoogleはデータを保存するだけですか?」

ジョンは次のように説明しています。「ほとんどの場合、HTMLページを見ると、リンクのようなものが見つかった場合は、そのURLを試してみる可能性があります。 […]JavaScriptでURLを見つけたら、それを取得して使用してみることができます。 サイトのテキストファイルにリンクが見つかった場合は、それをクロールして使用することができます。 しかし、それは実際には通常のリンクではありません。

[…] GoogleにそのURLをクロールさせたい場合は、そのURLへの自然なHTMLリンクがあり、アンカーテキストも明確で、リンク先ページに関する情報を提供していることを確認してください。

Googleにその特定のURLをクロールさせたくない場合は、robots.txtでブロックするか、そのページでrel=canonicalを使用して好みのバージョンを指定します。 […]構造化データに含まれているからといって見つからないと盲目的に想定したり、構造化データに含まれているからといって発見されると盲目的に想定したりすることはありません。

[…]代わりに、そこで起こりたいことに焦点を当てます。 リンクとして表示したい場合は、リンクにします。 クロールまたはインデックス作成を行わない場合は、クロールまたはインデックス作成をブロックします[…]。」