2019年2月8日–Googleヘルプハングアウトノート
公開: 2019-02-14今週、ジョンは、ウェブサイトの信頼性に関して、私たちが大ファンである品質評価者ガイドについていくつかの素晴らしい洞察を持っていました。 以下は、SEOに最も役立つと思われる厳選された質問と回答です。 以下の完全なビデオと文字起こし!
<p>の代わりにhタグが使用されている場合、Googleはページをどのように解釈しますか?
4:34

大きな問題は見当たりません。明らかにあなたのように、クリーンアップするのは理にかなっていると思いますが、これはマイナスの影響であるとは言えませんが、そこで行っていることです。すべてが重要であると言うことによって、あなたはそれがすべて同じ重要性であると私たちに言っているのです。 つまり、すべてが重要であるため、特に重要なものはありません。 そのため、ページ内のコンテキストを理解するのに苦労しています。 そういうわけで私は主にそれをきれいにするでしょう。 どの部分が本当に重要で、どの部分が通常のテキストのようなものであるかを理解することができ、そうすることでこれらのページをもう少しよく理解することができます。 それを修正したために直接ランキングが変更されるかどうかはわかりませんが、ページが実際に何であるかを理解しやすくなります。 これは私たちがスパムを目にするようなものではないと思いますし、問題があると思うものは、本当に重要だと言って私たちに提供できるほど多くの情報を提供していないだけです。これは一種の通常のコンテンツです
要約:これはおそらく大したことではありません。 ただし、ジョンは、Googleがhタグを使用して、ページ上のどのコンテンツが重要で、ページが何であるかを判断できることを確認しました。
Googleがシンジケートコンテンツの正規を尊重しないことがあるのはなぜですか?
8:56

これは常にトリッキーな状況だと思います。これらのクエリの一部に最も関連性の高いページを特定し、ユーザーを直接そこに誘導しようとしますが、これらが完全に別個のWebサイトであり、同じ記事を投稿しているだけの場合は、また、ウェブサイトの残りの部分からの多くの種類の付加価値、そしてそれはその特定のページの情報である可能性がありますそのウェブサイトで他のものを見てください。そうでなければそれもとても良かったからです。 つまり、これは常に発生する可能性があります。コンテンツをシンジケートしている場合は、他のWebサイトにシンジケートしたコンテンツが、必ずしも完全に回避できるとは限らないコンテンツよりも上位にランク付けされる可能性があることを考慮する必要があります。 。 したがって、これらはそこで見なければならない一種のトレードオフです。カノニカルは、これら2つのページが一緒に属していることを知らせる良い方法だと思いますが、カノニカルはどのような場合でも実際には正しくない場合もあります。これは、ページ自体が完全に異なる可能性があるためです。 これらのページの両方で同じテキストのブロックがある可能性がありますが、そのページの周りには、ユーザーのコメントなど、まったく異なる他のコンテンツがたくさんある可能性があります。ウェブサイト自体。 繰り返しになりますが、これは一種のトレードオフであり、コンテンツをシンジケートすることでより多くのユーザーに情報を提供することは理にかなっていますが、一方で、これらの他のWebサイトが上位にランク付けされる可能性があることを考慮に入れる必要があります。その特定のコンテンツを検索することになるとあなたのウェブサイト。
概要:コンテンツをシンジケートしている場合、Googleは、自分のサイトではなく、再公開サイトのコンテンツにインデックスを付けることを選択する場合があります。 これらのページの1つに他のコンテンツ(コメントなど)がたくさんある場合、Googleは正規を尊重しない可能性があります。
Googleは常に構造化データのマークアップを認識していますか?
26:58

したがって、構造化データの編成で何を意味するのかはわかりませんが、一般に、構造化データを検索結果に豊富な結果として表示することが理にかなっている場合と、おそらくそれがうまくいかないと感じた場合を判断しようとするアルゴリズムがありますこのWebサイトについて、または構造化データがこのWebサイトに実装される方法について、100%確信が持てない可能性があると感じた場合、または少し注意が必要です。 つまり、有効な構造化データマークアップを提供しても、検索結果に常にそのように表示されるとは限りません。
概要:構造化データが(検索結果の星のように)豊富な結果を生成しない場合は、適切に実装されていない可能性があります。 しかし、それはグーグルのアルゴリズムがそれを表示しないことを決定したためかもしれません。
Googleは常に構造化データのマークアップを認識していますか?
53:46

それは常に少しトリッキーだと思います。通常、そこには2つの側面が関係しています。 1つは、特にWebサイト名または会社名が一般的なクエリに似ている新しいWebサイトの場合の問題です。 たとえば、ウェブサイトの名前が「ピッツバーグの最高の弁護士」などの場合です。 次に、一方では会社名である可能性があり、他方で誰かがそれを検索に入力した場合、おそらく彼らはその特定の会社を探しているのではなく、そのクエリの情報を探していると想定します。 ですから、それは特に新しい会社で、私たちが時々目にするものです。 フォーラムやそこにいる人々が、私のドメイン名でランク付けしていないと言っているのを見ると、彼らのドメイン名は、私が最高のVPNプロバイダーを知らないようなものです。そのクエリでランク付けするという意味ではありません。 ですから、もう少し確立されたサイトがすでに存在しているということになると、それは通常、そのWebサイトをそれほど信頼していないという兆候です。 つまり、実際に人々がこの会社を検索していることを認識できるかもしれませんが、おそらく会社のWebサイト自体はここでは最も関連性の高い結果ではないと感じています。おそらく、ユーザーよりも重要な、その会社に関するある種の補助情報があると感じています。このようなことが起こる可能性のある場所を最初に確認してください。 通常、それは検索結果の最初の1ページまたは2ページでシャッフルするようなものの問題です。 そのようなことで、検索結果の最初の数ページにWebサイトが表示されなくなることは非常にまれです。 それはあなたが質問で強調したことのようなものだと思います、そしてそれは私がよく思うことです、たとえ私たちがこのウェブサイトをもうそれほど信頼していなくても、少なくとも検索結果のどこかにそれを置くべきです誰かがそのWebサイトを明示的に探しているということは、ユーザーがそれをまったく表示しないことは不利益になります。 一般的なクエリの場合と同様に、完璧な結果ではないかもしれませんが、少なくともそのWebサイトを本当に探していることがわかる場合は、ユーザーにそのWebサイトも表示する機会を与える必要があります。 だから私はそれを採用し、これをもう少しうまくキャッチする必要があるかもしれないとよく言いました。私たちのアルゴリズムがあなたのウェブサイトがどれほど信頼できるかを正しく理解しているかどうかはわかりません。 ウェブサイトがわからないので判断が難しいですが、まったく信用できないと思っても、最初のページの検索結果のどこかに表示する必要があるかもしれません。 まだ行っていない場合は、もう1つ確認する必要があるのは、私たちが持っている品質評価者のガイドラインを確認することです。そこには、信頼性の種類に関する多くの情報があります。 その一部は一粒の塩で取る価値がありますそれは私たちがそのようなものを1対1で取り、それをランキング要素として使用するということではありませんが、特にトピックについて話しているときはそこにたくさんのアイデアがありますそれは一種の合法的なウェブサイトまたは医療ウェブサイトであり、なぜあなたがこの情報を提供しているのか、なぜ彼らがあなたを信頼すべきなのかをユーザーに示すことは理にかなっています。
概要:ブランド名とURLにキーワードが含まれている新しいブランドがある場合、これはそれらのキーワードを自動的にランク付けする必要があるという意味ではありません。 ただし、Googleのアルゴリズムがあなたのサイトを信頼しない場合、それはうまくランク付けされません。 ジョンは、詳細について品質評価者のガイドラインを示しています。 注:最近のアルゴリズムの更新が信頼に関連していると私たちがどのように考えているかについての良い情報もここにあります。
このようなものが好きなら、私のニュースレターを気に入るはずです!
私のチームと私は毎週、最新のGoogleアルゴリズムの更新、ニュース、SEOのヒントについて報告しています。
成功!! 次に、メールをチェックして、GoogleUpdateニュースレターの購読を確認します。
フルビデオとトランスクリプト
ジョン0:33からのメモ-質問に移る前に、1つのことについて簡単に話したかっただけです。 おそらくお気づきかもしれませんが、検索コンソールに関するブログ投稿を行いました。検索コンソールで行われる変更の一部です。 昨年、私たちは検索コンソールの新しいプラットフォームへの移行を開始しました。検索コンソールチームにとって、これはかなり長い間取り組んできたものであり、多かれ少なかれ完全なものにする必要があります。遅くとも年末。 したがって、いくつかの変更が予定されているブログ投稿での私たちの目標は、できるだけ早くすべての人に通知することを確認することです。 物事が変化したり、あなたに影響を与える可能性があると思われる方法で消えたりした場合は、できるだけ早くそのことをお知らせしたいと思います。 変更は常に少し面倒だと思います。特に、かなりうまく機能するプロセスがあり、誰かがツールを変更したり、ツールで提供されるデータを変更したりすると、常に少しイライラします。 したがって、これらの変更のいくつかは避けられません。検索コンソールから始めたときに最初にやるべきだったと思う変更のいくつかは、私たちが知っているかどうかを知っているので、今知っているのは、私たちが発表した正規の変更のようなものです。今週。 ですから、これは少しイライラすることもあると思いますが、これからはかなり良い道が開かれることを願っています。状況が変わっても驚かないように、早めにお知らせし、早めに試してもらいたいと思います。 また、非常に優れたものがたくさん並んでいます。新しいプラットフォームに移行し、古い機能の一部を削除することで、チームは実際に前進して、新しくて派手なものを作成するためのより多くの時間を費やすことができます。 なくなっている、なくなっている、または新しいツールで見たいと思っている特定の事柄について強く感じている場合は、検索コンソールのフィードバック機能を使用してください。ただ行くだけではありません。そこにいて、私は本当にこれが欲しいと言いますが、この新しい機能を持っているか、古い機能と同じものを持っていることによって達成しようとしていることのように、そこから見たいものについての情報を教えてください新しいものでは、もう少し情報を提供することで、これをどのように優先する必要があるかを理解するのに役立ちます。これは、私たちが早期に考えるべきだった何かを見逃した可能性があるものです。 これは、古いツールで使用していた情報を提供したり、そのことを実行したりするためのより良い方法を提供できる可能性があるものですか。 ですから、フィードバックツールにアクセスして、情報を送信してください。あなたが見たいと思うものについてフィードバックを送ってください。私たちができることのいくつかは、本当に必要なため、少し時間がかかる場合があります。最初に、私たちが何年にもわたって収集したこれらの古いものをすべて一掃し、すべてを新しいプラットフォームに移します。 ですから、少し辛抱するのが好きな人もいますが、本当に強く感じていることがあれば、声に出して知らせてもいいので、恥ずかしがらないでください。
質問4:34-クライアントサイトの1つを見つけました。彼らがウェブサイトを構築した方法では、段落テキストはなく、すべてh1 h2h3h4タグです。 したがって、これらはPタグの代わりに見出し4タグを使用します。 彼らが使用するウェブサイトのメインコンテンツは、ウェブサイトのメインコンテンツに見出し4タグを使用します。 これは彼らのランキングに悪影響を及ぼしますか?
回答4:40-大きな問題は見られません。明らかにあなたのように、クリーンアップするのは理にかなっていると思いますが、これはマイナスの影響であるとは言えません。あなたはすべてが重要であると言ってそこでやっていますあなたはそれがすべて同じ重要であると私たちに言っています。 つまり、すべてが重要であるため、特に重要なものはありません。 そのため、ページ内のコンテキストを理解するのに苦労しています。 そういうわけで私は主にそれをきれいにするでしょう。 どの部分が本当に重要で、どの部分が通常のテキストのようなものであるかを理解することができ、そうすることでこれらのページをもう少しよく理解することができます。 それを修正したために直接ランキングが変更されるかどうかはわかりませんが、ページが実際に何であるかを理解しやすくなります。 これは私たちがスパムを目にするようなものではないと思いますし、問題があると思うものは、本当に重要だと言って私たちに提供できるほど多くの情報を提供していないだけです。これは一種の通常のコンテンツです
質問7:03-検索コンソールでランダムに壊れたリンクを取得し続けます。リダイレクトするか、そのままにしておくか、そこで何をすべきか疑問に思います。
回答7:15-アドバイスを得るためにフォーラムに投稿する可能性のある、ランダムに壊れたリンクが何であるかはわかりませんが、一般的に、あなたのWebサイトを指しているリンクが表示された場合はまったく機能しない場合は、存在しないURLに対して404を返すことは問題ありません。 これが404ステータスコードの目的であり、システムがうまく機能するものです。 したがって、存在しなかったURLがある場合は、完全に問題のない404を返します。 一方、あなたのウェブサイトにあなたの他の場所を指しているリンクがあるのを見たら、それらが何を意味するのか推測でき、おそらくそれらは最後にタイプミスや余分なドットなどがあるので、それらは理にかなっているかもしれません特に人々がそれらのリンクを通過しているのを見ているときにリダイレクトすること。それは何かのように見えるか、誰かがあなたのウェブサイトを推薦しようとしているが、彼らはそれを完全に正しく理解していなかったからです。 したがって、代わりにそれらを正しいページにリダイレクトするのが理にかなっているかもしれません。 これらの状況の両方で、多くの人がそれらのURLにアクセスした場合、それらのURLを介したトラフィックを少し見ることもできると思います。そして、人々があなたのページに行きたがっているので、どういうわけかそれは励みになります。このリンクの意味と、それをどこに向けることができるか、人々をどこにリダイレクトできるかを判断する方法を理解するため。
質問8:56-パートナーサイトでシンジケートされたコンテンツが上位にランク付けされる原因となる可能性のある要因は何ですか。 これは、カノニカルが私の側の元のコンテンツに設定されており、数か月間存在しているという事実にもかかわらずです。 それはサイトまたはニッチまたは権威の問題ですか。 そこで何ができるでしょうか?
回答9:19-これは常にトリッキーな状況だと思います。これらのクエリの一部に最も関連性のあるページを特定し、ユーザーを直接そこに誘導しようとしますが、これらが完全に別個のWebサイトであり、投稿しているだけの場合同じ記事の場合、ウェブサイトの残りの部分からも多くの種類の付加価値があり、それはその特定のページの情報である可能性があり、誰かがその1つの記事にアクセスしたときにウェブサイトの残りの部分がもたらす一種の付加価値である可能性があります多分彼らは立ち去ってそのウェブサイトで他のものを見ます。そうでなければそれもとても良かったからです。 つまり、これは常に発生する可能性があります。コンテンツをシンジケートしている場合は、他のWebサイトにシンジケートしたコンテンツが、必ずしも完全に回避できるとは限らないコンテンツよりも上位にランク付けされる可能性があることを考慮する必要があります。 。 したがって、これらはそこで見なければならない一種のトレードオフです。カノニカルは、これら2つのページが一緒に属していることを知らせる良い方法だと思いますが、カノニカルはどのような場合でも実際には正しくない場合もあります。これは、ページ自体が完全に異なる可能性があるためです。 これらのページの両方で同じテキストのブロックがある可能性がありますが、そのページの周りには、ユーザーのコメントなど、まったく異なる他のコンテンツがたくさんある可能性があります。ウェブサイト自体。 繰り返しになりますが、これは一種のトレードオフであり、コンテンツをシンジケートすることでより多くのユーザーに情報を提供することは理にかなっていますが、一方で、これらの他のWebサイトが上位にランク付けされる可能性があることを考慮に入れる必要があります。その特定のコンテンツを検索することになるとあなたのウェブサイト。
質問11:24-Googleは、期限切れの製品ページを、これらのURLのソフト404が関連する代替製品にリダイレクトし、必要な製品が利用できないことを示すメッセージを表示していると報告しています。 リダイレクトによってソフト404またはリダイレクトページのコンテンツが発生していますか?
回答11:47-ここで起こっているのは、アルゴリズムがこれらのページを調べており、この製品が利用できなくなったことを示すバナーがこのページに表示されていることを確認していることです。ユーザーが最終的に使用しました。 ですから、それは時々本当に避けられないことです。 ある製品を別の製品に実際に交換する場合は、リダイレクトするだけでよい場合があります。
質問12:32-GoogleがHreflangタグを認識するのにどのくらい時間がかかりますか? Googleが最初にスイスからインデックスを作成し、ドイツのTLDの下でウェブサイトのCHバージョンを表示することは可能ですか?
回答13:02-したがって、実際にはスイスのコンテンツを最初にインデックスに登録するのではなく、クローラーとシステムはスイスではなく米国に配置されています。 したがって、スイスのコンテンツを他のコンテンツよりも優先することはないと思いますが、一般的にhrefLangリンクで発生することは、一種のマルチステッププロセスです。 まず、ページのさまざまなバージョンをクロールしてインデックスを作成する必要があります。 次に、hreflangマークアップ内で指定したのと同じURLでインデックスを作成する必要があります。次に、ページの異なるバージョン間でそのhreflangマークアップを追跡できるようにする必要があります。そのためには、その確認も返す必要があります。 。 したがって、通常のクロールとインデックス作成よりも少し時間がかかります。これらの異なるページ間のネットを理解する必要があります。これらはすべて、この一連のhreflangページの一部であると想定されています。 ですから、これはおそらく私たちが取るのが普通のことですが、私にはわかりませんが、hreflangバージョン間のリンクを理解できるように、個々のページをクロールしてインデックスを作成するよりも2〜3倍長くなる可能性があります。 繰り返しになりますが、ヨーロッパの他の国よりもスイスを好むことはありません。個人的には、ある種のエゴイスティックな観点からはそれは良いことだと思いますが、一般的なグローバルエリアでは意味がありません。 私たちはすべてのウェブサイトを同じように扱うように努めています。 したがって、WebサイトにCHバージョンがあるからといって、それが自動的にドイツ語バージョンより上位にランク付けされるわけではありません。 したがって、hreflangのもう1つの点は、ほとんどの場合、ランキングを変更せず、URLを交換するだけです。
質問15:12-最近、自分のサイトのドメインをこのドメインから別のドメインに変更しました。301リダイレクトを使用します。 アドレスの変更が開始されましたが、まだ古いURLが表示されており、3週間以上経過していますが、これは正常ですか? 移行が行われてから1週間、301がアクティブにならないという問題がいくつかありましたが、現在はアクティブになっています。 一部のクエリでは、古いサイトと新しいサイトの両方が検索結果に表示されます。 ここで私は何を変えることができますか?
回答15:46-つまり、301リダイレクトは本当に注意が必要なものです。 301リダイレクトがページごとに行われることが重要です。 したがって、古いページはすべて、新しいWebサイトの同じページにリダイレクトされます。 サイト移動のヘルプセンターの情報ですべてをカバーしているので、それを再確認し、これが実際に機能していることを確認するために、段階的にURLごとに確認します。 。 もう1つ覚えておくべきことは、URLを個別にクロールしてインデックスを作成することです。 そのため、ウェブサイト全体を一度にクロールするのではなく、段階的に切り替えます。これらのページの一部は、数時間以内に非常にすばやくクロールされ、インデックスに登録されます。一部のページは、再作成にかなり時間がかかります。クロールしてインデックスを再作成しましたが、数か月かかる場合があります。 これは、ここでも役割を果たしている可能性があります。おそらく、これらすべてのページのリダイレクトをクロールしてインデックスに登録して処理する機会がなかったため、古いWebサイトでしか見られなかったものがまだいくつかあります。そして、新しいものですでに見たものもあります。 これはここでも役割を果たす可能性があります。特に、3〜4週間の期間を見ている場合、それは一種の正常なことであり、最後に、これにも少し影響するのは、SEOやウェブマスターが本当に混乱していることです。そのリダイレクトを処理した後でも、誰かが古いURLを明示的に検索した場合は、古いURLが表示されます。 ですから、私たちのシステムがここで役立つように努めているのは少し混乱しています。この古いURLが存在し、新しいコンテンツがここにあることはわかっていますが、それがおそらくあなたが探しているものなので、それを表示します。 したがって、たとえば、サイトを移動した後でも、古いURLのサイトクエリを実行した場合、それらのURLのリダイレクトはすでに処理されていますが、サイトクエリを使用して古いWebサイトのURLの一部を表示できます。 。 したがって、たとえばサイト名を変更すると、サイトクエリ内に、そこに記載されている新しいサイト名の古いURLが表示され、私たちの観点からは、意図したとおりに機能していることがわかります。 URLを探している平均的なユーザー。 サイトの移動を行ったばかりのウェブマスターにとっては、少し混乱します。 ですから、それが私たちが変えるものであるかどうかはわかりませんが、一般的には、そのようなことは理にかなっていると思います。
質問21:46-Google検索ボットはウェブサイトのパーソナライズをどのように表示しますか? 新しい製品レイヤーがあり、単一の会社でも業界の場所に基づいてWebサイトをパーソナライズできます。これにより、コンテンツを実際に調整できます。
回答22:12-前回もこれを見たと思いますが、ここで簡単に答えるために重要なのは、Googlebotが主に米国からクロールすることです。 したがって、さまざまな国にさまざまなコンテンツを提供する場合、Googlebotはおそらく米国版のコンテンツしか表示しません。 場所ごとに異なるバージョンのコンテンツにインデックスを付けることはできません。 したがって、インデックスを作成したいものがある場合は、それがWebサイトの一般的な部分にあることを確認して、Googlebotが確実にそれを取得できるようにします。 パーソナライズを使用してページ全体に追加情報を追加することはできますが、インデックスを作成する場合は、パーソナライズに関連付けられていないページの部分に含める必要があります。
質問22:59-web.divの非常に低いパフォーマンス率がウェブサイトのGoogleランキングにどの程度影響しているのだろうか。
回答23:06-わかりません。 したがって、web.devは、灯台で行われているさまざまなテストをまとめて、それらのスコアを提供し、それらのスコアを改善するプロセスをガイドする非常に優れたツールです。 ですから、あなたが試みることができるものに気をつけなければならないことをスピードアップすることになると、それはあなたのウェブサイトの進行状況とあなたがそこにあるツールにあるさまざまなコンテンツを通過しているようなものを追跡します。 ですから、これは一般的にはやり遂げるのに良い習慣だと思いますが、これらは従うべき良い習慣でもありますが、自動的に上位にランク付けされるわけではありません。 同様に、ここでスコアが低い場合でも、ベストプラクティスに従っていないため、Webサイトがひどくランク付けされているわけではありません。 そのため、一方では、ウェブサイトが非常に悪いために適切にインデックスを作成できない場合の側面があります。これは、URLにアクセスできない灯台のSEOスコアが非常に低い場合やこのページにはURLはなく、JavaScriptを処理できないのはJavaScriptシェルだけです。 私はあなたのSEOに深刻な影響を与える可能性がありますが、一方で、あなたのサイトが少し遅いか、完全に最適化されていないという問題である場合、それがあなたのウェブサイトに重大な影響を与えるかどうかはわかりません。 ですから、ここでの私の推奨事項は、web.devのようなツールで提供されるアドバイスを見て、実装できるものについて考えてください。もちろん、検索エンジンにとって、Webサイトにとって重要だと思う部分について考えてください。一方、ここでこれをユーザーにも尋ねます。最終的には、ユーザーのために物事を改善する何かをしている場合、それはWebサイトの他の部分にも一種の長期的なトリクルダウン効果をもたらすからです。
質問26:58-構造化データ組織の情報を表示するかどうかをGoogleが決定できますか。
回答27:05-構造化データの編成とはどういう意味かわかりませんが、一般に、構造化データを検索結果に豊富な結果として表示することが理にかなっている場合と、その可能性があると感じた場合を判断しようとするアルゴリズムがあります。それは意味がないか、このWebサイトについて、または構造化データがこのWebサイトに実装される方法について、100%確信が持てないと感じた場合は、もう少し慎重になります。 つまり、有効な構造化データマークアップを提供しても、検索結果に常にそのように表示されるとは限りません。
質問28:31-検索コンソールでドメインをフォルダーごとに分割してサービスを分離する場合、Webサイトの構造と多言語のマルチリージョン構成に関する質問。URLパラメーターの構成について心配する必要があります。
回答28:52-IIは、一方ではこの種の問題を調査しているのは良いことだと思いますが、他方ではサブディレクトリごとにWebサイトの構成が異なるのではないかと心配しています。たとえば、Webサイト全体でURL構成パラメーターを使用してクリーンな処理を行っていない可能性があります。 ですから、ここのウェブサイトを具体的に知らないので、言うのは本当に難しいですが、異なることを意味する、無視できる、または無視してはいけないパラメータが異なるようです。 Webサイト内の個々の種類のサブディレクトリ。 一方で、それが可能であるはずである一方で、個々のURLパラメータを完全に無視できる状況がある場合や、これらのまったく同じパラメータがコンテンツにとって重要である場合には、それを処理できるはずです。アルゴリズムが混乱して言うようなもののように、常にこれらのパラメータを保持する必要があるか、これらのパラメータを保持する必要がない場合、突然コンテンツの一部が欠落したり、コンテンツの一部が複数回インデックスに登録されたりします。 したがって、URLパラメータツールを使用すると、このような場合に間違いなく役立ちますが、これらのURLパラメータを一般的にクリーンアップして、WebサイトのURLに一貫した構造を持たせる方法を見つける方がおそらく理にかなっていると思います。アルゴリズムが推測する必要がないこと、アルゴリズムが理解する必要がないこと、ああ、この特定のパスではこのパラメーターが重要であり、これらの他のパスでは無視できます。 Webサイトのクロールとインデックス作成に非常に複雑な機能を追加しているときはいつでも、問題が発生する可能性がある状況に遭遇します。 したがって、維持しやすく、クリーンに維持できるほど、シンプルになり、URL構造内に維持できるため、いつものように考え直すことなく、そのサイトをクロールしてインデックスに登録できる可能性が高くなります。 URL設定ツールを備えていない他の検索エンジンがあります。 私たちがそこに持っているデータは彼らがそれを見ることができないでしょう、そしてあなたはそれらの他の検索エンジンで問題を引き起こしているかもしれません、あるいはおそらくそれはあなたのコンテンツがソーシャルメディアで共有される方法にも影響を及ぼします。 したがって、これらすべてがここで機能します。 ここでの私の一般的な推奨事項は、これらのさまざまなサブディレクトリすべてのURLパラメータ処理ツールを微調整することに多くの時間を費やすのではなく、その時間をかけて、URLとして何を使用したいかを考えることに投資することです。長期的な構造と、よりクリーンなURL構造に到達するために必要な手順について考えます。

質問32:17-正規として選択されていない重複した送信URLとしてのインデックスであるコンテンツに関連して、私が投稿した問題についての洞察を得たいと思っています。
回答33:04-一般的に、ここで起こっていると思うのは、何らかの理由で、これらのページは同等であり、一緒に折りたたむことができるとアルゴリズムが信じているためです。そのため、これらのページの1つから正規を選択します。ブラウザでページを手動で見るように、実際にはまったく異なるページであるため、それらを一緒に折りたたむことは意味がありません。したがって、このアセットから正規を選択することも意味がありません。 私が過去に見たようなものの1つは、コンテンツを適切にレンダリングできない場合です。 実際にコンテンツに正しくアクセスできない場合、基本的に私たちが言う空のページが表示された場合、これは私たちが見た他の空のページと同じであり、おそらくそれらを一緒に折りたたむことができます。 ですから、これらのページが同等であるとGoogleがどのように考えているかを考えるために、私がそこにたどり着く方向性は、実際のコンテンツがないようなモバイルフレンドリーなテストである可能性があります。 Googlebotの事故に対するインタースティシャルを表示していて、そのインタースティシャルのみがインデックスに登録されている可能性があります。ここで何が起こっているのでしょうか。 ここではまだ詳細を調べる機会がなかったので、あなたの側でこのようなことが起こっている可能性があります。私たちの側で何か奇妙なことが起こっている可能性があり、それを修正する必要がありますが、それは親切ですこのような場合に私がとる方向の。
質問34:41-自分のウェブサイトで顧客をもう少しうまくナビゲートしたいのですが、これがGoogleを混乱させないようにしたいのです。 ドメイン、カテゴリ、パスの製品のようにURL構造を設定したいのですが、別の方法で設定したいのですが、どうすればよいですか、どのURL構造を選択すればよいですか?
回答35:13-私たちの観点からは、任意のURL構造を使用できます。 したがって、完全に問題のない一種のパスサブドメインサブディレクトリ構造を使用している場合は、無限のスペースにぶつからないことが重要です。 So if you use URL rewriting on your server that it's not the case that you can just add like the last item in your URL and just continue adding that multiple times and just it always shows the same content but it should be a clean URL structure where we can crawl from one URL to the other without getting lost in infinite spaces along the way. You can use your URL parameters if you want but if you do decide to use your URL parameters like I mentioned in one of the previous questions try to keep it within a reasonable bound. So that we don't again run off into infinite spaces where lots of URLs lead to the same content but whether or not you put the product first or the category first or you use an ID for the category or write out the category as text that's totally up to you. That doesn't have to be a line between your ecommerce site on your blog that can be completely different on both of these. So I think it's good to look at this but on the other hand I lose too much sleep over this and rather define the URL structure that works for you in the long run in particular one that you don't think you need to change in the future. So try not to get too narrow down and pick something that works for you, works for your website.
Question 37:43 - We're developing an application for angular Universal with some sections we want to change the appearance of the URLs in the browser but keep it the same on the server side. So for the server it would be luxury goods leather bags but the user would see just leather bags. Is there any problem with this in angular Universal using dynamic rendering?
Answer 38:08- So just from from a practical point of view Googlebot doesn't care what you do on the server you can track that however you want on your server. The important part for us is that we have separate URLs for separate pages that we have links that Googlebot can click on that are in kind of a elements with an href pointing to a URL that we can follow and that we can access these URLs without any history is with them. So if we take one URL from your website we can copy and paste it into an incognito browser and it should be able to load that content and if it loads that content if you have proper links between those pages then from our point of view how you handle that on your server is totally up to you. Using angular Universal with dynamic rendering or if you have something of your own that you set up that's all totally up to you that's not something that we would care about. It's not something we would even see because we see the HTML that you serve us and the URLs that you serve us.
Question 39:18 - My website fetches individual web pages which are not interlinked through an API but no links are displayed through clicks. It has a search box where every individual page shows search results is Google is successfully crawling all links as valid via sitemap does Google see this is a valid practice because links and millions will harm rankings or increase ranking.
Question 39:48 - So there are lots of aspects in this question where I say this sounds kind of iffy there is some things that sound kind of ok. So if Google is already indexing these pages then something is working out right. In general I I'd be careful to avoid setting up a situation where normal website navigation doesn't work. So we should be able to crawl from one URL to any other URL on your website just by following the links on the page. If that's not possible then we lose a lot of context. So if we're only seeing these URLs through your sitemap file then we don't really know how these URLs are related to each other and it makes it really hard for us to be able to understand how relevant is this piece of content in the context of your website, in the context of the whole web. So that's that's one thing to kind of watch out for and the other thing to watch out for. The other thing too watch out for I think is if you're talking about millions of pages that you're generating through an API with a search box and just so many of those via sitemap files. I may be kind of cautious there with regards to the quality of the content that you're providing there. So in particular if you have like product feeds if you're using RSS feeds to generate these pages, if you're doing anything to automatically pull content from other websites or from other sources and just kind of republishing that on your site then that's something where I could imagine our quality algorithms maybe not being so happy with that. Similarly if this is all really completely republished from other web sites I could imagine the web spam team taking a look at that as well and saying well why should we even index any of this content because we already have all of the content indexed from from the original sources. Like what is the value that your website is providing that the rest of the web is not providing. So that's one thing to kind of watch out for. I don't want to kind of suggest that your website is spammy I haven't seen your website but it is something that we do see a lot and it's something where as a developer you go, oh I have all of these sources and I can create code therefore I can combine all of these sources and create HTML pages and now have a really large website without doing a lot of work, and that's really tempting and lots of people do that, lots of people also buy frameworks that do this for you but it doesn't mean that you're creating a good website. It doesn't mean that you're creating something that Google will look at and say oh this is just what we've been waiting for we will index it and ranked it number one for all of these queries. So it might mean that it looks like very little work in the beginning because you could just combine all of these things but in the end you spend all this time working on your website when actually you're not providing anything of value then you end up starting over again and trying to create something new again. So it looks tempting to save a lot of work in the beginning but in the long run you basically lose that time. So it might make more sense to figure out how can you provide significant value of your own on your website in a way that isn't available from other sites.
Question 43:34 - We're facing an issue where lots of resources couldn't load through the to the same page not getting rendered in the snapshot for Googlebot while debugging these issues we couldn't find a solution and Google is marking them as other error. What could that be?
Answer 43:51 - So this is also a fairly common question what is essentially happening here is we're making a trade-off between a testing tool and the actual indexing and within the testing tool we try to get information as quickly as possible directly from your server but at the same time we also want to give you an answer fairly reasonably quickly so that you can see what is happening. What what tends to happen here is if you have a lot of resources on your pages that need to be loaded in order for your page to load then it could happen that our systems essentially timeout and we try to fetch all of these embedded resources but we don't have enough time because we want to provide an answer to you as quickly as possible. So you end up seeing these embedded resources not being pulled and you see an error in the live rendering of the page like that. When it comes to indexing our systems are quite a bit more complex though we cache a lot of these resources. So if we try to index an HTML page we'll know all of these CSS files we've seen before we can just pull them out of our cache we don't have to fetch them again we can render those pages normally and that just works. One thing you can do or maybe they're two you can do to to kind of help improve that for the testing tool and for users in general. On the one hand you can reduce the number of embedded resources that are required on your pages. So instead of having a hundred CSS files you've you kind of throw them into the tool you create one CSS file out of that that's one thing that you can do that makes sense for both users and for search engines. You can do that for JavaScript as well you can minify the JavaScript you can combine things and kind of make packages rather than individual files I think that's a good approach. The other thing is if you're seeing this happening for your pages and you don't have a lot of embedded content then that's kind of a hint that your server is a bit slow and that we can't kind of fetch enough content from your server to actually make this work. So that might be a chance to look at your server your network connectivity and to think about what you can do to make that a little bit faster so that these tools don't time out so that it's also faster for users as well. So in both of these cases the net effect is that users will mostly be seeing the speed improvement but the side effect will also be that you'll be able to use these tools a little bit better because they tend not to time out as much.
So what what I would do there is try to use some other tools to figure out is this really a problem on your side somehow that things are a little bit slow or is this something just on Google side that we we tend not to have as much time to fetch all of these individual resources so what you could do is use the the chrome developer tools what is it the network tab that you have there and to figure out like how many of these resources are being loaded how long does it take you can use webpagetest.org it also creates a kind of a waterfall diagram for your content also listing the the time that it takes for those test URLs and the size of the resources that were to return and by using those two you can kind of figure out is is it the case that it just takes 20 seconds to load my page with all of the embedded content with all of the high resolution images or is it the case that these testing tools say my page loads in 3 or 4 seconds with all of the embedded content therefore it's probably more an issue on Google side I don't have to worry about it.
Question 53:46 - I've noticed as a result of the last several updates that have been coined the the medic update. I've seen some websites that no longer show on the first page of search results for their own company, for their own brand, and I was wondering why in general what would that be?
Answer 54:35 - I think that's that's always a bit tricky there usually are two aspects that are involved there. One is more an issue especially with newer websites where the website name or the company name is more like a generic query. So if for example the the website's name is “ Best Lawyers in Pittsburgh” or something like that. Then on the one hand that might be the company name, on the other hand if someone were to type that into search, we would probably assume that they're not looking for that specific company but rather they're looking for information for that query. So that's especially with newer companies that's something that we see every now and then. We see that the forums or people there saying, oh I'm not ranking for my domain name, and then their domain name is something like I don't know best VPN providers.com it's like well, it's a domain name but it doesn't mean that you will rank for for that query. So that's one thing when it comes to sites that are a little bit more established that are out there already usually it's more a sign that we just don't really trust that website as much anymore. So that's something where we might recognize that actually people are searching for this company but we feel maybe the company website itself is not the most relevant result here, maybe we feel that there is kind of auxiliary information about that company which is more important that users see first where which could result in something like this happening. Usually that that's more a matter of things kind of shuffling around on the first one or two pages in the search results. It would be really rare that that's something like that would result in a website not showing up at all the first couple pages of the search results. I think that's that's kind of what you highlighted there with your question and that's something where I think well, even if we didn't trust this website as much anymore then we should at least have it somewhere in the search results because if we can tell that someone is explicitly looking for that website it would be a disservice for the user to not show it at all. Like for maybe for generic queries one could argue maybe it's not the perfect result but if we can tell that they're really looking for that website at least we should give the user a chance to see that website as well. So that's kind of why I took that and said well maybe we should be catching this a little bit better and II don't know if our algorithms are correctly kind of understanding how trustworthy your website there would be. I don't know the website so that's really hard for me to judge but even if we think that it wasn't trustworthy at all maybe we should still show it somewhere in the search results on the first page. The other thing to maybe look at if you haven't done so already is look at look at the quality rater guidelines that we have and there's a lot of information about kind of trustworthiness in there. Some of that is worth taking with a grain of salt it's not that we take that kind of one-to-one and use that as a ranking factor but there there are a lot of ideas in there especially when you're talking about a topic that's a kind of legal website or medical website then it does make sense to show users like why are you providing this information why should they trust you.
