19の一般的な技術的なSEOの問題(推奨される解決策を含む)
公開: 2020-08-19Semetricalでは、SEOスペシャリストが長年にわたって数え切れないほどの技術的なSEO監査を実施しており、複数の業界でWebサイトが抱える一般的な技術的な問題に遭遇しています。 私たちのガイドは、推奨される解決策とともに最も一般的な技術的なSEOの問題を概説しています。
以下に、最も一般的な技術的なSEOの問題を示します。
- Robots、txtの大文字と小文字を区別しないルール
- 大文字と小文字のURLの重複
- HTTPSにリダイレクトするHTTP302
- 内部リンクに影響を与える正規URL
- 404URLにリンクする正規URL
- 複数のCanonicalタグ
- ホームページの複製
- 異なるサイトのモバイル版とデスクトップ版
- 国際IP検出
- 国際的なウェブサイトの複製
- 履歴URLとステージングURLを含むXMLサイトマップ
- インデックスに登録されているステージングWebサイトが重複を引き起こしている
- インデックスに登録されている内部検索
- 重複を引き起こすパラメータ
- 製品のURLの複製
- ウェブサイトの深さ
- JavaScript
- メタロボットNOINDEXの誤った使用法
- ソフト404ページ
1. Robots、txtの大文字と小文字を区別しないルール
問題:
技術的なSEO監査を実施する場合、robots.txtの禁止ルールが大文字と小文字の両方のルールに対応していないことがよくあります。
たとえば、eコマースサイトでは、バスケットパスは/batchet/と/Basket/の両方から実行されることがよくありますが、robots.txtには原則として小文字のパスのみが含まれています。 これは、/ Basket /を含むURLが引き続きインデックス可能であり、コンテンツの重複を引き起こすことを意味します。これは、検索エンジンでのWebサイトのインデックス作成を改善するために回避する必要があります。
Robots.txtルール:
禁止:/ Basket /
禁止:/ Basket / *
解決:
Webサイトを監査し、ブロックする必要のあるパスの大文字と小文字の両方のバージョンがあるかどうかを確認します。 これは、DeepCrawlの友達などのWebクローラーを使用して行うことができます。 Webサイトで両方のバージョンがアクティブになっている場合は、robots.txtに2番目のルールを追加して、ブロックされる大文字のパスに対応します。 例:Disallow:/ Basket / *
Webクローラーにアクセスできない場合は、サイトプロトコル検索を使用すると、大文字と小文字の両方のバージョンがインデックスに登録されているかどうかを確認できます。
2.大文字と小文字のURLの重複
問題:
私たちが見つけた一般的な問題は、大文字と小文字を区別しないURLがWebサイト全体にリンクされていることであり、Googleはこれらが2つの異なるURLであると認識しています。 例えば:
これは、ブログ投稿の編集者が製品ページへの直接リンクを追加しているが、小文字ではなく大文字を入力しているために発生する可能性があります。
また、人気のある製品リンクが大文字でリンクされるバグが内部リンクモジュールにあるためにこれが発生することも確認されています。
解決:
サーバーレベルでルールを設定し、すべての大文字のURLが301リダイレクトを介して小文字にリダイレクトすることをお勧めします。 これにより、大文字と小文字の両方のURLがリンクされている将来の重複からWebサイトが保護されます。
301リダイレクトルールを追加すると、外部サイトが大文字で誤ってサイトにリンクする可能性があるリンクエクイティも統合されます。
301リダイレクトが不可能な場合は、大文字のURLのソースコードに正規タグを追加して、小文字のURLバージョンを参照することをお勧めします。
3.HTTPSにリダイレクトするHTTP302
問題:
多くの場合、企業はWebサイトを安全なHTTPS URLに移行しますが、常に301リダイレクトルールを実装するわけではなく、代わりに302リダイレクトを実装するため、理論的には、URLのHTTPバージョンが永続的ではなく一時的に移動したことを検索エンジンに伝えます。 これにより、リンクの公平性とWebサイトの全体的な権限が低下する可能性があります。これは、時間の経過とともにバックリンクを取得したHTTP URLは、301リダイレクトが行われない限り、リンクの公平性をHTTPSバージョンに完全に渡さないためです。
解決:
すべてのHTTPURL301がHTTPSバージョンにリダイレクトするサーバーレベルでルールを設定することをお勧めします。
4.内部リンクに影響を与える正規URL
問題:
多くのeコマースWebサイトで、複数の製品URLバリエーションを持つ製品が見られますが、各バリエーションは、重複を防ぐために正規の製品URLにリンクしています。 ただし、正規の製品ページは、正規のタグを介してのみ見つけることができ、他の内部リンクはありません。
さらに、正規の製品ページには、Webサイト全体の内部リンクに影響を与えるパンくずリストは含まれていません。
この内部リンクの正規設定により、サイト全体の内部リンクが混合信号を送信しているため、検索エンジンが命令を無視したために正規URLバージョンを取得できない場合がありました。 これにより、非正規バージョンの製品がインデックスに登録され、URLの共食いが発生し、最終的にSEOのパフォーマンスに悪影響を与える可能性があります。
解決:
正規URLのインデックス作成を支援するために、Webサイトは次のことを行う必要があります。
他のURLバリアントではなく、正規URLをXMLサイトマップに追加します
「人気のある製品」などのサイト全体の内部リンクモジュール内の正規URLバージョンへの内部リンク
正規URLページにプライマリブレッドクラム構造を追加します。
5.404URLにリンクする正規URL
問題:
正規URLは404URLを参照することがありますが、これは検索に混合シグナルを送信します
エンジン。 正規URLは、インデックスを作成する優先URLをクローラーに指示していますが、優先URLは現在存在していません。
解決:
まず、正規URLを404にするか、復元するかを設定する必要があります。 復元された場合、問題は修正されますが、正規URLが404である必要がある場合は、新しい正規URLを選択するか、自己参照になるように正規URLを更新する必要があります。
6.複数のCanonicalタグ
問題:
WebページのHTMLコードで、2つの正規タグが見つかる場合があります。 これにより、競合するメッセージが検索エンジンに送信される可能性があり、最初の正規情報のみがカウントされて使用されます。
解決:
一部のWebサイトクローラーは複数の正規タグにフラグを立てることがありますが、そうでない場合は、サイトをクロールするときにカスタム抽出を設定して、複数の正規タグを探す必要があります。
HTMLコードに複数の正規タグが含まれているWebページは、1つが削除され、正しい正規タグのみが残る場所で更新する必要があります。
7.ホームページの複製
問題:
Webサイトに複数のホームページURLが含まれている場合があり、これにより重複が発生し、リンクの公平性が分割される可能性があります。 一般的なホームページの複製URLは次のとおりです。
www.example.com
www.example.com/home
www.example.com/index.html
www.example.com/home.html
解決:
Webサイトに複数のホームページURLがある場合は、すべての複製バージョンがメインのホームページバージョンにリダイレクトされる301リダイレクトを設定することをお勧めします。
8.モバイル版とデスクトップ版のサイトが異なる
問題:
モバイルサイトには、デスクトップバージョンのWebサイトと同じコンテンツが含まれている必要があります。 Webサイトの監査を実施し、デスクトップとモバイルのWebサイトのクロールを比較すると、特定のページでモバイルバージョンのコンテンツがデスクトップバージョンよりも少ないというコンテンツの違いに遭遇しました。
ウェブサイトのほとんどすべてのインデックス作成はモバイルバージョンからのものであり、優先コンテンツが欠落している場合、ランキングが下がり始める可能性があるため、これは問題を引き起こす可能性があります。
解決:
モバイル版のサイトにはデスクトップ版と同じコンテンツが含まれている必要があり、不足しているコンテンツはモバイルWebサイトに追加する必要があります。
9.国際的な知的財産権
問題:
ジオIPリダイレクトを実装しているWebサイトの場合、最も一般的な問題は、ボットを含むすべてのユーザーに対して実装がリダイレクトされることです。
Googlebotは通常、米国のIPからクロールし、地理的な場所に基づいてボットがリダイレクトされる場合、Googlebotは米国版のウェブサイトのみをクロールしてインデックスに登録します。 これにより、サイトの他の地理的バージョンがクロールされてインデックスに登録されるのを防ぐことができます。
さらに、これにより、すべての市場で米国の価格のみが表示されるため、地理的な場所に基づいて価格が更新されるeコマースサイトの製品価格スキーママークアップで問題が発生する可能性があります。 たとえば、以下のスニペットは、英国内のWebサイトの英国バージョンでの米国の価格設定を示しています。
解決:
ジオIPリダイレクトを実装する必要がある場合は、リダイレクトルールからすべてのボットを除外することをお勧めします。これにより、Googlebotなどのボットがすべての国際バージョンをクロールしてインデックスに登録できるようになります。
ジオIPリダイレクトを実装しない場合は、どのジオロケーションからでもすべてのユーザーがWebサイトを利用できるようにし、ユーザーが自分の言語/場所を選択できる使いやすいJavaScriptバナーを表示することをお勧めします。
これは、ユーザーが誤った国際的なWebサイトバージョンにアクセスした場合に便利なUX機能です。 ポップアップはIP検出に基づいて表示されます。たとえば、ユーザーが英国のIPから米国のWebサイトにアクセスした場合、バナーが表示され、英国のサイトの方が適している可能性があります。
10.国際的なウェブサイトの複製
問題:
企業が世界中のさまざまな国で事業を行っている場合、Webサイトの複数のバージョンが表示されるのが一般的です。 理想的には最高のユーザーエクスペリエンスを提供したいので、これは一般的な方法です。これを行うには、国固有のWebサイトにより、企業はユーザーが世界のどこにいるかに基づいてユーザージャーニーを調整できます。
ただし、企業はWebサイトの複数のバージョンを作成するという間違いを犯す可能性がありますが、特定の国または地域をターゲットにするWebサイトを示す信号を検索エンジンに送信しません。
ウェブサイトの所有者が検索エンジンへの指示なしに複数のサイトバージョンを作成する場合、これはウェブサイトの複製やクロスドメインの共食いなどの混乱を引き起こす可能性があります。
解決:
ウェブサイトの国際版を作成するときは、Hreflangタグを使用して、Googleなどの検索エンジンにユーザーの場所と言語に基づいてユーザーに提供する正しいウェブページを通知するのに役立てる必要があります。
また、Hreflangタグは、X言語設定でXの場所にいるユーザーにサービスを提供するために特定のページが必要であることを本質的に示しているため、Webサイトの国際バージョンが検索エンジンに重複していると見なされるのを防ぎます。
Hreflangタグの設定とマッピングは混乱を招く可能性があり、Webサイトのサイズによっては大きな作業になります。 正しく設定されていない場合、Webサイトのトラフィックに悪影響を与える可能性があります。
国際的なウェブサイトの拡張を計画している場合、または国際的なウェブサイトに問題がある場合は、国際的なSEOサービスのページにアクセスしてください。
11.履歴URLとステージングURLを含むXMLサイトマップ
問題:
私たちがあなたが思うよりも頻繁に遭遇する興味深い問題は、XMLサイトマップに古いURLが含まれているWebサイト、または何らかの形でXMLサイトマップに自分自身を詰め込んでいるステージングURLです。
これにより、ステージングURLがサイトマップに表示され、ステージングサイトが検索エンジンによってブロックされない場合、これらのURLのインデックスが作成され始め、不要な重複が発生する可能性があるという問題が発生する可能性があります。
現在4xxまたは3xxステータスコードを提供しているサイトマップの履歴URLは、クロールまたはインデックス作成するページの検索エンジンに紛らわしいシグナルを送信する可能性があります。
解決:
検索コンソールを監視し、表示されるエラーを監視したり、Deepcrawlなどのツールで定期的なクロールを設定したりして、XMLサイトマップを定期的に監査してください。
DeepcrawlでXMLサイトマップの定期的なクロールを設定すると、サイトマップに表示されるべきではないURLにすばやくフラグを立てることができ、この潜在的な問題を把握できるため、非常に便利です。
12.インデックスに登録されているステージングWebサイトが重複を引き起こしている
問題:
驚いたことに、多くの企業は、意図的ではなく誤って、Googleなどの検索エンジンにインデックスを付けることができるステージングWebサイトを持っています。 ステージングWebサイトは通常、ライブ環境のレプリカであるため、これにより重大な重複が発生する可能性があります。 Googleで簡単なURLプロトコル検索を実行すると、何百万ものステージングWebページがライブでインデックスに登録できます。
解決:
Semetricalでは、ステージングWebサイトにアクセスするためにユーザー名とパスワードを入力する必要がある認証レイヤーを追加することをお勧めします。 禁止ルールを追加することも、ステージング環境のインデックスが作成されないようにするためのオプションですが、ステージングサイトがまだインデックスに登録されていない場合は、これを実装することをお勧めします。 例えば:
ユーザーエージェント: *
禁止:/
ほとんどのウェブサイトクローラーツールにはrobots.txtの上書き機能が備わっているため、ステージング環境でテストを実行するときに禁止ルールを簡単に上書きできます。
13.索引付けされている内部検索
問題:
ウェブサイトの内部検索URLは、ウェブサイトが超ロングテール検索クエリをランク付けしたり、ランク付けするメインURLがないキーワードをランク付けしたりできるSEOに最適です。

ただし、多くの場合、内部検索ページはWebサイトで多くの重複を引き起こし、大規模なWebサイトでクロール予算の問題を引き起こす可能性があります。 このガイドでは、内部検索のマイナス面に焦点を当てます。
内部検索ページは、最適化されないため、通常は非常に低品質であり、製品などの結果の数が少ないため、多くの場合、薄いコンテンツとして分類されます。
解決:
内部検索ページをブロックすることを決定する前に、これらのページが現在どのキーワードに対してもランク付けされていないか、または通常のトラフィックをもたらしているかどうかを確認することをお勧めします。
さらに、これらのURLが何年にもわたってバックリンクを構築していないことを確認してください。 内部検索ページに信頼できるバックリンクがなく、オーガニックトラフィックを生成しない場合は、Semetricalで次の2つの手順をお勧めします。
ステップ1:すべての検索ページにNOINDEX、FOLLOWタグを追加して、検索エンジンがページのインデックスを解除できるようにします。 これらのページのインデックスが数か月にわたって解除されたら、ステップ2を実装します。
ステップ2:内部検索ディレクトリをRobots.txtファイルに追加します(Disallow:* / search *など)。
14.重複を引き起こすパラメータ
問題:
ソートとフィルターのパラメーターの重複は、Webサイトを監査するときに一般的な問題になる可能性があります。 多くのWebサイトでは、ユーザーエクスペリエンスを向上させ、ユーザーが検索結果をフィルターで絞り込むことができるため、フィルターを使用します。 ただし、主な問題は、Webサイト全体でかなりの量の重複が発生するため、Webサイトがフィルターのインデックスを作成できるようにする場合です。 例えば:
時折、内部リンクのURLの末尾にトラッキングパラメータを追加して、そのリンクがクリックされたサイトの場所を示すWebサイトに出くわすことがあります。 最初はこの設定をお勧めしませんが、サイトにすでにこれが設定されている場合、同じページの複数のバージョンが作成される可能性があるため、Webサイトで多くの重複が発生する可能性があります。 例えば:
重複を引き起こす可能性のあるもう1つの一般的な追跡パラメータは、キャンペーンの実行方法を追跡するために特定のキャンペーンにリンクが使用されているUTM追跡パラメータです。 例えば:
解決:
パラメータのインデックスが作成されて重複が発生するのを防ぐ方法はいくつかあります。これらには次のものがあります。
パラメータURLをクリーンURLバージョンに正規化する
robots.txtファイルにルールを追加して、特定のパラメーターを禁止します
検索コンソールのURLパラメータツールにパラメータを追加します。これは、特定のパラメータをクロールしてはならないことをGoogleに通知します。
15.製品のURLの複製
問題:
eコマースWebサイトでは、製品のURLの重複は、発行元のWebサイトと同様に大きな問題になる可能性があります。 商品のURLが重複する主な理由は、商品がそのURL構造でカテゴリ/サブカテゴリを継承できるため、商品が複数のカテゴリ/サブカテゴリにある場合、複数のURLが作成されるためです。
出版社のWebサイトでは、ドキュメントは複数の領域に配置されることもあり、ドキュメントのURLがドキュメントの場所を継承する場合は、複数のバージョンが作成されます。 例えば:
解決:
このような重複に遭遇した場合、正しいURLバージョンがクロールされ、インデックスが作成されていることを確認できるように、さまざまな方法でクリーンアップすることができます。
URLの重複を修正するには、すべての製品URLバリアントを親または汎用バージョンに正規化することをお勧めします。 例えば:
親の正規の例
女性-コレクション-ドレス-デイドレス
/ 71hdo /bella-lula-floral-mini-dress
正規化する:
女性-コレクション-ドレス
/ 71hdo /bella-lula-floral-mini-dress
一般的な正規の例:
女性-コレクション-ドレス-デイドレス
/ 71hdo /bella-lula-floral-mini-dress
女性-コレクション-ドレス
/ 71hdo /bella-lula-floral-mini-dress
正規化するだろう
代替案:
開発者にアクセスできる場合、代替ソリューションは、Webサイト全体の製品正規に内部的にリンクし、カテゴリ/サブカテゴリから実行されるすべての製品URLを一般的な正規製品URLにリダイレクトすることです。
これにより、製品の重複がなくなり、複数のルートを介して製品にリンクできるようになります
16.Webサイトの深さ
問題:
ページ深度は、特定のページがWebサイトのホームページからのクリック数です。 ウェブサイトの監査を行うと、ウェブサイトの深さが10を超えるウェブサイトに出くわします。つまり、これらのページはホームページから10クリック離れています。
Webページを見つけるために必要なクリック数が多いほど、検索エンジンがそのURLを見つけるのが難しくなり、Webサイトの上位のページほど頻繁にURLにアクセスしなくなる可能性が高くなります。
さらに、ページがWebサイトのアーキテクチャ内で高いほど、検索エンジンによって優先ページとして表示される可能性が高くなります。 アーキテクチャの優先ページが低い場合、ランクも下がるリスクがあります。
解決:
Webサイトの深さを改善し、優先ページがWebサイトアーキテクチャの上位にあることを確認する主な方法は次のとおりです。
おすすめ商品、関連商品、注目ページなど、ウェブサイト全体の内部リンク
Webサイト全体でのブレッドクラムの使用
現在のページの両側にある最初、最後、および2つの結果ページが含まれるページネーションを設定する
キーワード調査を実施して、Webサイトのメインナビゲーション内でリンクする必要があるトップレベルのカテゴリページを明らかにし、優先ページへのリンクを追加します
17.JavaScriptの技術的なseoの問題
問題
今日の多くのWebサイトはJavaScriptを使用しますが、JavaScriptを無効にすると、一部のWebサイトが完全に機能せず、リンクが消えて検索エンジンで検出されなくなる可能性があります。 これは一般的な技術的なSEOの問題です。
多くの場合、eコマース製品ページの「あなたも好きかもしれない」モジュールは検索エンジンのクローラーには表示されないため、内部リンクモジュールが冗長になります。
さらに、キーワードリッチUGCを含むレビューモジュールはJavaScriptモジュール内にあり、クローラーでも検出できません。
さまざまなeコマースWebサイトが抱える興味深い問題は、結果ページでJavaScriptを無効にしても、製品リンクは引き続き検出されますが、画像を検出するためのフォールバックオプションがないため、すべての画像が表示されなくなることです。
解決:
開発チームと協力して、画像がソースコードにまだ存在し、JavaScriptモジュールがHTML経由でクロール可能なJavaScriptフォールバックを作成してみてください。
JavaScriptコンテンツがどのようにインデックス付けされているかをテストする優れた方法は、キャッシュされたバージョンのWebページに移動し、ページの「フルバージョン」がどのように見えるかを確認し、「テキストのみのバージョン」を確認することです。
18.メタロボットNOINDEXの誤った使用法
問題:
私たちの技術的なSEOチームは、ウェブサイトを監査し、NOINDEXタグが誤ってページのソースコードに追加されていることを発見しました。 さらに、NOINDEXタグが設定されているトラフィックを歴史的にもたらしたページを確認しました。
驚くべきことに、あなたが思っているよりも頻繁に発生する可能性のある問題は、開発者がステージング環境をライブでプッシュし、ソースコードにNOINDEXタグがまだ存在していることです。
最終的に、NOINDEXタグは、検索エンジンにページのインデックスを作成しないように指示し、ページが検索結果に表示されないようにします。
解決:
Webサイトの監査時にNOINDEXタグが設定されているページに遭遇し、タグが設定されている理由が明確でない場合は、開発チームに問い合わせて、それらのページにタグが含まれている時期と理由を確認してください。
NOINDEXタグが誤って追加された場合は、開発者にソースコードを更新してタグを完全に削除するか、<meta name =” robots” content =” INDEX、FOLLOW”>を読み取るように更新するように依頼する必要があります。
19.ソフト404ページ
問題:
ソフト404ページはWebサイトに存在してはなりません。これは、404ステータスコードを返す必要のある存在しないページが200OKステータスコードを返す場合に発生します。 404ページが200のステータスコードを返す場合でも、クロールしてインデックスを作成できます。
グーグルのような検索エンジンは、貴重なページに時間を集中させる代わりに、クロール予算を無駄にする価値を提供しないこれらのページをクロールする時間を無駄にする可能性があるため、これは最終的に問題になります。 これらのページは、特にWebサイトに「ページが見つかりません」というメッセージを表示する数千のソフト404ページがある場合に、Webサイトで重複する問題を引き起こす可能性があります。
ソフト404ページを見つけるには、次のようないくつかの方法があります。
ソフト404ページにフラグを立てる検索コンソールにアクセスする
Webサイトをクロールし、「ページが見つかりません」のタイトルタグが付いた200のステータスコードページを探します
404ステータスコードページに存在する本文コピーメッセージを検索するカスタム抽出を使用してWebサイトをクロールし、そのメッセージを含む200ステータスコードページはソフト404である必要があります。
解決:
Webサイトでソフト404ページに遭遇した場合、実装できるソリューションがいくつかあります。これらには次のものがあります。
301は、ソフト404ページを適切な代替ページにリダイレクトします(利用可能な場合)
これらのページのステータスコードを404または410ステータスコードに変更しますが、リンクの公平性が失われないことを確認します。
ウェブサイトで問題が発生している場合、または技術的なSEO監査が必要な場合は、Semetricalがどのように役立つかについて詳しくは、技術的なSEOサービスのページをご覧ください。
