19 allgemeine technische SEO-Probleme (mit empfohlenen Lösungen)
Veröffentlicht: 2020-08-19Bei Semetrical haben unsere SEO-Spezialisten im Laufe der Jahre unzählige technische SEO-Audits durchgeführt und sind auf häufige technische Probleme gestoßen, unter denen Websites in verschiedenen Branchen leiden. Unser Leitfaden beschreibt die häufigsten technischen SEO-Probleme mit empfohlenen Lösungen.
Nachfolgend sind die häufigsten technischen SEO-Probleme aufgeführt:
- Regeln ohne Berücksichtigung der Groß-/Kleinschreibung in Robotern, txt
- URL-Duplizierung in Groß- und Kleinbuchstaben
- HTTP 302-Umleitung zu HTTPS
- Kanonische URLs, die sich auf die interne Verlinkung auswirken
- Kanonische URLs, die auf 404-URLs verlinken
- Mehrere Canonical-Tags
- Vervielfältigung der Homepage
- Mobile und Desktop-Version der Websites unterschiedlich
- Internationale IP-Erkennung
- Internationale Website-Duplizierung
- XML-Sitemap mit historischen URLs und Staging-URLs
- Staging-Website wird indexiert und verursacht Duplizierung
- Interne Suche wird indiziert
- Parameter, die eine Duplizierung verursachen
- Produkt-URL-Duplizierung
- Tiefe einer Website
- JavaScript
- Falsche Verwendung von Meta Robots NOINDEX
- Weiche 404-Seiten
1. Regeln ohne Berücksichtigung der Groß-/Kleinschreibung in Robotern, txt
Ausgabe:
Bei der Durchführung technischer SEO-Audits stellen wir oft fest, dass Disallow-Regeln in der robots.txt nicht sowohl Groß- als auch Kleinschreibung berücksichtigen.
Auf E-Commerce-Sites laufen beispielsweise die Warenkorbpfade häufig sowohl von /basket/ als auch von /Basket/ ab, aber in der robots.txt ist in der Regel nur der Pfad in Kleinbuchstaben enthalten. Das bedeutet, dass die URLs mit /Warenkorb/ weiterhin indexierbar wären und dies zu einer Duplizierung von Inhalten führen würde, die Sie für eine bessere Indexierung Ihrer Website in Suchmaschinen vermeiden müssen.
Robots.txt-Regeln:
Nicht zulassen: /Korb/
Nicht zulassen: /basket/*
Lösung:
Prüfen Sie Ihre Website und überprüfen Sie, ob es sowohl Groß- als auch Kleinbuchstabenversionen eines Pfads gibt, der blockiert werden muss. Sie können dies mit einem Webcrawler tun, wie z. B. unseren Freunden bei DeepCrawl. Wenn beide Versionen auf der Website aktiv sind, fügen Sie eine zweite Regel in der robots.txt hinzu, um dafür zu sorgen, dass der Pfad in Großbuchstaben blockiert wird. Beispiel: Nicht zulassen: /Korb/*
Wenn Sie keinen Zugriff auf einen Web-Crawler haben, kann eine Site-Protokollsuche sehr nützlich sein, um festzustellen, ob sowohl Groß- als auch Kleinbuchstabenversionen indiziert werden.
2. URL-Duplizierung in Groß- und Kleinbuchstaben
Ausgabe:
Ein häufiges Problem, das wir feststellen, ist die Duplizierung von URLs, bei denen die Groß- und Kleinschreibung nicht berücksichtigt wird und auf die auf einer Website verlinkt wird, und Google sieht, dass dies zwei verschiedene URLs sind. Zum Beispiel:
Dies kann vorkommen, weil Redakteure in einem Blogbeitrag einen direkten Link zu einer Produktseite hinzufügen, aber einen Großbuchstaben anstelle eines Kleinbuchstabens eingegeben haben.
Wir haben dies auch aufgrund eines Fehlers bei internen Linkmodulen beobachtet, bei denen beliebte Produktlinks über Großbuchstaben verlinkt sind.
Lösung:
Wir empfehlen, auf Serverebene eine Regel einzurichten, bei der alle Großbuchstaben-URLs über eine 301-Weiterleitung auf Kleinbuchstaben umgeleitet werden. Dadurch wird die Website vor zukünftigen Duplikaten geschützt, wenn sowohl eine Groß- als auch eine Kleinbuchstaben-URL verlinkt werden.
Das Hinzufügen einer 301-Weiterleitungsregel konsolidiert auch jeglichen Linkwert, bei dem eine externe Website versehentlich über einen Großbuchstaben auf Ihre Website verlinkt.
Wenn eine 301-Weiterleitung nicht möglich ist, empfehlen wir, im Quellcode der Großbuchstaben-URLs ein Canonical-Tag hinzuzufügen, um auf die Kleinbuchstaben-URL-Version zu verweisen.
3. HTTP 302-Umleitung zu HTTPS
Ausgabe:
Unternehmen migrieren ihre Website häufig auf sichere HTTPS-URLs, implementieren jedoch nicht immer eine 301-Weiterleitungsregel und implementieren stattdessen eine 302-Weiterleitung, sodass dies den Suchmaschinen theoretisch sagt, dass die HTTP-Version einer URL nur vorübergehend statt dauerhaft verschoben wurde. Dies kann den Linkwert und die Gesamtautorität Ihrer Website verringern, da die HTTP-URLs, die im Laufe der Zeit Backlinks erworben haben, den Linkwert nicht vollständig an die HTTPS-Version weitergeben, es sei denn, es ist eine 301-Weiterleitung vorhanden.
Lösung:
Wir empfehlen, eine Regel auf Serverebene einzurichten, bei der alle HTTP-URLs 301 auf die HTTPS-Version umgeleitet werden.
4. Kanonische URLs, die sich auf die interne Verlinkung auswirken
Ausgabe:
Auf einer Reihe von E-Commerce-Websites haben wir Produkte mit mehreren Produkt-URL-Variationen gesehen, aber jede Variation ist mit einer kanonischen Produkt-URL verknüpft, um Duplikate zu vermeiden. Die kanonische Produktseite ist jedoch nur über Canonical Tags und keine weiteren internen Links auffindbar.
Außerdem enthält die kanonische Produktseite keine Breadcrumbs, die sich auf die interne Verlinkung auf der Website auswirken.
Diese kanonische Einrichtung für interne Links hat gelegentlich verhindert, dass Suchmaschinen die kanonische URL-Version aufgreifen, weil sie die Anweisung ignoriert haben, da die internen Links auf der gesamten Website gemischte Signale senden. Dies kann dazu führen, dass die nicht-kanonischen Versionen von Produkten indexiert werden, was zu einer URL-Kannibalisierung führt – was sich letztendlich negativ auf Ihre SEO-Leistung auswirkt.
Lösung:
Damit die kanonischen URLs indexiert werden können, sollten Websites:
Fügen Sie die kanonischen URLs zur XML-Sitemap hinzu und nicht die anderen URL-Varianten
Interne Verlinkung zu den kanonischen URL-Versionen innerhalb von websiteweiten internen Linkmodulen wie „beliebte Produkte“
Fügen Sie der kanonischen URL-Seite eine primäre Breadcrumb-Struktur hinzu.
5. Kanonische URLs, die auf 404-URLs verlinken
Ausgabe:
Kanonische URLs verweisen gelegentlich auf 404-URLs, aber dies sendet gemischte Signale für die Suche
Motoren. Die kanonische URL weist einen Crawler der bevorzugten URL an, zu indexieren, aber die bevorzugte URL existiert derzeit nicht mehr.
Lösung:
Zunächst sollten Sie festlegen, ob die kanonische URL ein 404-Fehler sein oder wiederhergestellt werden soll. Wenn es wiederhergestellt wird, ist das Problem behoben. Wenn die kanonische URL jedoch ein 404-Fehler sein sollte, sollten Sie eine neue kanonische URL auswählen oder die kanonische URL so aktualisieren, dass sie auf sich selbst verweist.
6. Mehrere kanonische Tags
Ausgabe:
Im HTML-Code einer Webseite konnten manchmal zwei Canonical-Tags gefunden werden. Dies kann widersprüchliche Nachrichten an eine Suchmaschine senden und nur die erste kanonische Nachricht wird gezählt und verwendet.
Lösung:
Einige Website-Crawler markieren möglicherweise mehrere kanonische Tags. Wenn dies jedoch nicht der Fall ist, sollten Sie beim Crawlen der Website eine benutzerdefinierte Extraktion einrichten, um nach mehreren kanonischen Tags zu suchen.
Webseiten mit mehreren kanonischen Tags im HTML-Code müssen aktualisiert werden, wenn eines entfernt wird und nur das richtige kanonische Tag übrig bleibt.
7. Vervielfältigung der Homepage
Ausgabe:
Websites haben gelegentlich mehrere Homepage-URLs, was zu Duplikaten und einer Aufteilung des Link-Equity führen kann. Häufige Duplizierungs-URLs für Homepages sind:
www.beispiel.com
www.example.com/home
www.example.com/index.html
www.example.com/home.html
Lösung:
Wenn Ihre Website über mehrere Startseiten-URLs verfügt, empfehlen wir die Einrichtung einer 301-Umleitung, bei der alle duplizierten Versionen auf die Hauptversion der Startseite umgeleitet werden.
8. Mobile und Desktop-Version der Websites unterschiedlich
Ausgabe:
Mobile Websites sollten dieselben Inhalte enthalten wie die Desktop-Version einer Website. Bei der Durchführung von Website-Audits und dem Vergleich von Desktop- und mobilen Website-Crawls sind wir auf inhaltliche Unterschiede gestoßen, bei denen die mobile Version auf bestimmten Seiten weniger Inhalt enthält als die Desktop-Version.
Dies kann zu Problemen führen, da fast die gesamte Indexierung einer Website von der mobilen Version stammt und wenn prioritäre Inhalte fehlen, die Rankings möglicherweise sinken.
Lösung:
Die mobile Version einer Website sollte die gleichen Inhalte wie die Desktop-Version enthalten und fehlende Inhalte sollten der mobilen Website hinzugefügt werden.
9. Internationale IP-Erkennung
Ausgabe:
Bei Websites, die Geo-IP-Umleitungen implementiert haben, besteht das häufigste Problem darin, dass die Implementierung Umleitungen für alle Benutzer, einschließlich Bots, umleitet.
Der Googlebot crawlt normalerweise von einer US-IP aus, und wenn Bots basierend auf dem geografischen Standort umgeleitet werden, wird der Googlebot nur die US-Version einer Website crawlen und indizieren. Dadurch wird verhindert, dass andere geografische Versionen der Website gecrawlt und indexiert werden.
Darüber hinaus kann dies zu Problemen beim Produktpreisschema-Markup auf E-Commerce-Websites führen, auf denen die Preise basierend auf dem geografischen Standort aktualisiert werden, da nur der US-Preis in allen Märkten angezeigt wird. Das folgende Snippet zeigt beispielsweise US-Preise, die auf der britischen Version einer Website innerhalb des Vereinigten Königreichs angezeigt werden.
Lösung:
Wenn Sie Geo-IP-Weiterleitungen implementieren müssen, empfehlen wir, alle Bots von den Weiterleitungsregeln auszuschließen, da dies Bots wie dem Googlebot ermöglicht, alle internationalen Versionen zu crawlen und zu indizieren.
Wenn Sie keine Geo-IP-Weiterleitungen implementieren, empfehlen wir Ihnen, Ihre Websites für alle Benutzer von jedem Standort aus offen zu halten und ein benutzerfreundliches JavaScript-Banner anzuzeigen, mit dem Benutzer ihre eigene Sprache / ihren eigenen Standort auswählen können.
Dies ist eine nützliche UX-Funktion, wenn ein Benutzer auf der falschen internationalen Website-Version gelandet ist. Das Pop-up wird basierend auf der IP-Erkennung angezeigt. Wenn ein Benutzer beispielsweise von einer britischen IP auf die US-Website gelangt, wird das Banner angezeigt, das dem Benutzer mitteilt, dass die britische Website möglicherweise besser geeignet ist.
10. Internationale Website-Duplizierung
Ausgabe:
Es ist üblich, mehrere Versionen einer Website zu sehen, wenn Unternehmen in verschiedenen Ländern auf der ganzen Welt tätig sind. Dies ist gängige Praxis, da Sie idealerweise die beste Benutzererfahrung bieten möchten, und um dies zu erreichen, ermöglichen es länderspezifische Websites Unternehmen, die Benutzerreise basierend auf dem Standort des Benutzers auf der Welt anzupassen.
Unternehmen können jedoch den Fehler begehen, mehrere Versionen ihrer Website zu erstellen, aber keine Signale an Suchmaschinen zu senden, um anzugeben, welche Website auf ein bestimmtes Land oder eine bestimmte Region abzielen soll.
Wenn Website-Eigentümer mehrere Website-Versionen ohne Anweisungen für Suchmaschinen erstellen, kann dies zu Chaos wie Website-Duplizierung und domänenübergreifender Kannibalisierung führen.
Lösung:
Wenn Sie internationale Versionen Ihrer Website erstellen, sollten Hreflang-Tags verwendet werden, um Suchmaschinen wie Google die richtige Webseite zu signalisieren, die einem Benutzer basierend auf seinem Standort und seiner Sprache angezeigt werden soll.
Hreflang-Tags verhindern auch, dass internationale Versionen einer Website von Suchmaschinen als Duplikate angesehen werden, da das Hreflang-Tag im Wesentlichen anzeigt, dass eine bestimmte Seite benötigt wird, um einen Benutzer am Standort X mit der Spracheinstellung X zu bedienen.
Das Einrichten und Zuordnen von Hreflang-Tags kann verwirrend werden und ist je nach Größe Ihrer Website eine große Aufgabe. Eine falsche Einrichtung kann sich nachteilig auf Ihren Website-Traffic auswirken.
Bitte besuchen Sie unsere internationale SEO-Services-Seite, wenn Sie dabei sind, eine internationale Website-Erweiterung zu planen oder Probleme mit Ihren internationalen Websites haben.
11. XML-Sitemap mit historischen URLs und Staging-URLs
Ausgabe:
Ein interessantes Problem, auf das wir häufiger stoßen, als Sie denken, sind Websites mit alten URLs in ihren XML-Sitemaps oder Staging-URLs, die sich irgendwie in eine XML-Sitemap quetschen.
Dies kann zu Problemen führen, denn wenn Staging-URLs in Ihren Sitemaps erscheinen und Ihre Staging-Site möglicherweise nicht von Suchmaschinen blockiert wird, könnten diese URLs indiziert werden und wiederum unnötige Duplizierung verursachen.
Historische URLs in Ihrer Sitemap, die jetzt einen 4xx- oder 3xx-Statuscode liefern, können verwirrende Signale an Suchmaschinen senden, auf welchen Seiten Sie gecrawlt oder indexiert werden sollen.
Lösung:
Stellen Sie sicher, dass Sie Ihre XML-Sitemap regelmäßig überprüfen, indem Sie die Search Console im Auge behalten und auftretende Fehler überwachen oder einen regelmäßigen Crawl in einem Tool wie Deepcrawl einrichten.
Das Einrichten eines regelmäßigen Crawls von XML-Sitemaps in Deepcrawl ist sehr nützlich, da dies schnell alle URLs kennzeichnen kann, die nicht in Ihrer Sitemap erscheinen sollten, und es Ihnen ermöglicht, dieses potenzielle Problem im Auge zu behalten.
12. Staging-Website wird indexiert und verursacht Duplizierung
Ausgabe:
Überraschenderweise lassen eine Reihe von Unternehmen ihre Staging-Websites für Suchmaschinen wie Google indexieren, nicht absichtlich, sondern aus Versehen. Dies kann zu erheblichen Duplizierungen führen, da die Staging-Website normalerweise eine Kopie Ihrer Live-Umgebung ist. Nach einer einfachen URL-Protokoll-Suche bei Google gibt es Millionen von Staging-Webseiten, die live und indexierbar sind.

Lösung:
Bei Semetrical empfehlen wir, eine Authentifizierungsebene hinzuzufügen, bei der Sie einen Benutzernamen und ein Passwort eingeben müssen, um auf die Staging-Website zuzugreifen. Das Hinzufügen einer Verbotsregel ist auch eine Option, um zu verhindern, dass Staging-Umgebungen indiziert werden. Es ist jedoch besser, dies zu implementieren, wenn die Staging-Site noch nicht indiziert wurde. Zum Beispiel:
User-Agent: *
Nicht zulassen: /
Die meisten Website-Crawler-Tools verfügen über eine robots.txt-Überschreibungsfunktion, sodass Sie die Verbotsregel bei der Durchführung von Tests in Ihrer Staging-Umgebung einfach außer Kraft setzen können.
13. Interne Suche wird indiziert
Ausgabe:
Interne Such-URLs auf Websites können großartig für SEO sein, da sie es Websites ermöglichen, für Hyper-Long-Tail-Suchanfragen zu ranken oder für Schlüsselwörter zu ranken, wenn sie keine Haupt-URL haben, um zu ranken.
In vielen Fällen können interne Suchseiten jedoch viele Duplizierungen auf Websites verursachen und auch zu Problemen mit dem Crawl-Budget auf großen Websites führen. In diesem Leitfaden konzentrieren wir uns auf die negative Seite der internen Suche.
Interne Suchseiten sind in der Regel von sehr geringer Qualität, da sie nicht optimiert werden und in vielen Fällen als dünner Inhalt eingestuft werden, da sie eine geringe Anzahl von Ergebnissen wie Produkten enthalten.
Lösung:
Bevor Sie sich entscheiden, interne Suchseiten zu blockieren, sollten Sie überprüfen, ob diese Seiten derzeit für keine Keywords ranken oder regelmäßigen Traffic bringen.
Überprüfen Sie außerdem, ob diese URLs im Laufe der Jahre keine Backlinks aufgebaut haben. Wenn Ihre internen Suchseiten keine maßgeblichen Backlinks haben und keinen organischen Traffic generieren, empfehlen wir bei Semetrical zwei Schritte:
Erster Schritt: Fügen Sie allen Suchseiten NOINDEX, FOLLOW-Tags hinzu, damit Suchmaschinen diese Seiten de-indizieren können. Sobald diese Seiten über ein paar Monate deindiziert wurden, würden wir dann Schritt zwei implementieren.
Schritt 2: Fügen Sie der robots.txt-Datei das interne Suchverzeichnis hinzu, z. B. Disallow: */search*
14. Parameter, die eine Duplizierung verursachen
Ausgabe:
Die Duplizierung von Sortier- und Filterparametern kann ein häufiges Problem bei der Prüfung von Websites sein. Viele Websites verwenden Filter, da dies die Benutzererfahrung verbessern und Benutzern ermöglichen kann, ihre Suchergebnisse zu filtern. Das Hauptproblem besteht jedoch darin, dass Websites Filter indexierbar halten, da dies zu einer erheblichen Duplizierung auf der Website führt. Zum Beispiel:
Gelegentlich stoßen wir auf Websites, die Tracking-Parameter am Ende von URLs auf internen Links hinzufügen, um anzuzeigen, wo auf der Website auf diesen Link geklickt wurde. Wir würden dieses Setup jedoch nicht in erster Linie empfehlen, wenn Websites dies bereits eingerichtet haben, kann dies zu vielen Duplizierungen auf einer Website führen, da mehrere Versionen derselben Seite erstellt werden können. Zum Beispiel:
Ein weiterer häufiger Tracking-Parameter, der zu Duplikaten führen kann, sind UTM-Tracking-Parameter, bei denen Links für bestimmte Kampagnen verwendet werden, um die Leistung der Kampagne zu verfolgen. Zum Beispiel:
Lösung:
Es gibt eine Reihe von Möglichkeiten, um zu verhindern, dass Parameter indiziert werden und Duplizierungen verursachen, darunter:
Kanonisierung der Parameter-URL auf die saubere URL-Version
Hinzufügen einer Regel in der robots.txt-Datei, um bestimmte Parameter zu verbieten
Hinzufügen von Parametern zum URL-Parameter-Tool in der Search Console, die Google signalisieren, dass bestimmte Parameter nicht gecrawlt werden sollen.
15. Produkt-URL-Duplizierung
Ausgabe:
Auf E-Commerce-Websites kann die Duplizierung von Produkt-URLs ein großes Problem sein, ebenso wie auf Publisher-Websites. Der Hauptgrund für die Duplizierung von Produkt-URLs liegt darin, dass Produkte die Kategorie/Unterkategorie in ihrer URL-Struktur erben können und wenn das Produkt in mehreren Kategorien/Unterkategorien sitzt, dann werden mehrere URLs erstellt.
Auf Publisher-Websites können sich Dokumente auch in mehreren Bereichen befinden, und wenn die Dokument-URL den Dokumentspeicherort erbt, werden mehrere Versionen erstellt. Zum Beispiel:
Lösung:
Wenn wir auf solche Duplikate stoßen, gibt es verschiedene Möglichkeiten, sie zu bereinigen, damit wir sicherstellen können, dass die richtige URL-Version gecrawlt und indexiert wird.
Um die URL-Duplizierung zu beheben, empfehlen wir, alle Produkt-URL-Varianten auf die übergeordnete oder eine generische Version zu kanonisieren. Zum Beispiel:
Elternkanonisches Beispiel
damenkollektionen-kleider-tageskleider
/71hdo/bella-lula-blumen-minikleid
würde kanonisieren zu:
Damenkollektionen-Kleider
/71hdo/bella-lula-blumen-minikleid
Generisches kanonisches Beispiel:
damenkollektionen-kleider-tageskleider
/71hdo/bella-lula-blumen-minikleid
Damenkollektionen-Kleider
/71hdo/bella-lula-blumen-minikleid
Würde kanonisieren
Alternativen:
Wenn Sie Zugang zu Entwicklern haben, wäre eine alternative Lösung, intern auf kanonische Produkte auf der gesamten Website zu verlinken und alle Produkt-URLs, die von Kategorien/Unterkategorien ausgehen, per 301 auf die generische kanonische Produkt-URL umzuleiten.
Dies würde die Duplizierung von Produkten verhindern und es Ihnen ermöglichen, Produkte über mehrere Wege zu verknüpfen
16. Tiefe einer Website
Ausgabe:
Die Seitentiefe ist die Anzahl der Klicks, die eine bestimmte Seite von der Homepage einer Website hat. Bei der Durchführung von Website-Audits stoßen wir auf Websites mit einer Website-Tiefe von mehr als 10. Das bedeutet, dass diese Seiten 10 Klicks von der Startseite entfernt sind!
Je mehr Klicks erforderlich sind, um eine Webseite zu finden, desto schwieriger ist es für eine Suchmaschine, diese URL zu finden, und es ist wahrscheinlicher, dass die URL nicht so oft erneut besucht wird wie Seiten weiter oben auf der Website.
Je höher eine Seite in Ihrer Website-Architektur ist, desto höher ist die Wahrscheinlichkeit, dass sie von Suchmaschinen als vorrangige Seite angesehen wird. Wenn Prioritätsseiten in der Architektur weiter unten liegen, besteht die Gefahr, dass sie nicht so gut gerankt werden.
Lösung:
Die wichtigsten Möglichkeiten, die Website-Tiefe zu verbessern und sicherzustellen, dass Prioritätsseiten in der Website-Architektur ganz oben stehen, sind:
Interne Verlinkung auf der Website, z. B. empfohlene Produkte, verwandte Produkte und vorgestellte Seiten
Die Verwendung von Breadcrumbs auf der Website
Paginierung einrichten, wo sie die erste, letzte und die beiden Ergebnisseiten auf beiden Seiten der Seite, auf der Sie sich befinden, umfasst
Durchführen von Keyword-Recherchen, um Kategorieseiten der obersten Ebene aufzudecken, die innerhalb der Hauptnavigation einer Website verlinkt werden sollten, und Hinzufügen von Links zu Prioritätsseiten
17. Technische SEO-Probleme mit JavaScript
Ausgabe
Heutzutage verwenden viele Websites JavaScript. Wenn Sie JavaScript deaktivieren, sind einige Websites jedoch nicht voll funktionsfähig und Links können verschwinden und sind für Suchmaschinen nicht auffindbar. Dies ist ein häufiges technisches SEO-Problem.
Oft sehen wir, dass die „Vielleicht gefällt Ihnen auch“-Module auf E-Commerce-Produktseiten von Suchmaschinen-Crawlern nicht gesehen werden können, wodurch das interne Verlinkungsmodul überflüssig wird.
Darüber hinaus befinden sich Bewertungsmodule, die schlüsselwortreiche UGC enthalten, in JavaScript-Modulen, die ebenfalls nicht von Crawlern gefunden werden können.
Ein interessantes Problem, das verschiedene E-Commerce-Websites haben, ist, dass beim Deaktivieren von JavaScript auf Ergebnisseiten Produktlinks immer noch gefunden werden können, aber alle Bilder verschwinden, da es keine Fallback-Option für zu entdeckende Bilder gibt.
Lösung:
Arbeiten Sie mit dem Entwicklungsteam zusammen, um zu versuchen, ein JavaScript-Fallback zu erstellen, bei dem Bilder noch im Quellcode vorhanden sind und JavaScript-Module über HTML gecrawlt werden können.
Eine gute Möglichkeit, um zu testen, wie JavaScript-Inhalte indexiert werden, besteht darin, zur zwischengespeicherten Version Ihrer Webseite zu gehen und zu sehen, wie die „Vollversion“ der Seite aussieht, sowie die „Nur-Text-Version“ zu überprüfen.
18. Falsche Verwendung von Meta Robots NOINDEX
Ausgabe:
Unser technisches SEO-Team hat Websites geprüft und festgestellt, dass NOINDEX-Tags versehentlich zum Quellcode von Seiten hinzugefügt wurden. Außerdem gesehene Seiten, die in der Vergangenheit Traffic mit einem NOINDEX-Tag gebracht haben.
Überraschenderweise ist ein Problem, das häufiger auftreten kann, als Sie denken, Entwickler, die Staging-Umgebungen live schieben, wobei das NOINDEX-Tag immer noch im Quellcode vorhanden ist.
Letztendlich weist das NOINDEX-Tag Suchmaschinen an, die Seite nicht zu indizieren, und verhindert, dass die Seite in den Suchergebnissen angezeigt wird.
Lösung:
Wenn Sie beim Auditieren einer Website auf Seiten mit einem NOINDEX-Tag stoßen und nicht klar ist, warum das Tag vorhanden ist, wenden Sie sich an das Entwicklungsteam, um zu sehen, wann und auch warum diese Seiten das Tag enthalten.
Wenn versehentlich ein NOINDEX-Tag hinzugefügt wurde, sollten Sie die Entwickler bitten, den Quellcode zu aktualisieren und das Tag vollständig zu entfernen oder es so zu aktualisieren, dass es <meta name=“robots“ content=“INDEX, FOLLOW“> lautet
19. Weiche 404-Seiten
Ausgabe:
Eine weiche 404-Seite sollte auf einer Website nicht existieren, sie passiert, wenn eine nicht existierende Seite, die einen 404-Statuscode zurückgeben sollte, einen 200 OK-Statuscode zurückgibt. Wenn 404-Seiten einen 200-Statuscode zurückgeben, können sie trotzdem gecrawlt und indexiert werden.
Dies ist letztendlich ein Problem, da Suchmaschinen wie Google Zeit mit dem Crawlen dieser Seiten verschwenden können, die keinen Wert verschwenden, indem sie Crawl-Budget verschwenden, anstatt sich auf wertvolle Seiten zu konzentrieren. Diese Seiten können auch zu doppelten Problemen auf einer Website führen, insbesondere wenn eine Website Tausende von Soft-404-Seiten hat, auf denen die Meldung „Seite nicht gefunden“ angezeigt wird.
Es gibt verschiedene Möglichkeiten, Soft-404-Seiten zu finden, darunter:
Besuch der Search Console, wo weiche 404-Seiten gekennzeichnet werden
Durchsuchen Sie Ihre Website und suchen Sie nach 200 Statuscodeseiten mit Titel-Tags von „Seite nicht gefunden“
Das Crawlen Ihrer Website mit einer benutzerdefinierten Extraktion, die nach der Body-Copy-Nachricht sucht, die auf 404-Statuscodeseiten vorhanden ist, und jede 200-Statuscodepage mit dieser Nachricht sollte ein weicher 404 sein
Lösung:
Wenn Sie auf Ihrer Website auf weiche 404-Seiten stoßen, gibt es einige Lösungen, die implementiert werden können, darunter:
301 leitet weiche 404-Seiten auf eine geeignete alternative Seite um, falls verfügbar
Ändern Sie den Statuscode dieser Seiten in einen 404- oder 410-Statuscode, aber achten Sie darauf, dass kein Linkwert verloren geht.
Wenn Sie Probleme mit Ihrer Website haben oder ein technisches SEO-Audit benötigen, besuchen Sie bitte unsere Seite für technische SEO-Services, um weitere Informationen darüber zu erhalten, wie Semetrical helfen kann.
