SEO-Sprechstunde – 17. September 2021
Veröffentlicht: 2021-09-21Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 17. September 2021.
Wortgrenzen
09:05 „Was ist die Grenze für die Wörter, die wir auf [Kategorie-] Seiten verwenden dürfen?“
John erklärte, dass es keine solchen Beschränkungen gibt und fügte hinzu, dass „[…] insbesondere bei Kategorieseiten einige Informationen auf der Seite vorhanden sein müssen, damit wir verstehen, worum es geht. Aber das sind im Allgemeinen sehr wenig Informationen. Und in vielen Fällen verstehen wir das ohnehin von den Produkten, die Sie aufgelistet haben, wenn die Namen der Produkte für uns klar genug sind, um sie zu verstehen. […] Aber manchmal sind Produktnamen etwas schwer zu verstehen, und dann kann es sinnvoll sein, dort etwas Kontext hinzuzufügen. Aber es ist normalerweise ein zusätzlicher Kontext in der Größe von vielleicht ein, zwei oder drei Sätzen.“
Keine Änderungen bei den Kennzahlen zur Indexabdeckung
10:57 „Ich arbeite an einer großen Website mit ein paar Millionen Seiten. Wir haben eine Umleitung zwischen zwei Sprachen vorgenommen. […] Die Migration läuft also gut, der Verkehr bewegt sich vom zweiten Pfad. Nur zur Verdeutlichung: Es handelt sich um eine Projektion zwischen zwei Unterordnern oder allem innerhalb derselben Domäne. Was ich hier ansprechen möchte, ist, dass wir nach fast drei Wochen nach Durchführung dieser Umleitung keine Änderung in den Abdeckungsmetriken feststellen. […] Kein Droppen der gültigen Seiten, kein Anstieg der ausgeschlossenen Seiten wegen Umleitungen oder ähnlichem. Müssen wir uns darüber Sorgen machen?“
„Ich glaube nicht, dass es einen festen Zeitplan gibt, wann solche Dinge sichtbar werden. […] Wir crawlen Seiten mit unterschiedlicher Geschwindigkeit über eine Website. Und einige Seiten werden wir jeden Tag neu crawlen und andere Seiten werden wir vielleicht einmal im Monat oder alle paar Monate neu crawlen. Wenn also die Inhalte in diesen Ordnern, die Sie zusammenführen, Inhalte sind, die sehr selten gecrawlt werden, wird es lange dauern, bis dies widergespiegelt wird. Wenn es sich hingegen um Inhalte handelt, die sehr aktiv gecrawlt werden, sollten Sie dort Änderungen innerhalb von normalerweise, ich weiß nicht, einer Woche oder so sehen.“
Die Aktualisierungen des Indexabdeckungsberichts
13:25 Beim Zusammenführen von zwei Unterordnern „[…] geht der Datenverkehr von einem Teil der Website zum anderen. Alles läuft gut, und das sehen wir auch in den Logfiles. […] Aber wir sehen dies nicht in den Abdeckungsmetriken. Wir befürchten, dass dies entweder ein Meldefehler sein könnte oder dass wir den ganzen Tag warten sollten?
John antwortete wie folgt: „[…] Der Bericht zur Indexabdeckung wird vielleicht zweimal pro Woche aktualisiert. […] Viele der Berichte in der Search Console erscheinen ein- oder zweimal pro Woche, das könnte also etwas sein, wo es nur eine Verzögerung ist. Aber wenn Sie sehen, dass die Zugriffe auf die richtigen Seiten gehen, wenn Sie sich den Leistungsbericht ansehen und diese Art von Verschiebung sehen, dann denke ich, dass das vollkommen in Ordnung ist. Ich glaube nicht, dass Sie bei so etwas auf den Bericht zur Indexabdeckung achten müssen. Denn was normalerweise passiert, wenn Sie Seiten wie diese zusammenführen, ist, dass unsere Systeme zuerst herausfinden müssen, dass wir für diese Seiten ein neues Canonical finden müssen. Sie nehmen also zwei Seiten und falten sie zu einer zusammen. Dann sehen wir, dass dies eine Reihe von Seiten ist, wir müssen eine kanonische auswählen, und dieser Vorgang dauert ein wenig. Und dann dauert es ein bisschen, bis sich das in der Berichterstattung widerspiegelt. Wenn Sie dagegen so etwas wie einen sauberen Standortwechsel durchführen, können wir einfach alles übertragen. Wir haben diesen Kanonisierungsprozess nicht, den wir herausfinden müssen. Ich könnte mir also vorstellen, dass es einfach länger dauert, bis man dort sichtbar ist.“
Die Qualität der Website verstehen
15:22 „Meine Frage dreht sich um […] speziell die Algorithmen mit neuen Seiten […] wenn Google vorbeikommt und es anruft und versucht, es zu verstehen. Vergleicht es dann diese Seiten mit älteren Legacy-Seiten auf der Website und sagt, okay, nun, diese Seiten sind großartig, aber diese viel älteren Seiten sind eigentlich Müll. Damit wirkt sich das dann auf die Qualität der neueren Seiten und der Kategorieseiten aus. Ist das etwas, was die Algorithmen tun […], um die Qualität der Website wirklich zu verstehen?“
John sagte: „[…] Wenn wir versuchen, die Qualität einer Website insgesamt zu verstehen, ist dies nur ein Prozess, der viel Zeit in Anspruch nimmt. Und es hat dort – ich weiß nicht – eine ziemlich lange Vorlaufzeit. Wenn Sie also fünf Seiten zu einer Website hinzufügen, die bereits 10.000 Seiten hat, werden wir uns wahrscheinlich zuerst auf den größten Teil der Website konzentrieren und dann im Laufe der Zeit sehen, wie sich das mit dem neuen Inhalt einpendelt. dort genauso."
Weitergabe von Link-Equity
17:06 „Wenn Sie einen Backlink erhalten, wird [Google] nicht einfach davon ausgehen, dass es sich um einen qualitativ hochwertigen Backlink handelt, und dann einfach blind Link Equity an die Website weitergeben. Betrachtet Google also beim Crawlen dieser Backlinks entweder den Referral-Traffic und spielt das in den Algorithmus ein? Oder wenn es diese Informationen nicht sieht, versucht es, denke ich, zu beurteilen, ob es eine hohe Neigung gibt, auf diesen Link zu klicken? Und wenn also eine hohe Neigung besteht, auf diesen Link zu klicken, werden sie den Linkwert weitergeben? Wenn nicht, sagen Sie, dass Sie es wissen, […] Sie könnten jetzt buchstäblich einen Blog erstellen und verlinken. In diesem Fall sagt Google, nun, eigentlich gibt es keinen Verkehr; hier ist nicht wirklich viel los, warum sollten wir also irgendeine Form von Link Equity weitergeben? […] Beeinflusst diese Art, ob Link Equity an eine Seite weitergegeben wird oder nicht?“
„Das glaube ich nicht. Wir verwenden Dinge wie Traffic über einen Link nicht, wenn wir versuchen zu bewerten, wie ein Link bewertet werden sollte. Soweit ich weiß, betrachten wir Dinge wie die Wahrscheinlichkeit, dass jemand auf einen Link klickt, nicht auch hinsichtlich dessen, wie wir ihn bewerten sollten. Denn manchmal sind Links im Wesentlichen nur Referenzen, und wir erwarten weniger, dass die Leute auf jeden Link auf einer Seite klicken . Aber wenn sich jemand auf Ihre Website bezieht und sagt, ich mache das, weil dieser Experte hier gesagt hat, dass ich das tun soll. Dann werden die Leute nicht auf diesen Link klicken und immer […] auf Ihre Website schauen und bestätigen, was dort geschrieben steht. Aber sie werden es fast wie eine Referenz sehen. […] Wenn sie weitere Informationen benötigen, können sie dorthin gehen. Aber das müssen sie nicht. Und von diesem Standpunkt aus denke ich nicht, dass wir das berücksichtigen würden, wenn es darum geht, den Wert des Links zu bewerten.“
Domain-Site-Migration
20:53 „ Wir haben eine Site-Domain-Migration von einer Domain zu einer neuen durchgeführt und alle Migrationsanforderungen und -empfehlungen befolgt. Wir haben Weiterleitungen und kanonische Tags aktualisiert und vorher in einer Entwicklungsumgebung getestet. Wir haben die neue Property hinzugefügt und die neue Domain in der Google Search Console verifiziert. Bei der Adressänderung erhalten wir einen Validierungsfehler, der besagt, dass es eine 301-Umleitung von der Homepage gibt und die alte Domain nicht abgerufen werden konnte. Wie bestehen wir die Validierung für das Adressänderungstool?“
„Zunächst einmal ist das Wichtigste, das man im Hinterkopf behalten sollte, dass das Adressänderungstool nur ein zusätzliches Signal ist, das wir in Bezug auf Migrationen verwenden. Es ist keine Voraussetzung. Wenn Sie also aus irgendeinem Grund das Adressänderungstool nicht für Ihre Website zum Laufen bringen können, wenn Sie die Weiterleitung richtig eingerichtet haben, all diese Dinge, dann sollten Sie eingerichtet sein. Es ist nichts, was Sie unbedingt tun müssen. Ich kann mir vorstellen, dass die meisten Websites […] dieses Tool nicht wirklich verwenden. Es ist eher so etwas wie diejenigen, die sich mit Search Console auskennen, und diejenigen, die sich mit all diesen ausgefallenen Dingen auskennen, die sie möglicherweise verwenden. Warum es fehlschlagen könnte, ist wirklich schwer zu sagen, ohne den Namen Ihrer Website oder die URLs zu kennen, die Sie dort testen.
Eine Sache, die ich gesehen habe, ist, wenn Sie eine www-Version und eine nicht-www-Version Ihrer Website haben und Sie Schritt für Schritt durch diese weiterleiten. Sie leiten also beispielsweise auf die Nicht-www-Version um und dann auf die neue Domain. Dann kann das passieren, was uns aus der Fassung bringt, wenn Sie die Adressänderung in der Version der Website übermitteln, die nicht die primäre Version ist. Das könnte also eine Sache sein, um im Hinblick auf das Adressänderungstool noch einmal zu überprüfen, ob Sie die Version einreichen, die aktuell indiziert ist oder war, oder ob Sie vielleicht die alternative Version in der Search Console einreichen.
Hinzufügen mehrerer Schematypen
23:36 „Kann ich einer Seite mehrere Schematypen hinzufügen? Wenn ja, was wäre der beste Weg, sowohl das FAQ-Schema als auch das Rezeptschema auf einer Seite zu kombinieren?“
„ Sie können so viele strukturierte Daten auf Ihrer Seite platzieren, wie Sie möchten. Aber in den meisten Fällen, wenn es um die Rich-Suchergebnisse geht, die wir in den Suchergebnissen anzeigen, neigen wir dazu, nur eine Art von strukturierten Daten oder einen Rich-Ergebnistyp auszuwählen und uns nur darauf zu konzentrieren. Wenn Sie also mehrere Typen strukturierter Daten auf Ihrer Seite haben, ist es sehr wahrscheinlich, dass wir nur einen dieser Typen auswählen , und wir zeigen das. Wenn Sie also möchten, dass ein bestimmter Typ in den Suchergebnissen angezeigt wird, und Sie feststellen, dass es keine kombinierten Verwendungen gibt, wenn Sie sich die Suchergebnisse ansonsten ansehen, würde ich versuchen, mich auf den gewünschten Typ zu konzentrieren und ihn nicht nur zu kombinieren mit anderen Sachen. Wählen Sie also im Idealfall eine aus, die Sie wirklich wollen, und konzentrieren Sie sich darauf.“

404er vs. Crawlbarkeit und Indexierbarkeit
24:39 „ Unser GSC-Crawling-Statistikbericht zeigt einen stetigen Anstieg von 404 Seiten, die NICHT Teil unserer Website sind (sie existieren weder in unserer Sitemap, noch werden sie durch die interne Suche generiert). Sie scheinen Google-Suchanfragen zu sein, die an unsere URLs angehängt werden, und Google versucht, sie zu crawlen. Unter der Aufschlüsselung der Crawl-Antworten machen diese 404-Fehler über 40 % der Crawl-Antworten aus. Wie stellen wir sicher, dass sich dies nicht negativ auf unsere Crawlbarkeit und Indexierbarkeit auswirkt?“
„Erstens erfinden wir keine URLs, es ist also nicht so, dass wir Google-Suchanfragen nehmen und dann URLs auf Ihrer Website erfinden würden. Ich denke, das sind nur zufällige Links, die wir im Internet gefunden haben. […] Das passiert also ständig. Und wir finden diese Links, und dann crawlen wir sie. Wir sehen, dass sie 404 zurückgeben, und beginnen dann, sie zu ignorieren. In der Praxis müssen Sie sich also nicht darum kümmern. […] Normalerweise versuchen wir mit dieser Art von Links, für Ihre Website insgesamt herauszufinden, welche URLs wir crawlen müssen und welche URLs wir mit welcher Häufigkeit crawlen müssen. Und dann überlegen wir, nachdem wir herausgefunden haben, was wir unbedingt tun müssen, was wir zusätzlich tun können. Und in diesem zusätzlichen Eimer, der meiner Meinung nach auch ein sehr abgestufter Satz von URLs ist, würde das im Wesentlichen auch […] zufällige Links von Scraper-Sites enthalten, zum Beispiel. Wenn Sie also sehen, dass wir viele URLs auf Ihrer Website crawlen, die von diesen zufälligen Links stammen, können Sie im Wesentlichen davon ausgehen, dass wir bereits mit dem Crawlen der Dinge fertig sind, die uns wichtig sind und von denen wir glauben, dass sie Ihnen gehören Website ist wichtig für. Wir haben gerade Zeit und Kapazität auf Ihrem Server, und wir werden einfach auch andere Dinge ausprobieren. Aus dieser Sicht ist es also nicht so, dass diese 404er Probleme beim Crawlen Ihrer Website verursachen würden. Es ist fast mehr ein Zeichen dafür, dass wir genug Kapazität für Ihre Website haben. Und wenn Sie zufällig mehr Inhalte haben, als Sie tatsächlich auf Ihrer Website verlinkt haben, würden wir diese wahrscheinlich auch crawlen und indizieren. Im Grunde genommen ist es also fast wie ein gutes Zeichen, und Sie müssen diese definitiv nicht per robots.txt blockieren, es ist nichts, was Sie unterdrücken müssen […]“
Blockieren von Datenverkehr aus anderen Ländern
27:34 „ Wir haben eine Service-Website, die nur in Frankreich betrieben wird. Und wir haben viel Verkehr aus anderen Ländern, die eine wirklich schlechte Bandbreite haben, was dazu führt, dass unsere CWV-Werte sinken. […] Da wir nicht außerhalb Frankreichs tätig sind, haben wir keine Verwendung für Verkehr außerhalb Frankreichs. Ist es empfehlenswert, Verkehr aus anderen Ländern zu blockieren?“
Folgendes sagte John: „Ich würde versuchen, den Verkehr aus anderen Ländern nicht zu blockieren. Ich denke, es ist etwas, wo es letztendlich an Ihnen liegt. Es ist Ihre Website; Sie können wählen, was Sie tun möchten. […] In diesem Fall ist unter anderem zu beachten, dass wir fast alle Websites aus den USA crawlen. Wenn Sie sich also in Frankreich befinden und alle anderen Länder blockieren, blockieren Sie auch das Googlebot-Crawling . Und dann wären wir im Wesentlichen nicht in der Lage, Ihre Inhalte zu indizieren. Wenn Sie also andere Länder blockieren möchten, stellen Sie sicher, dass Sie zumindest nicht das Land blockieren, aus dem der Googlebot crawlt. Zumindest, wenn Sie sich für die Suche interessieren.“
Neugruppierung von Seiten
35:38 „ Google hat kürzlich >30.000 Seiten auf unserer Website neu gruppiert, die deutlich unterschiedliche Seiten für CWV-Ergebnisse sind. […] Dies hat den durchschnittlichen LCP für diese Seiten auf 3,4 Sekunden gebracht, obwohl unsere Produktseiten vor der Neugruppierung durchschnittlich 2,5 Sekunden lang waren. Wir haben daran gearbeitet, die Seiten 2,5 Sekunden unter den Schwellenwert zu bringen, aber unsere Taktik scheint jetzt zu unbedeutend, um uns zu der Punktzahl zu bringen, die wir erreichen müssen. Wird die Gruppierung festgelegt und dann ein Score-Durchschnitt genommen oder wird die Punktzahl genommen und dann der Gruppierungssatz? – (Dies wird uns dabei helfen, festzustellen, ob es hilft, das Problem zu lösen, wenn Sie diese Produktseiten unter die 2,5er bringen oder nicht).“
„[…] Wir haben keine klare oder genaue Definition, wie wir gruppieren, denn das ist etwas, das sich im Laufe der Zeit ein wenig entwickeln muss, abhängig von der Datenmenge, die wir für eine Website haben. Wenn wir also viele Daten für viele verschiedene Arten von Seiten auf einer Website haben, ist es für unsere Systeme viel einfacher zu sagen, dass wir etwas feiner gruppieren statt so grob wie zuvor. Wenn wir dagegen nicht viele Daten haben, landen wir vielleicht sogar in einer Situation, in der wir die gesamte Website als eine Gruppe betrachten. Das ist also das Eine. Die andere Sache ist, dass die Daten, die wir sammeln, auf Felddaten basieren. Sie sehen das auch in der Search Console, was bedeutet, dass wir nicht so sehr den Durchschnitt einzelner Seiten nehmen und sie nur durch die Anzahl der Seiten mitteln würden. Was in der Praxis jedoch passieren würde, ist, dass es sich eher um einen nach Verkehr gewichteten Durchschnitt handelt, in dem Sinne, dass einige Seiten viel mehr Verkehr haben und wir dort mehr Daten haben. Und andere Seiten werden weniger Verkehr haben, und wir werden dort nicht so viele Daten haben. Das könnte also etwas sein, wo Sie diese Art von Unterschieden sehen. Wenn viele Leute auf Ihre Startseite gehen und nicht so viele auf einzelne Produkte, dann kann es sein, dass die Startseite etwas höher gewichtet wird, nur weil wir dort mehr Daten haben. Das ist also die Richtung, in die ich gehen würde, und in der Praxis bedeutet das, anstatt mich so sehr auf einzelne Seiten zu konzentrieren, würde ich dazu neigen, Dinge wie Google Analytics oder andere Analysen zu betrachten, bei denen Sie herausfinden müssen, welche Seiten oder welche Seitentypen bekommen viel Verkehr. Und dann versuchen Sie durch die Optimierung dieser Seiten im Wesentlichen, die Benutzererfahrung zu verbessern […], und das ist etwas, das wir versuchen würden, für das Core Web Vital-Scoring dort aufzugreifen. Also im Wesentlichen weniger Mittelung über die Anzahl der Seiten und mehr Mittelung über den Verkehr dessen, was die Leute tatsächlich sehen, wenn sie auf Ihre Website kommen.“
Der MUM-Algorithmus
42:44 „ Werden Suchergebnisse mit dem Aufkommen des MUM-Algorithmus eine Antwort auf mehrere Quellen sein? D.h. wenn der User nach einem Thema sucht, werden die Antworten aus mehreren Quellen selektiert und ihm gebündelt zur Verfügung gestellt? Wir glauben, dass der Wettbewerb in Zukunft zu einer Art Interaktion zwischen Wettbewerbern wird. Zusammen können sie die Bedürfnisse eines Suchenden erfüllen. Websites konzentrieren sich auf Dienste, die sie besser anbieten können. Mehrere Konkurrenten können die Bedürfnisse der Suchenden erfüllen. Das Portfolio der Nutzerbedürfnisse wird durch mehrere Standorte vervollständigt, die um den besten Service konkurrieren, wo sie bekannter sind.“
John antwortete: „Ich weiß es nicht; vielleicht passiert das ja irgendwann. Wir haben die Vorstellung, in den Suchergebnissen eine Reihe von Optionen bereitzustellen, bei denen wir feststellen können, dass es zu einem bestimmten Thema möglicherweise sehr starke oder unterschiedliche Meinungen gibt . Und es ist eine Frage der Meinungen da draußen. Dann kann es sinnvoll sein, so etwas wie ein vielfältiges Ergebnisset bereitzustellen, das unterschiedliche Blickwinkel auf das Thema abdeckt. Ich glaube nicht, dass das auf die meisten Anfragen zutrifft, aber manchmal versuchen wir, das zu berücksichtigen.“
Site-Migration
47:11 „ Was ist, wenn wir bei einer Site-Migration und dem Tag, an dem wir den Abzug betätigen, wir: robots.txt beide Domains blockieren […], 302 temporäre Weiterleitungen durchführen (in ein paar Tagen oder Wochen auf 301 umstellen, nachdem die Entwickler sicher sind, dass nichts ist kaputt) und den 503-HTTP-Status für einen Tag oder ein paar Stunden auch auf der gesamten Website bereitstellen, während die Entwickler nach etwas kaputtem suchen?“
Laut John „[…] sind dies alles getrennte Situationen. Und es ist nicht so, dass wir sagen würden, naja, das ist ein Seitenumzug mit dieser Variante. Aber eher, wenn man Dinge blockiert, wenn Dinge kaputt sind, dann würden wir das erst einmal als etwas sehen, das kaputt ist. Und wenn wir zu einem späteren Zeitpunkt sehen, dass es sich tatsächlich um Weiterleitungen handelt, würden wir sagen, nun, jetzt leitet die Website weiter. Und wir würden diese als getrennte Zustände behandeln. Wenn also an dem Tag, an dem Sie die Site umziehen möchten, etwas kaputt geht und auf Ihrem Server alles kaputt ist, dann sehen wir einfach gut aus, auf dem Server ist alles kaputt. Wir würden nicht wissen, dass Sie vorhatten, eine Website zu verschieben, weil wir nur sehen werden, dass alles kaputt ist. Von diesem Standpunkt aus würde ich diese also als getrennte Zustände behandeln. Und versuchen Sie natürlich, jeden fehlerhaften Zustand so schnell wie möglich zu beheben, und gehen Sie danach so schnell wie möglich zur Migration über.“
Alte Inhalte von einer Nachrichtenseite entfernen
49:42 „Lohnt es sich, alte Nachrichten auf einer Nachrichten-Website zu entfernen/nicht zu indizieren/nicht zuzulassen? Nachrichten wie 10+ Jahre alt? Trägt es zur Qualität der Website im Allgemeinen bei und optimiert es das Crawl-Budget? Es ist eine Seite mit mehr als 3 Millionen Seiten. Hat das etwas damit zu tun?“
„Ich glaube nicht, dass es Ihnen viel bringen würde, nur alte Nachrichten zu entfernen. Es ist auch nichts, was ich Nachrichten-Websites empfehlen würde, weil manchmal alle Informationen immer noch nützlich sind. So gesehen würde ich das aus SEO-Gründen nicht machen. Wenn die Gründe, warum Sie Inhalte entfernen oder aus Gründen der Benutzerfreundlichkeit oder Wartung in einen Archivbereich auf Ihrer Website stellen möchten, […] sind, können Sie das definitiv tun. Aber ich würde alte Inhalte nicht einfach blind entfernen, weil sie alt sind.“
