SEO-Sprechstunde, 18. Februar 2022

Veröffentlicht: 2022-02-28

Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 18. Februar 2022.

Inhalt verstecken
1 Arten von Websites, die von der Aktualisierung der Produktbewertungen betroffen sind
2 Die Verwendung der Indizierungs-API
3 EAT und die Algorithmen von Google
4 Nicht verknüpfte Markenerwähnungen und nutzergenerierte Inhalte
5 Googlebot und unendliches Scrollen
6 Aktualisieren und Auffinden von Daten im Bericht „Crawling-Statistiken“.
7 Reduziertes Crawlen einer Website
8 Wie Google Länder identifiziert, auf die Seiten abzielen
9 Große Anzahl von als entdeckt markierten URLs – derzeit nicht indexiert

Arten von Websites, die von der Aktualisierung der Produktbewertungen betroffen sind

4:03 „[…] Meine Frage bezieht sich auf die Aktualisierung der Produktbewertungen […]. Ich wollte verstehen, wie Google erkennt, ob eine Seite oder Website mit Produktbewertungen in Verbindung steht. […] Zum Beispiel gibt es eine E-Commerce-Site […] und sie haben auch einen Blog, in dem sie ihre eigenen Produkte bewerten. Sie schreiben über Vor- und Nachteile ihrer Produkte, vergleichen verschiedene Produkte. […] Wird Google sagen, dass […] dies auch Produktbewertungen sind und durch Produktbewertungen aktualisiert werden können? […]“

Wie John erklärte: „[…] Die Empfehlungen, die wir für Produktbewertungen haben […], wären für jede Art von Produktbewertung relevant. Ich würde also nicht unbedingt versuchen zu sehen, ob Google meine Seite für eine Produktbewertungsseite hält oder nicht […]. Aber wenn Sie der Meinung sind, dass diese bewährten Verfahren auf Ihre Inhalte zutreffen, dann wenden Sie diese bewährten Verfahren einfach an […]“.

Die Verwendung der Indizierungs-API

6:53 „[…] [Googles Dokumentation] erwähnt, dass die Indexierungs-API für Seiten wie Stellenausschreibungen oder Sendeveranstaltungen verwendet werden sollte. Ist es möglich, dass wir diese API für verschiedene Arten von Inhalten ausprobieren können, wie z. B. einige Nachrichtenartikel oder Blog-Inhalte?“

John antwortete: „Die Leute versuchen es. Aber im Wesentlichen haben wir dokumentiert, wofür wir die API verwenden. Wenn Sie keine Inhalte haben, die in diese Kategorien fallen, wird Ihnen die API dort nicht helfen“.

EAT und die Algorithmen von Google

10:54 „[…] EAT wird in [ Quality Rater Guidelines ] erwähnt, aber ich möchte wissen, ob echte Algorithmen auch EAT-Faktoren wie die Expertise des Autors [enthalten]?“

John sagte: „Ich würde annehmen, dass es eine indirekte Arbeit gibt, um zu versuchen, ähnliche Dinge zu tun. […] Wir haben dies in die Richtlinien aufgenommen, damit wir die Qualitätstester anleiten können, diese Dinge zu überprüfen. Und wenn wir denken, dass es etwas Wichtiges ist, dann würde ich davon ausgehen, dass Leute auf der Seite der Suchqualität auch versuchen, dies auf algorithmischere Weise zu verstehen.

Aber ich würde nicht sehen, […] [dass es] eine EAT-Punktzahl geben würde, und Sie müssen fünf oder so ähnlich darauf bekommen. Es ist eher der Versuch, den Kontext des Inhalts im Web zu verstehen”.

Nicht verknüpfte Markenerwähnungen und nutzergenerierte Inhalte

12:01 „[…] Ich sehe, dass Leute über unverlinkte Markenerwähnungen sprechen […]. Glauben Sie, dass es auch für [Googles] Algorithmen wichtig ist […]?“

Durch nicht verknüpfte Markenerwähnungen bezog sich die Person auf Situationen, in denen andere Websites Ihre Marke erwähnen, aber keinen Link zu Ihrer Website enthalten.

John sagte: „[…] Ich denke, das ist etwas schwierig, weil wir nicht wirklich wissen, was der Kontext ist. Ich denke nicht, dass es eine schlechte Sache […] für Benutzer ist, denn wenn sie Ihre Website über diese Erwähnung finden können, dann ist das immer eine gute Sache. Aber ich würde nicht annehmen, dass es einen […] SEO-Faktor gibt, der versucht herauszufinden, wo jemand Ihren Website-Namen erwähnt”.

12:58 „[…] Was ist mit Benutzerbewertungen oder Kommentaren? Glauben Sie, dass es auch ein Rankingfaktor für einen Artikel oder ein Produkt ist?“

John antwortete: „[…] Oft schreiben Leute in ihren eigenen Worten über die Seite und das gibt uns ein bisschen mehr Informationen darüber, wie wir diese Seite in den Suchergebnissen anzeigen können. So gesehen sind Kommentare meiner Meinung nach eine gute Sache auf einer Seite. Offensichtlich ist es manchmal schwierig, einen Weg zu finden, sie auf vernünftige Weise zu pflegen, weil die Leute diese Kommentare auch spammen […]. Wenn Sie einen Weg finden, Kommentare auf einer Webseite zu pflegen, gibt Ihnen das etwas mehr Kontext und hilft Menschen, die auf andere Weise suchen, auch Ihre Inhalte zu finden.“

Googlebot und unendliches Scrollen

24:00 „[…] Wissen Sie, ob der Googlebot schon weit genug fortgeschritten ist, um mit unendlichem Scrollen fertig zu werden, oder zumindest etwas, bei dem Inhalte immer wieder auf etwas aufbauen?“

John sagte: „ Ein bisschen […].

Was passiert, wenn wir eine Seite rendern, ist, dass wir einen ziemlich hohen Darstellungsbereich verwenden, wie wenn Sie einen wirklich langen Bildschirm haben, und wir rendern die Seite, um zu sehen, was die Seite dort anzeigen würde. Normalerweise würde dies ein gewisses Maß an unendlichem Scrollen in den JavaScript-Methoden auslösen, die Sie zum Auslösen des unendlichen Scrollens verwenden. Was auch immer dort geladen wird, das könnten wir indizieren.

[…] Je nachdem, wie Sie Infinite Scroll implementieren, kann es passieren, dass wir diese längere Seite im Index haben. Es kann sein, dass wir nicht alles haben, was auf diese Seite passen würde. Denn je nachdem, wie Sie das unendliche Scrollen auslösen, kann es sein, dass Sie gerade die nächste Seite laden. Dann haben wir vielleicht zwei oder drei dieser Seiten auf einer Seite mit unendlichem Scrollen geladen, aber nicht alles. […] Ich würde empfehlen, das mit dem [URL]-Inspektionstool zu testen und einfach zu sehen, wie viel Google abholen würde.“

Aktualisierungs- und Erkennungsdaten im Crawling-Statistikbericht

33:32 „Im Bericht der Search Console [ Crawl Stats ] sind 97 % der Crawler-Anfragen Aktualisierungen und nur 3 % Entdeckungen. Wie kann man das optimieren und Google mehr Seiten entdecken lassen?“

John antwortete: „[…] Es ist normal, dass […] eine ältere, etabliertere Website viele Crawler-Aktualisierungen aufweist, da wir uns die Anzahl der uns bekannten Seiten ansehen werden, die im Laufe der Zeit wächst. Und die Anzahl der neu hinzukommenden Seiten ist in der Regel ziemlich stabil. Es ist ziemlich üblich, besonders bei einer Website, die irgendwie etabliert ist und nur langsam wächst, ein Gleichgewicht wie dieses zu haben, dass der größte Teil des Crawlings auf dem Refresh-Crawling und nicht so sehr auf dem Discovery-Crawling liegt.

Ich denke, es wäre anders, wenn Sie eine Website hätten […], auf der viele neue Artikel eingehen und die alten Inhalte sehr schnell irrelevant werden. Dann würden wir uns meiner Meinung nach eher auf Entdeckungen konzentrieren. […] Wenn Sie so etwas wie eine E-Commerce-Website haben, auf der Sie die Menge an Inhalten, die Sie haben, nur langsam erweitern und die meisten alten Inhalte gültig bleiben, […] wird die Menge an Aktualisierungs-Crawling wahrscheinlich [gehen]. etwas höher sein“.

Reduziertes Crawlen einer Website

35:09 „Während der letzten paar Wochen habe ich einen enormen Rückgang der Crawling-Statistiken bemerkt, von 700 auf 50 pro Tag. Gibt es eine Möglichkeit, anhand des Search Console-Berichts zu verstehen, was die Ursache für diesen Rückgang sein könnte? Könnte es am Laden der Quellseite liegen? Wie kann ich die Aufschlüsselung der Crawl-Anfrage richtig lesen?“

John erklärte ausführlich, wie Google Websites crawlt und welche Faktoren das Crawling beeinflussen: „[…] Es gibt ein paar Dinge, die in den Umfang des Crawlings einfließen, das wir durchführen.

[…] Wir versuchen herauszufinden, wie viel wir von einer Website crawlen müssen, um die Dinge in unseren Suchergebnissen aktuell und nützlich zu halten. Und das hängt davon ab, die Qualität Ihrer Website zu verstehen, wie sich die Dinge auf Ihrer Website ändern. Wir nennen das die Crawl-Nachfrage.

Auf der anderen Seite [gibt es] die Einschränkungen, die wir bei Ihrem Server, Ihrer […] Website, Ihrer […] Netzwerkinfrastruktur in Bezug darauf sehen, wie viel wir auf einer Website crawlen können. Wir versuchen, diese beiden in Einklang zu bringen.

Und die Einschränkungen hängen in der Regel mit zwei Hauptdingen zusammen: […] die Gesamtantwortzeit auf Anfragen

zur Website und […] die Anzahl der […] Serverfehler, die wir während des Crawlings sehen. Wenn wir viele Serverfehler sehen, werden wir das Crawling verlangsamen […]. Wenn wir feststellen, dass Ihr Server langsamer wird, werden wir auch das Crawling verlangsamen […].

Die Schwierigkeit beim Geschwindigkeitsaspekt besteht darin, dass wir zwei […] unterschiedliche Sichtweisen auf Geschwindigkeit haben. Manchmal wird das verwirrend, wenn man sich die Crawling-Rate ansieht. Speziell für die Crawling-Rate schauen wir uns an, wie schnell können wir eine URL von Ihrem Server anfordern?

Und der andere Aspekt der Geschwindigkeit, auf den Sie wahrscheinlich stoßen, ist alles rund um Core Web Vitals und wie schnell eine Seite in einem Browser geladen wird. Die Geschwindigkeit, die ein Browser benötigt, steht in der Regel nicht in direktem Zusammenhang mit der Geschwindigkeit, die wir benötigen, um eine einzelne URL auf einer Website abzurufen. Denn in einem Browser müssen Sie das JavaScript verarbeiten, all diese externen Dateien einlesen, den Inhalt rendern und die Positionen aller Elemente auf der Seite neu berechnen. Und das dauert anders als das Abrufen dieser URL.

[…] Wenn Sie versuchen, eine Änderung der Crawling-Rate zu diagnostizieren, dann achten Sie nicht darauf, wie lange es dauert, bis eine Seite gerendert wird. […] Sehen Sie sich nur an, wie lange es dauert, diese URL vom Server abzurufen.

Die andere Sache […] ist, dass […] wir versuchen zu verstehen, wo die Website gehostet wird […]. Wenn wir erkennen, dass eine Website das Hosting von einem Server auf einen anderen Server wechselt – das kann zu einem anderen Hosting-Provider sein, […] zu einem CDN wechseln oder CDNs wechseln […] – dann kehren unsere Systeme automatisch zu einigen zurück sichere Rate, bei der wir wissen, dass wir keine Probleme verursachen werden, und dann Schritt für Schritt wieder erhöhen.

Jedes Mal, wenn Sie eine größere Änderung am Hosting Ihrer Website vornehmen, würde ich davon ausgehen, dass die Crawling-Rate sinkt. Und dann wird es in den nächsten Wochen wieder auf das hochgehen, was wir unserer Meinung nach sicher auf unserer Website crawlen können. Das könnte etwas sein, was Sie hier sehen.

Die andere Sache ist, dass unsere Algorithmen zur Bestimmung, wie wir Websites und Server klassifizieren, von Zeit zu Zeit […] ebenfalls aktualisiert werden können. […] Selbst wenn Sie nichts an Ihrer Hosting-Infrastruktur ändern, versuchen unsere Algorithmen herauszufinden, [dass] diese Website auf diesem Server gehostet wird und dieser Server häufig überlastet ist. Wir sollten beim Crawlen dieser Website vorsichtiger sein, damit wir keine Probleme verursachen. Das stellt sich auch automatisch mit der Zeit ein, meist über ein paar Wochen […].

[…] In der [Google] Search Console können Sie eine Crawling-Rate angeben […] und das hilft uns zu verstehen, dass Sie bestimmte Einstellungen […] für Ihre Website haben, und wir werden versuchen, dies zu berücksichtigen. Die Schwierigkeit bei der Einstellung für die Crawling-Rate besteht darin, dass es sich um eine maximale Einstellung handelt. Es ist kein Zeichen dafür, dass wir so viel crawlen sollten, sondern dass wir höchstens das crawlen sollten, was Sie dort angeben. Normalerweise ist diese Einstellung nützlicher, wenn Sie die Crawling-Menge reduzieren müssen, nicht, wenn Sie die Crawling-Menge erhöhen möchten.

[…] Eine Sache, die Sie auch tun können, ist, dass wir im Hilfezentrum für die Search Console einen Link zum Melden von Problemen mit dem Googlebot haben. Wenn Sie feststellen, dass das Crawling Ihrer Website weit außerhalb des erwarteten Bereichs liegt, können Sie Probleme mit dem Googlebot über diesen Link melden […]“.

Wie Google Länder identifiziert, auf die Seiten ausgerichtet sind

56:25 „[…] Was das Geotargeting betrifft, wie findet Google neben der Verwendung von hreflang heraus, auf welches [Land] Sie mit dieser bestimmten Website oder dem bestimmten Unterverzeichnis abzielen?“

Johns Antwort war: „ Wir versuchen, URLs nach klaren Mustern zu gruppieren, die wir erkennen können […], zum Beispiel nach Subdomain oder nach Unterverzeichnis. Wenn Sie das Land im Unterverzeichnis an einer höheren Stelle in einem Pfad haben, dann ist es für uns viel einfacher zu sagen, alles unter diesem Pfad ist für dieses Land, alles unter diesem anderen Pfad ist für ein anderes Land.

Sie können auch einzelne Pfade in der Search Console verifizieren […], was uns etwas erleichtert. In der Praxis höre ich nicht viele Rückmeldungen von Leuten, die sagen, dass dies einen großen Unterschied macht.

[…] Ich würde versuchen […] möglichst deutlich zu machen, welches Land für die einzelnen URLs relevant ist, mit einem klaren Pfad in der URL. Ich glaube, es gab auch eine Frage, die jemand gestellt hat, um das Land als URL-Parameter am Ende zu verwenden. Theoretisch kann man das machen […]. Für unsere Systeme ist es viel schwieriger zu erkennen, welche URLs zu welchem ​​Land gehören […]. Wenn Sie hreflang verwenden, ist das dort weniger problematisch, da Sie dies auf URL-Basis tun können.“

Eine große Anzahl von URLs, die als entdeckt markiert sind – derzeit nicht indexiert

58:25 „[…] Wir sind eine riesige E-Commerce-Site und als wir unseren Crawling-Bericht überprüften, stellten wir fest, dass es riesige Mengen an URLs im Abschnitt [ Erkannt – derzeit nicht indiziert ] gibt […]. Ist dies ein Hinweis auf [ein] Problem [auf unserer Website] […]?“

John sagte: „ Ich denke, es hängt davon ab, was diese Seiten sind und wie Sie sie auf Ihrer Website verwenden. […] Wir finden alle Arten von URLs im Web und viele dieser URLs müssen nicht gecrawlt und indexiert werden, weil sie vielleicht nur Variationen von URLs sind, die wir bereits kennen, oder […] irgendein zufälliges Forum oder Scraper script hat URLs von Ihrer Website kopiert und fehlerhaft eingefügt. […] Es ist ganz normal, dass viele dieser URLs entweder gecrawlt und nicht indexiert oder entdeckt und nicht gecrawlt werden, nur weil es so viele verschiedene URL-Quellen im Web gibt.

[…] Versuchen Sie, […] ein Beispiel davon herunterzuladen, damit Sie sich einzelne Beispiele ansehen können, und […] klassifizieren Sie, welche dieser URLs Ihnen wichtig sind und welche […] diejenigen sind, die Sie ignorieren können.

[…] Diejenigen, die Ihnen wichtig sind, das ist etwas, wo ich versuchen würde, herauszufinden, was Sie tun könnten, um diese besser in Ihre Website einzubinden, in Bezug auf Dinge wie interne Verlinkung. Wenn es sich also um einzelne Produkte oder Kategorien handelt, die nicht gefunden werden, versuchen Sie, systematisch herauszufinden, was Sie tun können, um sicherzustellen, dass alle diese URLs besser miteinander verknüpft sind. […] Gerade bei einer größeren eCommerce-Seite kann es knifflig werden, da man sich nicht immer jede URL einzeln anschauen kann.

Aber manchmal gibt es Tricks, die Sie anwenden können, wenn Sie sagen: Alles, was eine Kategorie der ersten Ebene ist, verlinke ich von meiner Homepage aus. Und ich stelle sicher, dass meine Kategorie der ersten Ebene höchstens […] vielleicht 100 oder 200 Elemente enthält, sodass Sie eine gewisse Zwangsfunktion in Bezug darauf haben , was Sie Google zum Crawlen und Indexieren geben. Auf dieser Grundlage können Sie es etwas systematischer aufbauen.

[…] Bis zu einem gewissen Grad würde ich einfach akzeptieren, dass Google nicht alles crawlen und indexieren kann. […] Wenn Sie beispielsweise feststellen, dass […] einzelne Produkte nicht gecrawlt und indexiert werden, stellen Sie sicher, dass zumindest die Kategorieseite für diese Produkte gecrawlt und indexiert wird. Denn auf diese Weise können die Leute immer noch einige Inhalte für diese einzelnen Produkte auf Ihrer Website finden […].

Sehen Sie, ob Sie Ihre Website selbst crawlen können, damit Sie etwas direktere Daten darüber haben, wie eine Website wie Ihre gecrawlt werden kann. Es gibt verschiedene Crawling-Tools. […] Indem Sie die Website selbst crawlen, können Sie sehen, welche dieser URLs sehr weit von der Startseite entfernt und welche näher an Ihrer Startseite verlinkt sind. Und auf dieser Grundlage können Sie manchmal die Struktur der Site ein wenig anpassen, um sicherzustellen, dass die Dinge in Bezug auf die Entfernung von Ihrer Homepage einigermaßen nah oder einigermaßen stabil sind“.