SEO-Bürozeiten – 24. Dezember 2021
Veröffentlicht: 2021-12-29Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 24.12.2021.
Paywall-Inhalte und Cloaking
00:49 „In Bezug auf Paywall-Daten mit Paywall-Inhalten. […] Wir haben eine Website. Wir haben viele Artikel geschrieben und alles ist für Google zugänglich. Und wir würden dort gerne eine Paywall einbauen, aber […] zeigen nur […] die Paywall-Inhalte Google mit den strukturierten Datenschnipseln, die Sie haben. Gilt es als Tarnung?
Also überprüfe ich, ob es Googlebot ist, und zeige [dann] nur […] die strukturierten Daten – […] die Paywall-Daten. Aber dann dem normalen Benutzer […], ich zeige die strukturierten Daten nicht, ist das in Ordnung?“
John sah das Problem dieser Lösung nicht: „Das ist in Ordnung. Technisch gesehen würde es immer noch als Cloaking betrachtet werden, weil Sie etwas anderes zeigen, aber gemäß unseren Richtlinien ist das akzeptabel. Denn Nutzer würden, […] wenn sie die Paywall passieren, […] den Inhalt sehen, den Sie dem Googlebot zeigen.“
Potenzielle Probleme bei der Indexierung
03:38 „Ich veröffentliche qualitativ hochwertige Inhalte, habe eine Sitemap eingereicht und fordere manchmal eine Indexierung von der Google Search Console an. Aber ich habe immer noch ein Problem beim Indexieren neuer Inhalte, oder sie werden [mit Verzögerung] indexiert. […] Es ist ein Fehler von Google oder ein neues Algorithmus-Update?“
John antwortete: „In dieser Hinsicht gibt es auf unserer Seite keinen Fehler. […] Wir indizieren einfach nicht den gesamten Inhalt , und einige Websites generieren eine Menge Inhalt. Und wenn wir nicht alles indizieren […], kann das in Ordnung sein. Aber vielleicht möchten Sie, dass alles indiziert wird, und wir können nicht immer alles machen.
Der knifflige Teil […] ist, dass in der Vergangenheit […] viele Websites technisch nicht so toll waren. Es war etwas klarer, welche Art von Inhalten nicht indiziert wurden. Heutzutage sind Websites technisch in Ordnung, und es ist […], als ob die Qualitätslatte etwas höher liegt […]. Jeder kann etwas veröffentlichen, das theoretisch indexiert werden könnte, aber […] wir müssen sicherstellen, dass wir die richtigen Dinge indexieren, die für die Benutzer tatsächlich nützlich und relevant sind. Daher müssen wir manchmal einige Dinge nicht indiziert lassen.“
Aktualisierung der Produktbewertungen – betroffene Sprachen und Länder
14:01 „Über die Aktualisierung der Produktbewertungen. […] Auch wenn das Update nur englischsprachige Websites betrifft, habe ich auch in der deutschen Suche einige Bewegungen gesehen. Ich habe mich gefragt, ob es auch Auswirkungen auf Websites in anderen Sprachen durch dieses Update der Produktbewertungen oder irgendeiner Art geben könnte […]?“
Wie John sagte: „ Meine Annahme war, dass dies global und über alle Sprachen hinweg war […]. Aber normalerweise versuchen wir, das Engineering-Team dazu zu drängen, eine Entscheidung darüber zu treffen, damit wir es im Blogbeitrag richtig dokumentieren können. Ich weiß nicht, ob das mit dem Update der Produktbewertungen passiert ist. […] Es scheint etwas zu sein, das wir in mehreren Sprachen machen könnten und nicht nur an Englisch gebunden wären. Und selbst wenn es anfangs Englisch wäre, fühlt es sich nach etwas an, das auf ganzer Linie relevant ist, und wir sollten versuchen, Wege zu finden, dies im Laufe der Zeit auch auf andere Sprachen auszuweiten. Daher überrascht es mich nicht sonderlich, dass Sie die Veränderungen in Deutschland sehen […].“
Nachdem er erfahren hatte, dass der Google-Blogpost nur das Update erwähnte, das englischsprachige Websites betrifft, führte John weiter aus:
„Bei dieser Art von Updates versuchen wir, mit einer Sprache oder einem Standort zu beginnen und zu sehen, was wir optimieren müssen, und dann erweitern wir von dort aus. […] Bei etwas, das inhaltlicher ist, dauert es normalerweise etwas länger, um auf verschiedene Sprachen zu expandieren […].“
Lokalisierung von Seiten für englischsprachige Länder
17:53 „Kennen Sie andere Möglichkeiten, denselben Seitensatz für verschiedene englischsprachige Länder zu lokalisieren? […] Wir haben mehrere Subdomains mit .jo-Top-Level-Domain, wie vielleicht aus Australien, neuseeländische Subdomains, und wir haben das Land im JSA-Backend festgelegt und verwenden auch hreflang auf Seitenebene. […] Wir konnten keine anderen Möglichkeiten finden, uns bei der Lokalisierung dieser Subdomains zu helfen. Haben Sie gute Methoden oder Möglichkeiten, wie wir uns verbessern können?“
So hat John dieses Thema besprochen:
„Ich denke, Sie haben die wichtigsten abgedeckt. Das ist Geotargeting in der Search Console und den hreflang-Einstellungen.
Geotargeting funktioniert auf Unterverzeichnis- oder Subdomain-Ebene, es sind alle Seiten darin enthalten.
Hreflang ist pro Seite. Wenn Sie eine Homepage für ein Land und verschiedene Produktseiten für dasselbe Land haben, müsste jede dieser Seiten mit hreflang vernetzt werden.
Die andere Sache, die ich immer zu empfehlen versuche, ist eine Art Backup-Plan, […] so etwas wie ein JavaScript-basiertes Banner, das Sie zeigen können, wenn Sie erkennen, dass der Benutzer auf der falschen Version einer Website ist. Wenn beispielsweise ein Benutzer aus Australien auf der Seite aus England landet, könnten Sie ein JavaScript-Banner anzeigen, das besagt: „Hey, wir haben hier eine australische Version dieser Seite. Sie können direkt dorthin gehen.' Der Vorteil eines JavaScript-basierten Banners besteht darin, dass Sie es mit robots.txt blockieren können, sodass es aus Sicht der Indexierung nicht angezeigt wird. Und wenn Sie nicht automatisch umleiten, […] [die Suchmaschinen] können diese beiden Versionen unabhängig voneinander verarbeiten.
Wenn diese Seiten im Wesentlichen gleich sind, kann es vorkommen, dass wir eine dieser Seiten als die kanonische Version behandeln. Wenn Sie beispielsweise eine Seite für Neuseeland und Australien haben und der gesamte Inhalt derselbe ist, das einzige, was sich geringfügig unterscheidet, die Währung auf der Seite ist, dann […] falten wir diese Seiten zusammen und wählen eine davon als aus eine kanonische, und verwenden Sie diese als Grundlage für die Suche.
Wenn Sie einen hreflang haben, verwenden wir auch auf diesen Seiten den hreflang, um die richtige Version der URL anzuzeigen. Der indizierte Inhalt stammt jedoch nur aus der kanonischen Version, und alle Berichte in der Search Console beziehen sich auf die kanonische Version. Das macht es manchmal etwas knifflig, besonders wenn Sie eine größere Website mit […] denselben Inhalten für verschiedene Länder haben.“
Hinzufügen dynamischer Inhalte zu Seiten
25:0 „Meine Website hat Millionen von Seiten, wie Kategorie-, Unterkategorie- und Produkt-, E-Commerce-Seiten […]. Wir haben dynamische Inhalte hinzugefügt, weil [bei] Millionen von Seiten […] [es] schwierig ist, separate Inhalte oder […] einzigartige Inhalte auf jeder Seite hinzuzufügen. Wir haben […] vorlagenbasierte Inhalte auf Kategorieseiten, Unterkategorieseiten und Produktseiten hinzugefügt. […] Das wäre gut für unsere Website-Performance oder nicht, oder sollten wir den Inhalt für jede Seite aktualisieren? […]“.
Hier ist, wie John geantwortet hat:
„ Das dynamische Hinzufügen relevanter Inhalte zu einer Seite […] kann sinnvoll sein, weil […] [es] im Wesentlichen nur […] eine Datenbanksuche durchführt und darauf basierend Inhalte hinzufügt. […] Es hängt wirklich davon ab, wie Sie das eingerichtet haben.
Das Wichtigste, was ich vermeiden würde, ist, dass Sie in eine Situation geraten, in der Sie künstlich Inhalte zu einer Seite hinzufügen, nur in der Hoffnung, dass diese Seite für die von Ihnen künstlich hinzugefügten Schlüsselwörter besser rankt. […] Wenn Benutzer dorthin gehen, fragen sie sich: „Warum sind diese zufälligen Keywords auf dieser Seite?“ […] Sicherzustellen, dass Sie tatsächlich gute, relevante Inhalte für diese Schlüsselwörter haben, darauf würde ich mich mehr konzentrieren […].“
Als er zusätzlich gefragt wurde, ob es notwendig sei, relevante Inhalte für jede Seite zu schreiben, damit Google Seiten als wertvoll ansieht, sagte John:
„Es sollte etwas auf der Seite sein, das relevant ist. Und wenn es eine Kategorieseite ist, dann sind die Produkte, die Sie dort aufgelistet haben, sehr relevant […] und normalerweise haben Sie eine Beschreibung dieser Kategorie. […] Es ist nicht so, dass Sie unten einen Wikipedia-Artikel über all diese Produkte schreiben müssen und woher sie kommen […], aber ein bisschen Information, die für die Seite relevant ist, das zählt.“
Rendern und Indizieren von JavaScript-Dateien
28:28 „Meine Website […] [verwendet] Reagieren mit clientseitigem Rendering, […] wenn wir JavaScript und Browser ausschalten, ist meine Seite völlig leer. Das kann die Ursache für ein niedrigeres Ranking oder vielleicht die schlechte Performance der Webseite sein?“
Johns Antwort war: „ Das sollte nicht sein. […] Für die Suche machen wir das Rendern und verarbeiten das JavaScript auf den Seiten. Wenn es in einem normalen Browser sichtbar ist und Sie nichts besonders Schlechtes tun, können wir diese Seiten normal indizieren. Sie können mit dem Tool „URL prüfen“ in der Search Console überprüfen, ob der Inhalt tatsächlich sichtbar ist, wenn der Googlebot versucht, die Seite zu rendern, und wenn der Inhalt sichtbar ist, sollten Sie fertig sein .“

Indizierung von URLs, die durch die Suche innerhalb einer Website generiert wurden
30:11 „Wir haben unserer Website bereits ein Suchfeld hinzugefügt , damit der Benutzer auf unsere Website kommt und dort drüben sucht, und es generiert eine eindeutige URL für jede Suche. Diese URLs sollen indexierbar sein oder nicht ?“
Wie John sagte: „ Normalerweise nicht. […] Dafür gibt es zwei Hauptgründe.
Einerseits ist es sehr einfach, in eine Situation zu geraten, in der Sie eine weitere Million URLs haben, die nur unterschiedliche Suchanfragen sind, was für Sie keinen Mehrwert bietet. Wir nennen es einen unendlichen Raum […]. Das ist etwas, das Sie vermeiden möchten.
Die andere Sache, die Sie vermeiden möchten, ist, dass Leute Spam-Sachen im Suchfeld machen und versuchen, diese Dinge indiziert zu bekommen , was so etwas wie die Suche nach ihrer Telefonnummer und […] ihrem Geschäftstyp […] sein könnte. Plötzlich rangiert die Suchseite Ihrer Website für diese Art von Unternehmen und zeigt ihre Telefonnummer an, selbst wenn Sie keinen Inhalt haben, der zu diesen Suchanfragen passt, […] sie tun dies, um zu versuchen, in den Suchergebnissen sichtbar zu sein. Ich würde diese Art von Suchseiten mit robots.txt blockieren. So können Sie sicher sein, dass wir keine Inhalte indexieren können.“
SEO-Seiten als YMYL
31:55 „Würde eine SEO-Firma als „ Your Money or Your Life “ -Website klassifiziert werden, oder bezieht sie sich nur auf Websites mit medizinischer und finanzieller Beratung?“
Laut John „[…] glaube ich nicht, dass SEO-Websites so entscheidend für das Leben der Menschen sind. Wenn Sie bei einem SEO-Unternehmen arbeiten, sind Sie natürlich daran gebunden, aber es ist nicht so, dass die Website selbst eine Website vom Typ „Ihr Geld oder Ihr Leben“ ist. […] Nicht jede Website, die etwas verkauft, fällt in diese Kategorie.
Was ich hier empfehlen würde, ist, anstatt blind zu versuchen zu sehen, „Fällt diese Art von Website in diese bestimmte Kategorie?“, […] nachzulesen, woher diese Kategorie stammt, nämlich die Quality Rater Guidelines, und ein bisschen mehr zu verstehen was Google mit dem Verständnis dieser verschiedenen Arten von Websites zu tun versucht . […] Das gibt Ihnen ein bisschen mehr Hintergrundinformationen darüber, was tatsächlich passiert […].“
Implementieren von Breadcrumb-strukturierten Daten
39:56 „Wenn es um Breadcrumb-strukturierte Daten geht, müssen sie genau die gleichen sein wie die Breadcrumbs, die ein Besucher auf einer Seite sehen würde? Manchmal sehe ich eine komprimierte Version von Breadcrumbs auf der Seite, während die strukturierten Daten ein vollständiger Breadcrumb-Pfad sind. Sind beide Optionen akzeptabel?“
Wie John sagte: „[…] Wir versuchen zu erkennen, ob die strukturierten Daten auf einer Seite sichtbar sind oder nicht. Und wenn nicht […], müssen wir uns überlegen „Macht es trotzdem Sinn, das in den Suchergebnissen anzuzeigen? ”
Wenn Sie beispielsweise eine kürzere Version eines Breadcrumbs auf einer Seite anzeigen und wir das nicht abgleichen können, könnte es ein bisschen hin und her gehen, wenn wir dieses Breadcrumb-Markup tatsächlich aufgreifen und verwenden.
Wenn Sie einzelne Krümel oder […] die einzelnen Elemente in der Breadcrumb-Liste nehmen und nur einige davon, aber nicht alle anzeigen, kann es sein, dass wir nur diese aufgreifen. Es kann sein, dass wir den Rest trotzdem aufheben, weil wir […] viele Breadcrumb-Matches sehen.
Es ist nicht garantiert, dass wir das vollständige Breadcrumb-Markup, das Sie haben, erfassen und verwenden können, wenn Sie es nicht auf der Seite anzeigen , und das ist ähnlich wie bei anderen Arten von strukturierten Daten.
Ich denke, die Hauptausnahme […] ist […] das FAQ-Markup, wo Sie Fragen und Antworten haben, wo […] der wichtige Teil darin besteht, dass die Frage tatsächlich sichtbar ist und die Antwort so etwas wie ein reduzierter Abschnitt auf einem sein kann Seite, aber […] muss zumindest sichtbar sein.“
Nur einige Seiten einer Website übersetzen
44:00 „Wir betreiben eine Website mit weniger als 300 Indexseiten, alle auf Englisch. Wir möchten etwa die Hälfte dieser Seiten ins Spanische übersetzen, die im Unterverzeichnis derselben Domain abgelegt werden, z. B. /ES, und als alternative Sprachversionen des englischen Inhalts gekennzeichnet werden. Ist es in Ordnung, nur einen Teil des Inhalts der Seite zu übersetzen, oder sollten wir alles übersetzen, um die englische Website genau widerzuspiegeln und die besten Chancen zu haben, an anderen Orten zu ranken?“
John sagte: „ Es ist in Ordnung, nur einige Seiten einer Website zu übersetzen. Wir betrachten die Sprache der Seiten individuell. Wenn Sie einige Seiten auf Spanisch haben, sehen wir uns nur diese spanischen Seiten an, wenn jemand auf Spanisch sucht. Es ist nicht so, dass wir sagen würden: „Hier gibt es viel mehr englische Seiten als spanische Seiten. Daher ist die spanische Seite weniger wichtig.' […] Dies sind spanische Seiten, und sie können auf Spanisch gut ranken. […] Für Nutzer ist es manchmal sinnvoll, möglichst viele Inhalte übersetzen zu lassen. Aber normalerweise ist dies etwas, das Sie im Laufe der Zeit schrittweise verbessern, indem Sie mit einigen Seiten beginnen, sie gut lokalisieren und weitere Seiten hinzufügen […].
Die hreflang-Anmerkungen gelten ebenfalls pro Seite. Wenn Sie einige Seiten auf Englisch und auf Spanisch haben und diese verlinken, ist das vollkommen in Ordnung. Wenn Sie einige Seiten nur auf Spanisch haben, ist das in Ordnung – Sie brauchen kein hreflang. Einige Seiten nur auf Englisch, das geht auch. Aus dieser Sicht scheint dies ein vernünftiger Anfang zu sein.“
Crawl-Budget und automatisch generierte URLs
46:12 „Die Website, von der ich spreche, ist eine WordPress-Website. Es generiert automatisch mehrere unerwünschte URLs. […] Gibt es eine Möglichkeit, den Crawler anzuhalten, um diese URLs herauszufinden? Ich weiß, dass ich es „noindizieren“ kann, und das sind alles keine indizierten URLs. Aber dann kann ich sie in der Search Console unter dem ausgeschlossenen Teil sehen. […] Es ist eine Nachrichten-Website, wir haben Tausende von URLs. […] Wirkt sich das auf das Crawling-Budget aus?“
John erkundigte sich nach der Größe der Website und erfuhr, dass sie zwischen 5.000 und 10.000 URLs habe.
Angesichts dessen sagte John: „ Ich würde mir keine Sorgen um das Crawling-Budget machen. […] Wir können so viele Seiten ziemlich schnell crawlen, normalerweise innerhalb von Tagen. Die andere Sache […] ist, dass „noindex“ ein Meta-Tag auf der Seite ist. Wir müssen die Seite crawlen, um das Meta-Tag zu sehen, was bedeutet, dass Sie nicht vermeiden können, dass wir die „noindex“-Seiten überprüfen. […] Wenn wir sehen, dass es auf der Seite einen „noindex“ gibt, dann crawlen wir diese Seiten normalerweise im Laufe der Zeit weniger oft. Wir werden immer noch hin und wieder eine doppelte Überprüfung durchführen, aber wir werden nicht so viel überprüfen wie eine normale Seite, die ansonsten indiziert ist. Der andere Ansatz ist die Verwendung von robots.txt. Mit der robots.txt-Datei können Sie das Crawlen dieser Seiten vollständig blockieren. Der Nachteil ist, dass manchmal die URL selbst in den Suchergebnissen indexiert werden kann, nicht der Inhalt auf der Seite […].“
John gab auch das folgende Beispiel:
„Wenn Sie […] eine Fußballnachrichten-Website haben und einige Artikel blockiert sind und einige Artikel gecrawlt werden dürfen, dann findet jemand, der nach Fußballnachrichten sucht, die indexierbaren Versionen Ihrer Seiten und sie spielt keine Rolle, dass es andere Seiten gibt, die von robots.txt blockiert werden. Wenn jedoch jemand ausdrücklich eine Site-Abfrage für diese blockierten Seiten durchführt, können Sie diese URLs in der Suche sehen […]. In einer Situation wie Ihrer […] würde ich mir keine Gedanken über das Crawl-Budget machen.“
John fügte hinzu: „ Aus praktischer Sicht wären sowohl ‚noindex' als auch robots.txt irgendwie gleichwertig. […] Dieser Inhalt würde wahrscheinlich nicht in den Suchergebnissen erscheinen, und wir müssten ihn trotzdem crawlen, wenn es „noindex“ gibt, aber die Zahlen sind so klein, dass sie nicht wirklich wichtig sind. Wir können es immer noch mit einer URL indizieren, wenn sie von robots.txt blockiert werden […]”.
In Bezug auf die bevorzugte Methode sagte John: „Ich würde diejenige wählen, die auf Ihrer Seite einfacher zu implementieren ist. Wenn […] Sie WordPress haben und einfach ein Kontrollkästchen für den Beitrag mit der Aufschrift „Diese Seite ist kein Index“ haben können, ist das vielleicht der einfachste Ansatz […].“
URLs mit Parametern crawlen
54:25 „Wir sehen in unseren Protokolldateien und auch beim Nachweis, dass es sich um den Googlebot über IEP handelt, viel Crawling vom organischen Bot zu UTM-Parameter-URLs, Google Display und universellen App-Kampagnen. […] Wir sehen nirgendwo Links zu diesen URLs. […] Haben Sie eine Ahnung, wo oder warum das passieren könnte?“
John antwortete: „Der einzige Ort, an dem wir mit dem Googlebot auch Seiten crawlen, die Sie in Anzeigenkampagnen auflisten […], ist die Produktsuche. Wenn Sie einen Produktsuch-Feed oder Merchant Center - Feed […] eingerichtet haben, crawlen wir diese Seiten auch für den Googlebot, um sicherzustellen, dass wir sie für das Merchant Center abrufen können. Wenn Sie dort URLs mit Tags versehen haben, […] behalten wir diese URLs mit Tags und verarbeiten sie erneut.
Es kann auch sein, dass andere Leute diese Art von Produkten einreichen können, […] es muss nicht unbedingt Sie sein, der sie einreicht, sondern vielleicht jemand, der in Ihrem Auftrag arbeitet oder auch die Erlaubnis dazu hat.
Wenn wir irgendwo Links zu diesen Seiten finden, werden wir versuchen, sie zu crawlen. Wenn Sie interne Links innerhalb einer Website mit Tags versehen haben, werden wir trotzdem versuchen, diese aufzugreifen und zu crawlen. Wenn Sie Dinge in JavaScript eingerichtet haben, die möglicherweise Tracking-URLs mit diesen Parametern irgendwo eingerichtet haben, und wenn wir das JavaScript verarbeiten, sieht es so aus, als wäre es ein Link zu diesen Tracking-URLs, wir könnten das auch verarbeiten. […] Für mich klingt das nicht nach Einzelfällen […], sondern eher nach einer großen Anzahl dieser URLs, und das fühlt sich sehr nach Merchant Center an.“
