SEO-Sprechstunde, 28. Januar 2022

Veröffentlicht: 2022-02-01

Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 28. Januar 2022.

Inhalt verstecken
1 Der Wert interner Links
2 Umgang mit unerwünschten Seiten in SERPs nach einem Malware-Angriff
3 Wie kann ich gültige URLs schneller indizieren?
4 Beeinflussen Emojis in Titeln und Meta-Beschreibungen die Suchmaschinenoptimierung?
5 FAQs, die nicht in SERPs angezeigt werden
6 Umgang mit saisonalen Inhalten
7 CLS vs. Ranking
8 Core Web Vitals im Vergleich zu Crawling und Indizierung
9 Geo-Weiterleitungen vs. Nachrichten-Websites

Der Wert interner Links

02:15 „Spielt die Platzierung der [internen] Links eine Rolle?“

John antwortete: „Nicht unbedingt. Ich denke, bei internen Links nutzen wir das einerseits, um den Zusammenhang besser zu verstehen. […] Aber ein weiterer wirklich wichtiger Teil ist die Möglichkeit, Ihre Website zu crawlen. Dabei spielt es keine Rolle, wo sich dieser Link auf einer Seite befindet, um den Rest der Website zu crawlen. Manchmal befinden sich Dinge in der Fußzeile, in Kopfzeilen, manchmal in einem freigegebenen Menü, einer Seitenleiste oder innerhalb eines Inhaltskörpers. Alle diese verlinkten Orte sind aus unserer Sicht in Ordnung.

Was wir in Bezug auf die Position auf einer Seite normalerweise mehr differenzieren, ist der Inhalt selbst , um herauszufinden, was für diese bestimmte Seite relevant ist. Dafür ist es manchmal wirklich sinnvoll, sich auf den zentralen Teil der Seite zu konzentrieren, den primären Inhalt, der sich von Seite zu Seite ändert, und nicht so sehr auf die Kopfzeilen, Seitenleisten, Fußzeilen oder ähnliches. […] Diese sind ein Teil der Website selbst, aber es ist nicht der Hauptgrund für die Existenz dieser Seite und der Hauptgrund für uns, diese Seite zu bewerten.

Das ist also der Unterschied, den wir nehmen, wenn es um verschiedene Teile der Seite geht. Und bei Links geht es meist eher darum, den Kontext von Seiten zu verstehen und die Website crawlen zu können. Und dafür müssen wir nicht zwischen verschiedenen Teilen der Seite unterscheiden.“

Umgang mit unerwünschten Seiten in SERPs nach einem Malware-Angriff

24:11 „Wir haben eine Website, die letzten Dezember einen Malware-Angriff hatte. Wir haben es bereinigt und dafür gesorgt, dass es kein Sicherheitsproblem in der Google Search Console gibt. Aber die unerwünschten Seiten, die [im] Ergebnis von Malware indiziert wurden, werden immer noch in den Suchergebnissen angezeigt. […] Was können wir tun?"

John sagte: „Zunächst einmal würde ich überprüfen, ob diese Seiten entfernt wurden, da einige Arten von Website- Hacks so durchgeführt werden, dass es bei einer manuellen Überprüfung so aussieht, als wäre die Seite entfernt worden, aber für Google ist sie es immer noch dort. Also würde ich einige dieser Seiten mit dem Tool [URL-Inspektion] überprüfen, um zu überprüfen, ob sie vollständig bereinigt sind oder ob noch etwas übrig ist, das sich zu verbergen versucht. Ich denke, das ist die Grundlage für alles andere.

Für den Rest gibt es zwei Ansätze, die ich empfehle. Einerseits besteht der beste Ansatz darin , sicherzustellen, dass die sichtbareren Seiten manuell entfernt werden. Das bedeutet, nach Ihrem Firmennamen, Website-Namen, […] Hauptprodukten usw. zu suchen und die Seiten anzuzeigen, die in den Suchergebnissen angezeigt werden, und sicherzustellen, dass alles, was Sie nicht angezeigt haben möchten, nicht angezeigt wird . Normalerweise führt das zu vielleicht bis zu 100 URLs, von denen Sie sagen, dass diese gehackt wurden, und ich möchte, dass sie so schnell wie möglich entfernt werden. Verwenden Sie für diese das Entfernungstool. Das ist im Wesentlichen der schnellste Weg, um Dinge zu bereinigen. Das Entfernungstool entfernt diese URLs innerhalb von etwa einem Tag, insbesondere für Dinge, die für Ihre Benutzer sichtbar wären, die sich darum kümmern.

Der andere Teil ist, dass die verbleibenden URLs im Laufe der Zeit erneut gecrawlt werden. Aber […] wenn es um viele URLs auf einer Website geht, dauert das ein paar Monate. Auf der einen Seite könnten Sie diese also in Ruhe lassen und sagen, nun, sie sind für Menschen nicht sichtbar, es sei denn, Sie suchen explizit nach den gehackten Inhalten oder führen eine Site-Abfrage Ihrer Website durch. Sie fallen mit der Zeit aus. Lassen Sie sie ein halbes Jahr in Ruhe und überprüfen Sie danach noch einmal, ob sie vollständig gereinigt sind.

Wenn Sie versuchen möchten, das so schnell wie möglich zu lösen, können Sie auch das Entfernungstool mit der Präfixeinstellung verwenden und im Wesentlichen versuchen, gemeinsame Präfixe für diese gehackten Seiten zu finden, die ein Ordnername, ein Dateiname oder etwas anderes sein können den Anfang und filtern Sie diese heraus. Das Entfernungstool nimmt sie nicht aus unserem Index, ändert also nichts am Ranking, zeigt sie aber nicht mehr in den Ergebnissen an. Auf diese Weise könnten Sie nur an den besser sichtbaren Seiten vorbeigehen und versuchen, den Rest zu bereinigen.

Ich persönlich glaube nicht, dass Sie alle diese Seiten bereinigen müssen, denn wenn Benutzer sie nicht sehen, dann existieren [diese Seiten] technisch gesehen in den Suchergebnissen, aber wenn niemand sie sieht, ändert sich nichts für Ihre Webseite. Von daher würde ich mich auf den sichtbaren Teil konzentrieren. Räumen Sie das auf, und wenn das erledigt ist, lassen Sie den Rest einfach sich selbst erledigen.“

Wie kann ich gültige URLs schneller indizieren?

28:39 „Wir haben eine Website mit gültigen URLs mit qualitativ hochwertigen Inhalten. Sie befolgen die in der Google-Suche-Zentrale genannten Richtlinien. […] Aber manchmal dauert es ewig, diese URLs zu indizieren. […] Ich wünschte, wir hätten ein Tool, mit dem wir sie schneller indizieren können.“

John: „[…] Ich denke, insgesamt gibt es das Submit to Indexing-Tool oder die Funktionalität in der Search Console, die wir für diese Dinge empfehlen. Aber gleichzeitig indizieren wir nicht alles. Es kann sehr gut passieren, dass Sie eine gültige Seite haben, aber wir indexieren sie nicht. Ich denke, einer der Gründe, die in diese Richtung gehen, ist, dass heutzutage fast alle Seiten gültige Seiten sind und es wirklich schwierig ist, ein CMS einzurichten, in dem Sie ungültige Seiten erzeugen. Wenn Sie WordPress oder eines der gängigen Systeme verwenden, werden standardmäßig nur gültige Seiten erstellt.

Aus technischer Sicht können wir im Web nicht alles indizieren, also müssen wir irgendwo die Grenze ziehen. Bei Websites ist es völlig normal, dass Teile ihres Inhalts indexiert und Teile ihres Inhalts nicht indexiert sind. Wenn wir verstehen, dass dies eine wirklich gute Website ist und wenn sie eine vernünftige interne Struktur hat, können wir normalerweise im Laufe der Zeit immer mehr aufnehmen, aber es ist keine Garantie dafür, dass wir alles auf einer Website indizieren. Das ist also etwas, das man im Hinterkopf behalten sollte. Besonders in der Search Console ist es einfach, sich die Berichte anzusehen und zu sagen, oh, diese Seiten sind nicht indexiert, also mache ich etwas falsch. Aber aus unserer Sicht ist es normal, dass nicht alles indiziert ist. Es ist heutzutage einfach viel sichtbarer, denke ich.“

Beeinflussen Emojis in Titeln und Meta-Beschreibungen die Suchmaschinenoptimierung?

33:04 Können Sie [irgendwelche] Empfehlungen für Emojis geben, die im Titel und in der Meta-Beschreibung verwendet werden? Beeinflussen sie SEO oder nicht?“

Laut John „können Sie auf jeden Fall Emojis in Titeln und Beschreibungen auf Ihren Seiten verwenden. Wir zeigen nicht alle davon in den Suchergebnissen, insbesondere wenn wir der Meinung sind, dass dies die Suchergebnisse stört, da es möglicherweise irreführend aussieht. […] Aber Sie können sie dort behalten. Es ist nicht so, dass sie irgendwelche Probleme verursachen.

Ich glaube nicht, dass Sie einen signifikanten Vorteil haben würden, wenn Sie diese dort platzieren würden. Wir versuchen höchstens herauszufinden, was das Äquivalent zu diesem Emoji ist. Verwenden Sie dieses Wort vielleicht auch in Verbindung mit der Seite, aber es ist nicht so, dass Sie einen Vorteil für […] einen farbenfrohen Titel haben. Wenn Sie diese in Ihren Titeln und Beschreibungen haben möchten, tun Sie dies aus dieser Sicht. Wenn Sie sie dort nicht haben wollen, dann ist das auch in Ordnung. Ich glaube nicht, dass es SEO schadet oder schadet oder SEO in irgendeiner Weise hilft.“

FAQs werden nicht in SERPs angezeigt

36:15 Wir haben ein FAQ-Schema zu einigen Artikeln, die keine technischen Fehler in GSC zeigen. Gibt es nicht-technische Gründe, warum Google unsere FAQs nicht in den SERPs unter dem Beitrag anzeigt? Könnte es ein Vertrauensproblem mit den Inhalten auf unserer Website sein?“

Johns Antwort lautete: „FAQ-Rich-Suchergebnisse ähneln im Wesentlichen anderen Arten von Rich-Suchergebnissen, da wir mehrere Ebenen berücksichtigen, bevor wir sie in den Suchergebnissen anzeigen. Einerseits müssen sie fachlich korrekt sein. Es klingt, als wären diese technisch korrekt. Andererseits müssen sie unseren Richtlinien entsprechen. Ich glaube nicht, dass wir irgendwelche wesentlichen Richtlinien zu Rich-Suchergebnissen für häufig gestellte Fragen haben, außer dass der Inhalt auf der Seite sichtbar sein sollte. Das dritte Problem, das hier manchmal ins Spiel kommt, ist, dass wir verstehen können müssen, dass diese Website in dieser Hinsicht vertrauenswürdig ist, dass wir darauf vertrauen können, dass diese Daten korrekt sind. Das ist etwas, wo wir aus qualitativer Sicht vielleicht nicht von einer Website überzeugt sind und sie dann nicht zeigen würden. Aber das sind die drei Schritte, die ich mir ansehen würde. […] Wenn das alles stimmt, dann würde ich mir überlegen, was ich tun könnte, um die Qualität meiner Website insgesamt deutlich zu verbessern.“

Umgang mit saisonalen Inhalten

37:38 Bestehende Seiten möchten wir gerne um aktuellere Inhalte erweitern, zB zu saisonalen Themen oder Events. Was machen wir mit solchen Inhalten, wenn die Saison oder das Ereignis (z. B. Black Friday) vorbei ist? Lassen Sie diese Abschnitte einfach dauerhaft auf der Seite oder entfernen Sie sie nach der Veranstaltung und fügen Sie sie nächstes Jahr wieder hinzu?“

John antwortete: „Von unserer Seite aus liegt es ganz bei Ihnen, wie Sie damit umgehen. Die Seiten dort zu lassen ist in Ordnung, sie nach einer Weile zu entfernen ist in Ordnung, wenn sie nicht mehr relevant sind. Im Wesentlichen würden Sie wahrscheinlich sehen, dass der Verkehr zu diesen Seiten abnimmt, wenn es nicht saisonbedingt ist. Wenn die Leute nicht nach Black Friday suchen, werden sie Ihre Black Friday-Seiten nicht finden. Dann spielt es keine Rolle, ob Sie diese Seite haben oder nicht, weil Sie dort keine Impressionen verpassen. Wenn Sie diese Seite noindex machen oder wenn Sie sie für eine Weile auf 404 setzen und sie dann später zurückbringen, ist das im Grunde vollkommen in Ordnung.

Das einzige, worauf ich bei saisonalen Seiten achten würde, ist, dass Sie Jahr für Jahr dieselben URLs wiederverwenden. Anstatt also eine Seite mit dem Namen Black Friday 2021 und dann Black Friday 2022 zu haben, haben Sie eine Seite mit dem Namen Black Friday. Wenn Sie diese Seite wiederverwenden, werden auf diese Weise alle Signale, die Sie dieser Seite im Laufe der Jahre zugeordnet haben, weiterhin zu Ihren Gunsten arbeiten, anstatt dass Sie für ein saisonales Ereignis wie dieses jedes Jahr neue Signale erstellen müssen. Das ist die Hauptempfehlung, die ich dort habe.

Wenn Sie diese Seiten löschen, wenn Sie sie nicht benötigen, und dieselbe URL später neu erstellen, oder wenn Sie diese Seiten für einen längeren Zeitraum live halten, denke ich, dass beides im Wesentlichen vollkommen in Ordnung ist. Besonders bei wettbewerbsorientierten saisonalen Ereignissen wie dem Black Friday oder Weihnachten […] neige ich dazu, Websites zu sehen, die diese Seiten ein wenig im Voraus erstellen. Auch wenn sie dort noch nicht viele Inhalte zu teilen haben, können sie damit beginnen, einige Signale für diese Seiten aufzubauen. Das kann in Bezug auf interne und externe Links, Marketingbemühungen oder was auch immer sein. Indem Sie diese Seiten ein wenig im Voraus haben, selbst wenn Sie nicht viele Inhalte darauf haben, ist es ein bisschen einfacher, dort zu sein, wenn es plötzlich gewürzt ist.“

CLS vs. Ranking

40:19 Wie groß ist der Einfluss auf das Google-Ranking, wenn ich einen schlechten CLS-Score habe? FCP, FID und LCP haben gute Werte, nur CLS ist nicht so gut.“

John sagte: „Wir haben nicht so etwas wie eine feste Zahl in Bezug darauf, wie stark diese Bewertungen für eine Website funktionieren. Es ist wirklich schwer zu sagen, wie schlimm es ist oder wie groß die Auswirkungen sind.

Aus unserer Sicht berücksichtigen wir diese Metriken bei den Core Web Vitals und dem Rankingfaktor Page Experience. Wir versuchen, sie ganzheitlich zu betrachten. Und wir versuchen, uns besonders darauf zu konzentrieren, […] wo Sie sich in Bezug auf diese Ergebnisse in diesem vernünftigen Bereich befinden. […] Sobald Sie aus diesem schlechten Abschnitt heraus sind, können wir sagen, na ja, das ist vernünftig, und wir können es berücksichtigen. Wir haben keine festen Rankings oder algorithmischen Funktionen , bei denen wir sagen, nun, wir nehmen eine Hälfte von FCP und eine Hälfte von CLS, und wir berücksichtigen ein Drittel davon. Es ist etwas, bei dem wir das Gesamtbild betrachten müssen, und es kann vorkommen, dass wir die Dinge im Laufe der Zeit ein wenig ändern, um sicherzustellen, dass wir die Seitenerfahrung von Seiten entsprechend kennzeichnen oder behandeln.

Besonders im Hinblick auf den Page Experience-Ranking-Faktor, bei dem wir von Jahr zu Jahr ebenfalls Änderungen vornehmen werden, würde ich also erwarten, dass sie wahrscheinlich einige andere Änderungen oder andere Faktoren vorab ankündigen, wenn sie dies überprüfen hier spielen, ähnlich wie wir auch den Desktop-Aspekt davon eingeführt haben, über den wir, glaube ich, irgendwann letztes Jahr gesprochen haben und der später in diesem Jahr ins Spiel kommt.“

Core Web Vitals vs. Crawling und Indizierung

42:33 Können schlechte Core Web Vitals-Ergebnisse ein Qualitätsproblem der Website sein, das das Crawling einschränkt oder begrenzt, wie viele Seiten einer Website am Ende indiziert werden?“

John: „Es ist wirklich schwer, sich das anzusehen, ohne sich eine bestimmte Website anzusehen. Aber im Wesentlichen spielen die Core Web Vitals in den Page Experience-Ranking-Faktor hinein, und das ist eher ein Ranking-Faktor, das ist kein Qualitätsfaktor. Insbesondere spielt es keine Rolle, wie viel wir von einer Website crawlen und indizieren. In einigen Fällen besteht ein kleiner Zusammenhang zwischen der Geschwindigkeit der Seite und der Geschwindigkeit, mit der wir sie crawlen können, aber das muss nicht so sein. Das ist also etwas, wo diese Seiten normalerweise weniger verbunden und nicht vollständig miteinander verbunden sind.

Insbesondere wenn es um die Seitenerfahrung geht, hängt die Zeit, die zum Laden einer Seite benötigt wird, von so vielen Faktoren ab, mehr als nur von dieser einen Anfrage an den Server, es kann sein, dass Sie vielleicht Schriftarten auf dieser Seite haben oder vielleicht haben Sie große Bilder, die von anderen Websites abgerufen werden, all diese Dinge sind Elemente, die dazu beitragen, wie schnell die Seite für einen Benutzer geladen wird, aber nicht abbilden, wie schnell wir eine Seite crawlen können. Wenn Ihr Server so langsam ist, dass jede Anfrage an den Server ein paar Sekunden dauert, dann würde ich sagen, dass Ihre Seite langsam sein wird und Googles Crawling langsam sein wird, nur weil wir es nicht können kriechen so viel wie wir möchten.

Aber zum größten Teil, wenn Sie davon sprechen, dass einige Seiten gut sind und das Crawling einigermaßen schnell ist, dann würde ich nicht erwarten, dass eine Beziehung zwischen den Core Web Vitals-Ergebnissen und dem Crawling und der Indexierung einer Website besteht.“

Geo-Weiterleitungen vs. Nachrichten-Websites

53:25 „Ich weiß, dass Google aus einer ganzen Reihe von Gründen im Allgemeinen gegen geografische Weiterleitungen auf Websites rät. Zum Beispiel die Tatsache, dass der Googlebot in der Lage sein wird, alle Websites ordnungsgemäß zu crawlen und zu indizieren. […] Ich frage mich, ob die Situation bei Nachrichteninhalten oder Nachrichten-Websites anders ist? Eine Reihe großer Nachrichtenanbieter […], alle haben seit einigen Jahren Geo-Redirects im Einsatz, und keiner von ihnen scheint negative Auswirkungen auf die Indexierbarkeit ihrer Inhalte zu haben.“

Laut John „gilt das für alle Arten von Websites. Aus unserer Sicht geht es bei den Geo-Redirects in der Regel eher darum, es uns technisch schwer zu machen, diese Inhalte zu crawlen. Insbesondere wenn Sie Nutzer aus den USA auf eine andere Version einer Website weiterleiten, folgen wir dieser Weiterleitung, da der Googlebot normalerweise von einem Standort aus crawlt. Dann geht es weniger um Signalqualität. […] Es ist vielmehr so, dass wir Ihre Webseiten nicht indizieren können, wenn Google sie nicht sehen kann, und das ist im Wesentlichen der Hauptgrund, warum wir diese Dinge nicht empfehlen.

Ich weiß nicht, ob einige dieser Websites etwas tun, bei dem einige Benutzer umgeleitet werden und andere nicht umgeleitet werden. Möglicherweise wird der Googlebot nicht umgeleitet. Es ist möglich. Aus unserer Sicht würde ihnen das meiner Meinung nach keinen Gefallen tun, da es meistens dazu führen würde, dass Sie mehrere URLs mit demselben Inhalt in den Suchergebnissen haben und mit sich selbst konkurrieren. Dann geht es weniger darum, etwas Hinterhältiges zu tun und sich in die Ergebnisse einzuschleichen, sondern eher darum, Dinge auf Ihrer Website zu duplizieren. Wir finden Ihre Inhalte an mehreren Orten, wir wissen nicht, welcher am besten platziert werden soll, also müssen wir das raten.

Aus dieser Sicht ist mein Verdacht, ohne eine dieser Seiten ohne weiteres zu überprüfen, dass wir uns dieser Geo-Weiterleitungen bewusst sind. Wir sehen, wie sie stattfinden, und aus technischer Sicht versuchen wir, die richtigen Seiten dort zu crawlen und zu indizieren, aber nicht, dass dort hinter den Kulissen etwas Hinterhältiges passiert.

Es ist auch nicht so, dass wir dies als eine Art Cloaking-Versuch oder etwas sehen würden, was gegen die Webmaster-Richtlinien verstoßen würde. Wenn Sie es uns aus technischer Sicht erschweren, Ihre Inhalte zu finden und zu indizieren, wird es für uns schwierig, das zu tun, was Sie von uns erwarten. Deshalb haben wir diese Empfehlungen.“