8. Februar 2019 – Google-Hilfe-Hangout-Notizen

Veröffentlicht: 2019-02-14

Diese Woche hatte John einige großartige Einblicke in den Quality Raters Guide, von dem wir große Fans sind, wenn es um die Vertrauenswürdigkeit einer Website geht. Nachfolgend finden Sie handverlesene Fragen und Antworten, die unserer Meinung nach für SEOs am ​​hilfreichsten sind. Vollständiges Video und Transkription unten!

Wie interpretiert Google eine Seite, wenn h-Tags anstelle von <p> verwendet werden?

4:34

John Mueller Help Hangout 8. Februar 2019

Ich sehe kein großes Problem darin, ich meine offensichtlich wie Sie, da Sie es bemerken, wäre es wahrscheinlich etwas, das sinnvoll wäre, aufzuräumen, aber wir würden nicht sagen, dass dies ein negativer Effekt ist, sondern eher, was Sie dort tun Indem Sie sagen, dass alles wichtig ist, sagen Sie uns, dass alles gleich wichtig ist. Es ist also so, als wäre alles wichtig, also ist nichts besonders wichtig. Wir haben also Probleme, den Kontext innerhalb der Seite zu verstehen. Deshalb würde ich das meistens aufräumen. Wir können herausfinden, welche Teile wirklich wichtig sind und welche Teile in normalem Text vorkommen, und so können wir diese Seiten ein bisschen besser verstehen. Ich weiß nicht, ob Sie eine direkte Ranking-Änderung sehen würden, weil Sie das behoben haben, aber es macht es für uns einfacher herauszufinden, worum es auf der Seite wirklich geht. Ich glaube nicht, dass dies etwas wäre, das wir als Spam sehen würden oder etwas, das sehen würde, dass es problematisch ist. Es ist wirklich nur so, dass Sie uns nicht so viele Informationen geben, wie Sie uns geben könnten, indem Sie uns sagen, dass dies wirklich wichtig ist und das ist eine Art normaler Inhalt


Zusammenfassung: Das ist wahrscheinlich keine große Sache. John bestätigte jedoch, dass Google h-Tags verwenden kann, um festzustellen, welche Inhalte auf der Seite wichtig sind und worum es auf der Seite geht.


Warum respektiert Google manchmal nicht den Canonical bei syndizierten Inhalten?

8:56

John Mueller Help Hangout 8. Februar 2019

Ich denke, das ist immer eine schwierige Situation. Wir versuchen herauszufinden, welche Seite für einige dieser Anfragen am relevantesten ist, und die Benutzer direkt dorthin zu verweisen, aber wenn dies völlig separate Websites sind und sie nur denselben Artikel veröffentlichen, dann gibt es keine auch eine Menge zusätzlicher Wert vom Rest der Website und das könnten Informationen auf dieser bestimmten Seite sein. Es könnte eine Art zusätzlicher Wert sein, den der Rest der Website bringt, wenn jemand zu diesem einen Artikel geht, geht er vielleicht los und schauen Sie sich andere Dinge auf dieser Website an, weil das sonst auch sehr schön war. Das kann also immer passieren, und wenn Sie Inhalte syndizieren, müssen Sie berücksichtigen, dass es passieren kann, dass die Inhalte, die Sie auf einer anderen Website syndiziert haben, über Ihren Inhalten rangieren, was nicht immer vollständig vermeidbar ist . Das sind also Kompromisse, die Sie sich ansehen müssen. Ich denke, das Canonical ist eine gute Möglichkeit, uns mitzuteilen, dass diese beiden Seiten zusammengehören, aber es ist auch so, dass ein Canonical sowieso nicht wirklich korrekt ist Dies liegt daran, dass die Seiten selbst völlig unterschiedlich sein können. Es kann sein, dass es diesen Textblock gibt, der auf beiden Seiten gleich ist, aber es kann sein, dass es auf dieser Seite viele andere Inhalte gibt, die völlig anders sind, die Benutzerkommentare sein könnten, das könnte der Rest sein von die Webseite selbst. Auch dies ist eine Art Kompromiss, den Sie prüfen müssen. Es macht Sinn, die Informationen einem breiteren Publikum zugänglich zu machen, indem Sie die Inhalte syndizieren, aber andererseits müssen Sie berücksichtigen, dass diese anderen Websites möglicherweise einen höheren Rang einnehmen Ihrer Website, wenn es darum geht, nach diesem bestimmten Inhalt zu suchen.


Zusammenfassung: Wenn Sie Inhalte syndizieren, kann Google entscheiden, die Inhalte auf den Websites für die Neuveröffentlichung statt auf Ihren eigenen zu indizieren. Wenn auf einer dieser Seiten viele andere Inhalte (z. B. Kommentare) vorhanden sind, respektiert Google das Canonical möglicherweise nicht.


Erkennt Google strukturiertes Daten-Markup immer?

26:58

John Mueller Help Hangout 8. Februar 2019

Ich weiß also nicht, was Sie mit der Organisation strukturierter Daten meinen, aber im Allgemeinen haben wir Algorithmen, die versuchen herauszufinden, wann es sinnvoll ist, strukturierte Daten als Rich-Ergebnisse in den Suchergebnissen anzuzeigen, und wann wir der Meinung sind, dass dies möglicherweise nicht der Fall ist Sinn oder wenn wir das Gefühl haben, dass wir uns bezüglich dieser Website oder der Art und Weise, wie die strukturierten Daten auf dieser Website implementiert sind, vielleicht nicht hundertprozentig sicher sind und wir etwas vorsichtiger sein werden. Wenn Sie also ein gültiges Markup für strukturierte Daten bereitstellen, ist dies keine Garantie dafür, dass es in den Suchergebnissen immer genau so angezeigt wird.


Zusammenfassung: Wenn strukturierte Daten keine Rich-Ergebnisse für Sie produzieren (wie Sterne in den Suchergebnissen), könnte es sein, dass sie nicht richtig implementiert sind. Es könnte aber auch daran liegen, dass die Algorithmen von Google beschlossen haben, es nicht anzuzeigen.


Erkennt Google strukturiertes Daten-Markup immer?

53:46

John Mueller Help Hangout 8. Februar 2019

Ich denke, das ist immer ein bisschen schwierig, da sind normalerweise zwei Aspekte beteiligt. Eines ist eher ein Problem, insbesondere bei neueren Websites, bei denen der Website-Name oder der Firmenname eher einer generischen Abfrage ähnelt. Wenn also zum Beispiel der Name der Website „Best Lawyers in Pittsburgh“ oder so ähnlich lautet. Dann könnte das einerseits der Firmenname sein, andererseits würden wir, wenn jemand diesen in die Suche eingeben würde, wahrscheinlich annehmen, dass er nicht nach diesem bestimmten Unternehmen sucht, sondern nach Informationen für diese Suchanfrage . Das ist also besonders bei neueren Unternehmen etwas, das wir hin und wieder sehen. Wir sehen, dass die Foren oder Leute dort sagen, oh, ich ranke nicht für meinen Domainnamen, und dann ist ihr Domainname so etwas wie Ich kenne die besten VPN-Anbieter nicht Das bedeutet nicht, dass Sie für diese Abfrage einen Rang einnehmen. Das ist also eine Sache, wenn es um Websites geht, die etwas etablierter sind, die es bereits gibt, normalerweise ist es eher ein Zeichen dafür, dass wir dieser Website einfach nicht mehr so ​​​​sehr vertrauen. Das ist etwas, wo wir vielleicht erkennen, dass Leute tatsächlich nach diesem Unternehmen suchen, aber wir glauben, dass die Unternehmenswebsite selbst hier vielleicht nicht das relevanteste Ergebnis ist, vielleicht haben wir das Gefühl, dass es eine Art Hilfsinformationen über dieses Unternehmen gibt, die wichtiger sind als die Benutzer erst mal sehen, was dazu führen könnte, dass so etwas passiert. Normalerweise liegt das eher daran, dass auf den ersten ein oder zwei Seiten in den Suchergebnissen herumgewürfelt wird. Es wäre wirklich selten, dass so etwas dazu führen würde, dass eine Website überhaupt nicht auf den ersten paar Seiten der Suchergebnisse angezeigt wird. Ich denke, das ist es, was Sie dort mit Ihrer Frage hervorgehoben haben, und das ist etwas, wo ich denke, auch wenn wir dieser Website nicht mehr so ​​sehr vertrauen, sollten wir sie zumindest irgendwo in den Suchergebnissen haben, denn wenn wir das sagen können dass jemand explizit nach dieser Website sucht, wäre es ein Bärendienst für den Benutzer, sie überhaupt nicht anzuzeigen. Wie vielleicht bei generischen Suchanfragen könnte man argumentieren, dass es vielleicht nicht das perfekte Ergebnis ist, aber wenn wir sagen können, dass sie wirklich nach dieser Website suchen, sollten wir dem Benutzer zumindest die Möglichkeit geben, diese Website auch zu sehen. Das ist der Grund, warum ich das genommen und gesagt habe, vielleicht sollten wir das ein bisschen besser auffangen, und ich weiß nicht, ob unsere Algorithmen richtig verstehen, wie vertrauenswürdig Ihre Website dort wäre. Ich kenne die Website nicht, daher kann ich das nur schwer beurteilen, aber selbst wenn wir der Meinung sind, dass sie überhaupt nicht vertrauenswürdig ist, sollten wir sie vielleicht trotzdem irgendwo in den Suchergebnissen auf der ersten Seite anzeigen. Die andere Sache, die Sie sich vielleicht ansehen sollten, wenn Sie dies noch nicht getan haben, ist, sich die Richtlinien für Qualitätsbewerter anzusehen, die wir haben, und dort gibt es viele Informationen über die Art der Vertrauenswürdigkeit. Einiges davon ist es wert, mit einem Körnchen Salz genommen zu werden. Es ist nicht so, dass wir diese Art von Eins-zu-Eins nehmen und das als Rankingfaktor verwenden, aber es gibt viele Ideen darin, besonders wenn Sie über ein Thema sprechen Das ist eine Art legale Website oder medizinische Website, dann ist es sinnvoll, den Benutzern zu zeigen, warum Sie diese Informationen bereitstellen, warum sie Ihnen vertrauen sollten.


Zusammenfassung: Wenn Sie eine neue Marke haben, die zufällig Schlüsselwörter im Markennamen und in der URL enthält, bedeutet dies nicht, dass Sie automatisch für diese Schlüsselwörter ranken sollten. Wenn die Algorithmen von Google Ihrer Website jedoch nicht vertrauen, wird sie nicht gut ranken. John verweist uns für weitere Informationen auf die Richtlinien für Qualitätsbewerter. Unser Hinweis: Es gibt hier auch gute Informationen darüber, wie wir denken, dass die letzten Algorithmus-Updates mit Vertrauen verbunden sind.


Wenn Sie solche Sachen mögen, werden Sie meinen Newsletter lieben!

Mein Team und ich berichten jede Woche über die neuesten Google-Algorithmus-Updates, Neuigkeiten und SEO-Tipps.

Erfolg!! Überprüfen Sie nun Ihre E-Mails, um Ihr Abonnement für den Google Update-Newsletter zu bestätigen.

Beim Senden Ihres Abonnements ist ein Fehler aufgetreten. Bitte versuche es erneut.

Vollständiges Video und Transkript

Anmerkung aus Johannes 0:33 - Ich wollte nur kurz auf eine Sache eingehen, bevor wir zu den Fragen übergehen. Wie Sie wahrscheinlich gesehen haben, haben wir einen Blogbeitrag über die Suchkonsole und einige der Änderungen, die in der Suchkonsole anstehen, veröffentlicht. Letztes Jahr haben wir begonnen, auf eine neue Plattform in der Suchkonsole umzusteigen, und für uns, das Suchkonsolen-Team, ist dies etwas, an dem sie seit geraumer Zeit arbeiten, und es ist etwas, auf das wir mehr oder weniger fertig werden müssen Spätestens Ende des Jahres. Unser Ziel ist es also, mit dem Blogbeitrag über einige der bevorstehenden Änderungen sicherzustellen, dass wir Sie alle so früh wie möglich informieren. Wenn sich Dinge ändern oder verschwinden, von denen wir glauben, dass sie Sie betreffen könnten, möchten wir Sie so früh wie möglich darüber informieren. Änderungen sind meiner Meinung nach immer ein bisschen mühsam, besonders wenn Sie Prozesse haben, die ziemlich gut funktionieren, und jemand losgeht und die Tools ändert oder die Daten ändert, die in den Tools bereitgestellt werden. Es ist immer ein bisschen frustrierend. Einige dieser Änderungen können wir also nicht vermeiden, einige davon hätten wir unserer Meinung nach am Anfang weit machen sollen, als wir mit der Suchkonsole anfingen, wenn wir jetzt wussten, ob wir es gewusst haben, was wir jetzt wissen, ist so etwas wie die von uns angekündigte kanonische Änderung in dieser Woche. Mir ist klar, dass dies manchmal etwas frustrierend ist, aber wir hoffen, dass wir einen recht guten Weg in die Zukunft haben werden, und wir möchten Sie wirklich früh informieren und Sie frühzeitig Dinge ausprobieren lassen, damit Sie nicht zu überrascht sind, wenn sich die Dinge ändern. Wir haben auch eine Menge wirklich toller Sachen in der Reihe und durch den Wechsel auf eine neue Plattform und das Entfernen einiger der alten Funktionen hat ein Team viel mehr Zeit, um tatsächlich voranzukommen und neue und ausgefallene Sachen zu erstellen. So gut, dass Sie dort tun können, wenn Sie sich stark für bestimmte Dinge interessieren, die entweder verschwinden oder fehlen oder die Sie in einem neuen Tool sehen möchten, stellen Sie sicher, dass Sie eine Feedback-Funktion in der Suchkonsole verwenden und nicht einfach gehen drin und sagen Sie, dass ich das wirklich will, aber geben Sie uns lieber ein paar Informationen darüber, was Sie daraus sehen möchten, wie zum Beispiel, was Sie erreichen möchten, indem Sie dieses neue Feature haben oder dasselbe wie im alten haben in der neuen, denn wenn Sie uns dort ein bisschen mehr Informationen geben, können wir herausfinden, wie wir dies priorisieren müssen. Dies ist etwas, das wir vielleicht übersehen haben, worüber wir früh hätten nachdenken sollen. Ist dies etwas, das wir Ihnen vielleicht besser bieten können, um Ihnen diese Informationen zu geben oder Ihnen dabei zu helfen, diese Sache zu tun, als wir es im alten Tool hatten? Gehen Sie also unbedingt zum Feedback-Tool. Senden Sie uns Informationen. Geben Sie uns Feedback darüber, was Sie Ihrer Meinung nach anders sehen würden. Einige dieser Dinge können wir tun. Einige davon könnten etwas länger dauern, weil wir sie wirklich brauchen zunächst all diese alten Dinge, die wir über die Jahre angesammelt haben, aufzuräumen und alles auf die neue Plattform zu verschieben. Also für einige davon liebe ich ein bisschen Geduld, aber es ist auch in Ordnung, uns laut zu sagen, wenn es etwas gibt, das Ihnen wirklich am Herzen liegt, also seien Sie nicht zu schüchtern.

Frage 4:34 – Wir haben festgestellt, dass die Website einer unserer Kunden so aufgebaut ist, dass es keinen Absatztext gibt, alle sind h1 h2 h3 h4-Tags. Diese verwenden also das Überschriften-4-Tag anstelle des P-Tags. Ihre Hauptinhalte der Website verwenden sie Überschrift 4 Tag für die Hauptinhalte der Website. Hat dies negative Auswirkungen auf ihr Ranking?

Antwort 4:40 – Ich sehe darin kein großes Problem, ich meine offensichtlich wie Sie, da Sie bemerken, dass es wahrscheinlich etwas wäre, das aufgeräumt werden müsste, aber es ist nicht so, dass wir sagen würden, dass dies ein negativer Effekt ist, sondern eher was Sie tun es, indem Sie sagen, dass alles wichtig ist. Sie sagen uns, dass alles gleich wichtig ist. Es ist also so, als wäre alles wichtig, also ist nichts besonders wichtig. Wir haben also Probleme, den Kontext innerhalb der Seite zu verstehen. Deshalb würde ich das meistens aufräumen. Wir können herausfinden, welche Teile wirklich wichtig sind und welche Teile in normalem Text vorkommen, und so können wir diese Seiten ein bisschen besser verstehen. Ich weiß nicht, ob Sie eine direkte Ranking-Änderung sehen würden, weil Sie das behoben haben, aber es macht es für uns einfacher herauszufinden, worum es auf der Seite wirklich geht. Ich glaube nicht, dass dies etwas wäre, das wir als Spam sehen würden oder etwas, das sehen würde, dass es problematisch ist. Es ist wirklich nur so, dass Sie uns nicht so viele Informationen geben, wie Sie uns geben könnten, indem Sie uns sagen, dass dies wirklich wichtig ist und das ist eine Art normaler Inhalt

Frage 7:03 – Wir erhalten ständig zufällige defekte Links in der Suchkonsole. Ich frage mich, was wir dort tun sollten, um sie umzuleiten oder sie so zu lassen, wie sie sind?

Antwort 7:15 – Ich weiß nicht, welche zufälligen defekten Links Sie dort sehen, die vielleicht etwas im Forum posten könnten, um auch Ratschläge zu erhalten, aber im Allgemeinen, wenn Sie einen Link sehen, der auf Ihre Website zeigt, ist das nicht der Fall überhaupt nicht funktioniert, ist es in Ordnung, 404 für eine URL zurückzugeben, die nicht existiert. Dafür ist der 404-Statuscode gedacht, und damit arbeiten unsere Systeme gut. Wenn es also eine URL gibt, die nie existiert hat, geben Sie 404 zurück, das ist vollkommen in Ordnung. Auf der anderen Seite, wenn Sie sehen, dass Links zu Ihrer Website kommen, die auf Ihre andere Seite verweisen, können Sie erraten, was sie bedeuteten, und vielleicht haben sie nur einen Tippfehler oder einen zusätzlichen Punkt am Ende oder ähnliches, dann könnten diese sinnvoll sein umzuleiten, besonders wenn Sie sehen, dass Leute diese Links durchgehen, weil das so aussieht, als ob etwas oder jemand versucht, Ihre Website zu empfehlen, aber sie haben es nicht perfekt hinbekommen. Daher kann es sinnvoll sein, diese stattdessen auf die richtige Seite umzuleiten. Ich denke, für diese beiden Situationen ist das etwas, wo Sie auch ein wenig auf den Verkehr über diese URLs schauen können, wenn viele Leute zu diesen URLs gehen, dann ist das irgendwie ermutigend, weil die Leute auf Ihre Seiten gehen wollen, dann könnte es Sinn machen einen Weg zu finden, um festzustellen, was mit diesem Link gemeint war und wohin ich ihn zeigen könnte, wohin ich Leute weiterleiten könnte.

Frage 8:56 – Welche Faktoren könnten dazu führen, dass ein Inhalt, der auf einer Partnerseite syndiziert wurde, einen guten Rang einnimmt? Und das, obwohl das Canonical auf meiner Seite auf den Original-Content eingestellt ist und dort schon seit mehreren Monaten steht. Ist es eine Frage der Website oder Nische oder Autorität. Was könnten wir da machen?

Antwort 9:19 – Ich denke, das ist immer eine knifflige Situation. Wir versuchen herauszufinden, welche Seite für einige dieser Anfragen am relevantesten ist, und die Benutzer direkt dorthin zu verweisen, aber wenn dies völlig separate Websites sind und sie nur posten derselbe Artikel, dann gibt es auch eine Menge zusätzlichen Wert vom Rest der Website, und das könnten Informationen auf dieser bestimmten Seite sein, es könnte eine Art zusätzlicher Wert sein, den der Rest der Website bringt, wenn jemand zu diesem einen Artikel geht Vielleicht gehen sie los und schauen sich andere Dinge auf dieser Website an, weil das sonst auch sehr schön war. Das kann also immer passieren, und wenn Sie Inhalte syndizieren, müssen Sie berücksichtigen, dass es passieren kann, dass die Inhalte, die Sie auf einer anderen Website syndiziert haben, über Ihren Inhalten rangieren, was nicht immer vollständig vermeidbar ist . Das sind also Kompromisse, die Sie sich ansehen müssen. Ich denke, das Canonical ist eine gute Möglichkeit, uns mitzuteilen, dass diese beiden Seiten zusammengehören, aber es ist auch so, dass ein Canonical sowieso nicht wirklich korrekt ist Dies liegt daran, dass die Seiten selbst völlig unterschiedlich sein können. Es kann sein, dass es diesen Textblock gibt, der auf beiden Seiten gleich ist, aber es kann sein, dass es auf dieser Seite viele andere Inhalte gibt, die völlig anders sind, die Benutzerkommentare sein könnten, das könnte der Rest sein von die Webseite selbst. Auch dies ist eine Art Kompromiss, den Sie prüfen müssen. Es macht Sinn, die Informationen einem breiteren Publikum zugänglich zu machen, indem Sie die Inhalte syndizieren, aber andererseits müssen Sie berücksichtigen, dass diese anderen Websites möglicherweise einen höheren Rang einnehmen Ihrer Website, wenn es darum geht, nach diesem bestimmten Inhalt zu suchen.

Frage 11:24 – Google meldet unsere abgelaufenen Produktseiten als Soft 404 für diese URLs, die zu relevanten alternativen Produkten mit einer Meldung weiterleiten, die besagt, dass das gewünschte Produkt nicht verfügbar ist. Verursacht die Weiterleitung einen Soft 404 oder den Inhalt der Weiterleitungsseite?

Antwort 11:47 – Ich vermute, was hier passiert, ist, dass unsere Algorithmen auf diese Seiten schauen und sehen, dass es vielleicht ein Banner auf dieser Seite gibt, das besagt, dass dieses Produkt nicht mehr verfügbar ist, und sie nehmen an, dass dies auf die Seite von zutrifft auf dem der Benutzer gelandet ist. Das ist dort also manchmal nicht wirklich vermeidbar. Wenn Sie wirklich ein Produkt durch ein anderes ersetzen, kann es sinnvoll sein, einfach umzuleiten.

Frage 12:32 – Wie lange dauert es, bis Google Hreflang-Tags erkennt? Kann es sein, dass Google zuerst aus der Schweiz indexiert und eine CH-Version einer Website unter der deutschen TLD anzeigt?

Antwort 13:02 - Wir indizieren also nicht wirklich zuerst Inhalte aus der Schweiz, unsere Crawler und unsere Systeme befinden sich eher in den USA als in der Schweiz. Ich glaube also nicht, dass wir Schweizer Inhalte gegenüber anderen Inhalten priorisieren würden, aber was mit hrefLang-Links im Allgemeinen passiert, ist eine Art mehrstufiger Prozess. Zuerst müssen wir diese verschiedenen Versionen der Seite crawlen und indizieren. Dann müssen wir sie mit derselben URL indizieren, die Sie innerhalb des hreflang-Markups angeben, und dann müssen wir in der Lage sein, diesem hreflang-Markup zwischen diesen verschiedenen Versionen der Seite zu folgen, und dazu müssen wir auch diese Bestätigung zurück haben . Es ist also etwas, das etwas länger dauert als nur normales Crawlen und Indizieren. Wir müssen das Netz zwischen diesen verschiedenen Seiten verstehen, die alle Teil dieser Gruppe von hreflang-Seiten sein sollen. Das ist also etwas, wo es für uns wahrscheinlich normal ist, ich weiß nicht, vielleicht zwei- bis dreimal länger als wir es tun würden, um einfach eine einzelne Seite zu crawlen und zu indizieren, damit wir die Verbindung zwischen den hreflang-Versionen verstehen können. Auch hier gibt es keine Bevorzugung der Schweiz gegenüber anderen Ländern in Europa. Ich denke, das wäre nur für mich persönlich aus einer Art egoistischen Sichtweise schön, aber es würde im globalen Raum im Allgemeinen keinen Sinn machen. Wir versuchen, alle Websites gleich zu behandeln. Nur weil eine Website eine CH-Version hat, bedeutet das nicht, dass sie automatisch über einer deutschen Version rangiert. Die andere Sache mit hreflang ist also größtenteils, dass es die Rankings nicht ändert, es tauscht nur die URLs aus.

Frage 15:12 – Ich habe kürzlich die Domain meiner Website von dieser zu einer anderen 301-Umleitung geändert. Adressänderung wurde eingeleitet, ich sehe immer noch die alten URLs und es ist über drei Wochen her, ist das normal? Ich hatte einige Probleme damit, dass 301er eine Woche lang nach der Migration nicht aktiv waren, aber sie sind jetzt aktiv. Bei einigen Suchanfragen werden sowohl die alte als auch die neue Website in den Suchergebnissen angezeigt. Was könnte ich hier anders machen?

Antwort 15:46 - Die 301-Weiterleitung ist also wirklich das, worauf Sie achten sollten. Für uns ist es wichtig, dass die 301-Weiterleitung seitenweise erfolgt. Alle alten Seiten leiten also auf dieselbe Seite auf der neuen Website weiter. Wir haben all das in unseren Informationen im Hilfe-Center für Website-Umzüge behandelt, also würde ich das noch einmal überprüfen und Schritt für Schritt und URL für URL durchgehen, sogar um zu sehen, ob dies wirklich so funktioniert, wie es funktionieren sollte . Die andere Sache, die Sie beachten sollten, ist, dass wir URLs einzeln crawlen und indexieren. Wir crawlen also nicht die ganze Website auf einmal und stellen dann die Dinge um, wir tun das Schritt für Schritt, und einige dieser Seiten werden innerhalb weniger Stunden sehr schnell gecrawlt und indexiert, einige von ihnen brauchen viel länger, um neu erstellt zu werden. gecrawlt und neu indiziert und das kann mehrere Monate dauern. Das könnte also auch hier eine Rolle spielen, wo wir vielleicht einfach keine Gelegenheit hatten, die Weiterleitung für all diese Seiten zu crawlen, zu indizieren und zu verarbeiten, sodass es immer noch einige gibt, die wir nur auf der alten Website gesehen haben und einige, die wir bereits auf dem neuen gesehen haben. Das könnte auch hier eine Rolle spielen, besonders wenn Sie einen Zeitraum von drei oder vier Wochen betrachten, und das wäre irgendwie normal, und was schließlich auch ein bisschen dazu beiträgt, ist etwas, das SEOs und Webmaster wirklich verwirrend finden dass selbst nachdem wir diese Weiterleitung verarbeitet haben, wenn jemand ausdrücklich nach der alten URL sucht, wir ihm die alte URL zeigen. Das ist ein bisschen verwirrend, unsere Systeme versuchen hier zu helfen und sagen, wir wissen, dass diese alte URL früher existierte, und wir haben den neuen Inhalt hier, aber wir zeigen ihn Ihnen, weil Sie möglicherweise danach suchen. Wenn Sie also beispielsweise eine Website-Abfrage für die alte URL durchführen, können wir Ihnen nach dem Umzug Ihrer Website möglicherweise immer noch einige der URLs Ihrer alten Website mit einer Website-Abfrage anzeigen, obwohl wir die Weiterleitung für diese URLs bereits verarbeitet haben . Wenn Sie also beispielsweise Ihren Site-Namen ändern, sehen Sie in der Site-Abfrage, dass Sie die alten URLs mit dem neuen Site-Namen sehen, der dort erwähnt wird, und aus unserer Sicht funktioniert das wie beabsichtigt. Wir versuchen, dem zu helfen der durchschnittliche Benutzer, der nach einer URL sucht. Für einen Webmaster, der gerade eine Website verschoben hat, ist das etwas verwirrend. Ich weiß also nicht, ob wir das ändern werden, aber im Allgemeinen denke ich, dass das irgendwie Sinn macht.

Frage 21:46 – Wie sieht der Google-Suchbot die Website-Personalisierung an? Wir haben eine neue Produktebene, mit der die Website eine Personalisierung basierend auf dem Branchenstandort ermöglicht, sogar für einzelne Unternehmen. Dadurch können wir den Inhalt wirklich anpassen.

Antwort 22:12 – Ich denke, wir haben uns das auch ein letztes Mal angesehen, aber um hier nur eine kurze Antwort zu geben, der wichtige Teil ist, dass der Googlebot hauptsächlich aus den USA crawlt. Wenn Sie also unterschiedliche Inhalte in verschiedenen Ländern bereitstellen, würde der Googlebot wahrscheinlich nur die US-Version der Inhalte sehen. Wir wären nicht in der Lage, verschiedene Versionen des Inhalts für verschiedene Standorte zu indizieren. Wenn Sie also etwas indizieren möchten, stellen Sie sicher, dass es sich im generischen Teil Ihrer Website befindet, damit der Googlebot es sicher erkennen kann. Sie können die Personalisierung gerne verwenden, um zusätzliche Informationen auf der ganzen Seite hinzuzufügen, aber wenn Sie möchten, dass etwas indexiert wird, sollte es sich in dem Teil der Seite befinden, der nicht an die Personalisierung gebunden ist.

Frage 22:59 – Ich frage mich, wie sehr sich eine sehr niedrige Performance-Rate in web.div auf das Google-Ranking einer Website auswirkt?

Antwort 23:06 - Ich weiß es nicht. Web.dev ist also ein wirklich cooles Tool, das die verschiedenen Tests, die wir in Lighthouse haben, zusammenfasst und Ihnen Ergebnisse dafür liefert und Sie durch den Prozess der Verbesserung dieser Ergebnisse führt. Wenn es also darum geht, Dinge zu beschleunigen, müssen Sie auf Dinge achten, die Sie ausprobieren könnten, und im Laufe der Zeit verfolgt es den Fortschritt Ihrer Website und so ähnlich wie Sie die verschiedenen Inhalte durchgehen, die auf dem Tool vorhanden sind. Das ist etwas, das ich im Allgemeinen für eine gute Vorgehensweise halte, die man durchlaufen und irgendwie durcharbeiten sollte, aber es ist auch etwas, dass dies gute Praktiken sind, die man befolgen sollte, aber das bedeutet nicht, dass sie automatisch zu einem höheren Ranking führen. Wenn Sie hier eine Art niedrige Punktzahl haben, bedeutet dies nicht, dass Ihre Website ein schreckliches Ranking hat, weil sie nicht den Best Practices folgt. Es gibt also einen Aspekt, wenn Ihre Website einerseits so schlecht ist, dass wir sie überhaupt nicht richtig indexieren können, was beispielsweise bei einem sehr niedrigen SEO-Score in Lighthouse der Fall sein kann, bei dem wir nicht auf die URLs zugreifen können, oder Es gibt keine URLs auf dieser Seite und es ist nur eine JavaScript-Shell, für die wir das JavaScript nicht verarbeiten können. Dass ich einen schwerwiegenden Einfluss auf Ihre SEO haben könnte, aber andererseits, wenn es nur darum geht, dass Ihre Website ein wenig langsam oder nicht perfekt optimiert ist, weiß ich nicht, ob dies einen signifikanten Einfluss auf Ihre Website haben würde. Meine Empfehlung hier ist also, sich die Ratschläge anzusehen, die in Tools wie web.dev gegeben werden, und darüber nachzudenken, was Sie implementieren können. Denken Sie an die Teile, die Ihrer Meinung nach wichtig für Ihre Website sind, einerseits für Suchmaschinen, natürlich, wenn Sie es sind Fragen Sie dies hier andererseits auch für Ihre Benutzer, denn wenn Sie letztendlich etwas tun, das die Dinge für Ihre Benutzer verbessert, hat dies eine Art langfristigen Trickle-Down-Effekt auch auf den Rest Ihrer Website.

Frage 26:58 – Kann Google entscheiden, ob Informationen der strukturierten Datenorganisation angezeigt werden oder nicht.

Antwort 27:05 - Ich weiß also nicht, was Sie mit der Organisation strukturierter Daten meinen, aber im Allgemeinen haben wir Algorithmen, die versuchen herauszufinden, wann es sinnvoll ist, strukturierte Daten als Rich-Ergebnisse in den Suchergebnissen anzuzeigen, und wann wir das vielleicht meinen es keinen Sinn macht oder wenn wir das Gefühl haben, dass wir uns bezüglich dieser Website oder der Art und Weise, wie die strukturierten Daten auf dieser Website implementiert sind, vielleicht nicht hundertprozentig sicher sind und wir etwas vorsichtiger sein werden. Wenn Sie also ein gültiges Markup für strukturierte Daten bereitstellen, ist dies keine Garantie dafür, dass es in den Suchergebnissen immer genau so angezeigt wird.

Frage 28:31 – Frage bezüglich der Website-Struktur und der mehrsprachigen multiregionalen Konfiguration, sollte ich mich um die Konfiguration der URL-Parameter kümmern, wenn ich die Domains nach Ordnern in separate Dienste in der Suchkonsole aufteile.

Antwort 28:52 – Also ich denke, einerseits finde ich es gut, dass Sie diese Art von Problemen untersuchen, andererseits mache ich mir Sorgen, dass Sie unterschiedliche Konfigurationen für eine Website nach Unterverzeichnis haben würden, weil das so klingt Vielleicht machst du etwas nicht so sauber mit den URL-Konfigurationsparametern im Allgemeinen auf der gesamten Website. Das ist also etwas, wo ich bin, ich kenne die Website hier nicht speziell, also ist es wirklich schwer zu sagen, aber es hört sich so an, als hätten Sie unterschiedliche Parameter, die unterschiedliche Dinge bedeuten oder die ignoriert werden können oder die je nach nicht ignoriert werden sollten individuelle Art von Unterverzeichnis innerhalb Ihrer Website. Einerseits, dass das möglich sein sollte, sollten wir damit umgehen können, andererseits, wenn es Situationen gibt, in denen wir einzelne URL-Parameter komplett ignorieren können und in anderen Fällen, in denen genau diese Parameter für den dann gefühlten Inhalt entscheidend sind Zum Beispiel könnten unsere Algorithmen verwirrt werden und sagen, nun, wir müssen diese Parameter immer beibehalten oder wir müssen diese Parameter nie beibehalten, und dann fehlen plötzlich Teile Ihres Inhalts oder Teile Ihres Inhalts werden mehrfach indiziert. Die Verwendung des URL-Parameter-Tools hilft uns also definitiv in einem solchen Fall, aber meiner Meinung nach wäre es wahrscheinlich sinnvoller, zu versuchen, diese URL-Parameter im Allgemeinen zu bereinigen und einen Weg zu finden, um so eine konsistente Struktur für die URLs Ihrer Websites zu haben dass Algorithmen nicht raten müssen, dass Algorithmen nicht herausfinden müssen, oh, in diesem speziellen Pfad ist dieser Parameter wichtig und in diesen anderen Pfaden können wir ihn ignorieren. Jedes Mal, wenn Sie dem Crawling und der Indexierung der Website so viel zusätzliche Komplexität hinzufügen, geraten Sie in eine Situation, in der möglicherweise etwas schief geht. Je einfacher Sie es also halten können, je sauberer Sie es halten können, je einfacher Sie es in Ihrer URL-Struktur halten können, desto wahrscheinlicher werden wir in der Lage sein, diese Website zu crawlen und zu indizieren, ohne zweimal darüber nachdenken zu müssen, und wie immer Es gibt andere Suchmaschinen, die das URL-Konfigurationstool nicht haben. Dass die Daten, die wir dort haben, so dass sie das nicht sehen können und Sie möglicherweise Probleme bei diesen anderen Suchmaschinen verursachen oder vielleicht auch eine Rolle dabei spielen, wie Ihre Inhalte in sozialen Medien geteilt werden. Also all diese Dinge kommen hier irgendwie ins Spiel. Meine allgemeine Empfehlung hier wäre, nicht zu viel Zeit damit zu verbringen, das Tool zur Handhabung von URL-Parametern für all diese verschiedenen Unterverzeichnisse zu optimieren, sondern sich diese Zeit zu nehmen und sie in die Überlegung zu investieren, was Sie als URL haben möchten Struktur auf lange Sicht und denken Sie über die Schritte nach, die Sie benötigen, um zu dieser saubereren URL-Struktur zu gelangen.

Frage 32:17 – Ich hoffe, einen Einblick in ein Problem zu erhalten, das ich im Zusammenhang mit Inhalten gepostet habe, bei denen es sich um den Index als doppelt eingereichte URL handelt, die nicht als kanonisch ausgewählt wurde.

Antwort 33:04 – Also im Allgemeinen denke ich, was hier passiert, ist, aus welchen Gründen auch immer, unsere Algorithmen glauben, dass diese Seiten gleichwertig sind und dass wir sie zusammenfalten können, und deshalb wählen wir eine kanonische Seite von einer dieser Seiten aus und es sieht so aus wie das manuelle Betrachten der Seiten in einem Browser, dass es sich tatsächlich um ganz unterschiedliche Seiten handelt, so dass es keinen Sinn machen würde, sie zusammenzufalten, daher wäre die Auswahl eines kanonischen Elements aus diesem Asset auch nicht sinnvoll. Eines der Dinge, die ich in der Vergangenheit gesehen habe, die zu so etwas geführt haben, ist, wenn wir den Inhalt nicht richtig rendern können. Wenn wir nicht richtig auf den Inhalt zugreifen können, wenn wir im Grunde eine leere Seite sehen, sagen wir, na ja, das ist die gleiche wie die andere leere Seite, die wir gesehen haben, vielleicht können wir sie zusammenfalten. Das ist also auf Anhieb die Richtung, die ich einschlagen würde, um darüber nachzudenken, wie Google denkt, dass diese Seiten gleichwertig sind, ist es möglich, dass sie im Handy-freundlichen Test möglicherweise keinen tatsächlichen Inhalt haben. Könnte es sein, dass ich ein Interstitial für den Googlebot-Unfall zeige und nur dieses Interstitial indexiert wird, was könnte hier passieren? Ich hatte hier noch keine Gelegenheit, so detailliert darauf einzugehen, also könnte es sein, dass so etwas auf Ihrer Seite passiert, es könnte sein, dass auf unserer Seite etwas Seltsames passiert und wir das beheben müssen, aber das ist nett Richtung, die ich in einem solchen Fall einschlagen würde.

Frage 34:41 - Ich möchte meine Kunden auf meiner Website etwas besser navigieren. Ich möchte sicherstellen, dass dies Google nicht verwirrt. Ich möchte meine URL-Struktur so einrichten, dass sie eine Domain, dann eine Kategorie und dann ein Produkt in einem Pfad hat, oder vielleicht richte ich sie anders ein, was soll ich tun, welche URL-Struktur soll ich auswählen?

Antwort 35:13 - Aus unserer Sicht können Sie jede URL-Struktur verwenden. Wenn Sie also eine Art Pfad-Subdomain-Unterverzeichnisstruktur verwenden, die völlig in Ordnung ist, ist es für uns wichtig, dass wir nicht in unendliche Weiten ablaufen. So if you use URL rewriting on your server that it's not the case that you can just add like the last item in your URL and just continue adding that multiple times and just it always shows the same content but it should be a clean URL structure where we can crawl from one URL to the other without getting lost in infinite spaces along the way. You can use your URL parameters if you want but if you do decide to use your URL parameters like I mentioned in one of the previous questions try to keep it within a reasonable bound. So that we don't again run off into infinite spaces where lots of URLs lead to the same content but whether or not you put the product first or the category first or you use an ID for the category or write out the category as text that's totally up to you. That doesn't have to be a line between your ecommerce site on your blog that can be completely different on both of these. So I think it's good to look at this but on the other hand I lose too much sleep over this and rather define the URL structure that works for you in the long run in particular one that you don't think you need to change in the future. So try not to get too narrow down and pick something that works for you, works for your website.

Question 37:43 - We're developing an application for angular Universal with some sections we want to change the appearance of the URLs in the browser but keep it the same on the server side. So for the server it would be luxury goods leather bags but the user would see just leather bags. Is there any problem with this in angular Universal using dynamic rendering?

Answer 38:08- So just from from a practical point of view Googlebot doesn't care what you do on the server you can track that however you want on your server. The important part for us is that we have separate URLs for separate pages that we have links that Googlebot can click on that are in kind of a elements with an href pointing to a URL that we can follow and that we can access these URLs without any history is with them. So if we take one URL from your website we can copy and paste it into an incognito browser and it should be able to load that content and if it loads that content if you have proper links between those pages then from our point of view how you handle that on your server is totally up to you. Using angular Universal with dynamic rendering or if you have something of your own that you set up that's all totally up to you that's not something that we would care about. It's not something we would even see because we see the HTML that you serve us and the URLs that you serve us.

Question 39:18 - My website fetches individual web pages which are not interlinked through an API but no links are displayed through clicks. It has a search box where every individual page shows search results is Google is successfully crawling all links as valid via sitemap does Google see this is a valid practice because links and millions will harm rankings or increase ranking.

Question 39:48 - So there are lots of aspects in this question where I say this sounds kind of iffy there is some things that sound kind of ok. So if Google is already indexing these pages then something is working out right. In general I I'd be careful to avoid setting up a situation where normal website navigation doesn't work. So we should be able to crawl from one URL to any other URL on your website just by following the links on the page. If that's not possible then we lose a lot of context. So if we're only seeing these URLs through your sitemap file then we don't really know how these URLs are related to each other and it makes it really hard for us to be able to understand how relevant is this piece of content in the context of your website, in the context of the whole web. So that's that's one thing to kind of watch out for and the other thing to watch out for. The other thing too watch out for I think is if you're talking about millions of pages that you're generating through an API with a search box and just so many of those via sitemap files. I may be kind of cautious there with regards to the quality of the content that you're providing there. So in particular if you have like product feeds if you're using RSS feeds to generate these pages, if you're doing anything to automatically pull content from other websites or from other sources and just kind of republishing that on your site then that's something where I could imagine our quality algorithms maybe not being so happy with that. Similarly if this is all really completely republished from other web sites I could imagine the web spam team taking a look at that as well and saying well why should we even index any of this content because we already have all of the content indexed from from the original sources. Like what is the value that your website is providing that the rest of the web is not providing. So that's one thing to kind of watch out for. I don't want to kind of suggest that your website is spammy I haven't seen your website but it is something that we do see a lot and it's something where as a developer you go, oh I have all of these sources and I can create code therefore I can combine all of these sources and create HTML pages and now have a really large website without doing a lot of work, and that's really tempting and lots of people do that, lots of people also buy frameworks that do this for you but it doesn't mean that you're creating a good website. It doesn't mean that you're creating something that Google will look at and say oh this is just what we've been waiting for we will index it and ranked it number one for all of these queries. So it might mean that it looks like very little work in the beginning because you could just combine all of these things but in the end you spend all this time working on your website when actually you're not providing anything of value then you end up starting over again and trying to create something new again. So it looks tempting to save a lot of work in the beginning but in the long run you basically lose that time. So it might make more sense to figure out how can you provide significant value of your own on your website in a way that isn't available from other sites.

Question 43:34 - We're facing an issue where lots of resources couldn't load through the to the same page not getting rendered in the snapshot for Googlebot while debugging these issues we couldn't find a solution and Google is marking them as other error. What could that be?

Answer 43:51 - So this is also a fairly common question what is essentially happening here is we're making a trade-off between a testing tool and the actual indexing and within the testing tool we try to get information as quickly as possible directly from your server but at the same time we also want to give you an answer fairly reasonably quickly so that you can see what is happening. What what tends to happen here is if you have a lot of resources on your pages that need to be loaded in order for your page to load then it could happen that our systems essentially timeout and we try to fetch all of these embedded resources but we don't have enough time because we want to provide an answer to you as quickly as possible. So you end up seeing these embedded resources not being pulled and you see an error in the live rendering of the page like that. When it comes to indexing our systems are quite a bit more complex though we cache a lot of these resources. So if we try to index an HTML page we'll know all of these CSS files we've seen before we can just pull them out of our cache we don't have to fetch them again we can render those pages normally and that just works. One thing you can do or maybe they're two you can do to to kind of help improve that for the testing tool and for users in general. On the one hand you can reduce the number of embedded resources that are required on your pages. So instead of having a hundred CSS files you've you kind of throw them into the tool you create one CSS file out of that that's one thing that you can do that makes sense for both users and for search engines. You can do that for JavaScript as well you can minify the JavaScript you can combine things and kind of make packages rather than individual files I think that's a good approach. The other thing is if you're seeing this happening for your pages and you don't have a lot of embedded content then that's kind of a hint that your server is a bit slow and that we can't kind of fetch enough content from your server to actually make this work. So that might be a chance to look at your server your network connectivity and to think about what you can do to make that a little bit faster so that these tools don't time out so that it's also faster for users as well. So in both of these cases the net effect is that users will mostly be seeing the speed improvement but the side effect will also be that you'll be able to use these tools a little bit better because they tend not to time out as much.

So what what I would do there is try to use some other tools to figure out is this really a problem on your side somehow that things are a little bit slow or is this something just on Google side that we we tend not to have as much time to fetch all of these individual resources so what you could do is use the the chrome developer tools what is it the network tab that you have there and to figure out like how many of these resources are being loaded how long does it take you can use webpagetest.org it also creates a kind of a waterfall diagram for your content also listing the the time that it takes for those test URLs and the size of the resources that were to return and by using those two you can kind of figure out is is it the case that it just takes 20 seconds to load my page with all of the embedded content with all of the high resolution images or is it the case that these testing tools say my page loads in 3 or 4 seconds with all of the embedded content therefore it's probably more an issue on Google side I don't have to worry about it.

Question 53:46 - I've noticed as a result of the last several updates that have been coined the the medic update. I've seen some websites that no longer show on the first page of search results for their own company, for their own brand, and I was wondering why in general what would that be?

Answer 54:35 - I think that's that's always a bit tricky there usually are two aspects that are involved there. One is more an issue especially with newer websites where the website name or the company name is more like a generic query. So if for example the the website's name is “ Best Lawyers in Pittsburgh” or something like that. Then on the one hand that might be the company name, on the other hand if someone were to type that into search, we would probably assume that they're not looking for that specific company but rather they're looking for information for that query. So that's especially with newer companies that's something that we see every now and then. We see that the forums or people there saying, oh I'm not ranking for my domain name, and then their domain name is something like I don't know best VPN providers.com it's like well, it's a domain name but it doesn't mean that you will rank for for that query. So that's one thing when it comes to sites that are a little bit more established that are out there already usually it's more a sign that we just don't really trust that website as much anymore. So that's something where we might recognize that actually people are searching for this company but we feel maybe the company website itself is not the most relevant result here, maybe we feel that there is kind of auxiliary information about that company which is more important that users see first where which could result in something like this happening. Usually that that's more a matter of things kind of shuffling around on the first one or two pages in the search results. It would be really rare that that's something like that would result in a website not showing up at all the first couple pages of the search results. I think that's that's kind of what you highlighted there with your question and that's something where I think well, even if we didn't trust this website as much anymore then we should at least have it somewhere in the search results because if we can tell that someone is explicitly looking for that website it would be a disservice for the user to not show it at all. Like for maybe for generic queries one could argue maybe it's not the perfect result but if we can tell that they're really looking for that website at least we should give the user a chance to see that website as well. So that's kind of why I took that and said well maybe we should be catching this a little bit better and II don't know if our algorithms are correctly kind of understanding how trustworthy your website there would be. I don't know the website so that's really hard for me to judge but even if we think that it wasn't trustworthy at all maybe we should still show it somewhere in the search results on the first page. The other thing to maybe look at if you haven't done so already is look at look at the quality rater guidelines that we have and there's a lot of information about kind of trustworthiness in there. Some of that is worth taking with a grain of salt it's not that we take that kind of one-to-one and use that as a ranking factor but there there are a lot of ideas in there especially when you're talking about a topic that's a kind of legal website or medical website then it does make sense to show users like why are you providing this information why should they trust you.