SEO-Sprechstunde, 1. Juli 2022

Veröffentlicht: 2022-07-19

Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 1. Juli 2022.

Inhalt verstecken
1 PageSpeed ​​Insights oder Google Search Console – was ist genauer?
2 Warum hat der Googlebot Probleme mit der Indizierung von JavaScript-basierten Seiten?
3 Beeinflusst das Verlinken von HTTP-Seiten die SEO Ihrer Website?
4 Sollten Sie Ihre Disavow-Datei löschen?
5 Ist es besser, das Crawlen mit robots.txt oder dem Robots-Meta-Tag zu blockieren?
6 Können Sie dieselbe URL in mehreren Sitemap-Dateien platzieren?
7 Wie verhindert man, dass eingebettete Videoseiten indexiert werden?

PageSpeed ​​Insights oder Google Search Console – was ist genauer?

0:44 „Wenn ich meinen PageSpeed ​​Insights-Score auf meiner Website überprüfe, sehe ich eine einfache Zahl. Warum stimmt das nicht mit dem überein, was ich in der Search Console und im Core Web Vitals-Bericht sehe? Welche dieser Zahlen ist richtig?“

Laut John: „[…] Es gibt keine richtige Zahl, wenn es um Geschwindigkeit geht – wenn es darum geht, zu verstehen, wie Ihre Website für Ihre Benutzer funktioniert. Ich glaube, dass wir in PageSpeed ​​Insights standardmäßig eine einzelne Zahl zeigen, die eine Punktzahl von 0 bis 100 darstellt, die auf einer Reihe von Annahmen basiert, bei denen wir davon ausgehen, dass verschiedene Dinge für Benutzer ein bisschen schneller oder langsamer sind. Und basierend darauf berechnen wir eine Punktzahl.

In der Search Console haben wir die Core Web Vitals-Informationen , die auf drei Zahlen für Geschwindigkeit, Reaktionsfähigkeit und Interaktivität basieren. Und diese Zahlen sind natürlich etwas anders, weil es drei Zahlen sind, nicht nur eine Zahl. Aber es gibt auch einen großen Unterschied in der Art und Weise, wie diese Zahlen ermittelt werden. Es gibt nämlich einen Unterschied zwischen sogenannten Felddaten und Labordaten.

Felddaten sind das, was Benutzer gesehen haben, als sie Ihre Website besucht haben. Und das verwenden wir in der Search Console. Das verwenden wir auch für die Suche. Während Labordaten eine theoretische Ansicht Ihrer Website sind, bei der unsere Systeme bestimmte Annahmen haben, wo sie denken, nun, der durchschnittliche Benutzer ist wahrscheinlich so, verwendet diese Art von Gerät und vielleicht mit dieser Art von Verbindung. Und basierend auf diesen Annahmen werden wir schätzen, wie diese Zahlen für einen durchschnittlichen Benutzer aussehen könnten. Sie können sich vorstellen, dass diese Schätzungen niemals zu 100 % richtig sein werden.

Ebenso die Daten, die Benutzer gesehen haben – die sich im Laufe der Zeit ändern werden, wobei einige Benutzer möglicherweise eine sehr schnelle Verbindung oder ein schnelles Gerät haben und auf ihrer Website oder beim Besuch Ihrer Website alles schnell geht und andere möglicherweise nicht habe das. Aus diesem Grund kann diese Variation immer zu unterschiedlichen Zahlen führen.

Wir empfehlen im Allgemeinen, die Felddaten zu verwenden, die Daten, die Sie in der Search Console sehen würden, um die aktuelle Situation unserer Website zu verstehen, und dann die Labordaten zu verwenden, nämlich die einzelnen Tests, die Sie ausführen können direkt selbst, um Ihre Website zu optimieren und zu versuchen, Dinge zu verbessern. Und wenn Sie mit den Labordaten, die Sie mit Ihrer neuen Version Ihrer Website erhalten, ziemlich zufrieden sind, können Sie im Laufe der Zeit die Felddaten sammeln, was automatisch geschieht, und doppelt überprüfen, ob die Benutzer es als schneller oder schneller ansehen auch reaktionsschneller.

Also, kurz gesagt, noch einmal, es gibt keine richtige Zahl, wenn es um eine dieser Metriken geht. […] Vielmehr gibt es unterschiedliche Annahmen und unterschiedliche Arten der Datenerhebung, und jede davon ist subtil anders.“

Warum hat der Googlebot Probleme mit der Indizierung von JavaScript-basierten Seiten?

4:19 „Wir haben einige Kundenseiten, die Next.js ohne eine robots.txt- oder Sitemap-Datei verwenden. Theoretisch kann der Googlebot alle diese Seiten erreichen, aber warum wird nur die Startseite indexiert? Es gibt keine Fehler oder Warnungen in der Search Console. Warum findet der Googlebot die anderen Seiten nicht?“

John sagte: „[…] Next.js ist ein JavaScript-Framework, was bedeutet, dass die gesamte Seite mit JavaScript generiert wird. Aber auch eine allgemeine Antwort auf all diese Fragen wie, warum Google nicht alles indiziert – es ist wichtig, zuerst zu sagen, dass der Googlebot niemals alles auf einer Website indizieren wird. Ich glaube nicht, dass es bei Websites mit nicht trivialer Größe vorkommt, dass Google losgeht und alles komplett indiziert. Aus praktischer Sicht ist es nicht möglich, alles im gesamten Web zu indizieren. Diese Annahme, dass im Idealfall alles indexiert ist, würde ich beiseite lassen und sagen, Sie möchten, dass sich der Googlebot auf die wichtigen Seiten konzentriert.

Die andere Sache jedoch, die etwas klarer wurde, als mich die Person, glaube ich, auf Twitter kontaktierte und mir ein bisschen mehr Informationen über ihre Website gab, war die Art und Weise, wie die Website Links zu den anderen Seiten generierte in einer Weise, die Google nicht abholen konnte. Insbesondere mit JavaScript können Sie also jedes Element auf einer HTML-Seite nehmen und sagen, wenn jemand darauf klickt, dann führen Sie dieses Stück JavaScript aus. Und dieses Stück JavaScript kann zum Beispiel dazu dienen, zu einer anderen Seite zu navigieren. Und der Googlebot klickt nicht auf alle Elemente, um zu sehen, was passiert, sondern wir gehen los und suchen nach normalen HTML-Links, was die traditionelle, normale Art und Weise ist, wie Sie auf einzelne Seiten einer Website verlinken würden.

Und mit diesem Framework wurden diese normalen HTML-Links nicht generiert. Wir konnten also nicht erkennen, dass es noch mehr zu crawlen, mehr Seiten anzuschauen gibt. Und das können Sie durch die Art und Weise beheben, wie Sie Ihre JavaScript-Site implementieren. Wir haben auf der Search Developer Documentation Seite jede Menge Informationen rund um JavaScript und SEO, insbesondere zum Thema Links, weil das hin und wieder mal auftaucht. Es gibt viele kreative Möglichkeiten, Links zu erstellen, und der Googlebot muss diese HTML-Links finden, damit er funktioniert. […]“

Und abgesehen von der offiziellen Google-Dokumentation, sehen Sie sich den Ultimativen Leitfaden für JavaScript-SEO in unserem Blog an.

Beeinflusst die Verlinkung zu HTTP-Seiten die SEO Ihrer Website?

7:35 „Wirkt es sich negativ auf meinen SEO-Score aus, wenn meine Seite auf eine externe unsichere Website verlinkt? Also auf HTTP, nicht auf HTTPS.“

John sagte: „Zunächst haben wir keine Vorstellung von einem SEO-Score, also müssen Sie sich keine Sorgen um den SEO-Score machen.

Aber unabhängig davon verstehe ich, dass die Frage lautet: Ist es schlecht, wenn ich auf eine HTTP-Seite anstelle einer HTTPS-Seite verlinke? Und das ist aus unserer Sicht völlig in Ordnung. Wenn diese Seiten auf HTTP laufen, dann würden Sie darauf verlinken. Das ist es, was Benutzer erwarten würden. Es spricht nichts dagegen, auf solche Seiten zu verlinken. Es gibt keinen Nachteil für Ihre Website, wenn Sie vermeiden, auf HTTP-Seiten zu verlinken, weil sie alt oder verkrustet und nicht so cool wie auf HTTPS sind. Darüber würde ich mir keine Gedanken machen.“

Sollten Sie Ihre Disavow-Datei löschen?

10:16 „In den letzten 15 Jahren habe ich insgesamt über 11.000 Links für ungültig erklärt. […] Die Links, die ich für ungültig erklärt habe, stammen möglicherweise von gehackten Websites oder von unsinnigen, automatisch generierten Inhalten. Da Google jetzt behauptet, dass sie bessere Tools haben, um diese Art von gehackten oder Spam-Links nicht in ihre Algorithmen einzubeziehen, sollte ich meine Disavow-Datei löschen? Gibt es ein Risiko oder einen Nachteil, es einfach zu löschen?“

John antwortete: „[…] Das Disavowen von Links ist immer eines dieser kniffligen Themen, weil es sich anfühlt, als würde Google Ihnen wahrscheinlich nicht alle Informationen mitteilen.

Aber aus unserer Sicht […] arbeiten wir hart daran, eine Berücksichtigung dieser Links zu vermeiden. Und das tun wir, weil wir wissen, dass das Disavow-Links-Tool eher ein Nischen-Tool ist und SEOs davon wissen, aber die durchschnittliche Person, die eine Website betreibt, keine Ahnung davon hat. Und all diese Links, die Sie erwähnt haben, sind die Art von Links, die jede Website im Laufe der Jahre erhält. Und unsere Systeme verstehen, dass dies keine Dinge sind, die Sie tun möchten, um unsere Algorithmen auszutricksen.

Wenn Sie sich also sicher sind, dass es in Bezug auf diese Links keine manuellen Maßnahmen gibt, die Sie beheben mussten, würde ich unter diesem Gesichtspunkt die Disavow-Datei löschen und […] das alles beiseite lassen. Eine Sache, die ich persönlich tun würde, ist, es herunterzuladen und eine Kopie zu erstellen, damit Sie eine Aufzeichnung dessen haben, was Sie gelöscht haben. Aber ansonsten, wenn Sie sicher sind, dass dies nur die normalen, verkrusteten Dinge aus dem Internet sind, würde ich es löschen und weitermachen. Es gibt viel mehr, womit Sie Ihre Zeit verbringen können, wenn es um Websites geht, als nur diese zufälligen Dinge abzulehnen, die mit jeder Website im Web passieren.“

Ist es besser, das Crawlen mit robots.txt oder dem Robots-Meta-Tag zu blockieren?

14:19 „Was ist besser: Blockieren mit robots.txt oder Verwenden des Robots-Meta-Tags auf der Seite? Wie verhindern wir Crawling am besten?“

John: „[…] Wir haben kürzlich auch eine Podcast-Episode darüber gemacht . Also ich würde das prüfen. […]

In der Praxis gibt es hier einen feinen Unterschied: Wenn Sie in der SEO tätig sind und mit Suchmaschinen gearbeitet haben, dann verstehen Sie das wahrscheinlich schon. Aber für Leute, die neu in der Gegend sind, ist es manchmal unklar, wo genau all diese Linien sind.

Mit robots.txt, der ersten, die Sie in der Frage erwähnt haben, können Sie das Crawlen blockieren. So können Sie verhindern, dass der Googlebot Ihre Seiten überhaupt ansieht. Und mit dem Robots-Meta-Tag können Sie, wenn der Googlebot Ihre Seiten ansieht und dieses Robots-Meta-Tag sieht, beispielsweise die Indexierung blockieren. In der Praxis führt beides dazu, dass Ihre Seiten nicht in den Suchergebnissen erscheinen, aber sie unterscheiden sich geringfügig.

Wenn wir also nicht kriechen können, wissen wir nicht, was uns entgeht. Und es könnte sein, dass wir sagen, eigentlich gibt es viele Verweise auf diese Seite. Vielleicht ist es für etwas nützlich. Wir wissen es nicht. Und dann könnte diese URL ohne Inhalt in den Suchergebnissen erscheinen, weil wir sie nicht einsehen können. Während wir uns mit dem Robots-Meta-Tag die Seite ansehen können, können wir uns das Meta-Tag ansehen und sehen, ob dort beispielsweise ein Noindex steht. Dann hören wir auf, diese Seite zu indizieren, und entfernen sie dann vollständig aus den Suchergebnissen.

Wenn Sie also versuchen, das Crawlen zu blockieren, dann ist robots.txt definitiv der richtige Weg. Wenn Sie nicht möchten, dass die Seite in den Suchergebnissen erscheint, würde ich diejenige auswählen, die für Sie einfacher zu implementieren ist. Auf einigen Websites ist es einfacher, ein Kontrollkästchen zu aktivieren, das besagt, dass diese Seite nicht in der Suche gefunden werden soll, und dann ein noindex-Meta-Tag hinzuzufügen. Bei anderen ist es vielleicht einfacher, die robots.txt-Datei zu bearbeiten. [Es] hängt davon ab, was man da hat.“

Können Sie dieselbe URL in mehreren Sitemap-Dateien platzieren?

16:40Gibt es negative Auswirkungen, wenn Sie doppelte URLs mit unterschiedlichen Attributen in Ihren XML-Sitemaps haben? Zum Beispiel eine URL in einer Sitemap mit einer hreflang-Anmerkung und dieselbe URL in einer anderen Sitemap ohne diese Anmerkung.“

John sagte: „[…] Aus unserer Sicht ist das vollkommen in Ordnung. […] Das kommt hin und wieder vor. Einige Leute haben hreflang-Anmerkungen in Sitemap-Dateien speziell getrennt, und dann haben sie auch eine normale Sitemap-Datei für alles. Und da gibt es einige Überschneidungen.

Aus unserer Sicht verarbeiten wir diese Sitemap-Dateien so gut wir können und berücksichtigen alle diese Informationen. Es gibt keinen Nachteil darin, dieselbe URL in mehreren Sitemap-Dateien zu haben.  

Das Einzige, worauf ich achten würde, ist, dass Sie keine widersprüchlichen Informationen in diesen Sitemap-Dateien haben. Wenn Sie also zum Beispiel mit den hreflang-Anmerkungen sagen, diese Seite ist für Deutschland, und dann auf der anderen Sitemap-Datei, sagen Sie, na ja, eigentlich ist diese Seite auch für Frankreich, […] dann unsere Systeme könnten so lauten, nun ja, was passiert hier? Wir wissen nicht, was wir mit dieser Mischung von Anmerkungen anfangen sollen. Und dann kann es passieren, dass wir uns für das eine oder andere entscheiden.

Ähnlich, wenn Sie sagen, diese Seite wurde zuletzt vor 20 Jahren geändert […], und in der anderen Sitemap-Datei sagen Sie, na ja, eigentlich war es vor fünf Minuten. Dann sehen sich unsere Systeme das vielleicht an und sagen, nun, einer von Ihnen liegt falsch. Wir wissen nicht welche. Vielleicht folgen wir dem einen oder anderen. Vielleicht ignorieren wir das letzte Änderungsdatum komplett. Darauf ist also zu achten.

Aber ansonsten, wenn es nur um mehrere Sitemap-Dateien geht und die Informationen entweder konsistent sind oder zusammenpassen, insofern, als dass eine vielleicht das Datum der letzten Änderung hat, die andere die hreflang-Anmerkungen hat, ist das vollkommen in Ordnung.“

Wie kann man verhindern, dass eingebettete Videoseiten indexiert werden?

19:00 „Ich bin verantwortlich für eine Video-Wiedergabeplattform, und unsere Einbettungen werden manchmal einzeln indiziert. Wie können wir das verhindern?“

John antwortete: „[…] Ich habe mir die Website angesehen, und das sind Iframes, die eine vereinfachte HTML-Seite mit einem darin eingebetteten Videoplayer enthalten.

Aus technischer Sicht sehen wir, wenn eine Seite Iframe-Inhalte enthält, diese beiden HTML-Seiten. Und es ist möglich, dass unsere Systeme beide HTML-Seiten indiziert haben, weil es sich um separate HTML-Seiten handelt. Normalerweise ist das eine im anderen enthalten, aber sie könnten theoretisch auch für sich alleine stehen.

Und es gibt eine Möglichkeit, dies zu verhindern, nämlich eine ziemlich neue Kombination mit robots-Meta-Tags, die Sie verwenden können, nämlich mit dem indexifembedded robots-Meta-Tag zusammen mit einem noindex robots-Meta-Tag .

Und bei der eingebetteten Version, also der HTML-Datei mit dem Video direkt darin, würden Sie die Kombination aus noindex plus indexifembedded robots-Meta-Tags hinzufügen. Und das würde bedeuten, dass wir, wenn wir diese Seite einzeln finden, sehen würden, dass es ein noindex [Tag] gibt. Wir müssen das nicht indizieren.

Aber mit indexifembedded sagt es uns, dass […] wenn wir diese Seite mit dem Video finden, das in die allgemeine Website eingebettet ist, dann können wir diesen Videoinhalt indexieren, was bedeutet, dass die einzelne HTML-Seite nicht indexiert würde. Aber die HTML-Seite mit der Einbettung, mit den Videoinformationen, die normalerweise indiziert würde. Das ist also das Setup, das ich dort verwenden würde. Und dies ist ein ziemlich neues Robots-Meta-Tag, also ist es etwas, das nicht jeder braucht. Denn diese Kombination aus Iframe-Inhalten oder eingebetteten Inhalten ist selten. Aber für einige Websites macht es einfach Sinn, es so zu machen.“