22. Januar 2019 – Hangout-Notizen der Google-Hilfe

Veröffentlicht: 2019-01-29

Diese Woche ist John im Big Apple, NYC. Zu IRL gestoßen, von links nach rechts, von Martin Splitt vom Java-Script-Team bei Google, Chris Love, Lily Ray, Marie Haynes, Dave Minchala und Quason Carter. Diese Woche gab es einige tolle Fragen zu Cloudfare, The QRG und The New Page Speed ​​Tool. Link zum Video und vollständiges Transkript finden Sie unten!

Blockiert Cloudflare manchmal den Googlebot?

7:58

Johannes Müller, 22. Januar 2019 „Ja, ich weiß nicht, wie das im Moment mit Cloudflare eingerichtet ist, aber ich weiß, dass sie in der Vergangenheit Leute blockiert haben, die Googlebot vortäuschen. Wenn Sie also Ihren eigenen verwenden, weiß ich nicht, Screaming Frosch oder so - Sie sagen, ich verwende den Googlebot-Benutzeragenten, dann würden sie das blockieren, weil sie sagen könnten, dass dies kein legitimer Googlebot ist. Wir können das blockieren. Aber zum größten Teil denke ich, dass sie es getan haben genug Übung, um normale Googlebots zu erkennen und normal crawlen zu lassen."


Zusammenfassung: Beim Testen kann es manchmal so aussehen, als würde Cloudflare den Googlebot blockieren. Was hier wahrscheinlich passiert, ist, dass Cloudflare Leute blockiert, die vorgeben, Googlebot zu sein. Wenn Sie also ein Tool wie Screaming Frog verwenden und Googlebot als Ihren User-Agent auswählen, können Sie Websites möglicherweise nicht mit Cloudflare crawlen .


Können unnatürliche Links eine Website dennoch algorithmisch schädigen? Wenn ja, kann die Verwendung des Disavow-Tools helfen?

14:01

Johannes Müller, 22. Januar 2019 „Ich denke, das war eine gute Frage. Was ich mir da anschauen würde, ist einerseits definitiv der Fall, in dem eine manuelle Aktion vorliegt. Aber auch die Fälle, in denen Sie dies auch möchten Wenn Sie viele manuelle Maßnahmen sehen, würden Sie sagen: „Nun, wenn sich das Web-Spam-Team das jetzt ansieht, würden sie Ihnen eine manuelle Maßnahme geben.“ Eine Art der Fälle, in denen Sie sagen würden, „na ja, die manuellen Maßnahmen sind eher eine Frage von Zeit und nicht irgendwie basiert es auf etwas, das gemacht wurde – ich weiß nicht – wo es eindeutig vor ein paar Jahren gemacht wurde, und es war irgendwie grenzwertig nicht, aber die Art von Zeug, wo man es betrachtet und sagen wir, wenn jemand vom Web-Spam-Team das als Tipp bekommen hat, würde er eine manuelle Maßnahme ergreifen, und das ist definitiv die Art von Sache, bei der ich das bereinigen und dafür wie eine Ablehnung machen würde. Ja, denke ich Es ist schwer zu sagen, ob es so etwas wie einen bestimmten Zeitplan gibt, aber im Allgemeinen, wenn das Webspam-Team sich das angeschaut und gesagt hat, dass sich die Dinge weiterentwickelt haben, war das eindeutig d eine vor ein paar Jahren. Es war nicht ganz bösartig. Dann würden sie dafür wahrscheinlich keine manuellen Maßnahmen ergreifen. "

Und ich nehme an, Sie können das wahrscheinlich nicht beantworten, aber gibt es eine Möglichkeit, dass-- sagen wir mal, wir haben keine manuelle Aktion erhalten, oder sie haben keine manuelle Aktion erhalten. Können diese Links sie algorithmisch verletzen? Weil wir das Gefühl haben, dass wir einige Verbesserungen auf einigen Websites sehen, wissen Sie, nachdem wir sie abgelehnt haben. Also noch einmal, ich weiß, es ist immer-- es ist nie schwarz und weiß.

Das kann durchaus sein. Es ist also etwas, wo unsere Algorithmen, wenn wir es uns ansehen und sie sehen, oh, das sind ein Haufen wirklich schlechter Links hier, dann werden sie vielleicht ein bisschen vorsichtiger sein, was die Links für die Website im Allgemeinen betrifft. Wenn Sie das also bereinigen, schauen sich die Algorithmen das an und sagen, oh, da ist – da ist irgendwie – es ist in Ordnung. Es ist nicht schlecht.


Zusammenfassung: Wenn Sie Links haben, die speziell nur für SEO erstellt wurden, und Sie viele davon haben, können sie dazu führen, dass die Algorithmen von Google all Ihren Links misstrauen. Am besten für solche Fälle disavowen.


Wie messen die Algorithmen von Google den EAT von Publishern?

33:40

Johannes Müller, 22. Januar 2019 „Ich weiß nicht. Ich denke, das ist wahrscheinlich schwer algorithmisch herauszufinden. Und wenn es irgendwelche technischen Dinge gibt, die Sie tun sollten, dann würden wir Sie wissen lassen einige Punkte hatten, von denen wir denken, dass sie für so etwas nützlich wären, würden wir definitiv herausbringen. Aber viele Dinge sind wirklich eher weiche Qualitätsfaktoren, die wir herauszufinden versuchen, und es ist nicht etwas Technisches, das Sie entweder tun oder nicht tun. Es geht eher darum, herauszufinden, wie ein Benutzer dies sehen könnte. Also nichts Bestimmtes, auf das ich hinweisen könnte. "


Zusammenfassung: Es gibt viele „weiche Qualitätsfaktoren“, auf die Google achtet. Betrachten Sie die Dinge aus der Perspektive eines Benutzers. Außerdem kann das Markup der Urheberschaft Google helfen, die Dinge besser zu verstehen.


Wenn etwas in den Quality Raters' Guidelines steht, ist es vernünftig anzunehmen, dass Google möchte, dass sich dies in seinen Algorithmen widerspiegelt?

34:44

Johannes Müller, 22. Januar 2019 Ich denke, im Allgemeinen ist es wahrscheinlich eine gute Praxis, darauf abzuzielen. Ich vermeide es, mich zu sehr darauf zu konzentrieren, was Google als algorithmischen Faktor verwenden könnte, und betrachte es eher als - wir denken, dass dies gut für das Web ist, und deshalb werden wir versuchen, in diese Richtung zu gehen und dies zu tun Art von Dingen. Es ist also nicht so sehr, dass ich eine gute Website erstelle, nur damit ich besser ranken kann, sondern ich erstelle eine gute Website, weil ich möchte, dass die Leute eine gute Erfahrung machen, wenn ich in der Suche auftauche. Und dann kommen sie wieder auf meine Website und kaufen vielleicht etwas. Das ist also die Richtung, in die ich das sehen würde, nicht um das Ranking zu erreichen, sondern um eine gesunde, langfristige Beziehung im Web zu haben.


Zusammenfassung: Denken Sie darüber nach, was für die Benutzer am besten ist. Auch wenn sich derzeit nicht alles, was im QRG steht, in den Algorithmen von Google widerspiegelt, sind dies alles große Schritte, um die Qualität insgesamt zu verbessern.


Gibt es ein Schema, das dazu beiträgt, dass Websites in den Ergebnissen der Sprachsuche höher angezeigt werden?

36:10

Johannes Müller, 22. Januar 2019 Ich weiß nicht. Mir fällt spontan nichts ein. Es gibt also das sprechbare Markup, das Sie verwenden können, was wahrscheinlich sinnvoll ist, um zu sehen, wo es auf einer Seite sinnvoll sein könnte. Ich glaube nicht, dass wir das noch an allen Standorten verwenden werden.


Zusammenfassung: Speakable Markup wird noch nicht an allen geografischen Standorten verwendet. Aber das ist ein guter Anfang.


Einige Tipps zum Gewinnen von Featured Snippets

38:03

Johannes Müller, 22. Januar 2019 Aber insbesondere für Featured Snippets, ich glaube nicht, dass wir irgendeine Art von Markup haben, die dafür spezifisch ist. Das ist also etwas, wo eine klare Struktur auf der Seite uns sehr hilft. Wenn wir ähnliche Tabellen auf einer Seite erkennen können, können wir das viel einfacher herausziehen. Wenn Sie hingegen ausgefallenes HTML und CSS verwenden, um es wie eine Tabelle aussehen zu lassen, es aber keine wirkliche Tabelle ist, dann ist es für uns viel schwieriger, das herauszuziehen.


Zusammenfassung: Es gibt kein Markup, das Sie hinzufügen können, um ein hervorgehobenes Snippet zu gewinnen. Aber eine gute Verwendung von h-Tags und normalen HTML-Tabellen kann wirklich helfen.


Soll das Standortschema zu allen Seiten hinzugefügt werden?

50:47

Johannes Müller, 22. Januar 2019

Antwort 51:42 - Soweit ich weiß, ist es nur die Startseite. Ich weiß nicht. Kennt jemand von euch?

Antwort von Liz 51:4 7 – Es soll normalerweise nur eine Seite mit organisatorischen und korporativen Angaben sein. Das ist allgemein die Empfehlung.

MARTIN SPLITT 52:00 – Ich schätze, es spielt keine Rolle, welche – es ist nicht so wichtig, welche Seiten, genauso wie es nicht auf jede Seite zu setzen, die Sie haben, schätze ich, ist der wichtigere Teil. Ich denke, es hängt davon ab, ob Sie eine Nachrichtenseite betreiben, es ist wahrscheinlich sinnvoll, sie auf der Kontaktseite oder der About-Seite oder so zu platzieren. Wohingegen es bei einer Shop- oder Restaurant-Website wahrscheinlich in Ordnung ist, es auf der Homepage zu platzieren.

JOHANNES 52:20 – Ich denke auch, dass es in diesem Fall für uns nicht so wichtig ist, weil wir in der Lage sein müssen, es irgendwo wie auf der Homepage oder der Kontaktseite zu finden. Aber wenn wir es woanders haben, ändert es nichts für uns. Die große Sache, mit der man es nicht vergleichen sollte, ist das Bewertungs-Markup, bei dem wir manchmal Leute sehen, die auf allen Seiten der Website ähnliche Unternehmensbewertungen platzieren, in der Hoffnung, die Sterne und die Suchergebnisse für jede Seite ihrer Website zu erhalten. Und das wäre schlecht für uns. Aber die Kontaktinformationen, falls Sie diese markiert haben, das ist... Ich sehe darin kein Problem.


Fazit: Eigentlich egal. Es sollte sich auf der Kontaktseite und wahrscheinlich auf Ihrer About-Seite und Homepage befinden. Ein Standortschema auf der gesamten Website ist kein Problem, aber wahrscheinlich auch nicht erforderlich.


Warum ist das neue Tool PageSpeed ​​Insights, das auf Lighthouse basiert, bei der Bewertung von Websites so viel strenger?

53:05

Johannes Müller, 22. Januar 2019

Marie Haynes: Das ist nicht meine Frage, aber um etwas Kontext zu geben, die neuen Lighthouse-Daten für die Seitengeschwindigkeit sind viel strenger als früher die Page Speed ​​Insights. Etwas, das bei Page Speed ​​Insights eine Punktzahl von etwa 80 hatte, könnte bei Lighthouse eine rote 29 sein. Das ist also eine gute Frage. Liegt das wahrscheinlich daran, dass wir wissen, dass sehr langsame Websites auf Mobilgeräten heruntergestuft werden können? Ist es also gut, wenn wir sagen, wissen Sie, wenn Sie beim Lighthouse-Test rote Zahlen schreiben, dass wir die Dinge wirklich verbessern sollten, weil dies zu einer Herabstufung führen könnte, oder gibt es eine Unterbrechung?

Antwort 54:07 – Wir haben also keine Eins-zu-Eins-Abbildung der externen Tools und alles, was wir für soziale Zwecke verwenden. Ja, das macht es wirklich schwer zu sagen, aber bei der Suche versuchen wir, eine Mischung aus tatsächlichen, was ist das, Labortestdaten, die so etwas wie der Lighthouse-Test sind, und den Chrome UX-Berichtsdaten, wo im Wesentlichen was ist, zu verwenden Wir messen, was Benutzer der Website sehen würden.

MARTIN SPLITT 55:37 – Es ist auch wichtig zu sehen, dass Lighthouse zum Beispiel speziell für eine 3G-Verbindung am mittleren Ende misst – oder wie ein Telefon mit mittlerer Leistung, ja. Wenn Sie also im Grunde genommen einen aktuellen Apple McIntosh oder einen aktuellen schnellen Windows-Computer mit einer wirklich guten Kabelverbindung oder einer wirklich guten Wi-Fi-Verbindung in Ihrem Büro verwenden, sehen Sie natürlich eine Ladezeit von zwei Sekunden, aber Ein echter Benutzer mit seinem Telefon in freier Wildbahn sieht das wahrscheinlich nicht. Es ist also einer dieser Fälle, dass es nie schadet, Ihre Website schneller zu machen, aber das ist wirklich, wirklich schwer zu sagen, wie es aus der Innenperspektive aussehen würde, da wir sehr spezifische Metriken verwenden, die nicht unbedingt einer zugeordnet sind Eines davon, was die Tools preisgeben ... natürlich ist es wichtig, dies zu beheben, da Sie nicht möchten, dass Ihre Benutzer ewig auf Ihrer Website warten. Das wird dir weh tun. Das wird Ihren Benutzern schaden. Das wird dir bei der Suche nur schaden. Aber ich bezahle nicht - ich würde sagen, schaut euch einfach die Werkzeuge an. Wenn die Tools Ihnen sagen, dass Sie gut abschneiden, sollten Sie sich darüber keine allzu großen Sorgen machen. Wenn die Tools Ihnen sagen, dass Sie es wirklich nicht gut machen, dann denke ich, dass die Zeit, die Sie damit verbringen, herauszufinden, warum es sagt – wie, wenn das, was es sagt, relevant ist, verschwendet ist. Sie sollten eher darauf achten, die Seite schneller zu machen.

Die mobile Leistung ist ein sehr wichtiger Faktor für Ihre Benutzer, ebenso wie alles andere. Ich würde also sagen, stellen Sie sicher, dass Ihre Website unter realen Bedingungen gut funktioniert. Vielleicht besorgen Sie sich sogar ein billiges Telefon und probieren die Website hin und wieder aus, und wenn – das ist etwas, das ich gerne mache, und ich habe es früher getan, bevor ich zu Google kam, mit dem Entwicklungsteam, mit dem ich zusammengearbeitet habe. Ich dachte, schauen Sie, möchten Sie diese Website auf diesem Telefon verwenden? Es war wie, oh, das ist schrecklich. Ich denke, mhm, ja, also sollten wir vielleicht etwas dagegen unternehmen.

JOHN - In Chrome können Sie es einrichten und verschiedene Verbindungsgeschwindigkeiten ausprobieren. Mobiler Emulator. Ich denke, das sind wirklich gute Dinge, die man sich ansehen sollte, und schauen Sie sich auch Ihre Benutzerbasis an. Sehen Sie sich Ihre Analysedaten an, wenn Sie sehen, dass die Leute Ihre Website nur mit einem High-End-iPhone verwenden, dann ist das vielleicht weniger ein Problem, als wenn Sie sehen, dass Leute von zufälligen ländlichen Verbindungen aus auf Ihre Website zugreifen langsam, und sie haben Low-End-Geräte, dann ist das vielleicht mehr.


Zusammenfassung: Lighthouse misst Geschwindigkeiten für eine 3G-Verbindung, sodass die meisten Websites für die meisten Sitzungen viel schneller funktionieren als hier angezeigt. Hinweis: Nachdem dieser Hangout beendet war, sagte Martin weiter, dass es die „erste zufriedene Farbe“ sei, die im Hinblick auf mögliche Herabstufungen im Ranking am wichtigsten sei.


Wenn Sie solche Sachen mögen, werden Sie meinen Newsletter lieben!

Mein Team und ich berichten jede Woche über die neuesten Google-Algorithmus-Updates, Neuigkeiten und SEO-Tipps.

Erfolg!! Überprüfen Sie nun Ihre E-Mails, um Ihr Abonnement für den Google Update-Newsletter zu bestätigen.

Beim Senden Ihres Abonnements ist ein Fehler aufgetreten. Bitte versuche es erneut.

Video und vollständiges Transkript

Frage 1:32 – Ich habe mich gefragt, ob Sie weitere Anleitungen oder andere Sichtweisen zum Testen auf eine Weise haben, die SEOs verwenden können, um präziser und selbstbewusster an das Unternehmen zu berichten. Wir haben dieses Ding ausprobiert, und es hat seine Wirkung gezeigt. Und wir haben es auf eine Art und Weise gemacht, die todsicher ist, so wie Google es empfehlen würde.

Antwort 3:20 - Aus meiner Sicht versuche ich also, die eher technischen Dinge von Art der Qualitätsänderungen zu trennen. Also alles, was wirklich eine klare technische Sache ist, können Sie ziemlich genau testen, ob es funktioniert oder ob es nicht funktioniert. Es geht nicht darum, ob es irgendwie funktioniert oder nicht, aber viele dieser technischen Dinge, besonders wenn es um das Rendern geht oder wenn es darum geht, ob Google diesen Inhalt tatsächlich indizieren kann, das ist etwas, das entweder funktioniert oder nicht. Schwierig wird es bei allem, worum es geht – es ist indiziert, aber wie taucht es in Rankings auf? Und ich denke, für vieles davon gibt es keinen absoluten Weg, das wirklich zu testen. Denn wenn Sie das in einer isolierten Situation testen, wie Sie eine Testseite erstellen, und Sie sie mit Ihren Empfehlungen einrichten, können Sie nicht wirklich davon ausgehen, dass eine Testseite genauso funktioniert wie eine normale Website. Es gibt manchmal einfache Dinge, wie wenn es sich um eine Testseite handelt, dann machen wir vielleicht kein vollständiges Rendering, weil wir denken, dass es keinen Sinn macht, so viel Zeit auf dies und das zu verwenden, weil es sich niemand ansieht. Es taucht nie in den Suchergebnissen auf, warum sollten wir uns die Mühe machen, so viel Ressourcen dahinter zu stecken? Wenn Sie das hingegen auf einer normalen Website tun würden, würde das ganz anders funktionieren. Das ist also etwas, wo ich nicht wirklich eine klare Anleitung habe, was Sie tun oder was Sie nicht tun sollten. Es scheint eher so zu sein, dass Sie sich die allgemeinen Trends ansehen, bei denen Sie sehen, dass diese Website angezeigt wird, eine Art der Änderungen in den Rankings, die Sie für diese Suchanfragen sehen, und versuchen, dort die Best Practices anzuwenden.

Frage 5:21 – Also vielleicht, wenn – ein konkretes Beispiel, vielleicht können Sie das verwenden – vielleicht wäre das hilfreich, also so etwas wie ein Titel-Tag-Test, richtig? Wenn Sie das tun würden – worauf sollten wir, wenn überhaupt, achten? Oder gibt es irgendetwas zu entwirren – liegt das an unserem Test oder daran, dass sich etwas am Server, am Algo oder an der Wettbewerbsdynamik ändert? [Gelächter] Angenommen, wir tun andere Dinge, um uns diese externen Effekte anzusehen.

Antwort 5:56 – Ich denke, eine Titel-Tag-Änderung ist auf unserer Seite ziemlich komplex, da es eine Art Zusammenspiel gibt, ob Google einen Titel-Tag verwendet, den Sie tatsächlich bereitstellen, einerseits für das Ranking, andererseits andererseits für die Anzeige in den Suchergebnissen. Wie bei Desktop und Mobilgerät haben wir unterschiedlich viel Platz, sodass wir möglicherweise leicht unterschiedliche Titel-Tags anzeigen. Benutzer können darauf unterschiedlich reagieren. Sie könnten also auf die gleiche Weise ranken, aber die Benutzer denken vielleicht, oh, das ist eine großartige Seite. Ich werde es weiter oben anzeigen – oder ich werde es in den Suchergebnissen anklicken, weil es nach einer großartigen Seite aussieht. Und dann haben Sie mehr Verkehr. Aber das Ranking ist eigentlich das gleiche. Also ist das eine gute Sache? Wahrscheinlich, denke ich. Wenn Sie sich nur das Ranking ansehen, dann würde das so aussehen, nun, Sie haben nichts von irgendetwas geändert, und wir haben nur mehr Traffic.

Aber da fließen viele verschiedene Aspekte mit ein. Das ist etwas, wo ich denke, dass es als SEO nützlich ist, einerseits das technische Verständnis dafür zu haben, was passiert ist, aber auch ein gewisses Marketing- und Qualitätsverständnis dafür, wie Benutzer auf Änderungen reagieren, was sind langfristige Änderungen, die wir bei den Benutzern beeinflussen könnten. Wie können Sie dies vorantreiben, um sicherzustellen, dass unsere Website als die relevanteste Website in Situationen angesehen wird, in denen Personen nach etwas in diesem Zusammenhang suchen. Und ich denke, das ist etwas, das wirklich schwer zu testen ist. Selbst im traditionellen Marketing, wo sie jahrelang geübt haben, ist es wirklich schwer zu testen, ob dies tatsächlich eine große Wirkung hat oder nicht? Es ist etwas, bei dem sie das Gesamtbild betrachten oder Benutzerstudien durchführen, was Sie als SEO auch tun können. Es tut uns leid. [LACHEN]


Frage 7:58 – Ich habe eine direktere Frage. Eine Reihe unserer Websites verwenden also Cloudflare, und wir haben festgestellt, dass sie den Googlebot direkt blockieren, richtig? Aber es hatte keinen großen Einfluss auf unsere Rankings, unsere Sichtbarkeit usw. Versuchen Sie also herauszufinden, wie Sie einen anderen Bot verwenden, um einen Index außerhalb des Googlebot direkt zu crawlen, und wie sollten wir darüber nachdenken, wenn CDNs sich alle Mühe geben, den Bot zu blockieren?

Antwort 8:33 – Ja, ich weiß nicht, wie das im Moment bei Cloudflare ist, aber ich weiß, dass sie in der Vergangenheit Leute blockiert haben, die den Googlebot vortäuschen. Wenn Sie also Ihren eigenen, ich weiß nicht, Screaming Frog oder so etwas verwenden – Sie sagen, ich verwende den Googlebot-Benutzeragenten, dann würden sie das blockieren, weil sie sagen könnten, dass dies nicht legitim ist Googlebot. Das können wir blockieren. Aber zum größten Teil denke ich, dass sie genug Übung haben, um normale Googlebots zu erkennen und diese normal crawlen zu lassen.


Frage 9:02 – Ja, es war interessant. Weil ich mich an eine Reihe von Kollegen in anderen Agenturen gewandt habe und sie ähnliche Situationen sogar auf ihrer eigenen Website replizierten. Zum Beispiel gab es ein Support-Ticket innerhalb von Cloudflare, und das wurde auch blockiert, als ich gerade versuchte, direkt vom Googlebot oder Googlebot-Smartphone aus zu rendern.

Antwort 9:21 – OK, ja. Nun, wir haben keine Problemumgehung. Wenn uns Websites beispielsweise blockieren, stecken wir irgendwie fest. Aber normalerweise, wenn ein Dienst wie Cloudflare uns standardmäßig blockiert, würde das viele Websites betreffen. Und das würden wir merken. Wir würden uns bei so etwas wahrscheinlich an Cloudflare wenden. Es kann sein, dass sie vielleicht unterschiedliche Dienstebenen haben. Wenn Sie sich also auf der unteren Ebene befinden, ist es wie ein kostenloser Dienst, aber wir haben eine Begrenzung des Datenverkehrs. Ich weiß nicht, ob sie so etwas haben. Das ist etwas, was ich bei einigen anderen Hostern gesehen habe, wo, wenn Sie eine Art kostenloses Standard-Hosting eingerichtet haben, sie manchmal nur eine Verkehrsobergrenze haben und Dinge blockieren.

MARTIN SPLITT: Sie sehen das vielleicht nicht sofort in den Statistiken, wie Sie rangieren und so. Denn im Grunde, wenn wir Inhalte von Ihnen haben, und im Grunde ist die Website nicht – je nachdem, was in diesem Fall blockiert bedeutet, weil ich das nicht gesehen habe. Und ich betreibe ein paar Websites hinter Cloudflare und hatte keine Probleme. Aber andererseits habe ich keine gigantische Website oder mag riesige Mengen an Verkehr, weil ich den kostenlosen Plan habe. Das ist – aber wenn Sie keinen Fehler auf unserer Seite bemerken, könnte es sein, dass wir den Inhalt behalten, den wir das letzte Mal gesehen haben. Und das rangiert einfach gut, und das ist OK.

Antwort 12:09 – Ja, ich denke, was in einem Fall wie Ihrem passieren würde, ist, dass wir das Crawling verlangsamen würden. Und wir würden versuchen, den Inhalt, den wir mehr abrufen können, im Index zu behalten, und wir würden einfach ein bisschen länger neu crawlen. Das bedeutet aber auch, dass es länger dauert, bis wir Änderungen vornehmen, wenn Sie Änderungen an Ihrer Website vornehmen. Wenn wir Dinge erheblich neu crawlen müssen, wie, ich weiß nicht, AMP, oder Sie fügen so oder so auf der gesamten Website hinzu, dann wird das alles viel länger dauern. Wenn Sie also wirklich regelmäßig sehen, dass wir mit einem normalen Googlebot nicht crawlen können, dann spreche ich das mit dem Host an, damit wir es sehen können.

Frage 14:01 - Großartig. Deshalb habe ich eine Frage zum Disavow-Tool. Wir bekommen also ständig Leute, die wollen, dass wir Link-Audits durchführen. Und seit Penguin 4.0, also im September 2016, wo Gary Illyes sagte, und ich glaube, Sie sagten es auch, Google ist ziemlich gut darin, unnatürliche Links zu ignorieren. Also war mein Gedanke damals, nun, wir sollten das Disavow-Tool nicht verwenden müssen, um Google zu bitten, Links zu ignorieren, die sie bereits ignorieren, es sei denn, Sie hatten eine manuelle Aktion für unnatürliche Links. Also haben wir es nur für Sites empfohlen, die aktiv Links aufgebaut haben, versucht haben, Dinge zu manipulieren, Dinge, die unnatürliche Links sind. Aber ich denke, es gibt so viel Verwirrung unter Webmastern, weil ich ständig Leute sehe, die tonnenweise Geld verlangen, um Links zu prüfen, die gerechtfertigt sind. Ich weiß, dass sie ignoriert werden. Daher würde ich mich freuen, wenn wir noch ein bisschen mehr Klarheit haben könnten. Wenn ich Ihnen also vielleicht ein Beispiel geben kann, wie zum Beispiel, wenn es einen Geschäftsinhaber gab, der vor ein paar Jahren eine SEO-Firma eingestellt hat, und diese SEO-Firma hat eine Reihe von Gastbeiträgen nur für Links und so weiter gemacht war irgendwie von mittlerer Qualität, wenn Sie wissen, was ich meine, nicht ultra spammy, können wir sicher sein, dass Google diese Links ignoriert? Oder sollten wir hineingehen und verleugnen?

Antwort 15:22 - Ich denke, das war eine gute Frage. Was ich da also aus meiner Sicht betrachten würde, ist einerseits definitiv der Fall, dass eine manuelle Aktion vorliegt. Aber auch die Fälle, in denen Sie viele manuelle Maßnahmen sehen möchten, würden sagen, nun, wenn sich das Web-Spam-Team das jetzt ansehen würde, würden sie Ihnen eine manuelle Maßnahme geben. Eine Art von Fällen, in denen Sie sagen würden, nun, die manuelle Aktion ist eher eine Frage der Zeit und nicht so, als ob sie auf etwas basiert, das getan wurde – ich weiß nicht –, wo es eindeutig vor ein paar Jahren getan wurde vor, und es war irgendwie grenzwertig nicht. Aber die Art von Sachen, bei denen Sie es sich ansehen und sagen, wenn jemand vom Web-Spam-Team dies als Tipp erhalten hat, würde er eine manuelle Maßnahme ergreifen, und das ist definitiv die Art von Dingen, bei denen ich das bereinigen und tun würde wie ein Disavow dafür. Ja, ich denke, es ist schwer zu sagen, ob es eine bestimmte Zeitlinie gibt. Aber im Allgemeinen, wenn sich das Webspam-Team das angesehen hat und gesagt hat, dass sich die Dinge weiterentwickelt haben. Dies wurde offensichtlich vor ein paar Jahren getan. Es war nicht ganz bösartig. Dann würden sie dafür wahrscheinlich keine manuellen Maßnahmen ergreifen.

Frage 16:43 – Und ich nehme an, Sie können das wahrscheinlich nicht beantworten, aber gibt es eine Möglichkeit, dass – wie, also sagen wir, wir haben keine manuelle Aktion bekommen, oder sie haben keine manuelle Aktion bekommen. Können diese Links sie algorithmisch verletzen? Weil wir das Gefühl haben, dass wir einige Verbesserungen auf einigen Websites sehen, wissen Sie, nachdem wir sie abgelehnt haben. Also noch einmal, ich weiß, es ist immer-- es ist nie schwarz und weiß.

Antwort 17:03 – Das kann durchaus sein. Es ist also etwas, wo unsere Algorithmen, wenn wir es uns ansehen und sie sehen, oh, das sind ein Haufen wirklich schlechter Links hier, dann werden sie vielleicht ein bisschen vorsichtiger sein, was die Links für die Website im Allgemeinen betrifft. Wenn Sie das also bereinigen, schauen sich die Algorithmen das an und sagen, oh, da ist – da ist irgendwie – es ist in Ordnung. Es ist nicht schlecht.

Frage 17:24 – Es ist immer noch gut, grundsätzlich zu disavowen, nur um eine manuelle Aktion zu verhindern, richtig?

Antwort 17:29 – Ich denke, wenn Sie in einem Fall sind, in dem es wirklich klar ist, dass das Web-Spam-Team Ihnen eine manuelle Maßnahme auf der Grundlage der aktuellen Situation geben würde, dann würde ich das ablehnen.

Frage 17:37 – Es ist also gut, wie bei Google zu denken – wie jemand im Google-Spam-Team einfach denkt, wie, wissen Sie, wenn sie sich das ansehen, was würden sie tun, wenn sie es tun würden?

Antwort 17:47 - Ja.

Frage 17:48 – Das Problem ist jedoch, dass die meisten Leute es nicht wissen. Ich meine, der durchschnittliche Geschäftsinhaber weiß nicht, welche Links das Web-Spam-Team würde – ich meine, es gibt Richtlinien, aber es ist sehr – wissen Sie, es ist schwer, diese zu interpretieren. Ich denke also, ich habe ein paar Bedenken, aber meine Hauptsorge ist, dass es Leute gibt, die Tonnen von Geld für Link-Audits ausgeben, von denen ich denke, dass sie es nicht wert sind. Auf der anderen Seite führen wir möglicherweise keine Link-Audits durch und disavowen einige Websites, die davon profitieren könnten. Also ich würde es gerne tun, wissen Sie, ich denke, was Sie gesagt haben, hat sehr geholfen, damit wir-- wissen Sie, das ist gut.

Antwort 18:22 – Ja, ich denke, für die überwiegende Mehrheit der Websites, die diese Art von normaler Mischung von Dingen haben, bei denen es so ist, als ob Sie in der Vergangenheit einem schlechten Rat gefolgt sind, und es ist, als ob Sie weitergezogen wären und die Dinge jetzt ziemlich natürlich sind, dann müssen sie das wirklich nicht. Das ist irgendwie das Ziel bei all dem, und deshalb ist das Disavow-Tool nicht wie eine Hauptfunktion in der Search Console. Sie suchen explizit danach. Das ist alles absichtlich so, weil Sie sich bei den meisten Websites wirklich nicht so sehr auf Links konzentrieren müssen. Was mir jedoch an dem Disavow-Tool gefällt, ist, dass Sie, wenn Sie sich darüber Sorgen machen, immer noch dorthin gehen und sagen können: OK, ich weiß, dass es so eine Handvoll Dinge gibt, die wir ein paar Jahre lang gemacht haben vor, und ich mache mir wirklich Sorgen darüber. Dann ist es aus meiner Sicht kein Problem, sie zu verleugnen. Ich würde nicht rausgehen und gezielt nach all dem Zeug suchen. Aber wenn Sie davon wissen und sich wirklich Sorgen darüber machen, dann können Sie sich irgendwie darum kümmern.

Frage 19:27 – Ich habe eine Frage zu einer unserer Kunden-Websites. Sie haben also Clubs in drei Städten in New South Wales. Und jeder Club hat eine Subdomain auf der Website. Wenn sie jetzt eine Seite zu ihrer Website hinzufügen, erstellen sie die Seite für jede Subdomain. Vor kurzem haben sie eine Seite hinzugefügt, die sich mit ihren Clubaktivitäten befasst, und sie haben diese Seite zu ihren – allen Subdomains hinzugefügt. Das bedeutet also, dass alle Subdomains den gleichen Inhalt haben, außer dass der Titel der Seite unterschiedlich ist. Denn wenn sie zum -- für Sydney hinzufügen, fügen sie ihren Ortsnamen in den Titel-Tag ein. Wenn sie es für Newcastle hinzufügen, fügen sie Newcastle im Titel-Tag hinzu, aber der Rest des Inhalts auf der Seite ist gleich. Wird es also ein Problem sein, weil sie 50 Subdomains haben und 50 Seiten erstellt haben, die bis auf den Titel den gleichen Inhalt haben?

Antwort 20:36 – Das klingt nach etwas, das ein bisschen ineffizient ist, denke ich. Also, ich meine, du sprichst es bereits an und sagst, das scheint etwas zu sein, das anders gemacht werden könnte. Ich denke, wenn Sie 50 Subdomains haben, die alle den gleichen Inhalt haben, und Sie nur das Titel-Tag ändern, dann stellen Sie uns wahrscheinlich nicht viele wirklich nützliche Inhalte zur Verfügung. Das ist also die Situation, in der ich sagen würde, dass es sinnvoller ist, Dinge zu kombinieren und wirklich starke Seiten zu erstellen, als die Dinge auf noch mehr Subdomains zu verwässern.

Frage 21:44 – Wie wäre es, wenn Sie eine Seite erstellen und dann die kanonische URL zu anderen Standortseiten verwenden? Ich möchte nur eine Seite erstellen, auf der wir über ihre Aktivitäten sprechen, und ich werde den Link als kanonische URL zu anderen Standortseiten verwenden.

Antwort 22:10 – Ort – ja. Ich denke, das könnte Sinn machen, weil man dann wieder Dinge kombiniert. Dann erstellen Sie eine starke Seite und nicht eine Reihe verwässerter Seiten.

Frage 22:20 – Denn was passiert, wenn jemand die Website besucht und seinen Standort auswählt, leitet er diese Person automatisch zu der Subdomain um, für die er seinen bestimmten Standort angegeben hat. Das ist also der Grund, warum sie die Seite auf dieser Subdomain brauchen. Deshalb denke ich, dass, wenn wir die eine Seite behalten und die kanonische URL hinzufügen, das die einzige Option ist, die wir im Moment haben.

Antwort 23:08 - OK, aber ich denke, wenn Sie separate Seiten haben, die Sie aus technischen Gründen auf der Website haben müssen, und Sie kanonisch setzen, ist das ein guter Ansatz.

Frage 23:21 – Wäre das so, als ob ein Unternehmen, das mehrere Franchise-Unternehmen an verschiedenen Standorten hat, die im Wesentlichen den gleichen Inhalt für jedes Franchise haben, in einer anderen Stadt oder Gemeinde oder was auch immer wäre, und das sozusagen von Ihnen trichtern würde Sicht zurück auf eine einzelne Seite?

Antwort 23:34 – Ich denke, das ist immer ein bisschen knifflig, weil Sie Leute, die nach dieser Art von Geschäft an einem bestimmten Ort suchen, mit einer Art Informationsseite direkt um dieses Geschäft ausbalancieren. Das ist also etwas, wo es manchmal sinnvoll ist, das für ein Unternehmen zu trennen. Manchmal ist es sinnvoll, allgemeine Informationen an einem zentralen Ort zu haben und ähnliches zu haben, z. B. Standort-Landingpages, die sich mehr auf die Adresse, Öffnungszeiten und dergleichen konzentrieren.

Frage 24:12 – Ja, ich habe – ich habe eine verwandte Frage zu dem kanonischen Punkt, den Sie angesprochen haben. Diese Frage beschäftigt mein Team und mich schon seit einigen Jahren. Und wir kennen die Lösung immer noch nicht genau. Wenn Sie also eine große E-Commerce-Website mit vielen, vielen Produkten und vielen, vielen Kategorien verwalten. Nehmen wir an, Sie befinden sich auf einer Kategorieseite, die viele verschiedene Filter und Facetten und Dinge dieser Art hat, die den Seiteninhalt leicht verändern, aber vielleicht nicht genug, um eine eigene URL zu rechtfertigen. Aber vielleicht rechtfertigt es in einigen Fällen mit bestimmten Filtern eine Website-URL. Wie gehen Sie in dieser Situation mit dem Crawlen um? Wie funktioniert ein Canonical Tag? Ist es eine pauschale Lösung, nur eine indexierte Seite zu erstellen? Oder sollten Sie sich ansehen, Sie wissen schon, bestimmte Facetten und Filter nicht zu indizieren oder Roboter zu verwenden, oder wie kontrollieren Sie das für große E-Commerce-Sites?

Antwort 24:57 – Das ist schwierig. Ich glaube nicht, dass wir im Moment eine wirklich klare Anleitung dazu haben. Das ist also etwas, wo all diese verschiedenen Methoden Sinn machen können. Im Allgemeinen versuche ich, die Verwendung von robots.txt dafür zu vermeiden, denn was passieren kann, ist, dass wir die URLs finden. Wir wissen einfach nicht, was da ist. Wenn Sie also nicht wirklich Probleme sehen, die zu viel Last auf dem Server verursacht haben, versuche ich, Dinge wie no index, use the rel canonical zu verwenden. Vielleicht verwenden Sie rel no-follow mit internen Links zu Trichter-Dingen, um etwas klarer zu machen, was wir in einem Index crawlen sollten, anstatt robots.txt zu verwenden. Aber die Entscheidung, wann Dinge zu einer Seite auf Indexebene kombiniert und wann sie für die Indexierung gesperrt werden soll, wann sie sanft zu einer kanonischen URL geleitet werden soll, das ist manchmal wirklich schwierig.

Frage 25:53 - Weil die Canonicals manchmal ignoriert werden, wenn der Seiteninhalt zu unterschiedlich ist.

Antwort 25:57 - Genau. Wenn der Inhalt anders ist, könnten wir sagen, nun, das sind verschiedene Seiten. Wir sollten das Canonical nicht verwenden. Während Sie sagen könnten, nun, das ist wirklich etwas, das ich nicht indiziert haben möchte. Vielleicht wäre ein No-Index sinnvoller als ein Canonical. Du kannst auch beides kombinieren. Wir empfehlen nicht, sie zu kombinieren, weil es für uns wirklich schwierig ist zu sagen, na ja, was meinst du? Wollen Sie damit sagen, dass diese gleich sind, aber einer indexierbar und einer nicht indexierbar ist, dann sind sie nicht gleich. Aber es ist etwas, wo ich mir vorstelle, dass es im Laufe des Jahres eine klare Anleitung geben wird, was dort funktionieren könnte. Aber besonders bei wirklich großen E-Commerce-Sites kann die Crawling-Seite ziemlich herausfordernd sein.

Frage 26:46 – Es gibt also ein Szenario, das ich in letzter Zeit mit ein paar meiner Kunden versucht habe herauszufinden. Wir versuchen herauszufinden, warum wir nicht in der Lage sind, eine Website, die immer noch HTTP verwendet und mehr oder weniger verlassen aussieht, nicht grundsätzlich zu verwerfen, weil die Seite seit einiger Zeit nicht mehr aktualisiert wurde und der Inhalt alt, veraltet und allgemein ist irgendwie dünn, und so habe ich ein paar Theorien darüber. Ein Teil davon ist, denke ich, dass es vielleicht schon so lange im Index ist, dass ihr alle irgendwie einen Vertrauensfaktor mit ihnen aufgebaut habt. And it's kind of hard to unseat them. That's part of my theory on that. So I'm just trying to figure out what's going on because I know HTTPS is a factor. I don't know how much of a factor it can be, but I also think the age might be part of the problem of trying to provide that newer, fresher content that-- in most cases, what we have done over last year is a lot more thorough than what was written, say 10, 12 years ago. So we're trying to figure out why is it taking so long to essentially move ahead of those pages in a lot of cases.

Answer 27:46 - So HTTPS is a ranking factor for us. But it's really kind of a soft ranking factor. It's really a small thing.

Question 27:55 - One of the things I've noticed about when I encounter sites that are still using HTTP is they haven't really-- they haven't been updated, in general, in two or three years, usually. So to me, it's kind of like they've almost been abandoned. To me I'm looking at it as a signal of freshness and stuff like that.

Answer 28:10 - Yeah, I mean, freshness is always an interesting one, because it's something that we don't always use. Because sometimes it makes sense to show people content that has been established. If they're looking at kind of long-term research, then like some of this stuff just hasn't changed for 10, 20 years.

Question 28:30 - I'll give you a pragmatic examples since I'm a web developer. I see pages that were written, say in 2006 or 2007. They haven't actually been changed, but the web standards, web specifications, or just the general way of handling those things has evolved. But that page is still written as if it's 2006. And yet I've got something that's fresher, you know, that's more in depth and things like that, and I'm like at number 11. They're sitting at number four, for example, like, why are they still up there, you know?

Answer 28:59 - Yeah. It's hard to say without looking at the specific cases. But it can really be the case that sometimes we just have content that looks to us like it remains to be relevant. And sometimes this content is relevant for a longer time. I think it's tricky when things have actually moved on, and these pages just have built up so much kind of trust, and links, and all of the kind of other signals over the years, where like, well, it seems like a good reference page. But we don't realize that, actually, other pages have kind of moved on and become kind of more relevant. So I think long-term, we would probably pick that up. But it might take a while.

I don't know if we call it trust or anything crazy like that. It's more-- it feels more like we just have so many signals associated with these pages, and it's not that-- like, if they were to change, they would disappear from rankings. It's more, well, they've been around. They're not doing things clearly wrong or for as long time, and people are maybe still referring to them, still linking to them. Maybe they're kind of misled in kind of linking to them because they don't realize that, actually, the web has moved on. Or maybe, I don't know, a new PHP version came out, and the old content isn't as relevant anymore. But everyone is still linking to, I don't know, version 3 or whatever.

Question 30:42 - But I've also seen that kind of in the health and fitness space as well, you know, like workout types were more popular 10 years ago, but the particular, you know, approach to it isn't necessarily as popular now or been kind of proven to not necessarily be as good. You know, it's just some other general observations I've made too.

Answer 31:06 - Yeah, I think it's always tricky because we do try to find a balance between kind of showing evergreen content that's been around and kind of being seeing more as reference content and kind of the fresher content and especially when we can tell that people are looking for the fresher content. But we'll try to shift that as well. So it's not something that would always be the same.

Question 32:20 - "We have a large e-commerce site that's not in the mobile-first index yet. We know we serve different HTML for the same URL, depending on the user agent. Could this harm us?

Answer 32:38 - So you don't have a ranking bonus for being in the mobile-first index. So it's not that you need to be in there. But it's more a matter of when we can tell that a site is ready for the mobile-first index, then we'll try to shift it over. And at the moment, it's not at the stage where we'd say, we're like flagging sites with problems and telling them to fix things. But more where we're just trying to get up to the current status and say, OK, we've moved all of the sites over that we think are ready for mobile-first indexing. And kind of as a next step, we'll trying to figure out the problems that people are still having and let them know about these issues so that they can resolve them for mobile-first indexing. So it's not that there is any kind of mobile-first indexing bonus that's out there. It's more that we're, step by step, trying to figure out what the actual good criteria should be.

Question 33:40 - Given that the search quality guidelines are an indication of where Google wants its algorithm to go, how does the current algorithm handle measuring the expertise and credibility of publishers?

Answer 33:59 - I don't know. I think that's probably hard to kind of figure out algorithmically. And if there were any kind of technical things that you should do, then we would let you know. So if there are things like authorship markup that we had at some points that we think would be useful for something like this, we would definitely bring that out there. But a lot of things are really more kind of soft quality factors that we try to figure out, and it's not something technical that you're either doing or not doing. It's more, like, trying to figure it out how a user might look at this. So not anything specific that I could point at.


Question 34:44 - Is that reasonable to assume that if something is in the Quality Raters' Guidelines that Google-- I mean, that's what Ben Gomes said, right? That's where the Google wants the algorithm to go. So I mean, we may be guilty putting too much emphasis on the Quality Raters' Guidelines, but it's all good stuff in there, right? So is it reasonable to make that assumption? Like, if it's in there, we should aim for that sort of standard of quality?

Answer 35:09 - I think, in general, it's probably good practice to aim for that. I avoid trying to focus too much on what Google might use as an algorithmic factor and look at it more as-- we think this is good for the web, and, therefore, we will try to kind of go in that direction and do these kind of things. So not so much it's like I'm making a good website just so that I can rank better, but I'm making a good website because when I do show up in search, I want people to have a good experience. And then they'll come back to my website, and maybe they'll buy something. So that's kind of the direction I would see that, not as, like, do this in order to rank, but do this in order to kind of have a healthy, long-term relationship on the web.

Question 36:10 - Is there a particular type of schema that is more likely to obtain featured snippets of voice search results?

Answer 36:18 - I don't know. I can't think of anything offhand. So there is the speakable markup that you can use, which is probably reasonable to-- kind of look into to see where it could make sense on a page. I don't think we'll use that in all locations yet.

Question 36:41 - Is that the goal to us it in more locations?

Answer 36:47 - I believe-- I guess. I mean, it's always a bit tricky because, sometimes, we try them out in one location, and we try to refine it over time. And usually, that means we roll it out in the US, and where we can kind of process the feedback fairly quickly, we can look to see how it works, how sites start implementing it or not. And based on that, we can refine things and say, OK, we're doing this in other countries, and other languages, and taking it from there. But it's not always the case that that happens. Sometimes it happens that we keep it in the US for a couple of years, and then we just said, oh, actually, this didn't pan out the way that we wanted it. So we'll try something new, or we'll give it up. Yeah. But a lot of the structured data types, we do try to roll out in other countries, other languages. I imagine the speakable markup is tricky with regards to the language. So that's something more where we'd say, well, Google Assistant isn't available in these languages. So, like, why do we care what markup is actually used there.

I don't know how many places this system is available yet. Maybe that's everywhere now. But featured snippets, in particular, I don't think we have any type of markup that's specific to that. So that's something where if you have clear kind of structure on the page, that helps us a lot. If we can recognize like tables on a page, then we can pull that out a lot easier. Whereas if you use fancy HTML and CSS to make it look like a table, but it's not actually a table, then that's a lot harder for us to pull out.

Question 38:37 - John, do internal links help with featured snippets if you have an anchor? Sorry, not an internal, like, an anchor like-- do you think that that would help?

Answer 38:48 - I don't know. I do know we sometimes show those anchor links in search as a sub site link-type thing. But I don't know if that would work for featured snippets.

Question 39:04 - Does cross domain site map submissions still work when 301 redirecting to an external sitemap file URL?

Answer 39:16 - Hopefully.

Question 39:17 - What about using meta-refresh? This was something that was recommended by a video hosting company. People said, we'll host the site map on our site, but, you know, the XML file will metarefresh over to our site where all the links are located.

Answer 39:33 - I don't think that would work. So sitemap files are XML files, and we process those kind of directly.

So if you do something that's more like a JavaScript redirect or that uses JavaScript to get us the sitemap content, then that would work. It would really need to be a server-side redirect. What you can also do is use the robots.txt file to specify a sitemap file on a different host. That also confirms to us that actually you told us specifically to use a sitemap file from there. So I probably use something like that more than any kind of a redirect. I imagine the 301 server-side redirect would work. But, no, I don't know, you should be able to see some of that in Search Console too, like, if we're picking the sitemap up in the index composition tool, you can pick the sitemap file, then that's a pretty clear sign that we can process that.

Frage 42:29 - Es ging um die Websites von Reisebüros für Reisen. Wir wählen die interne Suche, um dynamische Inhalte anzuzeigen, wie die Top 10 der günstigsten Hotels in der Suchstadt, OK? Der Seitenrahmen wird also im Handumdrehen geladen. Aber die Top 10 der günstigsten Hotelergebnisse werden dynamisch in etwa 30 Sekunden geladen, seit die Suche durchgeführt wurde, weil die Website diese Suche im Hintergrund durchführen muss und dann die Ergebnisse vergleicht und verfeinert, um für den Suchenden die günstigsten Top 10 aufzulisten Hotels. Es dauert also ein wenig, sie aufzulisten. Im Moment sieht der Googlebot also nur den Hintergrund der Seite. Dann waren diese 10 leeren Platzhalter dort, wo die Ergebnisse etwas später geladen werden, nachdem die interne Suche durchgeführt wurde. Da dies ein Trend für Reise-Websites ist, Informationen so frisch wie möglich und so genau wie möglich bereitzustellen, denke ich darüber nach, was Google dagegen unternimmt. Natürlich können wir auf diesen Seiten einige statische Inhalte auflisten, wie es heutzutage alle anderen Websites für Google tun, wenn ich das sagen darf. Aber diese Art verfehlt den Zweck dessen, was die meisten Benutzer jetzt sehen wollen, frisch und billig.

Antwort 44:00 – Wenn es also dort nicht geladen wird, können wir es nicht indizieren. Meistens liegt das aber eher daran, dass wir das JavaScript nicht verarbeiten können oder womöglich der Zugriff auf die dortigen Inhalte gesperrt wird. Es ist also etwas, das Sie auf eine Weise tun können, die funktionieren würde. Es ist nicht beabsichtigt, dass es niemals funktionieren würde. Das ist etwas, wo Sie in die Details eintauchen können, indem Sie Dinge wie den Handy-freundlichen Test verwenden, um zu sehen, ob es JavaScript-Fehler gibt, ob Dinge blockiert sind, und es von dort aus verfeinern. Es ist also nicht unmöglich, aber es erfordert ein wenig Arbeit.

Frage 44:42 – John, ich gehe darauf ein, um sicherzustellen, dass nichts von Google blockiert wird. Das einzige, was wir von Google wollen, ist, ein wenig zu warten, bis der dynamische Inhalt auf die Seiten geladen wird, wissen Sie? Dies ist der nächste Schritt, wenn ich das so sagen darf, denn obwohl diese Seite nicht wie eine endlose Schriftrolle ist, sagen wir Facebook, ist sie eine Seite mit begrenzten 10 Ergebnissen. Es ist also endlich. Es ist begrenzt. Die Sache ist die, Google sollte ein wenig auf die dynamischen Inhalte warten. Ich gebe Ihnen nur ein Beispiel. Aber ich bin mir sicher, dass es da draußen noch viele andere Beispiele in freier Wildbahn gibt. Und da dies der Trend ist, dass die Leute dynamische Inhalte sehen, weil sie die Dinge irgendwie sortieren und die Zeit, die sie damit verbringen, immer weniger Zeit verbringen, verbringen die Leute immer weniger Zeit auf den Websites, und sie wollen sie so schnell wie möglich finden Perfekte Ergebnisse, wenn ich das so sagen darf. Ich habe mich gefragt, ob ihr euch diese Verbesserung anschaut.

Antwort 45:55 – Also warten wir ein bisschen auf das Rendern. Aber wenn die Leute ungeduldig sind, dann ist das ein Zeichen dafür, dass man sowieso schneller sein sollte. Also das ist etwas, wo ich das sowieso untersuchen würde. Aber ich denke, wenn ich mir den Screenshot ansehe, waren alle Gegenstände dort nur in grauen Kästchen blockiert. Das fühlt sich also eher nach einem technischen Problem als nach einer Auszeit an.

MARTIN SPLITT : Ja. Ich wollte gerade sagen, dass wir viele dynamische Inhalte sehen, die ohne Probleme indiziert werden, selbst wenn sie JavaScript und so etwas verwenden. Wenn wir also eine Zeitüberschreitung haben, haben Sie möglicherweise ein Problem in Bezug darauf, wie lange die Suchen dauern, und das könnte sich auch an anderer Stelle widerspiegeln. Wir warten eine ganze Weile, bis der Inhalt fertig ist.

Frage 46:48 – Können Sie – können Sie mir einen Zeitrahmen nennen? Wie lange wartest du?

MARTIN SPLITT : Es ist wirklich, wirklich knifflig, weil im Grunde – also die Sache ist, der Grund, warum wir Ihnen keinen Zeitrahmen geben können, die Zeit ist – und das wird wirklich komisch klingen, und ertragen Sie mich für eine Sekunde . Zeit in Googlebots Rendering ist etwas Besonderes und folgt nicht unbedingt Einsteins Prinzipien. [GELÄCHTER] Also kann ich nicht wirklich viel sagen. Was ich sagen kann, ist, wenn das Netzwerk ausgelastet ist und das Netzwerk der Engpass ist, warten wir wahrscheinlich, aber wir warten nur so lange. Wenn Sie sich also etwa eine Minute oder 30 Sekunden Zeit nehmen, dann haben wir wahrscheinlich eine Zeitüberschreitung dazwischen. Aber es gibt kein Problem – wenn ich Ihnen 10 Sekunden sage, das könnte funktionieren oder auch nicht. Wenn ich Ihnen 30 Sekunden sage, könnte das funktionieren oder auch nicht. Da nenne ich lieber keine Zahl. Was ich sagen würde, versuchen Sie, es so schnell wie möglich hineinzubekommen. Und wenn Sie es nicht schnell bekommen können, dann versuchen Sie etwas wie das Zwischenspeichern der Suchergebnisse, sodass die Suche mehr oder weniger aktiv wird – oder die Ergebnisse auf der Seite mehr und mehr – mehr oder weniger sofort zu erzeugen. Oder versuchen Sie dynamisches Rendering auf Ihrer Seite, das eine Problemumgehung dafür sein könnte. Was Sie auch versuchen können, ist, dass Sie versuchen können, es auf der Serverseite zu platzieren und im Grunde zu versuchen, im ersten Durchgang so viel Inhalt wie möglich zu generieren. Davon profitieren auch Ihre Benutzer, insbesondere wenn sie sich in langsamen Netzwerken befinden. Also ja. Tut mir leid, ich habe keine einfache Antwort, aber die Zeit im Googlebot ist irre.

Antwort 49:29 - Ich denke, es hängt wahrscheinlich davon ab, was die Website tatsächlich tut. Eines der schwierigen Dinge bei der Geschwindigkeit beim Rendern ist, dass wir eine Menge Daten, die von einem Server gesendet werden, häufiger zwischenspeichern können als in einem Browser, da wir unseren Index für viele dieser Dinge verwenden können. Wenn JavaScript also manchmal auf unserer Seite zwischengespeichert ist, müssen wir es nicht abrufen. Wenn Sie dann die Zeiten erneut vergleichen, stimmt es nicht mit dem überein, was ein Benutzer sieht. Es stimmt nicht mit dem überein, was Sie in webpagetest.org sehen. Es ist also wirklich etwas knifflig, und für die Teile, von denen wir wissen, dass es länger dauert, werden wir etwas geduldiger sein. Aber es macht es schwierig zu testen. Deshalb haben wir jetzt all diese Testtools, die so viele Fehler wie möglich anzeigen, um herauszufinden, ob es überhaupt nicht funktioniert? Funktioniert es manchmal und wo sind manchmal die Probleme, die auftreten?

Frage 50:29 – Spielt bei sehr großen Websites die Reihenfolge der URLs in den XML-Sitemaps eine Rolle?

Antwort 50:34 – Nein. Ist uns egal. Es ist eine XML-Datei. Wir ziehen alle Daten ein. Wir verarbeiten alles auf einmal.

Frage 50:44 – Was ist dann mit dem Prioritätsparameter in Sitemaps?

Antwort 50:47 - Wir verwenden das überhaupt nicht. Das ist also etwas, von dem wir am Anfang dachten, oh, das könnte nützlich sein, um herauszufinden, wie oft wir Seiten crawlen sollten. Aber es stellt sich heraus, wenn Sie Webmaster fragen, sie sagen, alles hat Priorität. Es ist am wichtigsten. Und ähnlich ist es, glaube ich, auch mit der Änderungshäufigkeit in Sitemaps, wo wir auch feststellen, dass uns die Leute sagen, dass sich die Dinge ständig ändern, aber zuletzt letztes Jahr aktualisiert wurde. Wenn Sie also die Änderungshäufigkeit und das Datum haben, erhalten wir diese Informationen sowieso aus dem Datum. Also ignorieren wir die Wechselhäufigkeit.
Frage 51:35 – Soll das Unternehmensschema nur der Homepage, der Kontaktseite oder allen Seiten hinzugefügt werden?

Antwort 51:42 - Soweit ich weiß, ist es nur die Startseite. Ich weiß nicht. Kennt jemand von euch?

Antwort von Liz 51:4 7 – Es soll normalerweise nur eine Seite mit organisatorischen und korporativen Angaben sein. Das ist allgemein die Empfehlung.

MARTIN SPLITT 52:00 – Ich schätze, es spielt keine Rolle, welche – es ist nicht so wichtig, welche Seiten, genauso wie es nicht auf jede Seite zu setzen, die Sie haben, schätze ich, ist der wichtigere Teil. Ich denke, es hängt davon ab, ob Sie eine Nachrichtenseite betreiben, es ist wahrscheinlich sinnvoll, sie auf der Kontaktseite oder der About-Seite oder so zu platzieren. Wohingegen es bei einer Shop- oder Restaurant-Website wahrscheinlich in Ordnung ist, es auf der Homepage zu platzieren.

JOHANNES 52:20 – Ich denke auch, dass es in diesem Fall für uns nicht so wichtig ist, weil wir in der Lage sein müssen, es irgendwo wie auf der Homepage oder der Kontaktseite zu finden. Aber wenn wir es woanders haben, ändert es nichts für uns. Die große Sache, mit der man es nicht vergleichen sollte, ist das Bewertungs-Markup, bei dem wir manchmal Leute sehen, die auf allen Seiten der Website ähnliche Unternehmensbewertungen platzieren, in der Hoffnung, die Sterne und die Suchergebnisse für jede Seite ihrer Website zu erhalten. Und das wäre schlecht für uns. Aber die Kontaktinformationen, falls Sie diese markiert haben, das ist... Ich sehe darin kein Problem.
Frage 53:05 - Der von uns verwendete Google-Website-Geschwindigkeitstest hat sehr langsame Seitenladezeiten aufgezeichnet, aber die unabhängigen Tests, die wir mit Kollegen im Ausland durchgeführt haben, zeigten eine sehr schnelle Seitenladezeit. Beeinflusst diese falsche Erfassung von Google-Messungen das Ranking unserer Website im Google-Algorithmus?

Marie Haynes: Das ist nicht meine Frage, aber um etwas Kontext zu geben, die neuen Lighthouse-Daten für die Seitengeschwindigkeit sind viel strenger als früher die Page Speed ​​Insights. Etwas, das bei Page Speed ​​Insights eine Punktzahl von etwa 80 hatte, könnte bei Lighthouse eine rote 29 sein. Das ist also eine gute Frage. Liegt das wahrscheinlich daran, dass wir wissen, dass sehr langsame Websites auf Mobilgeräten heruntergestuft werden können? Ist es also gut, wenn wir sagen, wissen Sie, wenn Sie beim Lighthouse-Test rote Zahlen schreiben, dass wir die Dinge wirklich verbessern sollten, weil dies zu einer Herabstufung führen könnte, oder gibt es eine Unterbrechung?

Antwort 54:07 – Wir haben also keine Eins-zu-Eins-Abbildung der externen Tools und alles, was wir für soziale Zwecke verwenden. Ja, das macht es wirklich schwer zu sagen, aber bei der Suche versuchen wir, eine Mischung aus tatsächlichen, was ist das, Labortestdaten, die so etwas wie der Lighthouse-Test sind, und den Chrome UX-Berichtsdaten, wo im Wesentlichen was ist, zu verwenden Wir messen, was Benutzer der Website sehen würden.

MARTIN SPLITT 55:37 – Es ist auch wichtig zu sehen, dass Lighthouse zum Beispiel speziell für eine 3G-Verbindung am mittleren Ende misst – oder wie ein Telefon mit mittlerer Leistung, ja. Wenn Sie also im Grunde genommen einen aktuellen Apple McIntosh oder einen aktuellen schnellen Windows-Computer mit einer wirklich guten Kabelverbindung oder einer wirklich guten Wi-Fi-Verbindung in Ihrem Büro verwenden, sehen Sie natürlich eine Ladezeit von zwei Sekunden, aber Ein echter Benutzer mit seinem Telefon in freier Wildbahn sieht das wahrscheinlich nicht. Es ist also einer dieser Fälle, dass es nie schadet, Ihre Website schneller zu machen, aber das ist wirklich, wirklich schwer zu sagen, wie es aus der Innenperspektive aussehen würde, da wir sehr spezifische Metriken verwenden, die nicht unbedingt einer zugeordnet sind Eines davon, was die Tools preisgeben ... natürlich ist es wichtig, dies zu beheben, da Sie nicht möchten, dass Ihre Benutzer ewig auf Ihrer Website warten. Das wird dir weh tun. Das wird Ihren Benutzern schaden. Das wird dir bei der Suche nur schaden. Aber ich bezahle nicht - ich würde sagen, schaut euch einfach die Werkzeuge an. Wenn die Tools Ihnen sagen, dass Sie gut abschneiden, sollten Sie sich darüber keine allzu großen Sorgen machen. Wenn die Tools Ihnen sagen, dass Sie es wirklich nicht gut machen, dann denke ich, dass die Zeit, die Sie damit verbringen, herauszufinden, warum es sagt – wie, wenn das, was es sagt, relevant ist, verschwendet ist. Sie sollten eher darauf achten, die Seite schneller zu machen.

Die mobile Leistung ist ein sehr wichtiger Faktor für Ihre Benutzer, ebenso wie alles andere. Ich würde also sagen, stellen Sie sicher, dass Ihre Website unter realen Bedingungen gut funktioniert. Vielleicht besorgen Sie sich sogar ein billiges Telefon und probieren die Website hin und wieder aus, und wenn – das ist etwas, das ich gerne mache, und ich habe es früher getan, bevor ich zu Google kam, mit dem Entwicklungsteam, mit dem ich zusammengearbeitet habe. Ich dachte, schauen Sie, möchten Sie diese Website auf diesem Telefon verwenden? Es war wie, oh, das ist schrecklich. Ich denke, mhm, ja, also sollten wir vielleicht etwas dagegen unternehmen.

JOHN - In Chrome können Sie es einrichten und verschiedene Verbindungsgeschwindigkeiten ausprobieren. Mobiler Emulator. Ich denke, das sind wirklich gute Dinge, die man sich ansehen sollte, und schauen Sie sich auch Ihre Benutzerbasis an. Sehen Sie sich Ihre Analysedaten an, wenn Sie sehen, dass die Leute Ihre Website nur mit einem High-End-iPhone verwenden, dann ist das vielleicht weniger ein Problem, als wenn Sie sehen, dass Leute von zufälligen ländlichen Verbindungen aus auf Ihre Website zugreifen langsam, und sie haben Low-End-Geräte, dann ist das vielleicht mehr.