5. Februar 2019 – Google-Hilfe-Hangout-Notizen
Veröffentlicht: 2019-02-08Johannes ist zurück! Hier sind einige der besten gestellten Fragen und Antworten aus dem letzten Webmaster Helpl Hangout. Diese Woche beantwortete John einige großartige Fragen zu 302-Weiterleitungen, Seitengeschwindigkeit und Best Practices für das Zusammenführen von Subdomains. Vollständiges Video und Transkript am Ende!
Können Sie einen Teil einer Seite blockieren, z. B. ein Video von Google?
1:16

Ich denke, das ist etwas schwierig, weil es keine explizite Möglichkeit gibt, zu sagen, dass meine Seite nicht so in den Suchergebnissen angezeigt werden soll. Ich tendiere also dazu, den Ablaufdatumsansatz zu versuchen, von dem ich glaube, dass Sie ihn auch in strukturierten Daten auf der Seite angeben können. Ich denke, ja, mit json-ld-Strukturdaten gibt es eine Möglichkeit, auch das Ablaufdatum für ein Video anzugeben, das wir auf einer Seite abgeholt haben, denke ich. Das könnte also etwas sein, was ich versuche.
Zusammenfassung: Sie können Google nicht wirklich bitten, nur einen Teil einer Seite zu indizieren oder die Seite nur in bestimmte SERP-Funktionen aufzunehmen. Sie können jedoch strukturierte Daten verwenden, um einem Video ein Ablaufdatum hinzuzufügen, wodurch es nicht in den Suchergebnissen erscheinen sollte.
Hier finden Sie weitere Informationen von Google zum Videoschema und auch zur Verwendung von Ablaufdaten.
Was bedeutet es, wenn Seiten Ihrer Website nicht indexiert werden und GSC „gecrawlt, nicht indexiert“ anzeigt?
5:23

Es ist also wirklich schwer zu sagen, ohne sich spezifische Beispiele von Ihrer Website anzusehen. Ich würde also empfehlen, hier das Forum mit den genauen URLs zu veröffentlichen, die Sie bei den Abfragen betrachten, die Sie sich ansehen, damit Leute da kann man nachschauen. Manchmal ist es etwas Einfaches, etwas Technisches, wie zum Beispiel, dass ein Blog so eingerichtet ist, dass diese Seiten nicht standardmäßig indexiert werden, aber normalerweise sind die Leute im Webmaster-Forum sehr schnell und erkennen diese Art von häufigen Problemen und können Ihnen helfen, sie einzugrenzen Dinge herunterzuschrauben oder zu eskalieren, wenn hier wirklich etwas völlig Verrücktes passiert. Eine andere Sache, die Sie beachten sollten, ist, dass wir nicht alle Seiten indizieren, die wir gesehen haben. Es ist wirklich üblich, dass Websites viele Seiten enthalten, von denen wir wissen, aber wir crawlen nicht unbedingt einen Index, und das ist nicht unbedingt ein Problem. Das sind nur unsere Algorithmen, die versuchen herauszufinden, wo es sinnvoll ist, unsere Energie zu fokussieren, und wo sie vielleicht etwas weniger Energie fokussieren, und normalerweise bedeutet das auch, dass diese Seiten bei der Suche wahrscheinlich sowieso nicht so sichtbar sind, sodass es sich nicht ändern würde So viel für Ihre Website insgesamt, wenn sie indiziert wäre, aber ich würde auf jeden Fall das Webmaster-Hilfeforum besuchen, um zu sehen, was dort einige der möglichen Ursachen sein könnten.
Zusammenfassung: Es könnte an einem technischen Problem liegen, dass die Seiten nicht indexiert werden. Denken Sie auch daran, dass Google nicht immer jede von Ihnen veröffentlichte Seite indexiert. Unser Hinweis: Stellen Sie sicher, dass Sie keine Blog-Inhalte veröffentlichen, nur um Inhalte zu haben. Es hat eine viel höhere Chance, indiziert zu werden, wenn es super wertvoll ist!
Müssen Sie Ihrer Disavow-Datei Spam-Links hinzufügen?
8:17

Im Allgemeinen müssen Sie also nicht auf dem Laufenden bleiben, es ist etwas, bei dem so ziemlich jede Website, wenn Sie sich die eingehenden Links ansehen, eine Reihe von Links enthalten wird, die nur irgendwie spammig oder irrelevant sind, und das ist vollkommen in Ordnung. Wir sind ziemlich gut darin, eine Menge Unrat zu ignorieren, den Websites im Laufe der Jahre ansammeln. Ich würde mich nicht darauf konzentrieren. Wenn es etwas ist, wo Sie wissen, dass Sie vorher Links gekauft haben oder Sie einen SEO haben, der etwas wirklich Seltsames in Bezug auf Links macht, dann wäre es sinnvoll, es zu bereinigen, aber wenn Sie sich dessen nicht bewusst sind von allem und die Dinge sind ansonsten irgendwie in Ordnung, dann würde ich mir darüber keine Sorgen machen.
Zusammenfassung: Jede Website zieht Spam-Links an. Google ist wirklich gut darin, diese zu ignorieren. Die Arten von Links, die Sie ablehnen sollten, sind solche, die absichtlich für SEO erstellt wurden.
Wie geht Google mit Websites um, die Standortinformationen von einem Benutzer benötigen, um die UX zu verbessern?
9:29

Ich gehe also davon aus, dass Sie mit Location Finder etwas meinen, bei dem Ihre Website erkennt, wo sich der Benutzer befindet, und möglicherweise die lokale Telefonnummer oder lokale Adresse basierend auf dem Standort des Benutzers anzeigt. Das ist etwas, was wir in Bezug auf die Suche nicht tun würden. Das ist also im Allgemeinen etwas, das wir nicht einmal aufgreifen. Im Allgemeinen verweigert Google beim Rendern von Seiten auch diese Art von zusätzlichen Informationsanfragen, sodass wir das wahrscheinlich nicht einmal bemerken würden.
Zusammenfassung: Der Googlebot achtet nicht auf Standortanfragen. Unser Hinweis: Stellen Sie sicher, dass Ihre wichtigen Seiteninformationen nicht darauf angewiesen sind, Standortinformationen von einem Benutzer zu erhalten.
Übergibt eine 302-Weiterleitung den PageRank?
10:10

Eine 301-Weiterleitung ist eine permanente Weiterleitung, die uns mitteilt, dass eine neue Seite eine vorhandene Seite für immer ersetzt, und eine 302-Weiterleitung teilt uns mit, dass der Inhalt vorübergehend unter einer anderen URL verfügbar ist. Aus praktischer Sicht passiert hier im Allgemeinen, dass wir uns bei einer 301-Weiterleitung auf die Zielseite konzentrieren, diese URL indizieren und alle Signale dorthin verschieben. Während wir uns bei einer 302-Weiterleitung auf die Startseite konzentrieren und versuchen, alle Signale dort zu halten. Es geht also nicht um Pagerank-Passing oder nicht, sondern welche dieser URLs tatsächlich diejenige ist, die die Signale hält. Es ist nicht so, dass diese Signale bei der Umleitung verloren gehen, sondern eher, sind sie hier oder sind sie hier, und das ist sozusagen der Hauptunterschied.
Wenn Sie also verfolgen, welche dieser Seiten das Weiterleitungsziel oder die Weiterleitung rankt, die Art der ursprünglichen Seite, die die Weiterleitung durchführt. Dann tendieren Sie bei einer 302-Weiterleitung wahrscheinlich dazu, das anfängliche Seitenranking zu sehen, denn das ist dasjenige, das wir auswählen, weil Sie uns sagen, dass es nur vorübergehend ist und der Inhalt woanders ist, während wir bei einer 301-Weiterleitung wahrscheinlich dazu neigen, das Ziel zu bewerten Seite mehr. Und wie immer machen die Leute das regelmäßig falsch und unsere Algorithmen versuchen herauszufinden, was es ist, was die Leute versuchen zu tun. Wenn wir also eine 302-Weiterleitung für einen längeren Zeitraum sehen, könnten wir dies gut beschreiben, wahrscheinlich meinte der Webmaster, dass dies eine 301-Weiterleitung ist, und wir werden sie als solche behandeln und alle unsere Signale zum Ziel verschieben Seite. Das ist also etwas, wo Sie diese Art von Änderungen auch im Laufe der Zeit sehen können, also ist es nicht so, dass der Linkwert oder wie unsere Signale durch eine Weiterleitung fließen oder nicht, sondern welche dieser URLs wir am Ende für unsere Indexierung auswählen und das ist die URL, die am Ende all diese Signale erhält.
Zusammenfassung: Eine 302-Weiterleitung soll eine temporäre Weiterleitung sein, während 301 dauerhaft ist. Bei einem 302 versucht Google, sich weiterhin auf die ursprüngliche Seite zu konzentrieren und nicht auf die Seite, auf die der Benutzer weitergeleitet wird. Wenn ein 302 jedoch lange genug vorhanden ist, wird er als 301 behandelt. Unser Hinweis: Als solcher sollte ein 302 schließlich beginnen, den PageRank zu überholen. Wir wissen aber nicht, wie lange das dauert.
Kann eine wenig schmeichelhafte oder negative Sprache auf einer Seite dazu führen, dass sie von Google als minderwertig eingestuft wird?
13:02

Ich hätte eine kurze Frage, wie Sie wissen, haben wir uns seit Jahren mit allen möglichen seltsamen Ranking-Problemen beschäftigt. Einer meiner Partner hatte, als er sich mit einigen YouTube-Problemen befasste, eine potenzielle Theorie, die beispielsweise auf ähnlichen unzulässigen Wörtern basierte. Manchmal bezeichneten wir einen Autoverkäufer als Idioten oder so ähnlich und in einigen unserer Artikel. Grundsätzlich wollten wir herausfinden, ob es möglicherweise ein Problem mit der Verwendung einer solchen Sprache auf bestimmten Seiten der Website geben könnte. Ich meine nichts wie Obszönitäten, sondern nur so etwas wie Beleidigungen? Wir sehen immer noch das Phänomen, dass andere Websites, die unsere Inhalte im Grunde gestohlen und dann leicht modifiziert haben, dort ranken, wo wir früher waren, und dann rangieren wir irgendwie schlecht. Wenn sie den Inhalt ändern, nachdem sie ihn gestohlen haben, neigen sie nicht dazu, die Seiten auf der Website zu stehlen, die diese Art von Sprachgebrauch haben.
Zusammenfassung: Nein. Unser Hinweis: Dies bedeutet nicht, dass Sie Google hat in der Vergangenheit gesagt, dass Spam-UGC als Zeichen geringer Qualität angesehen werden kann.
Soll rel-prev/next für „verwandte Artikel“ verwendet werden?
17:41

Nein. Die Art der rel next-Verlinkung ist also wirklich nur für Paginierungsserien gedacht, es ist nicht etwas, das für verwandte Links gedacht ist. Also würde ich diese verwandten Artikel normalerweise verlinken, normalerweise ist das das, was diese Plugins tun.
Zusammenfassung: Nein. Dies gilt nur für paginierte Seiten.
Wie lange sollte es dauern, bis eine langsame Website nach Verbesserungen der Seitengeschwindigkeit bessere Rankings erzielt?
24:32

Wie bei so ziemlich allem, was mit der Websuche zu tun hat, geht es hier nicht um einen festen Zeitrahmen, sondern wir crawlen im Laufe der Zeit in Indexseiten. Wir aktualisieren diese Signale, die wir für diese Seiten haben, im Laufe der Zeit. Es gibt keinen festen Zeitplan, einige dieser Seiten werden täglich oder sogar noch häufiger aktualisiert. Einige von ihnen brauchen etwas länger, andere brauchen Monate, um aktualisiert zu werden. Also, was Sie hier wahrscheinlich sehen werden, wenn Sie signifikante Verbesserungen an Ihrer Website vornehmen, aber Sie werden im Laufe der Zeit diese Art von allmählichem Anstieg sehen, wenn wir diese Signale berücksichtigen. Es könnte sehr schwierig sein, wenn es um Geschwindigkeit geht, in dem Sinne, dass Geschwindigkeit nicht der wichtigste Ranking-Faktor ist. Wir sehen uns Dinge wie den Inhalt an und versuchen herauszufinden, welche dieser Seiten für die Benutzer am relevantesten sind. Wenn eine Seite also wirklich schnell ist, bedeutet das nicht, dass sie immer die Nummer eins ist, theoretisch wäre eine leere Seite irgendwie die schnellste Seite, aber das bedeutet nicht, dass sie ein gutes Ergebnis für den Benutzer ist, also ist die Geschwindigkeit eher ein kleinerer Ranking-Faktor dort. Das ist also etwas, das wir wahrscheinlich im Laufe der Zeit aufgrund von Verbesserungen der Qualität und Verbesserungen der Website insgesamt sehen werden, und die Geschwindigkeit ist eher etwas Kleines, das wahrscheinlich sogar schwer einzeln zu messen wäre.
Zusammenfassung: Google aktualisiert seine Signale zur Seitengeschwindigkeit für eine Seite im Laufe der Zeit. Es ist nicht so, dass wir auf ein Page Speed-Update warten müssen. Wenn die Geschwindigkeit Sie von einem guten Ranking abhält und Sie Verbesserungen vornehmen, sollten Sie einen allmählichen Anstieg der Rankings feststellen.
Was bedeutet es, wenn Sie Seiten sehen, die von robots.txt in GSC blockiert werden?
31:33

Ich weiß nicht, dass wir das noch nicht angekündigt haben, aber wir versuchen, dem Ablehnen etwas voraus zu sein, damit die Leute die Chance haben, zu etwas Neuem überzugehen. Um die neuen Tools in die Suchkonsole zu verschieben. Sobald wir also mehr Pläne haben, was dort passiert, werden wir Sie informieren. Ich denke, dies ist eines dieser Tools, die es sinnvoll macht, sie zu behalten. Da wir also nicht angekündigt haben, dass wir es abschalten, nehme ich an, dass es im Laufe der Zeit einfach mit dem neuen Wechsel zur Konsole kommen wird.
Fazit: Höchstwahrscheinlich ja. Aber noch nicht.
Sollte das Zusammenführen mehrerer Subdomains zu einer großen Website in Phasen erfolgen?
35:47

Ich werde einfach versuchen, so schnell wie möglich zum Endzustand zu gelangen. Anstatt also diese vorübergehende Situation zu schaffen, in der die Dinge weder die alten noch die neuen sind, würde ich versuchen, so schnell wie möglich auf die neuen umzuleiten.
Fazit: Am besten alles auf einmal.
Sind Links wichtig, wenn es um das Ranking von Videos in der regulären Suche geht?
39:08

Wir verwenden also eine Reihe von Faktoren, wenn es um das Ranking geht, und dazu gehören auch Links. Es ist also etwas, wo ich falsch wäre zu sagen, dass wir überhaupt keine Links verwenden. Wir verwenden jedoch über 200 Faktoren für die Crawling-Indizierung und das Ranking, so dass es nicht wirklich sinnvoll ist, sich nur auf Links zu konzentrieren. Das ist also etwas, bei dem guter Inhalt traditionell Links aufnimmt, und wenn Sie Videoinhalte auf Ihrer Website erstellen und all das im Allgemeinen auch innerhalb Ihrer Website verlinkt ist, beruhigen sich diese Dinge im Laufe der Zeit von selbst. Es ist nicht so, dass Sie explizit Links erstellen müssen, damit Sie in einem Videokarussell angezeigt werden können. Ich denke, das würde Sinn machen.
Fazit: Höchstwahrscheinlich ja. Aber es gibt noch viele andere Faktoren.
Sind Navigationslinks, die auf Mobilgeräten ausgeblendet sind, in Ordnung?
40:06

Wir würden wirklich folgen, es war normal, also sehe ich kein Problem darin. Das heißt, wenn Ihre Website auf Mobilgeräten schwer zu navigieren ist, wird es Benutzern, die für die große Mehrheit der Websites hauptsächlich auf Mobilgeräten kommen, schwer fallen, auf Ihrer Website zu navigieren, und es wird ihnen schwer fallen, Ihre anderen guten Inhalte zu finden. Daher würde ich auf jeden Fall sicherstellen, dass jede Benutzeroberfläche, die Sie auf Ihrer Website zur Verfügung haben, in irgendeiner Form auch für mobile Benutzer verfügbar ist.
Zusammenfassung: Diese sind im Allgemeinen ok. Stellen Sie jedoch sicher, dass Ihre Navigation für Benutzer intuitiv ist.
Unser Hinweis: Wenn Sie wichtige Seiten haben, auf die Sie intern verlinken möchten, verlassen wir uns nicht gerne nur auf Navigationslinks. Wir sind wirklich der Meinung, dass textverankerte Links aus dem Hauptinhalt Ihrer Seiten hilfreicher sind.
Google-Mitarbeiter Zineb Ait sagte einmal:
https://twitter.com/Missiz_Z/status/691687094444539905
(Übersetzung: „Die seitenweiten Links im Footer oder Header haben in der Regel kein sehr großes Gewicht.“)
Was bedeutet es, wenn Google Ihren Titel-Tag oder Ihre Meta-Beschreibung umschreibt?
40:06

Wir haben Richtlinien, wie man gute Titel und gute Beschreibungen erstellt, also würde ich empfehlen, einen Blick darauf zu werfen. Wenn ich oft sehe, wie Google die Titel oder das Snippet umschreibt, basiert das normalerweise eher auf Situationen, in denen wir fast so etwas wie Keyword-Stuffing mit den Titeln oder der Beschreibung sehen. Das könnte eine Sache sein, auf die man achten sollte, eine andere Sache, die man im Hinterkopf behalten sollte, ist, dass wir versuchen, Titel und Beschreibungen basierend auf der Abfrage auszuwählen. Wenn Sie also eine Website-Abfrage durchführen und Ihre Titel und Beschreibungen auf eine Weise sehen, bedeutet das nicht unbedingt, dass sie auf die gleiche Weise angezeigt werden, wenn normale Benutzer mit normalen Abfragen suchen. Also schaue ich mir beide an und schaue mir auf jeden Fall auch den Hilfe-Center-Artikel an.
Zusammenfassung: Manchmal schreibt Google diese um, wenn es so aussieht, als würden Sie Keywords stopfen. Sie können auch umgeschrieben werden, wenn Google glaubt, sie umschreiben zu können, um die Anfrage des Benutzers besser zu beantworten.
Wenn Sie solche Sachen mögen, werden Sie meinen Newsletter lieben!
Mein Team und ich berichten jede Woche über die neuesten Google-Algorithmus-Updates, Neuigkeiten und SEO-Tipps.
Erfolg!! Überprüfen Sie nun Ihre E-Mails, um Ihr Abonnement für den Google Update-Newsletter zu bestätigen.
Vollständiges Video und Transkript
Frage 1:16 – Ich habe eine Website, die ich erst letztes Jahr im Juni verwalte, sie wurde von einer regulären Webliste zu einem Videokarussell geändert, eine der Suchanfragen, wie Stock-Footage oder Stock-Videos, die als Ergebnis einen enormen Rückgang der Klicks verursachten . Es war irgendwie irreführend mit Video-Thumbnails, weil dieses Ergebnis nicht wirklich der Absicht des Benutzers entspricht. Denn Nutzer verwechseln das Videokarussell mit einem YouTube-Video. Um es also irgendwie zu blockieren, haben wir einige Maßnahmen ergriffen, wir haben das Video mit der robots.txt blockiert, wir haben die Videos auch irgendwie vollständig von der Seite entfernt. Die Dinge wurden tatsächlich schlimmer, anstatt das Video aufzuheben, begann Google, das Miniaturbild des Bildes im Videokarussell mit einem Zeitstempel von 15 Sekunden anzuzeigen. Dies führte letztendlich zu einer sehr schlechten Benutzererfahrung, da das Video nirgendwo zu finden war. Die Benutzer sahen das Video auf der Suchseite und als sie auf der Seite landeten, gab es kein Video, was letztendlich zu einem leichten Rückgang der Rankings führte auch. Ich weiß, dass Sie letztes Jahr getwittert haben, dass wir versuchen sollten, eine Sitemap für die Videos hinzuzufügen und ein Ablaufdatum in der Vergangenheit festzulegen, und die andere blockierte diesen Teil der Seite vollständig, also haben wir es versucht. Das Problem mit dieser Thumbnail-URL ist also, dass sie über CDN bereitgestellt werden, sodass wir die URLs nicht wirklich kontrollieren, sodass wir sie nicht wirklich mitbringen können, sodass alle Vorschläge sehr hilfreich wären.
Antwort 3:10 - Ich denke, das ist etwas schwierig, weil es keine explizite Möglichkeit gibt, zu sagen, dass meine Seite nicht so in den Suchergebnissen angezeigt werden soll. Ich tendiere also dazu, den Ablaufdatumsansatz zu versuchen, von dem ich glaube, dass Sie ihn auch in strukturierten Daten auf der Seite angeben können. Ich denke, ja, mit json-ld-Strukturdaten gibt es eine Möglichkeit, auch das Ablaufdatum für ein Video anzugeben, das wir auf einer Seite abgeholt haben, denke ich. Das könnte also etwas sein, was ich versuche.
Frage 5:23 – Fast alle Artikel in unserem Blog-Bereich wurden de-indexiert, da in der Suchkonsole angezeigt wird, dass Crawl nicht indexiert ist, und es wird kein spezifischer Grund angezeigt, warum was dort passieren könnte?
Antwort 5:38 – Es ist also wirklich schwer zu sagen, ohne sich spezifische Beispiele von Ihrer Website anzusehen. Ich würde also empfehlen, hier das Forum mit den genauen URLs zu posten, die Sie bei den von Ihnen gestellten Suchanfragen betrachten ansehen, damit die Leute dort einen Blick darauf werfen können. Manchmal ist es etwas Einfaches, etwas Technisches, wie zum Beispiel, dass ein Blog so eingerichtet ist, dass diese Seiten nicht standardmäßig indexiert werden, aber normalerweise sind die Leute im Webmaster-Forum sehr schnell und erkennen diese Art von häufigen Problemen und können Ihnen helfen, sie einzugrenzen Dinge herunterzuschrauben oder zu eskalieren, wenn hier wirklich etwas völlig Verrücktes passiert. Eine andere Sache, die Sie beachten sollten, ist, dass wir nicht alle Seiten indizieren, die wir gesehen haben. Es ist wirklich üblich, dass Websites viele Seiten enthalten, von denen wir wissen, aber wir crawlen nicht unbedingt einen Index, und das ist nicht unbedingt ein Problem. Das sind nur unsere Algorithmen, die versuchen herauszufinden, wo es sinnvoll ist, unsere Energie zu fokussieren, und wo sie vielleicht etwas weniger Energie fokussieren, und normalerweise bedeutet das auch, dass diese Seiten bei der Suche wahrscheinlich sowieso nicht so sichtbar sind, sodass es sich nicht ändern würde So viel für Ihre Website insgesamt, wenn sie indiziert wäre, aber ich würde auf jeden Fall das Webmaster-Hilfeforum besuchen, um zu sehen, was dort einige der möglichen Ursachen sein könnten.
Frage 7:05 – Wir haben eine Reihe von Seiten zu unserer Website hinzugefügt, aber vergessen, die Sitemap-Datei zu aktualisieren, damit Google sie findet und indiziert, aber müssen wir irgendetwas Besonderes tun
Antwort 7:16 – Nein, Sie müssen nichts Besonderes tun. Eine Sitemap-Datei hilft uns, mehr Informationen in Bezug auf das Crawlen und Indexieren hinzuzufügen. Sie ersetzt nicht die Informationen, die wir zum Crawlen und Indexieren haben. Wenn es also nur darum geht, dort seine URLs zu finden, wenn wir sie durch normales Crawlen gefunden haben, ist das vollkommen in Ordnung. Eine Sitemap-Datei sollte das normale Crawlen sowieso nicht ersetzen. Wenn also keine dieser Seiten intern verlinkt wäre, könnten wir sie möglicherweise über eine Sitemap-Datei finden, aber es wäre wirklich schwierig für uns, den Kontext dieser Seiten zu verstehen. Insofern ist es eigentlich ein gutes Zeichen, dass wir diese Seiten trotzdem finden und indizieren können. Eine Sitemap-Datei würde uns hier helfen, zu erkennen, wenn Sie Änderungen auf diesen Seiten vornehmen, damit wir sie etwas schneller aufgreifen können, aber wenn wir sie bereits indizieren, dann ist zumindest dieser erste Schritt etwas, das Sie nicht kritisch vermissen .
Frage 8:17 – Ich habe unsere eingehenden Links überprüft und festgestellt, dass es viele Spam-Links gibt, die ich unserer Disavow-Datei hinzugefügt habe. Ich frage mich, wie wichtig es für das Ranking ist, den Überblick zu behalten. Ich habe gehört, Google ignoriert sie trotzdem?
Antwort 8:34 – Im Allgemeinen müssen Sie also nicht auf dem Laufenden bleiben, es ist etwas, wo so ziemlich jede Website, wenn Sie sich die eingehenden Links ansehen, eine Reihe von Links haben wird, die nur irgendwie spammy oder irrelevant sind, und das ist vollkommen in Ordnung. Wir sind ziemlich gut darin, eine Menge Unrat zu ignorieren, den Websites im Laufe der Jahre ansammeln. Ich würde mich nicht darauf konzentrieren. Wenn es etwas ist, wo Sie wissen, dass Sie vorher Links gekauft haben oder Sie einen SEO haben, der etwas wirklich Seltsames in Bezug auf Links macht, dann wäre es sinnvoll, es zu bereinigen, aber wenn Sie sich dessen nicht bewusst sind von allem und die Dinge sind ansonsten irgendwie in Ordnung, dann würde ich mir darüber keine Sorgen machen.
Frage 9:20 – Entscheidet sich Google, ob wir den Standortfinder auf einer mobilen Version verwenden, um eine bessere UX zu bieten, kann dies bei Rankings helfen?
Antwort 9:29 – Ich nehme also an, dass Sie mit Standortsuche etwas meinen, bei dem Ihre Website erkennen würde, wo sich der Benutzer befindet, und möglicherweise die lokale Telefonnummer oder lokale Adresse basierend auf dem Standort des Benutzers anzeigen würde. Das ist etwas, was wir in Bezug auf die Suche nicht tun würden. Das ist also im Allgemeinen etwas, das wir nicht einmal aufgreifen. Im Allgemeinen verweigert Google beim Rendern von Seiten auch diese Art von zusätzlichen Informationsanfragen, sodass wir das wahrscheinlich nicht einmal bemerken würden.
Frage 10:10 – Fließt Link Equity durch eine temporäre 302-Umleitung?
Antwort 10:21 – Ein 301 ist eine permanente Weiterleitung, die uns mitteilt, dass eine neue Seite eine bestehende Seite für immer ersetzt, und eine 302-Weiterleitung sagt uns, dass der Inhalt vorübergehend unter einer anderen URL verfügbar ist. Aus praktischer Sicht passiert hier im Allgemeinen, dass wir uns bei einer 301-Weiterleitung auf die Zielseite konzentrieren, diese URL indizieren und alle Signale dorthin verschieben. Während wir uns bei einer 302-Weiterleitung auf die Startseite konzentrieren und versuchen, alle Signale dort zu halten. Es geht also nicht um Pagerank-Passing oder nicht, sondern welche dieser URLs tatsächlich diejenige ist, die die Signale hält. Es ist nicht so, dass diese Signale bei der Umleitung verloren gehen, sondern eher, sind sie hier oder sind sie hier, und das ist sozusagen der Hauptunterschied.

Wenn Sie also verfolgen, welche dieser Seiten das Weiterleitungsziel oder die Weiterleitung rankt, die Art der ursprünglichen Seite, die die Weiterleitung durchführt. Dann tendieren Sie bei einer 302-Weiterleitung wahrscheinlich dazu, das anfängliche Seitenranking zu sehen, denn das ist dasjenige, das wir auswählen, weil Sie uns sagen, dass es nur vorübergehend ist und der Inhalt woanders ist, während wir bei einer 301-Weiterleitung wahrscheinlich dazu neigen, das Ziel zu bewerten Seite mehr. Und wie immer machen die Leute das regelmäßig falsch und unsere Algorithmen versuchen herauszufinden, was es ist, was die Leute versuchen zu tun. Wenn wir also eine 302-Weiterleitung für einen längeren Zeitraum sehen, könnten wir dies gut beschreiben, wahrscheinlich meinte der Webmaster, dass dies eine 301-Weiterleitung ist, und wir werden sie als solche behandeln und alle unsere Signale zum Ziel verschieben Seite. Das ist also etwas, wo Sie diese Art von Änderungen auch im Laufe der Zeit sehen können, also ist es nicht so, dass der Linkwert oder wie unsere Signale durch eine Weiterleitung fließen oder nicht, sondern welche dieser URLs wir am Ende für unsere Indexierung auswählen und das ist die URL, die am Ende all diese Signale erhält.
Frage 13:02 – Ich hätte eine kurze Frage, wie Sie wissen, beschäftigen wir uns seit Jahren mit allen möglichen seltsamen Ranking-Problemen. Einer meiner Partner hatte, als er sich mit einigen YouTube-Problemen befasste, eine potenzielle Theorie, die beispielsweise auf ähnlichen unzulässigen Wörtern basierte. Manchmal bezeichneten wir einen Autoverkäufer als Idioten oder so ähnlich und in einigen unserer Artikel. Grundsätzlich wollten wir herausfinden, ob es möglicherweise ein Problem mit der Verwendung einer solchen Sprache auf bestimmten Seiten der Website geben könnte. Ich meine nichts wie Obszönitäten, sondern nur so etwas wie Beleidigungen? Wir sehen immer noch das Phänomen, dass andere Websites, die unsere Inhalte im Grunde gestohlen und dann leicht modifiziert haben, dort ranken, wo wir früher waren, und dann rangieren wir irgendwie schlecht. Wenn sie den Inhalt ändern, nachdem sie ihn gestohlen haben, neigen sie nicht dazu, die Seiten auf der Website zu stehlen, die diese Art von Sprachgebrauch haben.
Antwort 14:49 – Ich glaube nicht, dass das irgendetwas beeinflussen würde. Einige Seiten enthalten benutzergenerierte Inhalte und verwenden diese Art von informeller Sprache, also finde ich das vollkommen in Ordnung.
Frage 17:41 – Wir haben verwandte Artikel am Ende unserer Artikel-Blogseite hinzugefügt. Wir machen den Link im rel nächsten Punkt zu einem dieser verwandten Artikel.
Antwort 17:52 – Nein. Die Art der „rel next“-Verlinkung ist also wirklich nur für Paginierungsserien gedacht und nicht für verwandte Links. Also würde ich diese verwandten Artikel normalerweise verlinken, normalerweise ist das das, was diese Plugins tun.
Frage 19:42 - Geschwindigkeit und Sicherheit werden immer wichtigere Faktoren. Planen Sie jetzt, Sicherheitsfehler in DNS SEC und die Verwendung von CDN als Ranking-Signal neben den Daten für Geschwindigkeit zu verwenden
Antwort 19:55 – Ich weiß nicht, ob es Sinn machen würde, dies auf einzelne Elemente zu untersuchen, die die Geschwindigkeit ausmachen, aber ich konnte definitiv sehen, dass wir, ich meine, wir verwenden Geschwindigkeit als Ranking-Faktor . Wenn also all diese Elemente in die Geschwindigkeit einfließen, machen Sie Ihre Website für die Benutzer schneller, und wahrscheinlich würde das dort für Sie funktionieren. Aber ich glaube nicht, dass es in einem Fall wäre, in dem wir sagen würden, dass diese spezielle Technologie etwas ist, das Sie verwenden müssen, weil es ein tatsächlicher Ranking-Faktor ist. Wir sagen eher, Geschwindigkeit ist wichtig, wie Sie diese Geschwindigkeit erreichen, liegt letztlich bei Ihnen. Vielleicht verwenden Sie diese Technologien, vielleicht verwenden Sie andere Technologien. Es gibt wirklich coole, neue Möglichkeiten, wie Sie eine Website wirklich schnell erstellen können, und wie Sie das tun würden, liegt letztendlich bei Ihnen, denn aus Benutzersicht ist es ihnen egal, welche Technologie Sie verwenden, solange die Seite angezeigt wird sehr schnell.
Frage 20:59 – Wir verwenden web.dev und haben 100 von 100 für SEO-Leistung, Best Practice und Zugänglichkeit erreicht, aber wir konnten keine Ranking-Verbesserung feststellen. Wie lange dauert es?
Antwort 20:12 - Web.dev ist also eine großartige Möglichkeit, Ihre Website auf viele bekannte Probleme zu testen und mit bekannten Best Practices zu vergleichen, aber nur gute Ergebnisse zu erzielen, bedeutet nicht, dass Ihre Website automatisch in den oberen Rankings aufsteigt jeder andere. Das ist also etwas, das man im Hinterkopf behalten sollte, da dies nicht die endgültige und ultimative Art ist, SEO und Ranking gut zu machen. Es ist eine Liste mit Best Practices und gibt Ihnen verschiedene Dinge, die wir testen können und die wir für Sie kennzeichnen können. Das ist etwas, wo ich denke, dass es eine gute Idee ist, sich diese Dinge anzusehen, aber Sie müssen in der Lage sein, zu interpretieren, was dabei herauskommt, und Sie müssen erkennen, dass es um mehr geht, als nur eine Reihe von technischen Anforderungen zu erfüllen, um die Nummer eins zu werden Bedarf.
Frage 22:26 – Kürzlich suche ich nach einer Möglichkeit, statische Inhalte mit einer serverlosen Cloud-Infrastruktur bereitzustellen, die von einem dynamischen CMS erstellt wird, viele ausgefallene Worte, damit wir die großartigen und einfach zu verwendenden Inhalte in einem WordPress zurückbehalten können statisches HTML für Benutzer, das die Leistung und Sicherheit drastisch erhöht. Da Google und Automatic jetzt eine Partnerschaft eingehen und WordPress einen Großteil des Webs antreibt, glauben Sie, dass es eine Möglichkeit ohne App geben könnte, anstatt sich zu verausgaben?
Antwort 22:33 – Ich kenne keinen speziellen Weg, das mit dem einzurichten, was Sie dort sehen, aber im Allgemeinen funktionieren unsere Testwerkzeuge für jede Art von Webinhalt. Wenn Sie also Ihre Inhalte mit einer beliebigen Infrastruktur bereitstellen können, die Ihrer Meinung nach für Ihre Website sinnvoll ist, welches Back-End Ihrer Meinung nach für Ihre Website sinnvoll ist, und Sie unsere Testtools verwenden können, um zu bestätigen, dass der Googlebot diese Inhalte sehen kann, sollte dies der Fall sein trainieren. Es ist also nicht so, dass der Googlebot ausdrücklich sagen würde, dass Sie diese Infrastruktur verwenden müssen und es so tun müssen, damit wir es tun können, sondern Sie können jede gewünschte Infrastruktur verwenden, und solange der Googlebot auf diese Inhalte zugreifen kann, sollten Sie es tun alles klar sein.
Frage 24:32 – Sie haben in früheren Hangouts erwähnt, dass die letzte Runde der leistungsbezogenen Änderungen eine allmähliche Strafe für das Ranking ist, wenn Ihre Website schrittweise langsamer wird. Wir arbeiten daran, die Geschwindigkeit unserer Website zu verbessern. Wissen Sie, wie lange es dauern kann, bis Google diese Verbesserungen bemerkt, sobald sie veröffentlicht sind?
Antwort 24:54 – Wie bei so ziemlich allem, was mit der Websuche zu tun hat, geht es nicht um einen festen Zeitrahmen, sondern wir crawlen im Laufe der Zeit in Indexseiten. Wir aktualisieren diese Signale, die wir für diese Seiten haben, im Laufe der Zeit. Es gibt keinen festen Zeitplan, einige dieser Seiten werden täglich oder sogar noch häufiger aktualisiert. Einige von ihnen brauchen etwas länger, andere brauchen Monate, um aktualisiert zu werden. Also, was Sie hier wahrscheinlich sehen werden, wenn Sie signifikante Verbesserungen an Ihrer Website vornehmen, aber Sie werden im Laufe der Zeit diese Art von allmählichem Anstieg sehen, wenn wir diese Signale berücksichtigen. Es könnte sehr schwierig sein, wenn es um Geschwindigkeit geht, in dem Sinne, dass Geschwindigkeit nicht der wichtigste Ranking-Faktor ist. Wir sehen uns Dinge wie den Inhalt an und versuchen herauszufinden, welche dieser Seiten für die Benutzer am relevantesten sind. Wenn eine Seite wirklich schnell ist, bedeutet das nicht, dass sie immer die Nummer eins ist, theoretisch wäre eine leere Seite die schnellste Seite, aber das bedeutet nicht, dass sie ein gutes Ergebnis für den Benutzer ist, also ist die Geschwindigkeit eher ein kleinerer Ranking-Faktor dort. Das ist also etwas, das wir wahrscheinlich im Laufe der Zeit aufgrund von Verbesserungen der Qualität und Verbesserungen der Website insgesamt sehen werden, und die Geschwindigkeit ist eher etwas Kleines, das wahrscheinlich sogar schwer einzeln zu messen wäre.
27:33 - Verbindet der Algorithmus möglicherweise negative Faktoren mit Personen oder Organisationen und stuft dann nicht verwandte Websites, die mit denselben Personen verbunden sind, herab?
Im Grunde hatten wir die Probleme mit Tipps zum Autokauf und dann haben einer meiner Partner und ich eine Hobbyseite zum Fischen von Steinkrabben, als wir sie aufstellten, war sie unter den ersten drei in Bezug auf alles, was damit zusammenhängt, und dann irgendwie aus der Rangliste verschwunden. Wir stellten eine Frage im Webmaster-Hilfeforum und innerhalb weniger Minuten begannen alle Top-Beitragenden, sich auf die Tatsache zu konzentrieren, dass die Seite Assoziationen mit Tipps zum Autokauf hatte, und deshalb wollte ich sehen, ob es möglich ist, dass irgendwie eine negative Konnotation damit verbunden ist uns persönlich.
Antwort 28:27 - Ich kann mir nicht vorstellen, dass etwas mit Ihnen persönlich verbunden ist, wo unsere Algorithmen sagen würden, oh Mann, dieser Typ schon wieder. Normalerweise kommt das ins Spiel, wenn wir eine Website sehen und es ist eine Art gut vernetzter Satz von Websites, die alle problematisch sind, dann könnte das etwas sein oder der Algorithmus geht. Oh, wir müssen hier vorsichtig sein, all diese Websites sind problematisch, also vielleicht diese neue Website, die auch Teil dieses Sets ist, ist auch etwas knifflig. Aber wenn es darum geht, dass diese Websites nur auf demselben Server mit demselben Eigentümer sind, ist das normalerweise kein Problem. Es ist im Allgemeinen auch ein größeres Problem, wenn es in Richtung Doorway-Pages geht, wo Sie vielleicht eine neue Website für Hunderte von verschiedenen Städten im ganzen Land erstellen und im Wesentlichen alle diese Seiten gleich sind, wie alle Websites gleich sind und Das ist etwas, wo unsere Algorithmen sagen könnten, nun, das sieht nicht nach viel Wert für uns aus.
Frage 31:33 – Im Grunde genommen handelt es sich dabei um Seiten, die das Ergebnis eines Benutzers auf unserer Website sind, der seine biologischen Dinge richtig auswählt, sodass er eine Konfiguration eines Gens und eines Reagens auswählt, das damit einhergeht, und was passiert, ist, dass wir eine Suche erstellen Seite effektiv, es ist ein Filterprozess, wir erstellen eine Suchseite und dann verweist sie natürlich auf eine Produktseite und sie klicken auf diese Verweise, diese gefilterten Seiten landen regelmäßig in den Google Webmaster-Tools und Sie wissen, dass es nicht nur ein paar gibt. It happens thousands at a time and so one of the things we were wondering is we do have it in our robots.txt file and we believe it's correct is there do we need to do I'll call it belt-and-suspenders and also make those a no index you know command at the beginning of the page or something like that that would help that? It just it makes it difficult to use webmaster tools sometimes when it's full of that kind of information. Finding the needle of the things we really have to take care of is difficult by the sometimes over-enthusiastic webmasters tool of capturing everything we do.
We'll see I'm in either mostly in the performance the new performance tool and it will be you know an anomaly or soft 404 one of those two because it tries to go back and find it and of course you can't find it.
Answer 33:16 - So noindex would be an option here as well but then you would have to take it out of the robots.txt so that we can see the he no index. I wonder if that's already happening to some extent here because we we wouldn't be flagging it as a soft 404 in search console if it were completely blocked by robots. So that's something where maybe we're already able to kind of crawl those pages and then we say oh we probably don't need to index these therefore we'll let the webmaster know that we kind of stumbled upon them. So that might be something to double-check that they're actually blocked by robots.txt.
Question - We're pretty sure it also happens and then they disappear and then it happens and disappear. So maybe it's just a matter of that the processing time in between the two. We just they don't, I mean, they're not really pages so we don't want them in the index because they have no title, no h1, none of that stuff because they're really not pages. They're just the results of a user asking to configure a gene and one of our products.
Answer 34:40 - Yeah so in in that case I would just leave them in the robots.txt leave them blocked. I think that's perfectly fine. There's no real way to kind of block them from appearing at all in search console but I think having them the robots.txt file is perfectly fine.
Question 35:00 - By the way when are they gonna put the robots.txt tester tool in the new Webmaster Tools?
Answer 35:06 - I don't know we haven't announced that yet but we're trying to be a little bit ahead of turning things down so that people have a chance to move to something new. To move the new tools in search console. So as soon as we we have more plans on what is happening there we will let you know. I think this is one of those tools that that make sense to keep. So since we haven't announced that we're turning it off I imagine it'll just come with the new switch to console over time.
Question 35:47 - I have a client going through a site migration it's a large enterprise website where they're going from multiple subdomains to one and right now individual business pages and content is across several branded subdomains. Each business has the same template with you know one main page and several sub pages and the single domain experience will consolidate that business template down to maybe one or two to three pages there's a lot of content consolidation. They'll be doing this in in phases you know and it'll still be a large-scale but since we're talking about so many multiple page experiences going down to one potentially. For those to be retired or redirected business business pages on old sub domain I've been thinking they should intentionally orphan those first before pushing through so many redirects at once to the new consolidated experience. Almost to let the dust settle but is it the right approach or is it just best to redirect those old pages the new relevant and compact experience and then let the dust settle from there?
Answer 36:46 - I will just try to go with the final state as quickly as possible. So instead of creating this temporary situation where things are neither the old one or the new one, I would try to just redirect to the new ones as quickly as possible.
Question 37:49 - If it's dynamic surveying and a site owner wants to set up an amp page also with the same URL and a desktop page does he need to add an amp HTML page so the same URL for mobile desktop and amp?
Answer 38:00 - So I think first of all you wouldn't be able to use the same URL for mobile and amp if you're serving different HTML because the same user would be going through that page and you wouldn't know which content to serve so that I think wouldn't work. However you can of course make an AMP page and just say the amp page is my normal page that's a perfectly fine set up. For example in the new WordPress AMP plug-in I believe there's an option I don't know it's called native amp I think. Where basically your website is purely an amp page and that's that's a perfectly fine setup. So in a case like that you would I believe set the amp HTML tag to the same URL so that we know this is meant to be the amp page you would also set the canonical to the same URL so that we know this is the canonical that you want to have indexed and then we'd be able to pick that up.
Question 39:08 - Do backlinks help in the rankings of videos in the Google Search carousel?
Answer 39:13 - So we use a number of factors when it comes to ranking and that does include links. So it's something where I would be wrong to say like we we don't use links at all. However we do use like I don't know over 200 factors for crawling indexing and ranking so focusing on links alone doesn't really make sense. So that's something where good content traditionally picks up links on its own and if you're creating video content on your website and all of that is generally also interlinked within your website so over time these things kind of settle down on their own. It's not that you need to explicitly build links so that you can show up in a video carousel I think that would make a sense.
Question 40:06 - How does Google treat site wide navigational links that are hidden on mobile resolution in responsive pages but visible on desktop.
Answer 40:13 - We would really follow it was normally so I don't see any problem in that. That said if your website is hard to navigate on mobile then users who are for large majority of the sites are mostly coming on mobile will have a hard time navigating your website and will have a hard time kind of finding your other good content. So I would certainly make sure that any UI that you have available on your website is also available in some form or another for mobile users.
Question 40:48 - Recently we learned that many of our pages have not been shown in Safe Search Results these pages are mostly destination pages of cities and countries. I've been keeping track of some of the keywords for example: Gay Barcelona or generally gay destinations anywhere. In the past five days of Barcelona index page showed up in first position on safesearch but then has disappeared from Safe Search now. We always make sure that there's no explicit image or profanity in the content but it hasn't guaranteed her position and safe search results. Could you explain how the safe search algorithm actually works?
Answer 41:35 - So we use a number of factors in figuring out when to show which content to to which users in the search results. I don't think there's like this one simple thing that makes safe search work or not. I suspect with a website like yours it'll always be kind of tricky for algorithms to figure out watch what exactly we should be showing here and how we should be showing that in the search results. I think I passed your website on to the the team here wants to take a look at it as well. So like I can definitely double check with them but I imagine it'll always be kind of tricky and a bit borderline for our safe search algorithms to figure out how we should be handling this kind of website. Which is always I think a little bit unfortunate but it's hard to find exactly the the right balance there.
Question 42:37 - I have two websites that offer very similar content some of it is even duplicated but only one will verify for Google News while the other one won't the noticeable difference is one has a health and fitness section while the other one focuses more on lifestyle content and celebrities, why why would one be accepted into Google News and not the other one?
ANswer 43:43 - I don't know why why that might be happening I don't know the the Google News policies specifically in that regard so it's really hard to say. In general though if these websites are so similar that you're saying some of the content is even duplicated maybe it makes sense to just focus on one website rather than to have two websites that are kind of essentially duplicate or very similar targeting same audience but that's I think more of a question in general for you to kind of consider. With regards to Google News specifically I would recommend going through the Google News publisher forum and double check with the folks there. The experts that that are in the forum there have a lot of experience with sites that are accepted to Google News and sites that get improved so that they do get accepted and sites that wouldn't get accepted to Google News. So they can probably give you some tips with regards to what to watch out for specifically for Google News.
Question 44:08 - Hotel website and even if you search for it with its exact name which is unique I can't see it in the first page of search results. My Google my business listing has been punished for two weeks this listing was closed by admins and I sent the documentation and they understood was mistake and we opened it. I suspect this is the reason why my web site can't be found.
Answer 44:38 - So I don't know about the specific case here so that's really hard to say but in general just because of web site isn't in Google my business wouldn't mean that we wouldn't show it in web search results for the most part the the web search results are independent of the Google my business listings. Obviously if it is in Google my business and we show it in that map's listing then that would be one place where your website would be visible but just because it's not in a Maps listing doesn't prevent it from appearing in the normal search listings. So my suspicion is that there's probably something else that you could be focusing on or that you could be looking at there and like in some of the other cases I'd recommend going to the webmaster help forum and getting some input from other people who've seen a lot of these cases and might be able to help you figure out what you could be doing there to improve.
Question 45:42 - I noticed Google rewrites some titles and meta descriptions any idea of how to know if Google will rewrite the content or keep the original version?
Answer 45:53 - We do have guidelines for how to make good titles and good descriptions so I'd recommend taking a look at that. Oftentimes when I see Google rewriting the titles or the snippet that's usually more based on situations where we see kind of almost like keyword stuffing happening with the titles or the description. So that might be one thing to kind of watch out for another thing to keep in mind is that we do try to pick titles and descriptions based on the query. So if you're doing a site query and you're seeing your titles and descriptions in one way that doesn't necessarily mean that they'll be shown the same way when normal users search with normal queries. So I kind of take a look at both of those and also definitely make sure to check out the Help Center article.
Frage 46:46 – Wie betrachtet der Googlebot die Personalisierung von Websites? Wir haben ein neues Produkt, das den Inhalt der Website überlagert, um eine Personalisierung basierend auf dem Standort der Branche oder sogar auf ein einzelnes Unternehmen zu ermöglichen. Dies ermöglicht es uns, wirklich maßgeschneiderte Inhalte für einzelne Endbenutzer bereitzustellen. Meine Sorge ist, dass ich Googlebot den Original-On-Page-Content und Endbenutzern personalisierte Inhalte zeige. Wird sich dies negativ auf unsere Kunden auswirken?
Antwort 47:14 - Vielleicht. Vielleicht wird es. Beachten Sie also, dass der Googlebot den Inhalt indiziert, den der Googlebot sieht. Wenn Sie also etwas Einzigartiges haben, das Sie einzelnen Nutzern zeigen, und der Googlebot das nie sieht, können wir das nicht indizieren. Wir könnten diese Website bei der Suche nach diesen Suchanfragen nicht anzeigen. Wenn Sie also beispielsweise ein Wenn Sie sind, weiß ich nicht, ob Sie erkennen, dass ein Benutzer aus den USA stammt, und Sie englischen Inhalt zeigen, zeigen Sie einem Benutzer aus Frankreich französische Inhalte, und Google aus den USA crawlt, wird der Googlebot dies tun nur den englischen Inhalt sehen und nie wissen, dass es tatsächlich auch französischen Inhalt auf dieser Website gibt, weil er diesen Inhalt niemals sehen könnte. Das sollten Sie hier also im Hinterkopf behalten, wenn Sie nur eine Septum-Personalisierung vornehmen und vielleicht verwandte Produkte hinzufügen oder zusätzliche Informationen zum primären Inhalt Ihrer Seite hinzufügen möchten, basierend auf dem Standort oder anderen Attributen, dann könnten wir das tun um die Seite basierend auf dem primären Inhalt zu ordnen, den wir sehen können, aber wir würden immer noch nicht wissen, welche Art von dieser zusätzlichen Informationsebene Sie über diese Seiten hinzufügen. Es geht uns also nicht darum, eine Website dafür zu bestrafen oder ihr irgendwelche Probleme zu bereiten, es ist praktischer, dass wir es nicht sehen können, also wissen wir nicht, wie wir das einordnen sollen.
Frage 49:25 - Zwei kleine Fragen, meine Hotelwebsite hat einen Domainnamen.com.tr und daher macht Google automatisch seine Region Türkei in Google Webmaster Tools. Ich kann es nicht ändern, aber meine Kunden sind zum Beispiel hauptsächlich Leute aus Großbritannien und ich möchte aufgelistet werden, wenn von Großbritannien aus gesucht wird. Denken Sie, dass eine Änderung des Domainnamens erforderlich ist, wenn ich für Leute aus Europa aufgelistet werden möchte?
Antwort 49:50 - Das könnten Sie tun. Wenn also ein Benutzer aus einem bestimmten Land nach etwas Lokalem sucht, verwenden wir Geo-Targeting, um zu versuchen, diese Seiten für diese Benutzer hervorzuheben. Wenn also ein Benutzer in Großbritannien nach einem Hotel in der Türkei sucht, ist kein Geo-Targeting erforderlich, da die Website in Großbritannien für einen Benutzer, der explizit in der Türkei nach etwas sucht, nicht relevant wäre. Ich denke also, dass Sie dort zum größten Teil kein Geo-Targeting verwenden müssen. Ich denke, das ist vollkommen in Ordnung, eine Website, auf der wir die Türkei als Land anerkennen, kann immer noch global relevant sein. Wenn Sie also nicht sagen, Sie sind eine Pizzeria und bieten spezielle türkische Pizza an und liefern sie an Benutzer in London, dann sucht ein Benutzer in London nach Pizza in London, dann hätte Ihre türkische Website ein Problem, aber wenn ein Benutzer in London ist Wenn ich sage, ich möchte nach Hotels in der Türkei suchen, dann ist Ihre Website auf dieser Seite vollkommen in Ordnung.
Frage 52:01 – Allgemeine Frage für viele Verkündiger. Sie wären überrascht, wie viele Leute eine Menge nutzloser Tags erstellen, und das war etwas, das wir vor ein paar Jahren erkannt haben, als hätten wir irgendwie Tausende von Tags. Wir haben wirklich hart gearbeitet und sind auf ein paar hundert Tags heruntergekommen und wir waren sehr, sehr zufrieden damit, wie wir das gemacht haben, und jetzt sehe ich sogar danach ein paar der Dinge, die wir für 301-Weiterleitungen gesammelt und getan haben. Jetzt sehe ich danach Dinge, die wir nicht mehr abdecken, zum Beispiel Promi-Kriminalität, Promi-Scheidungen, wir prüfen nur die Fakten, was dann passiert, wenn Sie all diese Weiterleitungen zu dieser einen Art von Tag haben, die nein ist mehr als zutreffend, stirbt es einfach aus oder denkst du an a oder leitest das auf eine andere Weise um, weil ich mir nicht wirklich vorstellen kann, wie ich, sagen wir, Promi-Scheidung oder Gesundheit, auf etwas umlenken kann, und doch haben wir, sagen wir, a Hundert Geschichten zu diesem Tag an dieser Stelle.
Antwort 53:11 – Ich denke, das ist etwas, was ich mit der Zeit ganz natürlich weiterentwickeln kann. Wenn Sie also anfangen, dort mehr Inhalt zu haben, und Sie dieses Tag irgendwie wiederbeleben möchten, ist das vollkommen in Ordnung. Wenn Sie die Dinge noch mehr kombinieren möchten, ist das auch vollkommen in Ordnung. Diese Art von Fast-Kategorie-Seiten haben sich im Laufe der Zeit entwickelt, ich denke, das ist normal.
Frage – Aber was passiert, wenn diese Kategorie einfach nicht mehr nützlich ist, sie tut es einfach, aber dass sie einfach für immer dort bleibt, und ich meine, es ist in Ordnung, aber ich möchte natürlich so viel wie möglich konsolidieren.
Antwort 53:49 – Ich denke, das Konsolidieren ist in Ordnung, eine weitere Option, bei der Sie sagen könnten, dass der Index vielleicht sogar Sinn macht, da wir nicht wirklich für diesen Inhalt indexiert werden möchten. Wir möchten ihn auf unserer Seite behalten, wenn die Leute wissen, dass dies der Fall ist dort und sie suchen explizit danach innerhalb Ihrer Website, aber vielleicht würde kein Index Google oder anderen Suchmaschinen helfen, sich mehr auf die indexierbaren Inhalte zu konzentrieren.
