SEO-Sprechstunde, 1. April 2022
Veröffentlicht: 2022-04-08Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 1. April 2022.
Weiterleitungen anpassen, um verlorenen Traffic zurückzugewinnen
14:53 „Wir haben seit 2009 eine Website zur Veröffentlichung von Inhalten und erlebten 2020 eine schlechte Migration, bei der wir auf einen enormen Rückgang des organischen Verkehrs stießen. […] Wir hatten viele defekte Links, also haben wir die 301-Umleitung verwendet, um diese defekten Links zu den Originalartikeln umzuleiten, aber […] in der robots.txt haben wir diese Links nicht zugelassen, damit das Crawling-Budget nicht […] [verwendet] beim Crawlen dieser 404-Seiten. […] Wenn wir alle diese Weiterleitungen […] [so dass sie auf den gleichen Artikel mit dem richtigen Namen umleiten] behoben haben, […] können wir diese Links aus der robots.txt entfernen und wie lange dauert es, bis sie tatsächlich berücksichtigt werden? von Google?"
John sagte: „[…] Wenn die Seite in der robots.txt blockiert ist , können wir die Weiterleitung nicht sehen. Wenn Sie also eine Weiterleitung einrichten, müssen Sie diesen Block in der robots.txt entfernen. […] Es gibt keine bestimmte Zeit, weil wir nicht alle Seiten [mit] der gleichen Geschwindigkeit crawlen. Einige Seiten werden möglicherweise innerhalb weniger Stunden erfasst, und bei anderen Seiten kann es mehrere Monate dauern, bis sie erneut gecrawlt werden.
[…] Wenn dies von einer Migration stammt, die jetzt zwei Jahre zurückliegt, dann […] glaube ich nicht, dass Sie viel Wert daraus ziehen würden, nur diese 404-Links […] Inhalt anzeigen zu lassen. […] Ich kann mir nicht vorstellen, dass das der Grund ist, warum eine Website deutlich weniger Traffic bekommt , […] es sei denn, diese Seiten sind die wichtigsten Seiten Ihrer Website, aber dann hätten Sie das bemerkt. Aber wenn dies nur generische Seiten auf einer größeren Website sind, kann ich mir nicht vorstellen, dass der Gesamtverkehr zu einer Website sinken würde, weil sie nicht mehr verfügbar sind.“
Optimale Wortzahl
17:27 „[…] Frage zur optimalen Inhaltslänge auf der Seite – […] wir sind auf viele Blogbeiträge gestoßen […] [in denen] wir etwa 100 oder 1000 Wörter pro Seite haben müssen, was ist also die optimale Inhaltslänge ?”
Wie John sagte: „Ich glaube nicht, dass es eine gibt – […] manche Seiten sind sehr kurz, manche Seiten sind sehr lang. […] Es […] hängt von der Menge an Informationen ab, die Sie den Benutzern geben möchten.“
Die Person fragte dann weiter nach Inhalten, konkret: „Da macht sich jetzt dieser Begriff breit: […] Thin Content. Wird es […] von Google […] verwendet?“
John stellte klar: „[…] Normalerweise gilt das eher für die gesamte Website. Es liegt also nicht so sehr daran, dass eine Seite nicht genug Inhalt hat, sondern eher daran, dass die Website insgesamt sehr wenig aktuelle Informationen enthält. […] Ich würde die Anzahl der Wörter nicht verwenden, um das zu erkennen. Ich denke, manchmal ist die Anzahl der Wörter nützlich, um sich eine größere Website insgesamt anzusehen und zu versuchen, Bereiche zu finden, in denen Sie vielleicht besser abschneiden könnten. Aber ich würde es nicht als Maß verwenden, um […] die spezifischen Dinge zu leiten, die Sie auf der Website tun.“
Indizierung von Ausgaben mit neu veröffentlichten Inhalten
19:00 „[…] Wir betreiben seit 2013 einen zweiseitigen Marktplatz, der ziemlich gut etabliert ist. Wir haben ungefähr 70.000 Seiten und ungefähr 70 % davon sind im Allgemeinen im Index. Und dann gibt es noch dieses Budget, das die neu erstellten Seiten durchsucht und die, auf denen wir Bewegung sehen, so dass alte Seiten verschwinden und neue Seiten hinzukommen. Gleichzeitig schreiben wir auch Blog-Einträge […], und um […] diese an die Spitze der Warteschlange zu bringen, verwenden wir immer […] Indexierung für diese anfordern. Sie gehen also schneller. Wir fügen sie auch der Sitemap hinzu, aber wir stellen fest, dass wir sie schreiben und dann wollen wir, dass sie so [schnell] wie möglich auf […] Google kommen […]. Da wir im letzten Jahr irgendwie gewachsen sind und mehr Inhalt auf unserer Website haben, haben wir gesehen, dass das manchmal nicht so gut für die neuen Blog-Einträge funktioniert. Und sie sitzen auch längere Zeit in dieser [ Entdeckt – derzeit nicht indiziert ]-Warteschlange. Gibt es etwas, was wir tun können […] – wie interne Links – oder […] ist es inhaltsbasiert oder müssen wir einfach damit leben, dass einige unserer Blogs es möglicherweise nicht in den Index schaffen?“
John erklärte, dass es nicht ungewöhnlich sei, nicht indexierte Inhalte zu haben: „[…] Ich denke, insgesamt ist es irgendwie normal, dass wir nicht alles auf einer Website indexieren. […] Es ist nicht an eine bestimmte Art von Inhalten gebunden. […] Die Verwendung des [URL-Inspektionstools], um sie zur Indexierung einzureichen, ist in Ordnung. Es macht definitiv keine Probleme. Aber ich würde auch versuchen, Wege zu finden, [es] […] so deutlich wie möglich zu machen, dass Sie sich um [diese Seiten] kümmern, also […] ist die interne Verlinkung eine gute Möglichkeit, dies zu tun. […] Stellen Sie sicher, dass von Ihrer Homepage, die Sie sagen, hier die fünf neuen Blog-Beiträge sind, und dass Sie direkt auf sie verlinken, damit es für den […] Googlebot einfach ist, wenn wir Ihre Homepage crawlen und indizieren, um zu sehen, dass es etwas Neues gibt und es ist von der Homepage aus verlinkt. Vielleicht ist es also wichtig […].“
John machte auch einen weiteren Vorschlag: „Wenn Sie einen Blog-Bereich auf Ihrer Website haben, haben Sie auch RSS-Feeds […]. Ich würde diese auch in der Search Console an Google übermitteln. Nur weil sich RSS-Feeds eher auf die neueren Inhalte konzentrieren, und das hilft uns, diese etwas schneller aufzunehmen. Wir verwenden sie ähnlich wie Sitemap-Dateien, aber manchmal sind RSS-Feeds für uns etwas einfacher zu verstehen.“
Verwenden von KI-Tools zum Erstellen von Inhalten
22:19 „[…] Seitdem GPT-3-basierte KI-Schreibwerkzeuge beworben werden, führt unsere Community [auf Reddit] eine Debatte darüber, ob sie verwendet werden sollen oder nicht. […] Unsere Haltung ist größtenteils dagegen, aber […] es fällt uns schwer, die offizielle Position von Google zu erkennen. […] Wie reagiert Google auf Websites, die KI-geschriebene Inhalte hosten […]?“

John antwortete: „[…] Für uns würden diese im Wesentlichen immer noch in die Kategorie der automatisch generierten Inhalte fallen. Das ist etwas, das wir fast von Anfang an in den Richtlinien für Webmaster hatten, denke ich. Und Menschen haben Inhalte auf viele verschiedene Arten automatisch generiert. Und […], wenn Sie Tools für maschinelles Lernen verwenden, um Ihre Inhalte zu generieren, ist es im Wesentlichen dasselbe, als ob Sie nur […] Wörter mischen, Synonyme nachschlagen oder die Übersetzungstricks anwenden würden, die die Leute früher gemacht haben tun. […] Mein Verdacht ist, dass die Qualität der Inhalte vielleicht ein bisschen besser ist als […] die wirklich alten Tools, aber […] wir würden das als Spam betrachten.“
Als Folgefrage wurde John gefragt: „Wollen Sie damit sagen, dass Google in der Lage ist, den Unterschied zwischen menschlichen und KI-Inhalten zu verstehen?“
Als Antwort sagte John: „Das kann ich nicht behaupten. Aber […] wenn wir sehen, dass etwas automatisch generiert wird, kann das Web-Spam-Team definitiv etwas dagegen unternehmen. […] Ich weiß nicht, wie sich die Zukunft dort entwickeln wird, aber ich kann mir vorstellen, dass es wie bei jeder dieser anderen Technologien ein kleines Katz-und-Maus-Spiel geben wird, bei dem die Leute manchmal etwas tun und damit davonkommen es. Und dann holt das Web-Spam-Team auf und löst dieses Problem auf breiterer Ebene.
Aber nach unserer Empfehlung sehen wir es immer noch als automatisch generierten Inhalt […]. Vielleicht ist das etwas, das sich entwickeln wird. Dadurch wird es mehr zu einem Werkzeug für Menschen. […] So als würden Sie die maschinelle Übersetzung als Grundlage für die Erstellung einer übersetzten Version einer Website verwenden, aber Sie arbeiten sie im Wesentlichen immer noch manuell durch. Und vielleicht entwickeln sich diese KI-Tools im Laufe der Zeit in die Richtung, dass Sie sie verwenden, um beim Schreiben effizienter zu sein oder um sicherzustellen, dass Sie richtig schreiben, wie die Tools zur Rechtschreib- und Grammatikprüfung […] .“
Crawlbarkeit einer Mehr anzeigen- Schaltfläche auf einer Seite
39:50 „[…] Ich habe vor Kurzem meine Website neu gestaltet und die Art und Weise, wie ich meine Blog-Posts und andere Seiten aufliste, von Seite eins, zwei, drei, vier zu einer Schaltfläche „ Mehr anzeigen“ geändert . Kann Google trotzdem diejenigen crawlen, die nicht auf der Hauptseite des Blogs angezeigt werden? Was ist die beste Vorgehensweise? Wenn nicht, sagen wir, diese Seiten sind nicht wichtig, wenn es um Suche und Traffic geht, wäre dann die gesamte Seite […] betroffen, wenn es darum geht, wie relevant sie für das Thema für Google ist?“
Johns Antwort war: „[…] Es hängt ein bisschen davon ab, wie Sie das implementiert haben. Eine Schaltfläche „ Andererseits könnten Sie auch eine Schaltfläche „ Mehr anzeigen“ implementieren , im Wesentlichen als Link zu Seite zwei dieser Ergebnisse oder von Seite zwei zu Seite drei. Und wenn es als Link implementiert ist, würden wir ihm als Link folgen, auch wenn es kein Label hat, auf dem Seite zwei steht.
[…] Das erste, was zu überprüfen ist – ist es tatsächlich etwas, das gecrawlt werden kann oder nicht? Und […] wenn es nicht gecrawlt werden kann, dann würden wir uns hier normalerweise hauptsächlich auf den Blog-Beitrag konzentrieren, der direkt von diesen Seiten verlinkt wird.
[…] Wir würden wahrscheinlich die alten Blogbeiträge in unserem Index behalten, weil wir sie irgendwann gesehen und indiziert haben. Aber wir werden uns wahrscheinlich auf die konzentrieren, die gerade da sind. Eine Möglichkeit, dies zu mildern, besteht darin, auch Ihre Blog-Posts zu verlinken. Manchmal geschieht dies mit Kategorieseiten oder […] Tag-Seiten, die von Leuten hinzugefügt werden. Manchmal haben Blogs einen Mechanismus zum Verlinken verwandter Blogbeiträge […]. Selbst wenn wir zunächst nur die erste Seite der Ergebnisse Ihres Blogs sehen, können wir dennoch zum Rest Ihrer Website crawlen.
[…] Eine Möglichkeit, dies zu überprüfen, ist die Verwendung eines lokalen Crawlers. Es sind verschiedene Crawling-Tools von Drittanbietern verfügbar. Und wenn Sie Ihre Website crawlen und feststellen, dass sie nur fünf Blog-Posts aufnimmt, dann sind das wahrscheinlich die fünf Blog-Posts, die gefunden werden können. Andererseits, wenn es um diese fünf Blogbeiträge geht. Und dann noch ein paar mehr findet […], dann kann man sich ziemlich sicher sein, dass der Googlebot auch den Rest der Seite crawlen kann.“
Die Länge und Verwendung von Alt-Text
46:51 „[…] Google sagte, dass es maximal 16 Wörter gibt, die Sie in Ihrem Alt-Text verwenden können. […] Liest Google den Rest meines Alt-Textes und […] was bedeutet das für die Benutzerfreundlichkeit?“
Als John antwortete: „[…] Wir haben keine Richtlinien dafür, wie lang Ihr Alt-Text sein darf. […] Aus Sicht der Google-Suche können Sie viele Dinge in den Alt-Text für ein Bild einfügen, wenn dies für dieses bestimmte Bild relevant ist. Wenn es um den Alt-Text geht, verwenden wir ihn hauptsächlich, um das Bild besser zu verstehen. Wenn also jemand […] in Google Bilder nach etwas sucht, das mit dem Alt-Text übereinstimmt, können wir dies verwenden, um zu verstehen, dass Ihr Bild für diesen Alt-Text auf dieser bestimmten Seite relevant ist […].
Wir verwenden den Alt-Text auch als Teil der Seite. Aber für mich ist das normalerweise sowieso schon auf der Seite sichtbar. Es ist also weniger etwas, das für die Seite selbst entscheidend ist. Ich würde es wirklich als etwas verwenden, das auf das Bild zutrifft, und […] aus Gründen der Benutzerfreundlichkeit und damit Google Bilder dieses spezifische Bild besser verstehen kann.
[…] Erwähnenswert ist vielleicht noch, dass man bei Google Bilder nicht unbedingt genau beschreiben muss, was auf dem Bild zu sehen ist. Sondern […] was dieses Bild für Ihre spezielle Seite bedeutet. Wenn Sie also ein Bild von einem Strand haben, könnten Sie einen Alt-Text verwenden und sagen: Oh, das ist ein Strand. Man könnte aber auch sagen, das ist der Strand vor unserem Hotel, oder das ist der Strand, den wir bei einer chemischen Reinigung fotografiert haben. […] Diese Absichten sind sehr unterschiedlich, und die Leute würden auf unterschiedliche Weise in Google Bilder suchen, um dort mehr Informationen zu finden, und diesen zusätzlichen […] Kontext zu geben, ist meiner Meinung nach auch immer sinnvoll.“
