SEO-Sprechstunde, 25. Februar 2022
Veröffentlicht: 2022-03-09Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 25. Februar 2022.
Linkbericht in der Search Console
05:41 „Es gab eine Domain, auf der früher eine Website war, und dann […] wurde sie gelöscht. [Wenn] es irgendwann eine neue Website gibt, dann zählen die Links zur alten Website nicht mehr, was ziemlich logisch erscheint. […] In der Search Console sehe ich mindestens einen Link des ehemaligen Eigentümers, der noch vorhanden ist. Bedeutet [es], dass dieser Link immer noch zählen würde, [wenn] die Search Console […] ihn anzeigt?“
John antwortete: „Ich weiß nicht, ob es zählen würde, aber der wichtige Teil der Search Console und des Links-Berichts besteht darin, dass wir versuchen, alle uns bekannten Links zu dieser Website anzuzeigen. Es ist kein Zeichen dafür, dass wir denken, dass dies wichtige Links sind oder dass sie zählen. Insbesondere würden Dinge wie Nofollow-Links weiterhin aufgelistet, Disavow-Links würden weiterhin aufgelistet, Links, die wir aus anderen Gründen ignorieren, könnten ebenfalls weiterhin aufgelistet werden. Nur weil es aufgelistet ist, bedeutet das nicht, dass es ein irrelevanter oder hilfreicher Link für die Seite ist.“
Nicht kontextbezogene Fußzeilen-Links vs. Seitenstruktur
09:13 „Wir haben eine Website mit vielen internen Links im Fußbereich jeder Seite erworben. Einige dieser Links sind nicht so relevant. […] Wird es wahrscheinlich von Google als problematisch angesehen, weil die Links nicht unbedingt kontextbezogen sind? […] Sie werden einfach in der Fußzeile durcheinandergewürfelt und von einem Plugin einfach ausgewählt. Wir haben Angst, dass das Entfernen von ihnen von Hunderten von Seiten die Websitestruktur durcheinander bringen könnte.“
John sagte: „Ich vermute, dass das größtenteils keine Probleme verursachen würde. Ich würde dies eher sehen, da diese Links auf diesen Seiten normale interne Links sind.
Betrachten Sie es aus der Perspektive: Hilft dies […], den Rest der Seiten auf der Website in einen Kontext zu stellen? Wenn Sie beispielsweise eine größere Website haben und im Wesentlichen jede Seite mit jeder anderen Seite verlinkt ist, gibt es dort keinen wirklichen Kontext, sodass es für uns schwierig ist, die Gesamtstruktur zu verstehen, welche dieser Seiten wichtiger sind. Denn wenn Sie auf alles verlinken, ist es so, als wäre nicht alles wichtig. Das ist das Element, auf das ich achten würde. Ob sie in der Fußzeile stehen oder nicht , ist aus meiner Sicht unerheblich. Wenn sie von einem Plugin generiert oder manuell hinzugefügt werden, spielt das meiner Meinung nach auch keine Rolle. Ich würde aus struktureller Sicht aufpassen: Ist es sinnvoll, diese Verknüpfungen zu haben? Eine gewisse Vernetzung ist sinnvoll. Wenn Sie ein Setup haben, bei dem Sie verwandte Seiten haben, die vernetzt sind, ist das aus meiner Sicht immer sinnvoll. Extremes Cross-Linking, wo man jede Seite mit jeder anderen Seite vernetzt, macht aus meiner Sicht keinen Sinn.“
11:10 „[…] Wenn wir das Plugin deaktivieren und all diese Links plötzlich […] auf der Seite fehlen, würde dies die Website in irgendeiner Weise beeinträchtigen? Oder sollten wir versuchen, Links langsam von einer Seite nach der anderen zu entfernen?“
John: „Meine Vermutung ist , dass es sich darauf auswirken würde, wie es in der Suche angezeigt wird, aber es ist unmöglich zu sagen, ob es sich um einen positiven oder einen negativen Effekt handelt. Ich denke, das ist der schwierige Teil dort.
Um zu verstehen, wie die aktuelle Situation ist und was der nächste Schritt wäre, würde ich versuchen, einen Crawler über Ihre Website laufen zu lassen. Viele der Website-Crawler, die es gibt, erstellen ein Diagramm, das zeigt, wie Ihre Seiten miteinander verknüpft sind. Dann könnten Sie das Plugin deaktivieren, vielleicht auf einer Staging-Version Ihrer Website, vielleicht sogar für kurze Zeit auf der Live-Version. Crawlen Sie erneut und vergleichen Sie dann diese Diagramme und sehen Sie, ob dieser Crawler immer noch in der Lage ist, den gesamten Inhalt zu finden? Sieht es so aus, als wäre dort eine unzureichende Vernetzung vorhanden? Wenn ja, dann gibt Ihnen das ein bisschen mehr Vertrauen, dass es in Ordnung ist, das Plugin einfach zu deaktivieren. Dabei spielt es aus unserer Sicht keine Rolle, ob diese Links automatisch oder durch ein Plugin gesetzt oder durch maschinelles Lernen gesetzt werden. […] Das sind nur Links, die wir auf Ihrer Website finden.“
Verstößt der gesamte ausgeblendete Text gegen die Richtlinien von Google?
13:22 „Verstößt jeder verborgene Text gegen die Richtlinien für Webmaster? […] Wir haben einige Elemente, die wir auf mehreren Seiten einfügen, zusammen mit intern zugewiesenen Identifikatoren für jedes Element, sodass diese Identifikatoren den Benutzern nichts sagen […], aber als SEO kann es mein Leben viel einfacher machen. […]“
Johns Antwort war: „Ich glaube nicht, dass das problematisch wäre. Versteckter Text ist aus unserer Sicht problematischer, wenn es wirklich darum geht, die Suchmaschinen dahingehend zu täuschen, was tatsächlich auf einer Seite steht. Das extreme Beispiel wäre also, dass Sie eine Seite über Schuhe haben und dort viel versteckten Text über die Olympischen Spiele gibt […], und dann beginnt Ihre Schuhseite plötzlich, für diese olympischen Begriffe zu ranken. Aber wenn ein User hingeht, steht da nichts von Olympia, und das wäre aus unserer Sicht problematisch.
Ich denke, wir leisten gute Arbeit, indem wir versteckten Text erkennen und versuchen, dies zu vermeiden, aber das ist der Grund, warum wir dieses Element in den Richtlinien für Webmaster haben. Damit etwas darzustellen, was man nicht unbedingt jemandem vormachen will, ist aus meiner Sicht völlig in Ordnung. Barrierefreiheit ist auch ein häufiger Grund für ausgeblendeten Text auf einer Seite , auf der Sie die Tippziele so eingerichtet haben, dass Sie darauf tippen können, und Ihr Screenreader sagt dann etwas dazu. Aber sie sind nicht direkt auf der Seite sichtbar, und das ist auch völlig in Ordnung, also hätte ich keine Angst oder Zweifel, dass das von Ihnen beschriebene Setup funktionieren würde.“
Die Bedeutung von Bilddateinamen für das Site-Ranking
24:56 „ Wir verwenden einen intelligenten CDN-Anbieter, der die Bilddateinamen durch eindeutige Nummern ersetzt hat. Wir haben festgestellt, dass es sich bei allen Bildern in der Search Console um 404-Bilder handelt. Das Deaktivieren des CDN würde die Gesamtleistung der Website erheblich beeinträchtigen. Reichen Alternativtexte und Bildunterschriften für Google aus, um sie ohne einen geeigneten Dateinamen und Titel zu verstehen?“
Laut John „gibt es hier zwei Dinge, die ich mir ansehen würde. Handelt es sich einerseits um Bilder, die Sie in der Bildersuche indizieren müssen, dann sollten Sie darauf achten, dass Sie einen stabilen Dateinamen für Ihre Bilder haben. Das ist hier das wichtigste Element.
Sie erwähnen nicht, dass sich diese Nummern oder diese URLs ändern, aber manchmal stellen diese CDNs im Wesentlichen eine sitzungsbasierte ID für jedes Bild bereit. Wenn sich die Bild-URL bei jedem Crawling ändert, können wir diese Bilder im Wesentlichen nie richtig indizieren. Dies liegt hauptsächlich daran, dass wir bei Bildern in Bezug auf Crawling und Indizierung tendenziell etwas langsamer sind. Wenn wir also ein Bild einmal sehen und sagen, wir sollten uns das ansehen, und wir versuchen, es zu einem späteren Zeitpunkt erneut zu crawlen, und die Nummer hat sich bis dahin geändert, dann werden wir dieses Bild aus unseren Suchergebnissen entfernen das Image-Ranking. Im Wesentlichen werden wir sagen, nun, dieses Bild, von dem wir dachten, es sei hier, ist nicht mehr länger hier. Der wichtigste Teil hier ist herauszufinden, ob Sie sich für die Bildsuche interessieren? Wenn dies der Fall ist, müssen Sie sicherstellen, dass Sie für alle diese Bilder eine stabile URL haben. Es spielt keine Rolle, ob es sich um eine Zahl handelt oder ob es sich um einen Text oder ähnliches handelt. Es sollte nur stabil sein. Das ist der wichtigste Teil hier.
Der andere Teil, den Sie erwähnt haben, ist der Bild-Alt-Text und die Bildunterschriften, was darauf hindeutet, dass Sie an der Websuche interessiert sind, nicht unbedingt an der Bildsuche. Für die Websuche müssen wir die Bilder nicht crawlen und indizieren können, da wir im Wesentlichen die Webseiten selbst betrachten. Dinge wie der Alt-Text, alle Bildunterschriften, Überschriften auf der Seite, all das trägt dazu bei, diese Seite ein bisschen besser zu verstehen. Für die Websuche ist das alles, was wir brauchen. Wenn beispielsweise alle Bilder die ganze Zeit 404 wären oder durch robots.txt oder die Websuche blockiert würden, würden wir diese Seite immer noch genau so behandeln, als ob wir alle diese Bilder indizieren könnten. Bei der Bildersuche selbst müssen wir in der Lage sein, diese Bilder zu indizieren und zu verstehen, dass es stabile URLs gibt, und verstehen, wie sie mit dem Rest Ihrer Website verbunden sind.“
Ausrichtung auf zwei verschiedene Seiten mit demselben Schlüsselwort
29:36 „Eine [Seite] ist eine Feature-Seite und die andere ist ein Informationsstück über dieses Feature. Ist es in Ordnung, dasselbe Haupt-Keyword auf diesen beiden unterschiedlichen Seiten anzusprechen?“
John sagte: „Zunächst einmal ist es völlig in Ordnung, auf beliebige Keywords abzuzielen, die Sie möchten. Aus unserer Sicht halten wir Sie nicht zurück.
Die Sache, auf die ich achten würde, ist, ob Sie mit sich selbst konkurrieren? Und das ist fast eher eine strategische Frage als eine reine SEO-Frage und nichts, wo wir sagen würden, dass es Richtlinien gibt, dass Sie dies nicht tun sollten. Aber es ist eher so, dass Sie, wenn Sie mehrere Inhalte haben, die für dieselbe Suchanfrage mit derselben Absicht ranken, im Wesentlichen den Wert der Inhalte verwässern, die Sie auf mehreren Seiten bereitstellen. Sie konkurrieren miteinander, und das könnte bedeuten, dass diese einzelnen Seiten selbst nicht so stark sind, wenn es darum geht, mit den Websites anderer Leute zu konkurrieren. Darauf würde ich dann manchmal achten.
Wenn Sie zwei Seiten haben und beide auf dasselbe Keyword abzielen und sie sehr unterschiedliche Absichten haben, dann erscheint das aus meiner Sicht vernünftig, da die Leute möglicherweise nach diesem Keyword suchen, wobei zusätzlicher Text für eine Absicht und mehr hinzugefügt wird Text für die andere Absicht hinzugefügt. Und sie sind im Wesentlichen einzigartige Seiten. Es kann sinnvoll sein, dass beide in der Suche erscheinen oder die am besten passende in der Suche erscheint. […] Und wie ich schon sagte, es ist nichts, was wir brauchen oder das in Ordnung oder nicht in Ordnung ist. Es ist eine Frage Ihrer strategischen Positionierung, wie Sie in der Suche erscheinen möchten.“

Gibt es ein gutes Verhältnis zwischen indizierten und nicht indizierten Seiten?
31:26 „Werden Positionen von stark frequentierten Ranking-Seiten dadurch beeinträchtigt, dass viele, sagen wir, 50 % der gesamten Seiten einer Domain nicht indexiert werden oder indexiert werden, aber keinen Traffic erhalten?“
John antwortete: „Ich denke, die Frage dreht sich eher darum, dass ich einige Seiten habe, die sehr beliebt sind, und viele Seiten, die nicht sehr beliebt sind. Und das beschreibt die durchschnittliche Website, auf der Sie eine Vielzahl von Inhalten haben, von denen einige sehr beliebt und andere nicht so beliebt sind. Also aus unserer Sicht völlig in Ordnung.
Außerdem ist allein die große Anzahl von Seiten eine irreführende Metrik, da es sehr wichtig ist, viele Seiten zu haben, die nicht gesehen werden, und dann erscheinen sie nicht oft in der Suche, und das kann vollkommen in Ordnung sein. Wenn Sie fünf Seiten wie diese oder hundert […] oder tausend Seiten haben, [und] wenn sie nicht in der Suche angezeigt werden, verursachen sie auch keine Probleme. Aus dieser Sicht ist es manchmal schwierig, die große Anzahl von Seiten mit den Seiten zu vergleichen, die in den Suchergebnissen angezeigt werden.
Die andere Sache, die man bei einer Frage wie dieser vielleicht auch im Hinterkopf behalten sollte, ist, dass es manchmal sinnvoll ist, sich mehr auf weniger Seiten zu konzentrieren, um den strategischen Vorteil zu erzielen, weniger Seiten zu haben, die stärker sind, anstatt viele Seiten zu haben, wo Sie sind verwässern im Wesentlichen den Wert. Wenn Sie zum Beispiel tausend Seiten haben und jede davon einen kleinen Leckerbissen des Gesamtbildes liefert, dann werden diese tausend Seiten wahrscheinlich eine harte Zeit bei der Suche haben. Wenn Sie dagegen viel davon in […] vielleicht zehn Seiten kombinieren können, dann werden diese zehn Seiten viele Informationen enthalten und vielleicht einen großen Wert im Vergleich zum Rest Ihrer Website haben und es vielleicht einfacher haben, für sie zu ranken allgemeinere Suchbegriffe rund um dieses Thema.“
Suchergebnisse innerhalb von Websites vs. Ranking
37:49 „Ich versuche sicherzustellen, dass unsere SEO-Rankings nicht in Mitleidenschaft gezogen werden, während wir eine neue Suchergebnisseite einführen. […] Unsere Suche kann zu 10.000 Ergebnissen führen und Filter- und Sortierfunktionen haben. Wie behandelt Google diese Suchergebnisseiten innerhalb von Websites [und] wie wirken sich diese Suchergebnisse auf das Gesamtranking der Website aus? Reicht es aus, nur Sitemaps für das Ranking einzureichen, oder sollten wir zusätzliche Überlegungen anstellen, um dem Googlebot zu helfen, erreichbare URLs zu sammeln?“
John antwortete: „[…] Ich würde mich nicht auf Sitemaps verlassen , um alle Seiten Ihrer Website zu finden. Sitemaps sollten eine Möglichkeit sein, zusätzliche Informationen über Ihre Website bereitzustellen. Es sollte nicht die primäre Art sein, Informationen [über] Ihre Website bereitzustellen. Daher ist insbesondere die interne Verlinkung sehr wichtig und etwas, auf das Sie achten sollten, und sicherstellen, dass, wie auch immer Sie die Dinge einrichten, wenn jemand Ihre Website durchsucht, er alle Ihre Inhalte finden kann und sich nicht auf die Sitemap verlässt Datei, um all diese Dinge zu erhalten.
Aus dieser Sicht ist es meiner Meinung nach sehr nützlich, auf diese Kategorieseiten gehen und alle Produkte finden zu können, die in einzelnen Kategorien enthalten sind. Auch die Möglichkeit, durch die Kategorieseiten zum Produkt zu kriechen, ist sehr wichtig. Suchergebnisseiten sind ein wenig einzigartiger Bereich, da einige Websites Kategorieseiten im Wesentlichen wie Suchergebnisseiten verwenden, und dann befinden Sie sich in einer Situation, in der Suchergebnisseiten im Wesentlichen wie Kategorieseiten sind. Wenn das bei Ihnen der Fall ist, würde ich auf alles achten, was Sie mit Kategorieseiten machen würden.
Die andere Sache mit Suchergebnisseiten ist, dass die Leute alles eingeben und nach etwas suchen können und Ihre Website die ganze Arbeit machen muss, um all diese Dinge zu generieren. Das kann leicht zu einer unendlichen Anzahl von URLs führen, die theoretisch auf Ihrer Website auffindbar sind, da Menschen auf viele verschiedene Arten suchen können. Und weil dadurch diese unendlichen Seiten auf Ihrer Website entstehen, versuchen wir, davon abzuraten, indem wir sagen, entweder diese Suchergebnisseiten auf noindex zu setzen oder die robots.txt -Datei zu verwenden, um das Crawlen dieser Suchergebnisseiten zu blockieren, damit wir dies können Konzentrieren Sie sich auf die normale Seitenstruktur und die normale interne Verlinkung. Ich denke, das sind die Hauptaspekte dort.
Wenn Sie Ihre Suchergebnisseiten indexieren lassen möchten, wäre mein Tipp , dass Sie einerseits sicherstellen, dass Sie eine primäre Sortierreihenfolge und Filtereinrichtung als kanonisch eingerichtet haben. Wenn Sie sich also dafür entscheiden, Ihre Seiten nach Relevanz bereitzustellen, und wenn Sie einen Sortierfilter nach Preis nach oben oder unten haben, dann würde ich das rel=“canonical“ dieser Filter auf Ihre primäre Sortierreihenfolge setzen. Ebenso würde ich zum Filtern vielleicht den Filter mit rel="canonical" entfernen. Stellen Sie dabei sicher, dass wir uns mehr auf die primäre Version der Seiten konzentrieren und diese richtig crawlen können, anstatt uns von all diesen Variationen der Suchergebnisseiten ablenken zu lassen.
Die andere Sache, auf die ich achten würde, ist, dass Sie eine Art Zulassungsliste oder […] ein System auf Ihrer Website erstellen, in Bezug auf die Art von Suchanfragen, die Sie indizieren oder durchsuchen möchten. Wenn beispielsweise jemand auf Ihre Website geht und nach „kanadischen Arzneimitteln“ oder ähnlichem sucht und Sie keine pharmazeutische Website betreiben, möchten Sie wahrscheinlich nicht, dass diese Suchseite indexiert wird. Auch wenn Sie keine verfügbaren Produkte haben, die dieser Abfrage entsprechen, möchten Sie diese wahrscheinlich nicht indizieren. Wenn Sie also eine Liste der erlaubten Suchen haben, deren Indexierung Sie zulassen, ist dies viel einfacher . Stellen Sie sicher, dass Sie nicht versehentlich in diese Spam-Situation geraten, in der jemand Ihre Suchergebnisse spammt und Sie dann Millionen von Seiten, die indiziert sind, bereinigen und sie irgendwie loswerden müssen.“
Aktualisierung der Seitenerfahrung auf dem Desktop im Vergleich zum Ranking
42:20 „ Meine Website hatte einen Besucherrückgang aufgrund schlechter Core Web Vitals. Jetzt bin ich wieder auf dem richtigen Weg, habe aber erfahren, dass das Page Experience-Update jetzt langsam für den Desktop eingeführt wird. Was ist das Page Experience-Ranking für den Desktop und wie wichtig ist es im Vergleich zu anderen Ranking-Signalen?“
Laut John „ist der Page Experience -Ranking-Faktor wie auf Mobilgeräten im Wesentlichen etwas, das uns ein wenig zusätzliche Informationen gibt, [darüber] diese verschiedenen Seiten in den Suchergebnissen angezeigt werden könnten. In Situationen, in denen wir eine […] klare Absicht aus der Suchanfrage haben, in der wir verstehen können, dass sie dies wirklich mit dieser Website tun möchten, können wir aus dieser Sicht die Verwendung der Seitenerfahrung als Ranking-Faktor erleichtern. Wenn andererseits alle Inhalte auf der Suchergebnisseite sehr ähnlich sind, hilft die Verwendung von Page Experience wahrscheinlich ein wenig zu verstehen, welche davon schnelle Seiten oder vernünftige Seiten in Bezug auf die Benutzererfahrung sind und welche davon die weniger sinnvollen Seiten in den Suchergebnissen anzuzeigen. Da hilft uns diese Situation.
Was den Desktop-Rollout betrifft, glaube ich, dass dies im Laufe von etwa einem Monat wieder ein langsamerer Rollout sein wird, was bedeutet, dass Sie nicht von einem Tag auf den anderen einen starken Effekt sehen würden, aber Sie würden es sehen Wirkung über einen bestimmten Zeitraum. Das würden Sie auch schon in der Search Console in den Reports für Page Experience und Core Web Vitals sehen. Das würde man auch schon auf dem Desktop sehen, dass zum Beispiel alles rot ist und man sich darauf konzentrieren muss. Aus dieser Sicht würde ich bei der Desktop-Ranking-Änderung wie bei der mobilen nicht von einem Tag auf den anderen einen drastischen Sprung in den Suchergebnissen erwarten, wenn wir dies einführen. Allenfalls, wenn es Ihrer Website wirklich schlecht geht, würden Sie dort einen allmählichen Rückgang sehen.“
Nicht indizierter übersetzter Inhalt
53:15 „ Ich arbeite an einer großen mehrsprachigen Website. Im April letzten Jahres […] wurden alle unsere übersetzten Inhalte von „Gültig“ zu „Ausgeschlossen, gecrawlt – derzeit nicht indiziert “ verschoben, und das ist seit April so geblieben. […] Weil es auf einmal passierte, dachten wir, dass es vielleicht eine systemische Veränderung auf unserer Seite gibt. […] Wir haben unsere hreflangs, Canonicals, URL-Parameter, manuellen Aktionen und jedes andere Tool, das auf developer.google.com/search aufgelistet ist, bereinigt. […] Ich weiß nicht, was passiert ist oder was ich als nächstes tun soll, um das Problem zu beheben, aber ich möchte unsere übersetzten Inhalte wieder in den Index aufnehmen.“
Johns Antwort war: „[…] Ich denke, [es] ist manchmal schwierig, [wenn] Sie den Parameter am Ende mit dem Sprachcode haben. […] Aus unserer Sicht kann passieren, dass, wenn wir erkennen, dass es dort viele dieser Parameter gibt, die zum gleichen Inhalt führen, unsere Systeme in einer Situation stecken bleiben können, nun, dieser Parameter ist es vielleicht nicht sehr nützlich, und wir sollten es ignorieren. Für mich klingt es sehr danach, als wäre etwas in der Nähe dieser Linie passiert. Teilweise können Sie dies mit dem URL-Parameter-Tool in der Search Console unterstützen, um sicherzustellen, dass dieser Parameter gesetzt ist. Ich möchte, dass alles indexiert wird. Teilweise könnten Sie vielleicht auch einen Teil Ihrer Website mit einem […] lokalen Crawler crawlen, um zu sehen, welche Parameter -URLs tatsächlich erfasst werden, und dann noch einmal überprüfen, ob diese Seiten tatsächlich nützliche Inhalte für diese Sprachen haben.
Insbesondere […], was ich auf Websites gesehen habe, ist, dass Sie vielleicht […] alle Sprachen miteinander verknüpft haben, und die japanische Version sagt, oh, wir haben keine japanische Version, hier ist stattdessen unsere englische, dann könnten unsere Systeme sagen, nun, die japanische Version ist die gleiche wie die englische Version – vielleicht gibt es einige andere Sprachen, die mit der englischen Version identisch sind. Das sollten wir ignorieren. Manchmal sind es Links innerhalb der Website, manchmal auch externe Links, Personen, die auf Ihre Website verlinken. Wenn sich der Parameter am Ende Ihrer URL befindet, ist es sehr üblich, dass auch etwas Datenmüll an den Parameter angehängt ist. Und wenn wir all diese URLs mit diesem Müll durchsuchen und sagen, na ja, das ist keine gültige Sprache, hier ist die englische Version, dann verstärkt das wieder diese Schleife, in der Systeme sagen, na ja, vielleicht ist dieser Parameter nicht so nützlich. Der sauberere Ansatz wäre, wenn Sie eine Art Müllparameter hätten, um auf die saubereren umzuleiten oder vielleicht sogar eine 404-Seite anzuzeigen und zu sagen, na ja, wir wissen nicht, wovon Sie mit dieser URL sprechen, und sauber zu machen Stellen Sie sicher, dass wir unabhängig von den URLs, die wir finden, einige nützliche Inhalte erhalten, die nicht mit anderen Inhalten identisch sind, die wir bereits gesehen haben.“
