Googlebot kann JavaScript lesen – wie sollten SEOs reagieren?
Veröffentlicht: 2017-12-11Traditionell haben Suchmaschinen nur den HTML-Code einer Website gelesen und gerendert. Dies bedeutete, dass sich SEOs auf die Optimierung des HTML-Codes konzentrieren mussten. Was bedeutet es für die Suchmaschinenoptimierung, wenn der Googlebot jetzt auch JavaScript crawlen und indexieren kann? Wir haben einige Branchenexperten gebeten, dies herauszufinden.

Googlebot und JavaScript: Was die Experten sagen
Um verschiedene Perspektiven zum Thema Googlebot und JavaScript zu erhalten, haben wir unseren Experten folgende Fragen gestellt:
- Laut Google kann der Googlebot Websites crawlen, die auf JavaScript basieren – welche Herausforderungen und Chancen sehen Sie für SEOs?
- Welche Besonderheiten sollte man beachten, wenn man einen JavaScript-Website-Relaunch plant?
- Welche Änderungen in Bezug auf Effizienz und Genauigkeit erwarten Sie von einem Web-Rendering-Update in Chrome?
Und hier kommen die Antworten.
Martin Tauber
Geschäftsführender Gesellschafter, Marketing Factory GmbH
JavaScript-basierte Websites bieten große Möglichkeiten in Bezug auf die Benutzererfahrung, da sie schneller und interaktiver zu verwenden sind.
Allerdings hat der Googlebot immer noch Schwierigkeiten, JavaScript zu interpretieren, was bedeutet, dass die Entwicklung äußerst sauber sein und in enger Zusammenarbeit mit der SEO-Einheit verwurzelt sein muss, wenn böse Überraschungen vermieden werden sollen.
Dominik Wojcik
Geschäftsführer, Treuhänder
Es gibt Chancen darin, dass Sie jetzt nicht mehr zwei getrennte Programmierwelten haben (zB für Escape-Fragmente), sodass Sie sich auf sauberen Code und eine saubere Webumgebung konzentrieren können. Solange Entwickler die progressive Verbesserung in Betracht ziehen und ihre Webanwendungen entsprechend entwickeln, sollte Google damit gut zurechtkommen.
Es gibt jedoch versteckte Herausforderungen. Welches Framework wird verwendet? Wird es clientseitiges Rendering geben oder ist es möglich, serverseitiges Rendering zu implementieren? Kann man vielleicht sogar isomorphes JavaScript implementieren? Ist das JavaScript intern oder extern implementiert? Als SEOs müssen wir unglaublich viel testen und verschiedene Dinge ausprobieren, um sicherzustellen, dass Google unsere Seiten so indexiert und gewichtet, wie wir es wünschen.
Vor einem Relaunch sollte eine sorgfältige Entscheidung über das zu verwendende Framework getroffen werden. Sowohl die Crawlbarkeit als auch die Leistung sollten berücksichtigt werden. Idealerweise sollte eine Testumgebung geschaffen werden, die es ermöglicht, die aktuelle Entwicklung von außen zu testen, wenn clientseitiges Rendering verwendet wird. Trotzdem würde ich dringend empfehlen, auch serverseitiges Rendering zu verwenden. Dies wirkt sich auf die Serverleistung aus, sollte aber Risiken minimieren. Vor allem muss man wirklich testen, testen und testen, mit fetch & render sehen, was der Googlebot findet, indexiert und crawlt.
Wenn Google endlich auf eine Chrome-Version höher als V49 umsteigt, könnten wir Headless Chrome in Kombination mit etwas wie Rendertron verwenden, um Testumgebungen zu erstellen, mit denen wir ein ähnliches Setup wie beim Googlebot simulieren können. Dies würde uns helfen, besser zu verstehen, wie und was Google interpretieren kann. Das würde uns SEOs einiges erleichtern
Bartosz Goralwicz
Mitbegründer und Leiter der SEO, Elephate
Auf dem Searchmetrics Summit im November 2017 sprach Bartosz Goralwicz von Elephate über die Beziehung zwischen Googlebot und JavaScript:
Stephan Tschysch
Gründer & Geschäftsführer, Trust Agents

Wir wollen nicht, dass SEOs (oder Agenturen) Leute sagen hören: „Übrigens, wir stellen bald auf JavaScript um. Gibt es etwas, an das wir in Sachen SEO denken müssen? Sollte nicht sein, sollte es? Aber es wäre toll, wenn Sie einen kurzen Blick darauf werfen könnten, bevor wir am Montag mit der neuen Seite live gehen.“ Dieses Szenario würde unweigerlich im kompletten Chaos enden. Bartosz [im Video oben] hat einen wunderbaren Einblick in das Thema JavaScript und SEO gegeben.
Neben der Frage, was Google rendern kann, sollten SEOs beim Relaunch einer Website darauf achten, was der Bot sehen kann, und feststellen, was sich von der alten Website unterscheidet. Kürzlich hatte ich es mit einer Website zu tun, bei der nach einem JavaScript-Relaunch die komplette interne Verlinkung durcheinander geriet, weil die Linklogik der alten Seite nicht übernommen wurde. Es gab auch hreflang-Probleme. Arbeiten Sie daher unbedingt mit einer Checkliste der gewünschten „SEO-Features“. Außerdem sollten Sie sich fragen, was JavaScript-Rendering wirklich für Ihre Anwendungen bedeutet: Welche Art von Hardware verwenden sie, um auf Ihre Website zuzugreifen, und wie wirkt sich das auf die Ladezeiten aus? Für mehr zu diesem Thema können Sie diesen Artikel von Addy Osmani empfehlen.

Sebastian Adler
SEO-Berater , jump.de
Auch mit einer verbesserten Fähigkeit zum Crawlen von JavaScript wird Google reine HTML-Inhalte bevorzugen, da sie weniger Ressourcen verbrauchen. Die Frage ist nicht, ob Google JS lesen und rendern kann, sondern ob Sie Google einen Teil der Arbeit abnehmen können und wollen. Wenn meine Inhalte auch ohne JS einwandfrei lesbar sind, funktionieren und schnell geladen werden, dann ist das für mich immer noch besser.
Die Fähigkeit zum Rendern hängt immer von der Technologie dahinter ab, und wie Bartosz sagte (Respekt vor ihm für all die Mühe, die er in seine Experimente und Forschung steckt!), muss man die Technologie vollständig verstehen, wenn man sie optimal nutzen will . Die große Chance liegt hier darin, Risiken zu minimieren, indem man wichtige Inhalte als HTML bereitstellt und JS nur so nutzt, wie es vorgesehen ist: für Zusatzfunktionen. Die größte Schwierigkeit besteht darin, Fehler zu finden, wenn Sie sich vollständig auf JavaScript festlegen.
Stellen Sie beim Relaunch einer Seite sicher, dass der Inhalt, mit dem Sie ranken möchten, ohne JavaScript funktioniert. Dazu gehören nicht nur die Hauptinhalte, sondern auch Navigationselemente. Viele Seiten haben kein Menü, wenn JS deaktiviert ist. Es ist sinnvoll, nicht jedes einzelne ausgefallene Feature aufzunehmen, sondern zu fragen, ob eine Funktion für Ihr Unternehmen und Ihre Zielgruppe wirklich benötigt wird. Was wären die Auswirkungen, wenn eine bestimmte Funktion nicht funktioniert? Und dann machen Sie die entsprechenden Tests.
Abgesehen davon, dass ich nicht erwarte, dass Google das Web-Rendering-Update sehr gut an Webmaster kommuniziert, erwarte ich, dass sich vor allem die Fehleranfälligkeit ändern wird. Chrome und die Frameworks entwickeln sich sehr schnell, und mit den neuen Versionen kommen wahrscheinlich neue Fehler in das RWS.
Ein paar Dinge werden sicher schneller verarbeitet oder sauberer gerendert. Aber das Hauptproblem bleibt das gleiche. Fehlerbehafteter Code (aus Sicht der verwendeten Engine) kann nicht interpretiert werden. Wir müssen herausfinden, wie die Engine unseren Code interpretiert. Während der Entwicklung ändert dies das Tool, das wir zum Debuggen verwenden müssen. Aber wenn Sie Ihre wichtigsten Assets als schnell ladende HTML-Dateien (usw.) haben, brauchen Sie sich keine Sorgen zu machen – Sie können sich auf die richtige SEO-Arbeit konzentrieren.
Björn Beth
Direktor für professionelle Dienstleistungen, Searchmetrics

Wir müssen zwischen Crawling und Indexing unterscheiden. Google kann JavaScript crawlen, aber es erfordert weitaus mehr Ressourcen als das Crawlen von reinem HTML. Problematischer ist es für den Indexer, der die Links (URLs), die er vom Crawler erhält, mit Hilfe des Web Rendering Service (WRS) rendert, ähnlich wie Fetch & Render in der Search Console. Dazu verwendet Google den eigenen Chrome-Browser (Version 41). Mit Hilfe des Browsers versucht es, ein Document Object Model (DOM) zu erstellen und die Seite so zu interpretieren, wie sie in einem Browser angezeigt wird. Dies kann zu Problemen führen, da beispielsweise Google (wie Tests von Distilled und Bartosz Goralewicz gezeigt haben) mit Problemen im Code nicht fertig wird oder andere große Probleme beim Rendern auftreten, sodass Google das Rendern der Seite nach fünf Sekunden beendet . Dies wurde in Tests von Screaming Frog gezeigt.
Grundsätzlich macht JavaScript das Crawlen und Indexieren viel komplizierter und schafft eine höchst ineffiziente Beziehung zwischen den beiden. Wenn SEO für Sie wichtig ist, sollten Sie immer darauf achten, dass ein Bot Ihre Seiten so schnell und effizient wie möglich lesen kann.
Bevor Sie von einer HTML-basierten Website zu einem JavaScript-basierten Framework oder einer Bibliothek neu starten, sollten Sie sicherstellen, dass das serverseitige Rendering enthalten ist. Zum Beispiel bringt React eine eigene Lösung namens renderToString mit. Dieser nutzt eine browserunabhängige DOM-Schnittstelle, die das JavaScript auf dem Server rendert, das DOM erstellt und an den Bot sendet. AngularJS verwendet Angular Universal. Diese beweist dem Auftraggeber alles Wichtige als vorgerendertes HTML. Der Client erhält dann das erforderliche JavaScript. Sie können aber auch mit Headless Chrome auf dem Server arbeiten und vorgerendertes HTML an den Bot schicken.
Vor allem erwarte ich von Chrome 59 ein schnelleres und effizienteres Rendering, das sich in Richtung Leistung auf Augenhöhe mit reinem HTML bewegt. Ob das wirklich passiert, werden nur Tests zeigen.
Durch den Schlamm kriechen: Bewerten Sie den Zustand Ihrer Website
Analysieren Sie sowohl das HTML als auch das JavaScript mit der Site Structure Optimization inklusive JavaScript Crawler jetzt mit Searchmetrics! Deine Vorteile:
- Crawlen Sie alle relevanten JavaScript-Frameworks, einschließlich Angular und React
- Verbessern Sie die Leistung der Website durch eine priorisierte Liste technischer Probleme
- Vergleichen Sie Crawls mit und ohne JavaScript-Crawling
Lesen Sie mehr über unser JavaScript-Crawling
Und was denkst du?
Das denken diese fünf Experten, aber wir haben noch viel mehr Experten, die diesen Blog lesen. Was halten Sie also von JavaScript? Haben Sie bereits Änderungen an Ihren Websites vorgenommen? Haben Sie bei Ihren Tests schon etwas Interessantes entdeckt?
