Der Crash-Kurs des CMO in SEO
Veröffentlicht: 2020-03-30Grundsteinlegung für CMOs
Die Reise eines jeden Online-Käufers beginnt mit einer Suchanfrage, die in eine Suchmaschine eingegeben und von dieser verarbeitet wird. Als Vermarkter müssen wir jeden Schritt der Kundenreise verstehen, um sie in jeder einzelnen Phase zu erreichen und zu binden. Verbraucher nutzen mehr als einen Kanal für Inspiration oder Informationen und schließen Einkäufe häufig über einen anderen Kanal ab. SEO ist ein wesentliches Werkzeug in diesem Prozess, um Kunden in jeder Phase ihrer Reise über mehrere verschiedene Kanäle hinweg anzusprechen.
Das Verständnis grundlegender SEO-Begriffe, wesentlicher Strategien und Taktiken und wie die größte Suchmaschine der Welt ihren Algorithmus überarbeitet und aktualisiert, ist ein entscheidender erster Schritt zur effektiven Nutzung von SEO in Ihren Marketingstrategien. Hier ist ein Crash-Kurs-Leitfaden zu grundlegenden SEO-Begriffen, Daten und wichtigen Algorithmus-Updates, um Ihr Bewusstsein für die größere SEO-Landschaft zu schärfen und eine Grundlage zu schaffen, auf der Sie aufbauen können.
Grundlegende SEO-Begriffe
Einmal verstanden, beseitigt die grundlegende SEO-Terminologie den Schleier der Schwierigkeiten, der SEO umgibt. Hier sind einige grundlegende Begriffsdefinitionen, die SEO verständlicher machen:
- Website-Geschwindigkeit – Einfach ausgedrückt ist die Website-Geschwindigkeit, wie schnell eine Webseite geladen wird, sobald ein Benutzer auf ihren Link klickt. Die Geschwindigkeit der Website ist für SEO von entscheidender Bedeutung, da Suchmaschinen wie Google Websites priorisieren, die schnell und effizient geladen werden. Je länger Benutzer warten müssen, um auf eine Webseite zuzugreifen, desto wahrscheinlicher springen sie ab, wenn die Seite und ihre Elemente wie Videos und Fotos nicht schnell geladen werden. Die Seitengeschwindigkeit kann auf verschiedene Weise erhöht werden. Eine gängige Methode besteht darin, CSS-, HTML- oder JavaScript-Dateien zu komprimieren, die 150 Byte überschreiten, da diese großen Webseitenelemente die Ladezeiten verlangsamen können. Außerdem sind einige Dateierweiterungen besser für bestimmte Arten von Bildern geeignet (JPEGS eignen sich am besten für Fotos und PNGs mit Bildern, die aus 16 verschiedenen Farben oder weniger bestehen). Browser-Caching ist eine weitere ausgezeichnete Methode, da es Informationen vom ersten Besuch eines Benutzers auf der Seite erfasst, um sie bei wiederkehrenden Besuchen eines Benutzers schnell neu zu laden.
- Google Lighthouse – Ein Open-Source-Tool, das auf jeder Webseite ausgeführt werden kann, um Zugänglichkeit, Ladezeiten, SEO und mehr zu prüfen. Lighthouse benötigt nur eine URL, um eine Reihe von Audits für die Seite durchzuführen, und erstellt einen detaillierten Bericht darüber, wie gut eine Seite funktioniert. Google Lighthouse ist ein unschätzbares Tool für SEO, da die Audit-Berichte genaue Informationen darüber liefern, welche Aspekte Ihrer Seite oder Seiten sind nicht gut abschneiden. Mit jedem Audit wird ein Referenzdokument bereitgestellt, in dem erläutert wird, wie eine Vielzahl von Problemen behoben werden kann. Website-Audits sind besonders nützlich nach Aktualisierungen des Google-Algorithmus, da sie Aufschluss darüber geben können, wie eine zuvor leistungsstärkste Seite plötzlich an Sichtbarkeit verliert.
- Inhaltsverlinkung – Der Prozess der Verknüpfung von Schlüsselwörtern und Inhalten mit relevanten Webseiten oder mit Seiten innerhalb Ihrer eigenen Website. Es gibt eine Vielzahl unterschiedlicher Linktypen, einschließlich eingehender, interner und externer Links. Das Verlinken von Inhalten ist eine entscheidende, komplizierte Praxis, die ein Kernelement der SEO-Optimierung darstellt, und jede Art von Link erfordert ein spezifisches Gleichgewicht, um effektiv für SEO zu ranken. Eine Website mit relevanten wichtigen Inhalten wird von Crawlern höher eingestuft, wenn mehrere seriöse Websites auf sie verlinken. Es ist eine delikate Mischung aus Branding, exzellenter Inhaltserstellung und Partnerschaftsaufbau, die dazu beitragen kann, das Ranking einer Website mithilfe eingehender Links zu verbessern. Die interne Verlinkung erfordert, dass die Verbindungsseiten eine logische, aussagekräftige Beziehung zum Ranking haben, und Suchmaschinen-Crawler sind schlau genug, um den Wert dieser Beziehungen zu bestimmen.
- Benutzerabsicht – Eine Reihe von Absichten und Aktionen, die ein Benutzer online unternimmt, sei es der Vergleich von Kleidungspreisen zwischen Kaufhäusern oder die Überprüfung von Fakten über eine Suchmaschinenabfrage. Zu verstehen, warum ein Benutzer nach einem bestimmten Begriff gesucht hat, ist der Schlüssel zum SEO-Optimierungsprozess. Benutzersuchen werden oft entweder als Transaktions-, Navigations- oder Informationssuche kategorisiert. Vermarkter können die Benutzerabsicht nutzen, um Inhalte zu erstellen, die den Bedürfnissen der Benutzer am besten entsprechen, wodurch die Inhalte wertvoller für Benutzer und wiederum wertvoller für Suchmaschinen werden, die versuchen, Websites mit hilfreichen Inhalten zu priorisieren und zu indizieren.
- Indexierung – Webindizierung (oder Indexierung) für Suchmaschinen ist die Methode zur Indexierung der Inhalte einer Website, nämlich ihrer Schlüsselwörter, Inhalte und Metadaten, um ein besseres, robustes Vokabular für die Suche vor Ort oder im Internet zu erstellen. Web-Crawler sind für das Crawlen von Websites und das Erstellen von Seitenkopien für Suchmaschinen verantwortlich, die sie in ihrem System verarbeiten und indizieren können, um bestimmte Anfragen von Benutzern zu erfüllen. Crawler werden erheblich von Änderungen wie Aktualisierungen des Google-Algorithmus beeinflusst, da sie letztendlich darüber informieren, welche Website-Qualitäten, -Elemente und -Eigenschaften Crawler priorisieren sollten.
Eine kurze Geschichte der Google-Algorithmus-Updates
Google veröffentlichte sein erstes Algorithmus-Update im Jahr 2000 und hat seitdem kontinuierlich neue Verbesserungen an seiner Suchmaschine vorgenommen, die die Suchbranche und die Art und Weise, wie Menschen suchen, erheblich beeinflusst haben. Der Algorithmus von Google hat sich zu einem komplexen Regelwerk entwickelt, um optimierte Suchmaschinen-Ergebnisseiten (SERPs) bereitzustellen.
Das Verfolgen von Aktualisierungen des Google-Suchalgorithmus ist der Schlüssel zu einer guten Leistung auf ihrer Plattform. Hier ist ein Überblick über einige der wichtigsten Algorithmus-Updates von Google und die Auswirkungen, die sie auf die Suchbranche hatten.
- Panda (Februar 2011): Mit dem Panda-Update wurde ein neuer Suchfilter eingeführt, der verhindern soll, dass Websites mit Inhalten von schlechter Qualität in den Top-Suchergebnissen von Google erscheinen. Das Update zielte in erster Linie auf Content-Farmen und Websites mit starker Werbung ab und verbesserte gleichzeitig die Rankings seriöser Nachrichtenseiten und Social-Media-Websites. Google verzeichnete durch das Update einen Umsatzrückgang, da es keinen der Partner des Unternehmens vor einer genauen Prüfung verschonte.
- Penguin (April 2012): Google ging hart gegen Websites vor, die gegen Googles Webmaster-Richtlinien verstießen, um mit dem Penguin-Update deren Rankings mithilfe von Link-Schemata künstlich zu erhöhen. Websites, die mehrere Links manipulierten, die auf eine Seite verweisen (jetzt als Black-Hat-SEO-Taktik bekannt) oder „Doorway Pages“ verwendeten, wurden von Google schwer bestraft, und Websites, die organische, zielgerichtete Inhalte verwendeten, erhielten nach der Aktualisierung einen Schub in ihren Rankings .
- Hummingbird (September 2013): Das Hummingbird-Update hat die Genauigkeit des Suchökosystems von Google bei Abfragen in natürlicher Sprache erheblich verbessert. Die Möglichkeit, die Absicht semantisch besser einzuschätzen, gab den Benutzern die Möglichkeit, mithilfe von Short- und Long-Tail-Keywords einfach nach Themen und Unterthemen zu suchen. Benutzer erhielten genauere Ergebnisse in Suchelementen wie dem Knowledge Graph. Hummingbird legte auch den Grundstein für die Sprachsuche, da es Konversationssprache und menschliche Absichten basierend auf dem Standort kombinierte, um das Sucherlebnis zu verbessern.
- Pigeon (Juli 2014): US-englische Suchergebnisse wurden mit dem Pigeon-Update, das lokale Suchergebnisse priorisiert, genauer und nützlicher für Benutzer. Google nutzte Faktoren wie Standort und Entfernung, wobei lokale Verzeichnisseiten bei dieser und zukünftigen Aktualisierungen mehr Vorrang hatten.
- RankBrain (Oktober 2015): RankBrain ist ein auf maschinellem Lernen basierendes Suchmaschinenalgorithmus-Update, das die Fähigkeit von Google zur Verarbeitung und Bereitstellung relevanterer Suchergebnisse für Benutzer erheblich verbessert hat. Das intuitive System nimmt Wörter oder Phrasen, mit denen es nicht vertraut ist, und macht eine fundierte Vermutung darüber, welche anderen Wörter oder Phrasen eine ähnliche Bedeutung haben, um die Ergebnisse besser zu filtern. RankBrain zeichnet Ergebnisse auf und passt sie an, um die Benutzerzufriedenheit bei zukünftigen Abfragen zu erhöhen. Google teilte der Öffentlichkeit mit, dass RankBrain eines seiner drei wichtigsten Suchmaschinen-Ranking-Signale ist.
- Fred (März 2017): Das Update von Gary Illyes, damals Webmaster-Trendanalyst bei Google, scherzhaft „Fred“ genannt, zielte auf Black-Hat-SEO-Taktiken ab, die eine aggressive Monetarisierung nutzten. Content-Websites, die viel Werbung enthielten oder den Nutzern mehr Produkte und Dienstleistungen boten, als ihre Anfragen zu beantworten, waren stark betroffen. Websites mit ausgezeichneter Inhaltsqualität, Fachkompetenz, konstant positiven Benutzerbewertungen und fehlerfreien Erlebnissen erlebten einen Boom in ihrer Sichtbarkeit.
- BERT (Oktober 2019): Ursprünglich eine von Google entwickelte Technik zur Verarbeitung natürlicher Sprache, begann das Unternehmen Ende Dezember 2019 damit, BERT auf seine Suchalgorithmen in 70 verschiedenen Sprachen anzuwenden. Google gab an, dass das BERT-Update darauf ausgelegt war, Konversations- und natürliche Suchanfragen zu verbessern um die Fähigkeit der Suche zu verbessern, die Nuancen von Sprache, Text und Sprache zu verstehen, um hilfreichere Ergebnisse für Benutzer bereitzustellen. Dieses Update wirkte sich auch stark auf die mobile Sprachsuche aus, bei der Benutzer im Vergleich zu Desktop-Anfragen eher Konversationssprache verwendeten.
SEO-Datenerfassung
Es gibt eine Fülle verschiedener SEO-Daten und -Metriken, die Sie abrufen können, um die Leistung und Marketingstrategien Ihrer Website zu informieren, aber es kann schwierig sein, zu entscheiden, welche Metriken die besten Einblicke in die Leistung liefern. Hier ist eine Auswahl wichtiger SEO-Metriken, die Sie untersuchen sollten, wenn Sie eine solide Grundlage für Ihre Marketingstrategien schaffen.

- SEO-Sichtbarkeit – SEO-Sichtbarkeit ist eine Sammlung von Metriken, die aus Suchrankingfaktoren zusammengestellt werden, um zu berechnen, wie sichtbar eine Website in organischen Suchmaschinenergebnissen erscheint. Gesammelte Metriken können das Suchvolumen bestimmter Keywords und die Ranking-Positionen der verschiedenen URLs einer Domain umfassen. Agenturen und Softwareprogramme sind in der Lage, eine Sammlung von Metriken zu untersuchen, um einen Sichtbarkeitswert zu ermitteln, um die Online-Performance Ihrer Website mit anderen Domains zu vergleichen. SEO-Sichtbarkeitswerte sind eine wesentliche Metrik, die im digitalen Marketing überprüft werden muss, da die Sammlung von Metriken robuste Leistungseinblicke liefert, die verwendet werden können, um das Ranking Ihrer Website in Suchmaschinen zu verbessern und zu identifizieren, welche Taktiken Wettbewerber in ihren Marketingstrategien anwenden.
- Traffic-Index (bezahltes und organisches SEO) – Der Traffic-Index funktioniert ähnlich wie die Berechnung von SEO-Sichtbarkeitswerten, außer dass er das Keyword-Suchvolumen misst. Der Index wird berechnet, indem der geschätzte monatliche organische oder bezahlte Suchverkehr einer Website anhand einer Reihe von Schlüsselwörtern untersucht wird, die von einem Vermarkter oder SEO-Manager zusammengestellt wurden. Keywords sind einer der wichtigsten Ranking-Faktoren, die beeinflussen, wie hoch Suchmaschinen Websites bewerten. Vermarkter verwenden Traffic-Index-Informationen, um das Traffic-Potenzial für bestimmte Keywords zu analysieren und zu vergleichen und Keywords mit geringer Leistung in einem Eliminierungsprozess aus Sätzen zu entfernen. Diese Methode ermöglicht Vermarktern eine bessere Priorisierung und Identifizierung von Schlüsselwörtern mit dem besten Potenzial, um ihrer Website und anderen Domains zu helfen, einen höheren Rang als die Konkurrenz zu erreichen.
- Cost-per-Acquisition (CPA) – Ein den meisten Vermarktern vertrauter Begriff, Cost-per-Acquisition sind die durchschnittlichen Kosten für Online-Anzeigen, die erforderlich sind, um einen Benutzer dazu zu bringen, eine bestimmte Aktion auszuführen, z. B. das Herunterladen von Inhalten oder das Ausfüllen und Absenden eines Formulars. Es liefert Daten zu den Kosten pro Akquisition oder Konversion, die bei der Identifizierung von Optimierungsmöglichkeiten helfen. CPA ist eine Schlüsselkomponente der Pay-per-Click-Suche (bezahlte Suche). PPC ist eine garantierte Methode zur Generierung von Leads, obwohl es im Vergleich zur Optimierung für die organische Suche einen erheblichen Teil des Marketingbudgets verbraucht. Obwohl die organische Suche besser für Marketingbudgets ist, kann die Nutzung von PPC-Plattformen wie Google AdWords Vermarktern dabei helfen, auf wertvolle Keywords zu bieten, die Google dann gesponserte Anzeigen generiert.
- Vollständige Ladezeit der Website – Die Zeit, die eine Webseite benötigt, um alle technischen Seitenelemente einschließlich Links, Bilder, Videoclips und mehr vollständig zu laden. Wie schnell eine Website geladen wird, ist der Schlüssel zu SEO- und Marketingstrategien, da Benutzer eher von langsam ladenden Seiten abspringen, was zu verlorenen Conversions führt. Suchmaschinen wie Google priorisieren die Ladegeschwindigkeit von Websites als wichtigen Ranking-Faktor, und Vermarkter überwachen die Geschwindigkeit ihrer Websites sorgfältig, um sicherzustellen, dass ihre Websites nicht bestraft werden. Es gibt Tools und Software, mit denen Vermarkter die vollständige Ladegeschwindigkeit ihrer Website messen können. GTmetrix ist ein nützliches Tool, bei dem Benutzer die URL ihrer Website eingeben können und einen detaillierten Bericht über Elemente ihrer Website erhalten, die schnell oder langsam geladen werden. GTmetrix weist den Seitenelementen auch Buchstabennoten (A bis F) zu und hilft den Märkten, die Elemente ihrer Websites, die eine schlechte Leistung erbringen, zu finden und zu beheben, wodurch das Potenzial für eine Bestrafung durch Suchmaschinen verringert wird
Der CMO-Leitfaden für SEO: Die Auswirkungen von SEO auf das Endergebnis
Der nächste Blog unserer fünfteiligen Serie „Der CMO-Leitfaden für SEO: Die Auswirkungen von SEO auf das Endergebnis“ wird untersuchen, warum Unternehmen Wertinvestitionen in SEO sehen und warum mobile SEO-Optimierung die nächste Grenze bei der Steigerung Ihres Gewinns darstellt.
Searchmetrics bietet maßgeschneiderte Beratungslösungen, um den Erfolg des Online-Wachstums mit unseren Kunden voranzutreiben. Unsere Digital Strategies Group bringt unsere Datenwissenschafts-, Software- und SEO-Experten zusammen, um Dienstleistungen bereitzustellen, die Ihre Such- und Content-Bemühungen verstärken.
Termin anfordern
