Odkrywanie sekretów SEO: indeksowanie, jakość witryny i meta-tagi
Opublikowany: 2019-09-04Optymalizacja pod kątem wyszukiwarek to złożony temat. Istnieje wiele zaleceń, przewodników i list kontrolnych, które starają się omówić i wyjaśnić wszystkie różne aspekty SEO. W tym artykule wysłuchaliśmy Cię, abyśmy mogli rozwiązać problemy, które są dla Ciebie najważniejsze. O czym powinieneś wiedzieć, jeśli chodzi o indeksowanie swoich stron? Jak Google ocenia jakość witryny? A o co chodzi ze słowami kluczowymi w metatagach?
Jeśli chcesz zbadać potencjał SEO swojej witryny, możesz poprosić o spotkanie z naszą Grupą ds. strategii cyfrowych i zobaczyć, jak możemy Ci pomóc:
Umówić się na spotkanie
Tematy w tym artykule są oparte na informacjach zwrotnych od uczestników (niemiecki) webinarium, które niedawno zorganizowaliśmy. Odpowiedziałem na najważniejsze pytania – przy wsparciu eksperckim Marcusa Pentzeka, który jako Senior SEO Consultant w Searchmetrics Digital Strategies Group jest odpowiedzialny za doradzanie naszym klientom i pomaganie im w poprawie wydajności ich wyszukiwarek.
Pytania dotyczą następujących obszarów SEO:
- Pobieranie i indeksowanie przez GoogleBota
- Adresy URL, metatagi i słowa kluczowe
- Sygnały użytkownika i zamiar wyszukiwania
- Jakość strony: Jak mogę poprawić moje rankingi?
- Google Analytics
Indeksowanie i indeksowanie przez GoogleBota
Posiadanie strony internetowej, którą można zaindeksować, jest pierwszym warunkiem wykrycia przez Google, a tym samym szansy na pojawienie się w wynikach wyszukiwania. Możesz także podejmować decyzje dotyczące tego, które strony zostaną włączone do indeksu Google, a które nie.
Jak mogę się upewnić, że GoogleBot regularnie odwiedza moją witrynę?
GoogleBot odwiedza strony internetowe tak często, jak to konieczne:
- Jednym z czynników jest rozmiar witryny, pod warunkiem, że duża liczba adresów URL, które ma duża witryna, ma wartość. Jeśli witryna zawiera wiele stron o niskiej jakości treści, Google nie będzie kusiło, by odwiedzać ją częściej, wyłącznie na podstawie samej liczby stron.
- Jeśli witryna jest często linkowana z innych witryn, co daje jej silny PageRank, będzie częściej odwiedzana.
- Kolejnym czynnikiem jest ilość nowych treści publikowanych na stronie. Jeśli na przykład codziennie pojawia się 20 nowych (lub aktualizowanych) postów na blogu, wywiera to presję na Google, aby nadążał i indeksował witrynę częściej, niż gdyby był tylko jeden nowy post tygodniowo.
Czy mogę użyć mapy witryny XML, aby poinformować robota Google, co ma czytać, a czego nie?
Nie. Do tego służy plik robots.txt. Mapa witryny XML jest przeznaczona głównie dla adresów URL, które Google powinien indeksować i (zazwyczaj) indeksować.
Czy Google może ocenić, w jakim stopniu wpłynąłem na indeksowanie robota GoogleBot? I czy może to wpłynąć na ocenę mojej witryny?
Możesz podawać Google tylko zalecenia dotyczące tego, co ma indeksować. Nie możesz mieć na to bezpośredniego wpływu, dlatego nie wpłynie to na ocenę Twojej witryny.
Czy indeksowanie strony z informacjami prawnymi/wydawniczymi ma sens?
TAk. Każda renomowana firma powinna być otwarta i dumna ze swojej nazwy i tego, kim jest. Nadruk normalnie nie kanibalizuje żadnych innych stron w witrynie, więc nie stanowi problemu, jeśli jest zindeksowany.
W jakim stopniu literówki wpływają na indeksowanie lub rankingi wyszukiwarek?
Wyszukiwarki są dobre w rozpoznawaniu i rozumieniu błędów ortograficznych i powinny zwracać takie same wyniki, jak w przypadku poprawnie napisanego wyszukiwanego hasła. Dla mnie i mojej witryny oznacza to, że nie ma powodu, aby celowo umieszczać w treści błędnie napisane słowa kluczowe. W rzeczywistości wywołałoby to bardzo nieprofesjonalne wrażenie i mogłoby mieć negatywny wpływ na sygnały użytkowników (takie jak współczynnik odrzuceń).
Jeśli Google uważa, że określone zapytania są najlepiej obsługiwane przez treści wysokiej jakości, literówki mogą nawet doprowadzić do spadku w rankingu, a strona zostanie wyparta przez witryny oferujące teksty o wyższej jakości.
Jak „dobre” indeksowanie wpływa na ocenę witryny przez Google?
Indeksowanie zostało wykonane dobrze, jeśli indeksowane są tylko te strony, które mają zostać znalezione za pomocą wyszukiwania w Internecie. Wpływ tego indeksowania na ocenę witryny wynika z tego, że Google widzi tylko odpowiednie obszary witryny. Oznacza to, że Google nie musi rozważać odpowiednich i nieistotnych treści przy ustalaniu rankingów.
Czy indeksowanie zbyt wielu stron może zaszkodzić rankingowi witryny?
Najlepiej to wyjaśnić za pomocą małego eksperymentu myślowego: w przypadku każdej domeny GoogleBot otrzymuje ograniczony budżet, za pomocą którego może indeksować witrynę. Jeśli mam więcej stron, niż pozwala na to budżet, indeksowanie całej mojej treści zajmie dużo więcej czasu. A jeśli zaktualizuję jakąś zawartość, pobranie nowej zawartości zajmie również więcej czasu.
Jest jeszcze jeden ważny punkt. Jeśli mam dużo treści, ale nie są one zoptymalizowane pod kątem określonych wyszukiwanych haseł, prawdopodobnie będzie istniała ogromna liczba stron, które Google uważa za niskiej jakości. Może to mieć negatywny wpływ na całą domenę. Ponadto, jeśli mam zbyt wiele stron, łatwo może się zdarzyć, że mam bardzo podobne treści na różnych stronach o tej samej tematyce. To jest to, co nazywamy kanibalizacją i zwykle nie powoduje ona rankingu żadnej z tych stron, jak bym chciał.
Dlaczego nie powinienem chcieć, aby strona docelowa kampanii w mediach społecznościowych znajdowała się w indeksie? Czy ma to negatywny wpływ na budżet indeksowania?
Dobre pytanie! Zawsze radziłbym zastanowić się nad przeznaczeniem strony docelowej. Jeśli mam stronę docelową, która istnieje tylko po to, by gromadzić potencjalnych klientów z kampanii – może to być strona zawierająca jedynie formularz kontaktowy – wówczas treść na tej stronie docelowej zostanie uznana za niską jakość i zostanie źle oceniona przez Google. Jeśli mam wiele takich stron i pozwalam Google je zindeksować, może to negatywnie wpłynąć na ogólną ocenę mojej witryny.
Jeśli jednak wypełnię swoją stronę docelową w mediach społecznościowych treścią i zoptymalizuję ją pod kątem różnych słów kluczowych do moich stron docelowych SEO, to może mieć sens indeksowanie tej strony. Ale bądź ostrożny: jeśli strony docelowe są zbyt podobne, mogą w końcu walczyć ze sobą o te same rankingi.
Oznacza to, że nie ma jednej właściwej odpowiedzi. Aby być bezpiecznym (aby uniknąć kanibalizacji), możesz upewnić się, że zezwalasz Google na indeksowanie i indeksowanie wyłącznie treści zaprojektowanych specjalnie do tego celu.
Co oznacza najnowsze ogłoszenie Google o tym, że noindex jest domyślnym?
Ogłoszenie Google, że od 1 września 2019 r. nie będzie już stosowana reguła noindex w robotos.txt, zmienia sposób korzystania z robots.txt. Po pierwsze, powinienem zdawać sobie sprawę z tego, że wszystkie strony, które tylko wykluczyłem z indeksowania za pośrednictwem pliku robots.txt, trafią teraz do indeksu Google.
Mogę jednak nadal deindeksować strony w następujący sposób:
- noindex w metatagu robots nadal działa i jest najprostszą opcją
- używając disallow w pliku robots.txt, nadal mogę uniemożliwić botom indeksowanie niektórych treści na mojej stronie
Czy powinienem nie indeksować stron ze „złą treścią” i jak określić, która treść jest „zła”?
Z reguły powinienem usuwać indeksowanie tylko treści, które nie są odpowiednie dla wyszukiwanych haseł, dla których chcę zostać znaleziony. Treść jest „zła”, jeśli nie pasuje do zapytania wyszukiwania. Oznacza to, że najlepszą metodą jest ocena, jakiej treści potrzebuję dla żądanych wyszukiwanych haseł, a następnie sprawdzenie, czy mogę ją dostarczyć.
Czy ma znaczenie dla SEO, jeśli mam treść jako jednostronicową lub bardziej złożoną strukturę witryny? A może one-pager może być bez trudu zaindeksowany przez Google?
Jeśli chodzi o indeksowanie, jednostronicowy nie powinien stanowić problemu. Ma najprostszą możliwą strukturę witryny. Na stronie głównej można to zaindeksować i cały sok linków, który jest przesyłany do mojej witryny za pośrednictwem linków, koncentruje się na tej stronie.
Jeśli jednak chcę być znaleziony dla większej liczby tematów niż bezpośrednio pasujących do mojego głównego tematu, staje się to trudniejsze z jednostronicowym. Rozważmy przykład strony internetowej oferującej usługi terapeutyczne. Strona główna jest zoptymalizowana pod kątem wszystkich odpowiednich wyszukiwanych haseł, które są bezpośrednio związane z tym obszarem pracy. Ale teraz chcę dotrzeć do użytkowników, którzy szukają konkretnych problemów zdrowotnych, dla których moje usługi mogą zapewnić rozwiązanie. W tym przypadku sensowne byłoby tworzenie nowych treści na nowe podstrony, które prezentują moją wiedzę i doświadczenie, a także obsługują odpowiednie zapytania wyszukiwania. Oczywiście wraz z większą liczbą stron wzrasta również złożoność serwisu.
Inną kwestią do rozważenia jest to, że w zależności od intencji użytkownika stojącego za zapytaniem wyszukiwania, Google określa, czy bardziej odpowiednie są krótsze czy dłuższe teksty. Na tej podstawie wskazane może być utworzenie dłuższego, bardziej całościowego one-pager (por. Pillar Page) na dany temat – lub bardziej sensowne może być utworzenie większej liczby mniejszych stron, z których każda ma jaśniejszy fokus i jest zoptymalizowana pod kątem poszczególne słowa kluczowe. Jeśli robią to drugie, oczywiście muszą być zorganizowane w logiczną strukturę strony internetowej.

Jeśli to rozróżnienie nie wydaje się istotne dla Twojego konkretnego scenariusza, to one-pagery mają tę dodatkową zaletę, że ze względu na dużą liczbę terminów pojawiających się na stronie, często w pewnej odległości od siebie, mają większą szansę na osiągnięcie długoterminowych pozycji w rankingu. słowa kluczowe ogona, które składają się z kilku różnych terminów.
Adresy URL, słowa kluczowe i metatagi
Wyszukiwarki stają się coraz bardziej inteligentne, a SEO staje się coraz bardziej złożone. To sprawia, że wiele osób pyta, jak ważne są stare ulubione, takie jak słowa kluczowe i meta-tagi.
Czy używanie słów kluczowych jako metatagów nie ma sensu?
Podczas optymalizacji pod wyszukiwarkę Google: tak. Potwierdził to Matt Cuts z Google w 2009 roku. A w tym przypadku: to, co było prawdą 10 lat temu, jest nadal prawdą.
Jednak w przypadku wyszukiwarek pomocniczych używanie metatagów może być nadal przydatne. Zasadniczo dla metatagu słów kluczowych należy zdefiniować 2-3 wyszukiwane hasła dla każdego adresu URL, dla którego ten adres URL jest odpowiedni. I unikaj nakładania się z innymi adresami URL.
Jak ważne są takie czynniki jak struktura strony, np. z nagłówkami h1, h2 lub h3, meta-tagami i alt-tagami?
Dobrze ustrukturyzowana strona zawsze może pomóc, ale jest wiele różnych korzyści. Nagłówki sprawiają, że tekst jest bardziej przyswajalny, nadają treści klarowną strukturę i ułatwiają odniesienie się do podtematów.
Meta-tagi są bardziej zróżnicowane. Meta-tytuł jest ważnym elementem używanym do pokazania wyszukiwarkom, jaki jest główny temat adresu URL i dla jakiego wyszukiwanego hasła została napisana treść. Metaopis jest ważny przede wszystkim na stronie wyników wyszukiwania, ponieważ jest to pierwszy tekst z mojej strony, który widzi użytkownik – i na tej podstawie użytkownik podejmuje decyzję, czy kliknąć, czy nie.
Z drugiej strony tagi Alt są bardzo ważne w wyszukiwarce grafiki Google.
Mówiące adresy URL: jaki jest idealny adres URL?
To może być temat całego warsztatu. Krótka odpowiedź jest taka, że adres URL powinien odzwierciedlać strukturę strony internetowej, a każdy element powinien komunikować Użytkownikowi, czego może oczekiwać od strony internetowej.
Czy nadal warto obsługiwać specjalne domeny słów kluczowych, które mają dobrą pozycję w rankingu i prowadzą do mojej strony, aby uzyskać lepszy PageRank?
W dzisiejszych czasach domeny nie uzyskują żadnych korzyści w rankingu tylko za umieszczenie dokładnego słowa kluczowego w tytule domeny. Tak więc z całym szacunkiem odpowiedź brzmi „nie”.
Wzmocnienie PageRank głównej witryny za pomocą linków z tych domen słów kluczowych może zadziałać tylko wtedy, gdy domeny słów kluczowych są wartościowe same w sobie. Jeśli są to nowo zarejestrowane domeny, początkowo nie będą miały żadnej wartości – nie będą więc miały żadnego PageRank do przekazania. Można to poprawić, jeśli zostanie utworzony profil linków zwrotnych dla domen słów kluczowych.
Manipulowanie linkami zwrotnymi jako czynnikiem rankingowym stało się trudniejsze niż kiedyś, a budowanie profilu linków zwrotnych jest mniej „proste”. W dzisiejszych czasach linki zwrotne są najbardziej wartościowe, gdy powstają naturalnie (tzn. gdy są prawdziwymi „rekomendacjami”), gdy są powiązane z tematem i gdy mają „historię”. Aby link został uznany za naturalny, musi mieć powód do istnienia. Mając to na uwadze, wysokiej jakości stronie internetowej łatwiej jest zbierać naturalne linki zwrotne, ponieważ często umieszcza się ją w rankingu dla odpowiednich wyszukiwanych haseł, a tym samym służy intencji użytkownika webmastera, który szuka odpowiedniego źródła.
Zamiast skupiać się na tej strategii, zalecałbym zainwestowanie czasu i zasobów w optymalizację treści witryny (dla użytkowników), tak aby później stała się ona naturalnym celem nowych linków zwrotnych. Jeśli spróbujesz sztucznie tworzyć linki, ryzykujesz otrzymanie ręcznej kary od Google. Inne strategie (np. zoptymalizowana, zorientowana na użytkownika treść) mogą prowadzić do znacznie większego długoterminowego sukcesu.
Sygnały użytkownika i zamiar wyszukiwania
Zamiar wyszukiwania opisuje, czego użytkownik oczekuje od swojego wyszukiwania. Czy chcą przeczytać długi tekst, otrzymać szybką odpowiedź, czy wolą obejrzeć wideo? Jest to związane z sygnałami użytkownika, które są tworzone przez działania użytkownika. Jak często użytkownicy klikają wynik wyszukiwania, jak długo spędzają na stronie i jak często wracają do wyników wyszukiwania? Udana optymalizacja pod kątem wyszukiwarek powinna zawsze uwzględniać użytkownika i jego zachowanie.
Mam wiele stron z treścią, na których użytkownik spędza trochę czasu na czytaniu, ale wychodzi bez dalszej interakcji. Czy ten 100% współczynnik odrzuceń wpłynie negatywnie na moje rankingi, czy też Google weźmie pod uwagę, że jest to strona z czystą treścią?
Masz rację. W Google Analytics byłby to 100% współczynnik odrzuceń. Google stwierdza w swoich wytycznych, że strona nie potrzebuje niskiego współczynnika odrzuceń, ale mimo to powiedziałbym, że rzadko zdarza się, że nie chcesz zatrzymywać użytkowników w swojej domenie.
Przykład Wikipedii pokazuje nam, że do zaoferowania jest więcej niż tylko treść na stronie. Wikipedia daje użytkownikom wiele ścieżek do naśladowania, dzięki którym mogą uzyskać dostęp do większej ilości treści i uzyskać informacje na powiązane tematy.
Google w rzeczywistości nie używa współczynnika odrzuceń jako czynnika rankingowego. Zamiast tego Google mierzy pokrewną metrykę, „wskaźnik powrotu do SERP”. Tutaj Google dokładniej przygląda się, ile czasu zajmuje odwiedzającemu stronę powrót na stronę wyników wyszukiwania. I nie musi to być sygnał negatywny. Jeśli użytkownik znalazł to, czego szukał, nie będzie musiał wracać do początkowego zapytania wyszukiwania. Ale jeśli nie znajdą tego, czego szukali, będą musieli albo kliknąć alternatywny wynik wyszukiwania, albo wprowadzić nowe, bardziej precyzyjne zapytanie, które może zwrócić bardziej odpowiednie wyniki.
Jeśli wierzyć wypowiedziom Johna Muellera (Google Webmaster Trends Analyst), to sygnały użytkowników nie mają znaczenia dla rankingów i są wykorzystywane jedynie do uczenia algorytmów Google.
Webinarium nie obejmowało zamiaru wyszukiwania nawigacji i wyszukiwania lokalnego. Dlaczego nie?
Miało to na celu uproszczenie przykładu w dostępnym czasie. Oczywiście intencja wyszukiwania nie ogranicza się do zapytań transakcyjnych i informacyjnych. Powiedziałbym również, że w ramach każdej kategorii intencji wyszukiwania istnieją dalsze, bardziej precyzyjne niuanse, które mogą pomóc w lepszym dostosowaniu treści do potrzeb użytkowników.
Jakość strony: Jak mogę poprawić moje rankingi?
Nie ma szybkiego i łatwego sposobu na uzyskanie lepszych rankingów. Ale wiemy sporo o algorytmie rankingowym Google. Najważniejsze jest to, że Google ocenia jakość treści witryny i odgrywa to ważną rolę w obliczaniu pozycji strony w wynikach wyszukiwania. Ale jak mierzy się jakość stron internetowych?
Kto ocenia moją witrynę i decyduje, czy jest dobra, czy zła?
Oceny stron internetowych przeprowadzane są przez algorytm wyszukiwarki. Algorytm – np. Google – analizuje wiele różnych czynników, w tym treść, linki, sygnały użytkownika lub aspekty techniczne, i wykorzystuje je, aby zdecydować, które adresy URL są najbardziej odpowiednie dla zapytania. Jest to bardzo złożone, ale zasadniczo strona internetowa powinna być dobrze zoptymalizowana technicznie i oferować możliwie najtrafniejsze treści, aby mieć największe szanse na osiągnięcie wysokich pozycji w rankingu.
Co mogę zrobić, aby bezpośrednio wpłynąć na czynniki rankingowe mojej witryny?
To bardzo szerokie pytanie, na które nie da się odpowiedzieć w kilku zdaniach. Istnieje ponad 200 czynników rankingowych, które mogą mieć różny wpływ. Przyjrzenie się poszczególnym czynnikom i zbadanie sposobów ich optymalizacji może być tematem przyszłego webinaru. Lub 200.
Ale jednym z miejsc, od którego można zacząć, byłby tag tytułowy, który jest jednym z najważniejszych czynników rankingowych na stronie. Używanie głównych słów kluczowych w tytule strony jest jednym z najbardziej bezpośrednich sposobów wywierania wpływu.
Które wyniki wyszukiwania otrzymają wyróżniony fragment i jak mogę na to wpłynąć?
To, czy polecany fragment zostanie wyświetlony, czy nie, zależy wyłącznie od wyszukiwarek. Podobnie jak określają, jaka treść z odpowiedniej witryny jest wyświetlana. Aby uzyskać szczegółowe informacje na temat polecanych fragmentów, polecam przeczytanie pytań i odpowiedzi Malte Landwehr i Izzi Smith na ten temat lub obejrzenie ich seminarium internetowego.
Google Analytics
Im więcej masz danych, tym lepiej jesteś w stanie zrozumieć swoje wyniki online. Dlatego dobrze jest połączyć dane z platformy optymalizacji wyszukiwarek (takiej jak Searchmetrics Suite) z danymi użytkowników z narzędzia takiego jak Google Analytics.
Jeśli mam silną stronę, czy poleciłbyś korzystanie z Google Analytics, aby Google mógł zobaczyć, jak użytkownicy zachowują się w witrynie?
Ogólnie dobrym pomysłem jest korzystanie z programu analitycznego. To dobry pomysł, ponieważ daje wgląd w zachowanie użytkowników, który możesz wykorzystać do podejmowania decyzji. Jednak Google wyjaśnia w swoich Warunkach – i w żaden sposób nie sugeruję, że Google postępuje inaczej – że nie wykorzystuje danych z Google Analytics do oceny stron internetowych.
Chcesz zacząć stosować swoją wiedzę z zakresu SEO w praktyce? W takim razie zorganizuj swoje osobiste demo oprogramowania Searchmetrics Suite już dziś:
Poproś o demo
