Godziny pracy SEO, 28 stycznia 2022 r.

Opublikowany: 2022-02-01

Oto podsumowanie najciekawszych pytań i odpowiedzi z godzin pracy Google SEO z Johnem Muellerem w dniu 28 stycznia 2022 r.

Ukryj zawartość
1 Wartość linków wewnętrznych
2 Postępowanie z niechcianymi stronami w SERP po ataku złośliwego oprogramowania
3 Jak szybciej indeksować prawidłowe adresy URL?
4 Czy emotikony w tytułach i meta opisach wpływają na SEO?
5 często zadawanych pytań nie wyświetla się w SERPach
6 Radzenie sobie z treściami sezonowymi
7 CLS a ranking
8 kluczowych wskaźników internetowych a przeszukiwanie i indeksowanie
9 Przekierowania geograficzne a serwisy informacyjne

Wartość linków wewnętrznych

02:15 „Czy umiejscowienie linków [wewnętrznych] ma znaczenie?”

Jan odpowiedział: „Niekoniecznie. Myślę, że z jednej strony korzystamy z linków wewnętrznych, aby lepiej zrozumieć kontekst. […] Ale kolejną naprawdę ważną częścią jest możliwość indeksowania Twojej witryny. W tym celu nie ma znaczenia, gdzie na stronie znajduje się ten link, aby zindeksować resztę witryny. Czasami rzeczy znajdują się w stopce, nagłówkach, czasami w udostępnionym menu, pasku bocznym lub w treści. Wszystkie te połączone miejsca są z naszego punktu widzenia w porządku.

Zwykle tym, co bardziej różnicujemy, jeśli chodzi o lokalizację na stronie, jest sama treść, aby spróbować dowiedzieć się, co jest istotne dla tej konkretnej strony. W tym celu czasami naprawdę ma sens skupienie się na centralnej części strony, głównym elemencie treści, który zmienia się ze strony na stronę, a nie na nagłówkach, paskach bocznych, stopkach i tym podobnych rzeczach. […] Są one częścią samej witryny, ale nie jest to główny powód istnienia tej strony i główny powód, dla którego ustalamy tę stronę.

Więc to jest różnica, którą bierzemy, jeśli chodzi o różne części strony. A w przypadku linków zwykle chodzi o zrozumienie kontekstu stron i możliwość indeksowania witryny. A do tego nie musimy rozróżniać różnych części strony”.

Postępowanie z niechcianymi stronami w SERP po ataku złośliwego oprogramowania

24:11 „Mamy witrynę internetową, która w grudniu zeszłego roku zaatakowała złośliwe oprogramowanie. Wyczyściliśmy to i upewniliśmy się, że nie ma problemu z zabezpieczeniami w Google Search Console. Jednak niechciane strony, które zostały zaindeksowane [w] wyniku działania złośliwego oprogramowania, nadal są wyświetlane w wynikach wyszukiwania. […] Co możemy zrobić?"

John powiedział: „Przede wszystkim chciałbym dokładnie sprawdzić, czy te strony zostały usunięte, ponieważ niektóre rodzaje włamań do witryn są przeprowadzane w taki sposób, że jeśli sprawdzisz ręcznie, wygląda na to, że strona została usunięta, ale w rzeczywistości dla Google nadal tam. Więc sprawdziłbym za pomocą narzędzia [Kontrola adresów URL] niektóre z tych stron, aby dokładnie sprawdzić, [czy] są one całkowicie wyczyszczone lub czy zostało coś, co próbuje ukryć. Myślę, że to podstawa wszystkiego innego.

Następnie, jeśli chodzi o resztę, polecam dwa podejścia. Z jednej strony najlepszym podejściem jest ręczne usuwanie bardziej widocznych stron. Oznacza to wyszukiwanie nazwy firmy, nazwy witryny internetowej, […] podstawowych produktów, tego rodzaju rzeczy oraz wyświetlanie stron, które pojawiają się w wynikach wyszukiwania i upewnianie się, że wszystko, czego nie chcesz pokazywać, nie jest wyświetlane . Zwykle prowadzi to do maksymalnie 100 adresów URL, w przypadku których twierdzisz, że zostały zhakowane, i chcę, aby zostały jak najszybciej usunięte. W tym celu użyj narzędzia do usuwania. To w zasadzie najszybszy sposób na uporządkowanie rzeczy. Narzędzie do usuwania usuwa te adresy URL w ciągu około jednego dnia, zwłaszcza w przypadku rzeczy, które będą widoczne dla użytkowników, którzy się tym zajmują.

Druga część polega na tym, że pozostałe adresy URL będą z czasem ponownie indeksowane. Ale […] jeśli chodzi o wiele adresów URL w witrynie, zajmuje to kilka miesięcy. Z jednej strony możesz je pozostawić i powiedzieć, że nie są one widoczne dla ludzi, chyba że wyraźnie wyszukasz zaatakowaną zawartość lub wykonasz zapytanie w witrynie. Z czasem odpadną. Pozostaw je na pół roku, a następnie sprawdź ponownie, czy są całkowicie oczyszczone.

Jeśli chcesz spróbować rozwiązać ten problem tak szybko, jak to możliwe, możesz również użyć narzędzia do usuwania z ustawieniem prefiksu i zasadniczo spróbować znaleźć typowe prefiksy dla tych zhakowanych stron, które mogą być nazwą folderu, nazwą pliku lub czymś, co jest w początek i odfiltruj je. Narzędzie do usuwania nie usuwa ich z naszego indeksu, więc nie zmienia niczego w rankingu, ale nie pokazuje ich już w wynikach. W ten sposób możesz ominąć tylko bardziej widoczne strony, aby spróbować wyczyścić resztę.

Osobiście uważam, że nie musisz czyścić wszystkich tych stron, ponieważ jeśli użytkownicy ich nie widzą, to technicznie [te strony] istnieją w wynikach wyszukiwania, ale jeśli nikt ich nie widzi, niczego to nie zmienia dla Twojej witryny. Więc z tego punktu widzenia skupiłbym się na widocznej części. Posprzątaj to, a kiedy to zrobisz, po prostu pozwól, aby reszta sama się ułożyła”.

Jak szybciej indeksować prawidłowe adresy URL?

28:39 „Mamy witrynę internetową z prawidłowymi adresami URL i zawartością wysokiej jakości. Przestrzegają wskazówek podanych w Centrum wyszukiwarki Google. […] Ale czasami indeksowanie tych adresów URL zajmuje wieki. […] Żałuję, że nie mamy narzędzia, dzięki któremu moglibyśmy je szybciej zindeksować.”

John: „[…] Myślę, że ogólnie rzecz biorąc, w przypadku tych rzeczy zalecamy narzędzie lub funkcję Prześlij do indeksowania w Search Console. Ale jednocześnie nie indeksujemy wszystkiego. Bardzo dobrze może się zdarzyć, że masz coś, co jest poprawną stroną, ale nie indeksujemy tego. Myślę, że jednym z powodów, dla których zmierzamy w tym kierunku, jest to, że obecnie prawie wszystkie strony są prawidłowymi stronami i naprawdę trudno jest skonfigurować CMS, w którym tworzysz nieprawidłowe strony. Jeśli używasz WordPressa lub dowolnego z popularnych systemów, domyślnie tworzy on tylko prawidłowe strony.

Z technicznego punktu widzenia nie możemy zaindeksować wszystkiego w sieci, więc gdzieś musimy narysować granicę. To całkowicie normalne, że witryny internetowe mają indeksowane części treści, a części ich treści nie są indeksowane. Zwykle z biegiem czasu, ponieważ rozumiemy, że jest to naprawdę dobra strona internetowa i jeśli ma rozsądną strukturę wewnętrzną, to możemy pobierać coraz więcej, ale nie jest to gwarancją, że zaindeksujemy wszystko na stronie. Warto o tym pamiętać. Szczególnie w Search Console łatwo jest spojrzeć na raporty i powiedzieć, że te strony nie są indeksowane, więc robię coś nie tak. Ale z naszego punktu widzenia to normalne, że nie wszystko jest indeksowane. Myślę, że obecnie jest to o wiele bardziej widoczne”.

Czy emotikony w tytułach i meta opisach wpływają na SEO?

33:04 Czy możesz podać [jakoś] rekomendacje dotyczące emotikonów użytych w tytule i meta opisie? Czy wpływają na SEO, czy nie?”

Według Johna: „Zdecydowanie możesz używać emotikonów w tytułach i opisach na swoich stronach. Nie pokazujemy ich wszystkich w wynikach wyszukiwania, zwłaszcza jeśli uważamy, że zakłóca to wyniki wyszukiwania, ponieważ może to być mylące. […] Ale możesz je tam trzymać. Nie chodzi o to, że powodują problemy.

Nie sądzę, abyś miał jakąkolwiek znaczącą przewagę, umieszczając je tam. Co najwyżej staramy się ustalić, jaki jest odpowiednik tego emoji. Może użyjcie tego słowa również związanego ze stroną, ale to nie jest tak, że zyskujecie przewagę za […] kolorowy tytuł. Z tego punktu widzenia, jeśli chcesz mieć je w swoich tytułach i opisach, zrób to. Jeśli nie chcesz ich tam, to też w porządku. Nie sądzę, że to szkodzi ani nie szkodzi SEO ani w żaden sposób nie pomaga SEO.”

Często zadawane pytania nie wyświetlają się w SERPach

36:15 Mamy schemat FAQ w kilku artykułach, które nie pokazują żadnych błędów technicznych w GSC. Czy istnieją nietechniczne powody, dla których Google nie wyświetla naszych często zadawanych pytań w SERPach pod postem? Czy może to być problem z zaufaniem do treści na naszej stronie?”

John odpowiedział: „Wyniki z elementami rozszerzonymi w najczęstszych pytaniach są zasadniczo podobne do innych typów wyników z elementami rozszerzonymi, ponieważ mamy kilka poziomów, które bierzemy pod uwagę, zanim pokażemy je w wynikach wyszukiwania. Z jednej strony muszą być poprawne technicznie. Brzmi to technicznie poprawne. Z drugiej strony muszą być zgodne z naszymi zasadami. Wydaje mi się, że nie mamy żadnych istotnych zasad dotyczących wyników z elementami rozszerzonymi w najczęściej zadawanych pytaniach poza tym, że treść powinna być widoczna na stronie. Trzecią kwestią, która czasami pojawia się tutaj, jest to, że musimy być w stanie zrozumieć, że ta strona internetowa jest godna zaufania pod tym względem, że możemy ufać, że te dane są prawidłowe. To jest coś, w czym z punktu widzenia jakości może nie jesteśmy przekonani do strony internetowej i wtedy nie pokazalibyśmy jej. Ale to są trzy kroki, którym bym się przyjrzał. […] Jeśli wszystko się zgadza, to pomyślałbym, co mógłbym zrobić, aby znacząco poprawić jakość mojej strony internetowej.”

Radzenie sobie z treściami sezonowymi

37:38 Chcielibyśmy rozszerzyć istniejące strony o bardziej aktualne treści, np. o tematy sezonowe lub wydarzenia. Co robimy z takimi treściami po zakończeniu sezonu lub wydarzenia (np. Black Friday)? Po prostu zostaw te sekcje na stronie na stałe lub usuń je po wydarzeniu i dodaj je ponownie w przyszłym roku?”

John odpowiedział: „Z naszej strony to całkowicie zależy od ciebie, jak sobie z tym poradzisz. Przechowywanie stron jest w porządku, usuwanie ich po pewnym czasie jest w porządku, jeśli nie są już istotne. Zasadniczo prawdopodobnie zobaczysz, że ruch na tych stronach spadnie, gdy nie jest to sezonowe. Jeśli ludzie nie szukają Black Friday, to nie znajdą Twoich stron z Black Friday. Wtedy nie ma znaczenia, czy masz tę stronę, czy nie, ponieważ nie tracisz tam żadnych wyświetleń. Jeśli ustawisz tę stronę jako noindex lub jeśli ustawisz ją na 404 na jakiś czas, a potem przywrócisz ją później, to w zasadzie wszystko jest w porządku.

Jedyna rzecz, na którą chciałbym zwrócić uwagę w przypadku stron sezonowych, to ponowne używanie tych samych adresów URL rok po roku. Więc zamiast mieć stronę o nazwie Czarny piątek 2021, a następnie Czarny piątek 2022, miej stronę o nazwie Czarny piątek. W ten sposób, jeśli ponownie użyjesz tej strony, wszystkie sygnały, które przez lata kojarzyłeś z tą stroną, będą nadal działać na Twoją korzyść , a nie będziesz musiał co roku gromadzić nowych sygnałów na takie wydarzenie sezonowe. To główna rekomendacja, którą tam mam.

Jeśli usuniesz te strony, gdy ich nie potrzebujesz, a później odtworzysz ten sam adres URL, lub jeśli utrzymasz te strony aktywne przez dłuższy czas, myślę, że obie są w zasadzie w porządku. Zwłaszcza w przypadku konkurencyjnych wydarzeń sezonowych, takich jak Czarny piątek czy Boże Narodzenie […], jest to coś, w którym często widzę, że strony tworzą te strony trochę przed czasem. Nawet jeśli nie mają jeszcze dużo treści do udostępnienia, mogą zacząć budować pewne sygnały dla tych stron. Może to dotyczyć linków wewnętrznych i zewnętrznych, działań marketingowych lub czegokolwiek. Mając te strony trochę przed czasem, nawet jeśli nie masz na nich dużo treści, trochę łatwiej jest tam być, gdy nagle są one doprawione”.

CLS a ranking

40:19 Jak duży wpływ na ranking Google ma zły wynik CLS? FCP, FID i LCP mają dobre wyniki, tylko CLS nie jest tak dobre.”

John powiedział: „Nie mamy niczego podobnego do stałej liczby, jeśli chodzi o to, jak silne są te wyniki w witrynie internetowej. Naprawdę trudno powiedzieć, jak bardzo jest zły lub jak duży jest wpływ.

Z naszego punktu widzenia bierzemy te dane pod uwagę, jeśli chodzi o kluczowe wskaźniki sieciowe i czynnik rankingowy Page Experience. Staramy się patrzeć na nie całościowo. I staramy się skoncentrować szczególnie […] na tym, gdzie jesteś w tym rozsądnym obszarze, jeśli chodzi o te wyniki. […] Jak tylko wyjdziesz z tej złej sekcji, to można to powiedzieć, no cóż, to jest rozsądne i możemy wziąć pod uwagę. Nie mamy żadnych ustalonych rankingów ani funkcji algorytmicznych, w których mówimy, że bierzemy połowę FCP i połowę CLS, i bierzemy jedną trzecią tego pod uwagę. Jest to coś, w którym musimy spojrzeć na szerszy obraz i może się zdarzyć, że z biegiem czasu trochę zmienimy, aby upewnić się, że odpowiednio oznaczamy lub traktujemy działanie strony.

Zwłaszcza jeśli chodzi o czynnik rankingowy Page Experience, który jest czymś, w którym z roku na rok będziemy również wprowadzać zmiany, więc spodziewam się, że za każdym razem, gdy to przejrzą, prawdopodobnie ogłoszą z wyprzedzeniem pewne inne zmiany lub inne czynniki, które się pojawią. graj tutaj, podobnie jak wprowadziliśmy do tego aspekt pulpitu, o którym rozmawialiśmy, jak sądzę, w zeszłym roku i który wejdzie w grę jeszcze w tym roku.

Podstawowe wskaźniki internetowe a przeszukiwanie i indeksowanie

42:33 Czy słabe wyniki Core Web Vitals mogą być problemem z jakością witryny, który ogranicza indeksowanie lub liczbę stron w witrynie, które są ostatecznie indeksowane?”

John: „Naprawdę trudno jest na to spojrzeć bez patrzenia na konkretną stronę internetową. Zasadniczo jednak Core Web Vitals ma wpływ na czynnik rankingowy Page Experience, a to raczej czynnik rankingowy, a nie czynnik jakości. W szczególności nie ma to wpływu na to, ile przeszukujemy i indeksujemy z witryny. W niektórych przypadkach istnieje pewien związek między szybkością strony a szybkością, z jaką możemy ją zaindeksować, ale nie musi tak być. Więc to jest coś, w którym zwykle te strony są mniej połączone i nie są całkowicie ze sobą powiązane.

W szczególności, jeśli chodzi o Page Experience, czas potrzebny na załadowanie strony zależy od tak wielu czynników, nie tylko od jednego żądania do serwera, może być tak, że może masz czcionki na tej stronie, a może masz duże obrazy, które są pobierane z innych witryn, wszystkie te rzeczy mają wpływ na szybkość wczytywania strony dla użytkownika, ale nie odzwierciedlają szybkości indeksowania strony. Oczywiście, jeśli Twój serwer jest tak powolny, że każde żądanie wysłane do serwera zajmuje kilka sekund, wtedy powiedziałbym, że Twoja strona będzie powolna, a indeksowanie przez Google będzie powolne tylko dlatego, że nie możemy czołgać się tyle, ile byśmy chcieli.

Ale w większości przypadków, jeśli mówisz, że niektóre strony są dobre, a indeksowanie jest dość szybkie, nie spodziewałbym się związku między wynikami Core Web Vitals a przeszukiwaniem i indeksowaniem witryny.

Przekierowania geograficzne a serwisy informacyjne

53:25 „Wiem, że Google generalnie odradza przekierowania geograficzne na stronach internetowych z wielu powodów. Na przykład fakt, że Googlebot będzie mógł poprawnie przeszukiwać i indeksować wszystkie witryny. […] Zastanawiam się, czy sytuacja wygląda inaczej w przypadku serwisów informacyjnych czy serwisów informacyjnych? Wielu głównych dostawców wiadomości […] wszyscy od kilku lat stosują przekierowania geograficzne i żaden z nich nie wydaje się odczuwać negatywnego wpływu na możliwość indeksowania ich treści”.

Według Johna: „Dotyczy to wszystkich rodzajów stron internetowych. Z naszego punktu widzenia zazwyczaj przekierowania geograficzne są raczej kwestią utrudnienia nam technicznego indeksowania tej treści. Zwłaszcza jeśli przekierowujesz użytkowników z USA do innej wersji witryny, będziemy śledzić to przekierowanie, ponieważ Googlebot zwykle indeksuje z jednej lokalizacji. Wtedy nie jest to kwestia jakości sygnałów. […] Chodzi o to, że jeśli Google nie widzi Twoich stron internetowych, to nie możemy ich zindeksować, a to jest zasadniczo główny powód, dla którego nie zalecamy robienia tych rzeczy.

Nie wiem, czy niektóre z tych witryn robią coś, w którym niektórzy użytkownicy są przekierowywani, a inni nie są przekierowywani. Może Googlebot nie jest przekierowywany. To jest możliwe. Z naszego punktu widzenia nie sądzę, żeby to im przysłużyło, ponieważ zwykle kończyłoby się to w sytuacji, gdy w wynikach wyszukiwania masz wiele adresów URL o tej samej treści i konkurujesz ze sobą. Wtedy mniej chodzi o zrobienie czegoś podstępnego i wkradanie się do wyników, ale raczej o duplikowanie elementów w swojej witrynie. Znajdujemy Twoje treści w wielu lokalizacjach, nie wiemy, którą z nich najlepiej pozycjonować, więc musimy zgadywać.

Z tego punktu widzenia, bez sprawdzania od razu żadnej z tych witryn, podejrzewam, że jesteśmy świadomi tych przekierowań geograficznych. Widzimy, jak to się dzieje i z technicznego punktu widzenia próbujemy przeszukiwać i indeksować tam właściwe strony, ale nie chodzi o to, że za kulisami dzieje się coś podstępnego.

Nie jest też tak, że postrzegalibyśmy to jako rodzaj maskowania lub coś, co byłoby sprzeczne ze wskazówkami dla webmasterów. Z technicznego punktu widzenia, jeśli utrudnisz nam znalezienie i zindeksowanie Twoich treści, będzie nam trudno zrobić to, czego od nas oczekujesz. Dlatego mamy te rekomendacje.”