Godziny pracy SEO – 17 września 2021 r.
Opublikowany: 2021-09-21Oto podsumowanie najciekawszych pytań i odpowiedzi z godzin pracy Google SEO z Johnem Muellerem 17 września 2021 r.
Ograniczenia słów
09:05 „Jaki jest limit słów, których musimy używać na stronach [kategorii]?”
John stwierdził, że takich ograniczeń nie ma i dodał, że „[…] szczególnie w przypadku stron kategorii, trzeba mieć na stronie jakieś informacje, abyśmy zrozumieli, o co chodzi. Ale to na ogół bardzo mało informacji. W wielu przypadkach rozumiemy to z produktów, które i tak wymieniłeś, jeśli nazwy produktów są dla nas wystarczająco jasne, aby je zrozumieć. […] Ale czasami nazwy produktów są trochę trudne do zrozumienia i wtedy warto dodać tam jakiś kontekst. Ale zwykle jest to dodatkowy kontekst w rozmiarze jednego, dwóch lub trzech zdań”.
Brak zmian w metrykach pokrycia indeksu
10:57 „Pracuję nad dużą witryną internetową z kilkoma milionami stron. Zrobiliśmy przekierowanie między dwoma językami. […] Czyli migracja idzie dobrze, ruch rusza z drugiej ścieżki. Dla wyjaśnienia, jest to projekcja między dwoma podfolderami lub wszystkim w tej samej domenie. Chcę tutaj wspomnieć, że po prawie trzech tygodniach od wykonania tego przekierowania nie widzimy żadnych zmian we wskaźnikach zasięgu. […] Żadnego opuszczania prawidłowych stron, nie zwiększania wykluczonych stron z powodu przekierowań lub czegoś podobnego. Czy powinniśmy się tym martwić?
„Nie sądzę, aby istniał ustalony harmonogram, w którym tego rodzaju rzeczy byłyby widoczne. […] Indeksujemy strony w witrynie z różną prędkością. Niektóre strony będziemy indeksować codziennie, a inne strony będziemy indeksować raz w miesiącu lub co kilka miesięcy. Jeśli więc zawartość tych folderów, które łączysz, jest zawartością, która jest bardzo rzadko indeksowana, odzwierciedlenie tego zajmie dużo czasu. Natomiast jeśli jest to treść, która jest bardzo aktywnie indeksowana, zmiany powinny pojawić się w ciągu, zwykle, nie wiem, tygodnia.
Aktualizacje raportu Pokrycie indeksu
13:25 Przy łączeniu dwóch podfolderów „[…] ruch przechodzi z jednej części serwisu do drugiej. Wszystko idzie dobrze i widzimy to również w plikach dziennika. […] Ale nie widzimy tego w metrykach zasięgu. Obawiamy się, że może to być albo zgłaszany błąd, albo że powinniśmy czekać cały dzień?”
John odpowiedział: „[…] Raport dotyczący pokrycia indeksu jest aktualizowany może dwa razy w tygodniu. […] Wiele raportów w Search Console pojawia się raz lub dwa razy w tygodniu, więc może to oznaczać tylko opóźnienie. Ale jeśli widzisz, że ruch trafia na właściwe strony, jeśli patrzysz na raport skuteczności i widzisz tego rodzaju przesunięcie, to myślę, że to w porządku. Myślę, że nie musisz uważać na raport o stanie indeksu dla czegoś takiego. Ponieważ to, co zwykle się dzieje, gdy łączysz strony w ten sposób, to to, że nasze systemy muszą najpierw ustalić, że musimy znaleźć nowy kanoniczny dla tych stron. Więc bierzesz dwie strony, składasz je w jedną. Następnie widzimy, że jest to zestaw stron, musimy wybrać kanoniczny, a ten proces zajmuje trochę czasu. A potem potrzeba trochę czasu, aby znalazło to odzwierciedlenie w raportach. Natomiast jeśli zrobisz coś takiego jak przenoszenie czystej strony, możemy po prostu przenieść wszystko. Nie mamy procesu kanonizacji, który musimy rozpracować. Mogłem więc sobie wyobrazić, że po prostu dłużej trwa, aby być tam widocznym”.
Zrozumienie jakości strony internetowej
15:22 „Moje pytanie dotyczy […] konkretnie algorytmów z nowymi stronami […], kiedy pojawia się Google i nazywa to i stara się to zrozumieć. Czy następnie porównuje te strony ze starszymi starszymi stronami w witrynie i mówi: okej, te strony są świetne, ale te znacznie starsze strony to w rzeczywistości bzdury. Aby wpłynęło to na jakość nowszych stron i stron kategorii. Czy to jest coś, co robią algorytmy […], aby naprawdę zrozumieć jakość serwisu?”
John powiedział, że „[…] Kiedy staramy się zrozumieć ogólną jakość strony internetowej, jest to po prostu proces, który zajmuje dużo czasu. I ma tam – nie wiem – dość długi czas realizacji. Więc jeśli dodasz pięć stron do witryny, która ma już 10 000 stron, prawdopodobnie najpierw skupimy się na większości witryny, a następnie z czasem zobaczymy, jak to się ułoży z nową zawartością; tam też."
Przekazywanie słuszności łącza
17:06 „Jeśli otrzymasz link zwrotny, [Google] nie tylko założy, że jest to link zwrotny dobrej jakości, a następnie po prostu przekaże wartość linku na ślepo do witryny. Czy więc Google, kiedy indeksuje te linki zwrotne, albo patrzy na ruch odsyłający i uwzględnia to w algorytmie? A jeśli nie widzi tych informacji, to czy próbuje, jak sądzę, ocenić, czy istnieje duża skłonność do klikania w ten link? A więc, jeśli istnieje duża skłonność do klikania w ten link, to przekażą wartość link equity? Jeśli nie, to powiedz, że wiesz, […] możesz dosłownie stworzyć bloga i link teraz. W takim przypadku Google mówi, że właściwie nie ma ruchu; tak naprawdę niewiele się tu dzieje, więc dlaczego mielibyśmy przekazywać jakąkolwiek formę link equity? […] Czy ten rodzaj danych wpływa na to, czy link equity jest przenoszone na stronę?”
– Nie sądzę. Nie używamy takich rzeczy, jak ruch przez łącze, gdy próbujemy ocenić, jak należy wycenić łącze. O ile wiem, nie patrzymy również na takie rzeczy, jak prawdopodobieństwo, że ktoś kliknie link, pod kątem tego, jak powinniśmy go wycenić. Ponieważ czasami linki są po prostu odniesieniami i nie oczekujemy, że ludzie będą klikać każdy link na stronie . Ale jeśli ktoś odnosi się do Twojej witryny i mówi, robię to, ponieważ ten ekspert powiedział, żeby to zrobić. Wtedy ludzie nie będą klikać tego linku i zawsze […] patrz na swoją stronę i potwierdzaj, co tam jest napisane. Ale uznają to za prawie jak odniesienie. […] Gdyby potrzebowali dowiedzieć się więcej, mogli tam pojechać. Ale nie muszą. I z tego punktu widzenia nie sądzę, żebyśmy brali to pod uwagę przy ocenie wartości łącza”.
Migracja witryny domeny
20:53 „ Przeprowadziliśmy migrację domeny witryny z jednej domeny do nowej i przestrzegaliśmy wszystkich wymagań i zaleceń dotyczących migracji. Zaktualizowaliśmy przekierowania, tagi kanoniczne i wcześniej testowaliśmy w środowisku deweloperskim. Dodaliśmy nową usługę i zweryfikowaliśmy nową domenę w Google Search Console. Podczas zmiany adresu otrzymujemy błąd walidacji nieudany, mówiący, że istnieje przekierowanie 301 ze strony głównej i nie można pobrać starej domeny. Jak przechodzimy walidację narzędzia Zmiana adresu?”
„Przede wszystkim najważniejszą rzeczą, o której należy pamiętać, jest to, że narzędzie Zmiana adresu to tylko jeden dodatkowy sygnał, którego używamy w odniesieniu do migracji. To nie jest wymóg. Więc jeśli z jakiegoś powodu nie możesz sprawić, by narzędzie zmiany adresu działało w Twojej witrynie, jeśli masz poprawnie skonfigurowane przekierowanie, wszystkie te rzeczy, powinieneś być ustawiony. To nie jest coś, co absolutnie musisz zrobić. Wyobrażam sobie, że większość witryn […] tak naprawdę nie używa tego narzędzia. Jest to coś w rodzaju tych, którzy wiedzą o Search Console i tych, którzy wiedzą o wszystkich tego rodzaju wymyślnych rzeczach, mogą jej używać. Jeśli chodzi o przyczyny awarii, naprawdę trudno powiedzieć, nie znając nazwy witryny lub adresów URL, które tam testujesz.
Jedną z rzeczy, które zauważyłem, jest to, że masz wersję www i wersję bez www swojej witryny i przekierowujesz ją krok po kroku. Na przykład przekierowujesz do wersji innej niż www, a następnie przekierowujesz do nowej domeny. Może się to zdarzyć, co nas zniechęca, jeśli prześlesz zmianę adresu w wersji witryny, która nie jest wersją podstawową. Więc może to być jedno, aby dokładnie sprawdzić w odniesieniu do narzędzia zmiany adresu, czy przesyłasz wersję, która jest lub była aktualnie zaindeksowana, czy może przesyłasz wersję alternatywną w Search Console”.
Dodawanie wielu typów schematów
23:36 „Czy mogę dodać wiele typów schematów do jednej strony? Jeśli tak, jaki byłby najlepszy sposób na połączenie schematu FAQ i schematu przepisów na jednej stronie?”
„ Na swojej stronie możesz umieścić tyle uporządkowanych danych, ile chcesz. Jednak w większości przypadków, jeśli chodzi o wyniki z elementami rozszerzonymi, które wyświetlamy w wynikach wyszukiwania, wybieramy tylko jeden rodzaj danych strukturalnych lub jeden typ wyników z elementami rozszerzonymi i skupiamy się na tym. Jeśli więc masz na swojej stronie wiele typów danych strukturalnych, istnieje bardzo duża szansa, że po prostu wybierzemy jeden z tych typów i to pokażemy. Więc jeśli chcesz, aby jakiś konkretny typ był wyświetlany w wynikach wyszukiwania i widzisz, że nie ma połączonych zastosowań, gdy patrzysz na wyniki wyszukiwania w inny sposób, spróbuję skupić się na typie, który chcesz, a nie tylko go łączyć z innymi rzeczami. Więc najlepiej, wybierz taki, którego naprawdę chcesz i skup się na nim.

Błędy 404 a indeksowanie i indeksowanie
24:39 „ Nasz raport GSC Crawl Stats pokazuje stały wzrost liczby 404 stron, które NIE są częścią naszej witryny (nie istnieją w naszej mapie witryny ani nie są generowane przez wewnętrzne wyszukiwanie). Wygląda na to, że są to wyszukiwania Google, które są dołączane do naszych adresów URL, a Google próbuje je zaindeksować. W podziale na odpowiedzi indeksowania te błędy 404 stanowią ponad 40% odpowiedzi indeksowania. Jak możemy się upewnić, że nie wpłynie to negatywnie na naszą możliwość indeksowania i indeksowania?”
„Przede wszystkim nie tworzymy adresów URL, więc nie chodzi o to, że wzięlibyśmy wyszukiwania w Google, a następnie tworzyli adresy URL w Twojej witrynie. Myślę, że to tylko losowe linki, które znaleźliśmy w sieci. […] Więc to jest coś, co zdarza się cały czas. Znajdujemy te linki, a następnie je indeksujemy. Widzimy, że zwracają 404, a potem zaczynamy je ignorować. Więc w praktyce nie jest to coś, o co trzeba się troszczyć. […] Zazwyczaj to, co dzieje się z tego rodzaju linkami, polega na tym, że staramy się ogólnie określić dla Twojej witryny, które adresy URL musimy indeksować i które adresy URL musimy indeksować z jaką częstotliwością. A potem bierzemy pod uwagę po ustaleniu, co absolutnie musimy zrobić, co możemy zrobić dodatkowo. I w tym dodatkowym kubełku, który jest również bardzo, jak sądzę, stopniowanym zestawem adresów URL, w zasadzie zawierającym […] na przykład losowe linki ze stron skrobaków. Jeśli więc widzisz, że indeksujemy w Twojej witrynie wiele adresów URL pochodzących z tych losowych linków, możesz zasadniczo założyć, że zakończyliśmy już indeksowanie rzeczy, na których nam zależy, a które naszym zdaniem strona jest ważna. Po prostu mamy czas i pojemność na twoim serwerze i spróbujemy też innych rzeczy. Z tego punktu widzenia nie jest tak, że te błędy 404 powodowałyby problemy z indeksowaniem Twojej witryny. To prawie znak, że mamy wystarczającą pojemność dla Twojej witryny. A jeśli zdarzy się, że masz więcej treści, niż faktycznie podałeś w swojej witrynie, prawdopodobnie również ją przeszukamy i zindeksujemy. Więc w gruncie rzeczy to prawie jak dobry znak i na pewno nie trzeba ich blokować przez robots.txt, to nie jest coś, co trzeba tłumić […]”
Blokowanie ruchu z innych krajów
27:34 “ Mamy serwis internetowy działający tylko we Francji. I mamy duży ruch z innych krajów, które mają naprawdę słabą przepustowość, co powoduje, że nasze wyniki CWV spadają. […] Ponieważ nie działamy poza Francją, nie mamy żadnego pożytku z ruchu poza nią. Czy zaleca się blokowanie ruchu z innych krajów?”
Oto, co powiedział John: „Spróbowałbym uniknąć blokowania ruchu z innych krajów. Myślę, że ostatecznie to zależy od Ciebie. To twoja strona internetowa; możesz wybrać, co chcesz zrobić. […] W tym przypadku należy pamiętać, że indeksujemy prawie wszystkie witryny z USA. Jeśli więc znajdujesz się we Francji i blokujesz wszystkie inne kraje, blokujesz również indeksowanie Googlebotowi . I wtedy, w zasadzie, nie bylibyśmy w stanie zindeksować żadnej z Twoich treści. Z tego punktu widzenia, jeśli chcesz blokować inne kraje, upewnij się, że przynajmniej nie blokujesz kraju, z którego indeksuje Googlebot. Przynajmniej jeśli zależy ci na wyszukiwaniu.
Przegrupowywanie stron
35:38 „ Google niedawno ponownie zgrupowało ponad 30 000 stron w naszej witrynie, które są zauważalnie różnymi stronami pod względem wyników CWV. […] To sprowadziło średni LCP dla tych stron do 3,4 s, mimo że nasze strony produktów wynosiły średnio 2,5 s przed przegrupowaniem. Pracowaliśmy nad tym, aby strony były o 2,5 sekundy poniżej progu, ale nasza taktyka wydaje się teraz zbyt nieistotna, aby doprowadzić nas do wyniku, który musimy osiągnąć. Czy brany jest zestaw grupujący, a następnie średnia wyników, czy też brany jest wynik, a następnie zestaw grupowy? – (pomoże nam to ustalić, czy umieszczenie tych stron produktów poniżej 2.5 pomoże rozwiązać problem, czy nie).”
„[…] Nie mamy żadnej jasnej ani dokładnej definicji tego, jak robimy grupowanie, ponieważ jest to coś, co musi ewoluować z czasem w zależności od ilości danych, które mamy dla strony internetowej. Jeśli więc mamy dużo danych dla wielu różnych rodzajów stron w witrynie, naszym systemom o wiele łatwiej jest powiedzieć, że zrobimy grupowanie nieco bardziej precyzyjne niż tak surowe jak poprzednio. Natomiast jeśli nie mamy dużo danych, może nawet dojdziemy do sytuacji, w której traktujemy całą witrynę jako jedną grupę. Więc to jest jedna rzecz. Druga sprawa to dane, które zbieramy w oparciu o dane terenowe. Widać to również w Search Console, co oznacza, że nie chodzi o to, że wzięlibyśmy średnią poszczególnych stron i po prostu uśrednilibyśmy je według liczby stron. Ale w praktyce jest to raczej średnia ważona ruchu w tym sensie, że niektóre strony będą miały znacznie większy ruch i będziemy mieć tam więcej danych. A inne strony będą miały mniejszy ruch, a my nie będziemy tam mieć tak dużo danych. Więc to może być coś, w czym widzisz tego rodzaju różnice. Jeśli dużo osób wchodzi na Twoją stronę główną, a nie tak wiele do poszczególnych produktów, może się zdarzyć, że strona główna ma nieco wyższą wagę tylko dlatego, że mamy tam więcej danych. To jest kierunek, w którym zmierzam, a w praktyce oznacza to, że zamiast koncentrować się tak bardzo na poszczególnych stronach, przyglądałbym się takim rzeczom jak Google Analytics lub inne narzędzia analityczne, które musisz określić, które strony lub jakie typy stron generują duży ruch. A potem, optymalizując te strony, zasadniczo próbujesz poprawić wrażenia użytkownika […] i to jest coś, co chcielibyśmy tam wykorzystać do punktacji Core Web Vital. Zasadniczo mniej uśredniania liczby stron, a więcej uśredniania tego, co ludzie faktycznie widzą, gdy odwiedzają Twoją witrynę”.
Algorytm MUM
42:44 „ Czy wraz z pojawieniem się algorytmu MUM wyniki wyszukiwania będą odpowiedzią na wiele źródeł? Mam na myśli to, że kiedy użytkownik szuka tematu, odpowiedzi są wybierane z wielu źródeł i dostarczane mu jako pakiet? Uważamy, że rywalizacja w przyszłości stanie się rodzajem interakcji między konkurentami. Razem mogą zaspokoić potrzeby poszukiwacza. Witryny skupiają się na usługach, które mogą świadczyć lepiej. Kilku konkurentów może zaspokoić potrzeby poszukiwaczy. Portfolio potrzeb użytkowników uzupełnia kilka witryn, które konkurują o najlepszą usługę tam, gdzie są lepiej znane”.
Jan odpowiedział: „Nie wiem; może tak się stanie w pewnym momencie. Mamy zamiar starać się udostępniać różne opcje w wynikach wyszukiwania, w przypadku których możemy stwierdzić, że mogą istnieć takie rzeczy, jak bardzo silne lub różne opinie na określony temat . I jest to pytanie, jakie są tam opinie. Wtedy sensowne może być dostarczenie czegoś w rodzaju zróżnicowanego zestawu wyników, które obejmują różne punkty widzenia dla tego tematu. Nie sądzę, że dotyczy to większości zapytań, ale czasami staramy się to brać pod uwagę”.
Migracja witryny
47:11 „ Co jeśli podczas migracji witryny i w dniu, w którym pociągamy za spust, my: plik robots.txt blokuje obie domeny […], wykonujemy 302 tymczasowe przekierowania (w ciągu kilku dni lub tygodni przełączymy się na 301 po tym, jak Devs są pewni, że nic zepsuł się) i udostępniać status HTTP 503 w całej witrynie przez dzień lub kilka godzin, podczas gdy programiści sprawdzają, czy nie ma żadnych uszkodzeń?”
Według Johna „[…] To wszystko są odrębne sytuacje. I nie jest tak, że powiedzielibyśmy, no cóż, to jest przeniesienie witryny z tą odmianą. Ale raczej, jeśli coś blokujesz, jeśli coś jest zepsute, to przede wszystkim postrzegamy to jako coś, co jest zepsute. A jeśli na późniejszym etapie zobaczymy, że są to przekierowania, wtedy powiedzielibyśmy, że teraz strona przekierowuje. I traktowalibyśmy je jako odrębne stany. Więc jeśli w dniu, w którym chcesz zrobić przeniesienie strony, coś się zepsuje i wszystko na twoim serwerze jest zepsute, to po prostu dobrze zobaczymy, wszystko na serwerze jest zepsute. Nie wiedzielibyśmy, że Twoim zamiarem było przeniesienie witryny, ponieważ po prostu zobaczymy, że wszystko jest zepsute. Więc z tego punktu widzenia traktowałbym je jako odrębne stany. I oczywiście staraj się jak najszybciej naprawić każdy uszkodzony stan, a następnie przejdź do migracji tak szybko, jak to możliwe”.
Usuwanie starej treści z witryny z wiadomościami
49:42 „Czy warto przyjrzeć się usuwaniu/braku indeksowania/nie zezwalaniu na stare wiadomości w witrynie z wiadomościami? Wiadomości takie jak 10+ lat? Czy wpływa to ogólnie na jakość witryny i optymalizuje budżet indeksowania? To witryna z ponad 3 milionami stron. Czy to coś z tym robi?
„Nie sądzę, że usunięcie tylko starych wiadomości przyniosłoby ci wiele korzyści. Nie jest to również coś, co poleciłbym serwisom informacyjnym, ponieważ czasami wszystkie informacje są nadal przydatne. Z tego punktu widzenia nie zrobiłbym tego ze względów SEO. Jeśli powody, dla których chcesz usunąć treści lub umieścić je w sekcji archiwum na swojej stronie internetowej ze względu na użyteczność lub konserwację […], to zdecydowanie możesz to zrobić. Ale nie usunęłabym na ślepo starej treści, ponieważ jest stara”.
