Godziny pracy SEO, 25 lutego 2022 r.

Opublikowany: 2022-03-09

Oto podsumowanie najciekawszych pytań i odpowiedzi z godzin pracy Google SEO z Johnem Muellerem w dniu 25 lutego 2022 r.

Ukryj zawartość
1 raport Linki w Search Console
2 Niekontekstowe linki w stopce a struktura witryny
3 Czy cały ukryty tekst jest sprzeczny z wytycznymi Google?
4 Znaczenie nazw plików graficznych dla rankingu witryn
5 Kierowanie na dwie różne strony za pomocą tego samego słowa kluczowego
6 Czy istnieje dobry stosunek stron indeksowanych do nieindeksowanych?
7 Wyniki wyszukiwania na stronach internetowych a ranking
8 Aktualizacja doświadczenia strony na komputerze w porównaniu z rankingiem
9 Nieindeksowana przetłumaczona treść

Raport Linki w Search Console

05:41 „Była tam domena, na której była kiedyś strona internetowa, a potem […] została usunięta. [Jeśli] w pewnym momencie pojawi się nowa witryna, to linki do starej witryny już się nie liczą, co wydaje się całkiem logiczne. […] W Search Console widzę co najmniej jeden link od poprzedniego właściciela, który wciąż tam jest. Czy [to] oznacza, że ​​ten link nadal będzie się liczył, [jeśli] Search Console […] go pokaże?”

John odpowiedział: „Nie wiem, czy to się liczy, ale ważną częścią Search Console i raportu Linki jest to , że staramy się pokazać wszystkie znane nam linki do tej witryny. To nie jest znak, że uważamy, że są to ważne linki lub że się liczą. W szczególności takie rzeczy, jak linki nofollow nadal byłyby wymienione, linki zrzekające się nadal byłyby wymienione, linki, które ignorujemy z innych powodów, nadal mogą być wyświetlane. Więc tylko dlatego, że znajduje się na liście, nie oznacza, że ​​jest to nieistotny lub pomocny link do witryny”.  

Niekontekstowe linki w stopce a struktura witryny

09:13 „Zdobyliśmy witrynę, która zawierała wiele wewnętrznych linków w sekcji stopki każdej strony. Niektóre z tych linków nie są tak istotne. […] Czy Google może uznać to za problematyczne, ponieważ linki niekoniecznie są kontekstowe? […] Są po prostu pomieszane w stopce i po prostu wybierane przez wtyczkę. Boimy się, że usunięcie ich z setek stron może zepsuć strukturę witryny”.

John powiedział: „Podejrzewam, że w większości nie spowoduje to żadnych problemów. Widzę to bardziej, ponieważ te linki na tych stronach są normalnymi linkami wewnętrznymi.

Spójrz na to z punktu widzenia: czy to pomaga […] nadać kontekst pozostałym stronom w serwisie? Na przykład, jeśli masz większą witrynę internetową i zasadniczo każda strona jest połączona z każdą inną stroną, nie ma tam prawdziwego kontekstu, więc trudno nam zrozumieć, jaka jest ogólna struktura, które z tych stron [są] ważniejsze. Bo jeśli łączysz się ze wszystkim, to tak, jakby wszystko nie było ważne. To element, na który bym uważał. To, czy są w stopce, czy nie , z mojego punktu widzenia nie ma znaczenia. Jeśli są generowane przez wtyczkę lub dodawane ręcznie, nie sądzę, aby miało to znaczenie. Uważałbym ze strukturalnego punktu widzenia: czy ma sens posiadanie tych powiązań? Pewna ilość usieciowania ma sens. Jeśli masz konfigurację, w której masz powiązane strony, które są połączone ze sobą, to z mojego punktu widzenia zawsze ma to sens. Ekstremalne sieciowanie, w którym łączysz każdą stronę z każdą inną stroną, z mojego punktu widzenia to nie ma sensu”.

11:10 „[…] Jeśli wyłączymy wtyczkę i wszystkie te linki nagle […] znikną ze strony, czy wpłynie to w jakikolwiek sposób na witrynę? A może powinniśmy starać się powoli usuwać linki z jednej strony na raz?”

John: „Domyślam się , że wpłynęłoby to na sposób wyświetlania informacji w wynikach wyszukiwania, ale nie można powiedzieć, czy będzie to efekt pozytywny czy negatywny. Myślę, że to jest ta trudna część.

To, co chciałbym zrobić, aby zrozumieć, jaka jest aktualna sytuacja i jaki byłby następny krok, to uruchomienie robota indeksującego na Twojej witrynie. Wiele robotów internetowych, które tam są, wygeneruje wykres przedstawiający, w jaki sposób Twoje strony są ze sobą połączone. Następnie możesz wyłączyć wtyczkę, być może w testowej wersji swojej witryny, może nawet na żywo na krótki okres czasu. Przeszukuj ponownie, a następnie porównaj te wykresy i zobacz, czy ten robot nadal jest w stanie znaleźć całą zawartość? Czy wygląda na to, że nie ma tam wystarczającego usieciowania? Jeśli tak, to daje ci to trochę więcej zaufania, że ​​samo wyłączenie wtyczki będzie w porządku. Z naszego punktu widzenia nie ma znaczenia, czy te linki są umieszczane automatycznie, czy umieszczane przez wtyczkę, czy też umieszczane przez uczenie maszynowe. […] To tylko linki, które znajdujemy na Twojej stronie.”

Czy cały ukryty tekst jest niezgodny z wytycznymi Google?

13:22 „Czy cały ukryty tekst jest sprzeczny ze wskazówkami dla webmasterów? […] Mamy pewne elementy, które umieszczamy na wielu stronach wraz z wewnętrznie przypisanymi identyfikatorami dla każdego elementu, więc te identyfikatory nic nie znaczą dla użytkowników […], ale jako SEO może mi to znacznie ułatwić życie. […]”

Odpowiedź Johna brzmiała: „Nie sądzę, żeby to było problematyczne. Ukryty tekst, z naszego punktu widzenia, jest bardziej problematyczny, gdy tak naprawdę chodzi o oszukanie wyszukiwarek w odniesieniu do tego, co faktycznie znajduje się na stronie. Skrajnym przykładem może być to, że masz stronę o butach i jest tam dużo ukrytego tekstu o olimpiadzie […], a potem nagle twoja strona z butami zaczyna się w rankingu dla tych olimpijskich terminów. Ale kiedy użytkownik idzie, nie ma nic o igrzyskach olimpijskich, a to byłoby problematyczne z naszego punktu widzenia.

Myślę, że wykonujemy rozsądną robotę w rozpoznawaniu ukrytego tekstu i staramy się tego uniknąć, ale właśnie dlatego mamy ten element we wskazówkach dla webmasterów. Używanie go do wyświetlania czegoś, czego niekoniecznie chcesz kogoś oszukać, z mojego punktu widzenia jest w porządku. Ponadto dostępność jest częstą przyczyną ukrytego tekstu na stronie , na której masz ustawione cele stuknięcia w taki sposób, że możesz do nich stuknąć, a następnie czytnik ekranu powie coś na ten temat. Ale nie są one widoczne bezpośrednio na stronie, co też jest w porządku, więc nie obawiam się ani nie wątpi, że ta konfiguracja, którą opisałeś, zadziała”.

Znaczenie nazw plików graficznych dla rankingu witryn

24:56 Korzystamy z inteligentnego dostawcy CDN, który zastępuje nazwy plików obrazów unikalnymi numerami. Zauważyliśmy, że wszystkie obrazy to błędy 404 w Search Console. Wyłączenie CDN znacznie obniżyłoby ogólną wydajność witryny. Czy tekst alternatywny obrazu i podpisy będą wystarczające do zrozumienia przez Google bez odpowiedniej nazwy pliku, tytułu?”

Według Johna: „Są tu dwie rzeczy, na które chciałbym się przyjrzeć. Z jednej strony, jeśli są to obrazy, które musisz zindeksować w wyszukiwarce obrazów, powinieneś upewnić się, że masz stabilną nazwę pliku dla swoich obrazów. To jest tutaj najważniejszy element.

Nie wspominasz, że te liczby lub te adresy URL się zmieniają, ale czasami te sieci CDN zasadniczo zapewniają identyfikator sesji dla każdego obrazu. Jeśli adres URL obrazu zmienia się za każdym razem, gdy indeksujemy, w gruncie rzeczy nigdy nie będziemy w stanie prawidłowo zindeksować tych obrazów. Dzieje się tak głównie dlatego, że w przypadku obrazów jesteśmy nieco wolniejsi, jeśli chodzi o przeszukiwanie i indeksowanie. Jeśli więc raz zobaczymy obraz i powiemy, że powinniśmy się temu przyjrzeć, a później spróbujemy go ponownie zaindeksować, a do tego czasu liczba się zmieni, usuniemy ten obraz z naszych wyników wyszukiwania, z rankingi wizerunkowe. Zasadniczo powiemy, że ten obraz, o którym myśleliśmy, że tu jest, już tu nie istnieje. Najważniejszą częścią jest ustalenie, czy zależy Ci na wyszukiwaniu grafiki? Jeśli tak, upewnij się, że masz stabilny adres URL dla wszystkich tych obrazów. Nie ma znaczenia, czy to liczba, czy to tekst, czy coś w tym rodzaju. Powinno być po prostu stabilne. To jest tutaj najważniejsza część.

Drugą częścią, o której wspomniałeś, jest tekst alternatywny obrazu i podpisy, co sugeruje, że interesuje Cię wyszukiwanie w sieci, a nie koniecznie wyszukiwanie grafiki. W przypadku wyszukiwania w sieci nie musimy być w stanie przeszukiwać i indeksować obrazów, ponieważ zasadniczo patrzymy na same strony internetowe. Tak więc takie rzeczy jak tekst alternatywny, wszelkie podpisy, nagłówki na stronie, wszystko to wpływa na lepsze zrozumienie tej strony. Do wyszukiwania w sieci to wszystko, czego potrzebujemy. Gdyby wszystkie obrazy były na przykład przez cały czas 404 lub zablokowane przez plik robots.txt lub wyszukiwarkę internetową, nadal traktowalibyśmy tę stronę dokładnie tak samo, jak gdybyśmy byli w stanie zindeksować wszystkie te obrazy. W samym wyszukiwaniu grafiki właśnie tam musimy być w stanie zaindeksować te obrazy i zrozumieć, że istnieją stabilne adresy URL oraz zrozumieć, w jaki sposób łączą się z resztą witryny”.

Kierowanie na dwie różne strony za pomocą tego samego słowa kluczowego

29:36 „Jedna [strona] to strona funkcji, a druga to informacja o tej funkcji. Czy można kierować reklamy na to samo główne słowo kluczowe na tych dwóch różnych stronach?”

John powiedział: „Po pierwsze, możesz kierować reklamy na dowolne słowa kluczowe. Z naszego punktu widzenia nie będziemy Cię powstrzymywać.

Uważam tylko, że konkurujesz ze sobą? I jest to bardziej pytanie strategiczne niż pytanie o czysto SEO, a nie coś, w którym powiedzielibyśmy, że istnieją wytyczne, których nie powinieneś tego robić. Ale chodzi o to, że jeśli masz wiele fragmentów treści, które są klasyfikowane dla tego samego zapytania z tą samą intencją, to zasadniczo osłabiasz wartość treści, którą dostarczasz na wielu stronach. Konkurują ze sobą, a to może oznaczać, że same te strony nie są tak silne, jeśli chodzi o konkurowanie z witrynami innych osób. Więc czasami to jest to, na co zwracam uwagę.

Jeśli masz dwie strony i obie są kierowane na to samo słowo kluczowe i mają bardzo różne intencje, to z mojego punktu widzenia wydaje się to rozsądne, ponieważ ludzie mogą szukać tego słowa kluczowego z dodatkowym tekstem dodanym dla jednego celu i dodatkowego tekst dodany w innym celu. I są to zasadniczo unikalne strony. Może mieć sens, aby oba z nich pojawiły się w wynikach wyszukiwania lub najlepiej pasujący jeden, aby pojawił się w wynikach wyszukiwania. […] I jak powiedziałem, to nie jest coś, czego wymagamy, czy to jest w porządku, czy nie w porządku. To kwestia strategicznego pozycjonowania i tego, jak chcesz wyglądać w wyszukiwarce”.

Czy istnieje dobry stosunek stron indeksowanych do nieindeksowanych?

31:26 „Czy pozycje stron o dużym ruchu w rankingu są szkodliwe dla wielu, powiedzmy 50%, wszystkich stron w domenie, które nie są indeksowane lub są indeksowane, ale nie otrzymują ruchu?”

John odpowiedział: „Wydaje mi się, że pytanie dotyczy bardziej tego, że mam zestaw stron, które są bardzo popularne i wiele stron, które nie są zbyt popularne. I to opisuje przeciętną witrynę internetową, na której masz różnorodne treści, a niektóre z nich są bardzo popularne, a niektóre nie są tak popularne. Więc z naszego punktu widzenia to w porządku.

Ponadto sama liczba stron jest mylącym wskaźnikiem, ponieważ łatwo jest mieć wiele stron, które nie są wyświetlane, a wtedy nie pojawiają się one zbyt często w wynikach wyszukiwania, co może być w porządku. Jeśli masz pięć takich stron lub sto […] lub tysiąc stron, [i] jeśli nie pojawiają się w wynikach wyszukiwania, to też nie powodują żadnych problemów. Z tego punktu widzenia czasami trudno jest spojrzeć na masową liczbę stron w porównaniu ze stronami wyświetlanymi w wynikach wyszukiwania.

Inną rzeczą, być może również, aby pamiętać o takim pytaniu, jest to, że czasami warto bardziej skoncentrować się na mniejszej liczbie stron, aby uzyskać strategiczną przewagę polegającą na posiadaniu mniejszej liczby stron, które są mocniejsze, zamiast posiadania wielu stron, na których zasadniczo osłabiają wartość. Na przykład, jeśli masz tysiąc stron i każda z nich zawiera małą ciekawostkę większego obrazu, to prawdopodobnie te tysiące stron będą miały trudności z wyszukiwaniem. Zważywszy, że jeśli możesz połączyć wiele z tego w […] może dziesięć stron, wtedy te dziesięć stron będzie zawierało dużo informacji i może dużo wartości w stosunku do reszty witryny i może będzie łatwiej je pozycjonować szersze wyszukiwane hasła dotyczące tego tematu”.

Wyniki wyszukiwania na stronach internetowych a ranking

37:49 „Staram się mieć pewność, że nasze rankingi SEO nie ucierpią, gdy wprowadzamy nową stronę wyników wyszukiwania. […] Nasze wyszukiwania mogą dać 10 000 wyników i mają funkcje filtrowania i sortowania. Jak Google traktuje te strony wyników wyszukiwania w witrynach [i] jak te wyniki wyszukiwania wpływają na ogólny ranking witryny? Czy wystarczy przesłać mapy witryn do rankingu, czy też powinniśmy wziąć pod uwagę dodatkowe kwestie, aby pomóc Googlebotowi w zbieraniu osiągalnych adresów URL?”

John odpowiedział: „[…] Nie polegałbym na mapach witryn , aby znaleźć wszystkie strony Twojej witryny. Mapy witryn powinny być sposobem na podanie dodatkowych informacji o Twojej witrynie. Nie powinien to być główny sposób przekazywania informacji [o] Twojej witrynie. Tak więc w szczególności linki wewnętrzne są bardzo ważne i należy na nie uważać i upewnić się, że niezależnie od tego, jak skonfigurujesz, gdy ktoś indeksuje Twoją witrynę, będzie w stanie znaleźć wszystkie Twoje treści, a nie polegać na mapie witryny plik, aby uzyskać wszystkie te rzeczy.

Z tego punktu widzenia możliwość przejścia do tych stron kategorii i możliwość znalezienia wszystkich produktów, które znajdują się w poszczególnych kategoriach, jest moim zdaniem bardzo przydatna. Bardzo ważna jest również możliwość indeksowania stron kategorii do produktu. Strony wyników wyszukiwania są trochę wyjątkowym obszarem, ponieważ niektóre witryny używają stron kategorii zasadniczo podobnych do stron wyników wyszukiwania, a następnie znajdujesz się w sytuacji, w której strony wyników wyszukiwania są zasadniczo podobne do stron kategorii. Jeśli tak jest w Twoim przypadku, zwracam uwagę na wszystko, co robisz ze stronami kategorii.

Inną rzeczą ze stronami wyników wyszukiwania jest to, że ludzie mogą wpisywać cokolwiek i szukać czegoś, a Twoja witryna musi wykonać całą pracę, aby wygenerować wszystkie te rzeczy. Może to łatwo doprowadzić do nieskończonej liczby adresów URL, które teoretycznie można znaleźć w Twojej witrynie, ponieważ ludzie mogą wyszukiwać na wiele różnych sposobów. A ponieważ tworzy to ten zestaw nieskończonych stron w Twojej witrynie, staramy się odradzać to, mówiąc, że ustawimy te strony wyników wyszukiwania na noindex lub użyjemy pliku robots.txt do zablokowania indeksowania tych stron wyników wyszukiwania, abyśmy mogli skoncentruj się na normalnej strukturze witryny i normalnym linkowaniu wewnętrznym. Myślę, że to są najważniejsze aspekty.

Jeśli chcesz zindeksować strony wyników wyszukiwania, moja wskazówka polega na tym, aby z jednej strony mieć jedną podstawową kolejność sortowania i konfigurację filtrowania skonfigurowaną jako kanoniczna. Jeśli więc zdecydujesz się podać swoje strony według trafności, to jeśli masz filtr sortowania według ceny w górę lub w dół, ustawiłbym rel="canonical" tych filtrów na podstawową kolejność sortowania. Podobnie, w przypadku filtrowania, być może usunę filtr z rel=”canonical”. W ten sposób zadbaj o to, abyśmy mogli bardziej skupić się na podstawowej wersji stron i poprawnie je zaindeksować, zamiast rozpraszać się tymi wszystkimi odmianami stron wyników wyszukiwania.

Inną rzeczą, na którą chciałbym zwrócić uwagę, jest to, że tworzysz jakąś listę dozwolonych lub […] system w swojej witrynie w odniesieniu do rodzaju zapytań wyszukiwania, które chcesz zezwolić na indeksowanie lub indeksowanie. Na przykład, jeśli ktoś przejdzie do Twojej witryny i wyszukuje hasło „kanadyjskie farmaceutyki” lub coś w tym stylu, a Ty nie jesteś witryną farmaceutyczną, prawdopodobnie nie chcesz, aby ta strona wyszukiwania była indeksowana. Nawet jeśli nie masz żadnych dostępnych produktów pasujących do tego zapytania, prawdopodobnie nie chcesz ich indeksować. Tak więc posiadanie listy dozwolonych wyszukiwań, na których indeksowanie pozwalasz, znacznie ułatwia to zadanie . Upewnij się, że przypadkowo nie natkniesz się na taką sytuację, w której ktoś spamuje Twoje wyniki wyszukiwania, a następnie musisz wyczyścić miliony zaindeksowanych stron i jakoś się ich pozbyć”.

Aktualizacja doświadczenia strony na komputerze w porównaniu z rankingiem

42:20 Moja witryna odnotowała spadek liczby odwiedzających z powodu słabych wskaźników Core Web Vitals. Teraz jestem z powrotem na dobrej drodze, ale dowiedziałem się, że aktualizacja Page Experience jest teraz powoli wprowadzana na komputery. Jaki jest ranking Page Experience w stosunku do komputerów stacjonarnych i jak ważny jest w porównaniu z innymi sygnałami rankingowymi?”

Według Johna: „Podobnie jak na urządzeniach mobilnych, współczynnik rankingu Page Experience jest zasadniczo czymś, co daje nam trochę dodatkowych informacji [o] tych różnych stronach, które mogą pojawić się w wynikach wyszukiwania. W sytuacjach, w których mamy […] jasną intencję z zapytania, w którym możemy zrozumieć, że naprawdę chcą to zrobić z tą witryną, wtedy z tego punktu widzenia możemy złagodzić wykorzystanie Page Experience jako czynnika rankingowego. Z drugiej strony, jeśli cała zawartość strony wyników wyszukiwania jest bardzo podobna, prawdopodobnie użycie funkcji Page Experience pomaga trochę zrozumieć, które z nich są stronami szybkimi lub rozsądnymi pod względem wrażenia użytkownika, a które z nich są mniej rozsądne strony do wyświetlenia w wynikach wyszukiwania. Ta sytuacja nam tam pomaga.

Jeśli chodzi o wdrażanie komputerów stacjonarnych, uważam, że będzie to wolniejsze wdrażanie w ciągu mniej więcej miesiąca, co oznacza , że ​​nie zauważysz silnego efektu z dnia na dzień, ale raczej zobaczysz, że efekt przez pewien czas. Widzisz to już w Search Console w raportach dotyczących Page Experience i Core Web Vitals. Już na przykład zobaczysz, że na pulpicie wszystko jest czerwone i że musisz się na tym skupić. Z tego punktu widzenia, przy zmianie rankingu komputerów stacjonarnych, podobnie jak w przypadku mobilnego, nie spodziewałbym się drastycznego skoku w wynikach wyszukiwania z dnia na dzień, gdy będziemy to wprowadzać. Co najwyżej, jeśli sprawy mają się naprawdę źle dla Twojej witryny, zobaczysz tam stopniowy spadek”.

Nieindeksowana przetłumaczona treść

53:15Pracuję na dużej wielojęzycznej stronie. W kwietniu zeszłego roku […] wszystkie nasze przetłumaczone treści zostały przeniesione z Valid do Excluded, Crawled – obecnie nieindeksowane i pozostały od kwietnia. […] Ponieważ stało się to wszystko na raz, myśleliśmy, że może po naszej stronie jest jakaś zmiana ustrojowa. […] Wyczyściliśmy nasze hreflangi, znaki kanoniczne, parametry adresów URL, ręczne działania i wszystkie inne narzędzia wymienione na developers.google.com/search. […] Nie wiem, co się stało ani co dalej zrobić, aby spróbować rozwiązać problem, ale chciałbym, aby nasze przetłumaczone treści wróciły do ​​indeksu”.

Odpowiedź Johna brzmiała: „[…] Myślę, że [to] czasami jest trudne, [jeśli] masz parametr na końcu z kodem języka. […] Z naszego punktu widzenia może się zdarzyć, że jeśli uznamy, że jest tam dużo tych parametrów, które prowadzą do tej samej treści, to nasze systemy mogą utknąć w sytuacji, no cóż, może ten parametr nie jest bardzo przydatne i powinniśmy to zignorować. Dla mnie brzmi to jak coś wokół tej linii. Częściowo możesz w tym pomóc za pomocą narzędzia Parametry adresu URL w Search Console, aby upewnić się, że ten parametr jest ustawiony. Chcę, aby wszystko było zindeksowane. Częściowo możesz również zindeksować część swojej witryny za pomocą […] lokalnego robota indeksującego, aby zobaczyć, jakie adresy URL parametrów są faktycznie pobierane, a następnie dwukrotnie sprawdzić, czy te strony rzeczywiście zawierają przydatną treść dla tych języków.  

W szczególności […] wspólną [rzeczą], którą widziałem na stronach, jest to, że może masz […] wszystkie połączone języki, a japońska wersja mówi, że nie mamy japońskiej wersji, zamiast tego jest nasza angielska, wtedy nasze systemy mogłyby powiedzieć, no cóż, japońska wersja jest taka sama jak angielska ‒ może są jakieś inne języki takie same jak wersja angielska. Powinniśmy to zignorować. Czasami jest to z linków w witrynie, czasami są to również linki zewnętrzne, osoby, które prowadzą do Twojej witryny. Jeśli parametr znajduje się na końcu adresu URL, bardzo często zdarza się, że do parametru są również dołączone śmieci. A jeśli zindeksujemy wszystkie te adresy URL z tymi śmieciami i powiemy, że to nie jest prawidłowy język, tutaj jest wersja angielska, to ponownie wzmocni to pętlę, w której systemy mówią, no cóż, może ten parametr nie jest zbyt przydatny. Czystsze podejście byłoby, gdybyś miał rodzaj parametrów śmieci, aby przekierować do tych czystszych, a może nawet wyświetlić stronę 404 i powiedzieć, cóż, nie wiemy, o czym mówisz z tym adresem URL i czysto zrobić pewni, że bez względu na adresy URL, które znajdziemy, otrzymamy przydatne treści, które nie są takie same jak inne treści, które już widzieliśmy”.