Godziny pracy SEO, 31 grudnia 2021 r.
Opublikowany: 2022-01-04Oto podsumowanie najciekawszych pytań i odpowiedzi z godzin pracy Google SEO z Johnem Muellerem w dniu 31 grudnia 2021 r.
Brak pliku pamięci podręcznej dla zindeksowanej strony
05:21 „ Niektóre z naszych adresów URL są poprawnie indeksowane, ale nie możemy znaleźć pliku pamięci podręcznej. O co tu chodzi?”
Według Johna: „To może się zdarzyć. Jest to normalne w tym sensie, że strony pamięci podręcznej w wynikach wyszukiwania są obsługiwane niezależnie od indeksowania. Może się więc zdarzyć, że mamy w naszym indeksie stronę, dla której nie mamy strony pamięci podręcznej. Jeśli więc poszukasz strony pamięci podręcznej, wyświetli się [na przykład] 404, ale to nie jest oznaka problemu. Tak właśnie działają nasze systemy”.
Niespójna jakość różnych wersji językowych
06:52 „Zastanawiam się, czy słabe tłumaczenie nowej wersji językowej może negatywnie wpłynąć na SEO dla bardziej ugruntowanych, głównych wersji językowych domeny. […] Czy oceniasz jakość językową każdej wersji językowej w tej samej domenie niezależnie, czy może może wystąpić jakiś negatywny skutek, jeśli jedna wersja językowa jest słaba, cierpią też wszystkie inne wersje językowe w tej samej domenie?”
John powiedział: „Myślę, że krótka odpowiedź brzmi: tak. Głównym problemem nie jest tutaj to, że są to przetłumaczone wersje treści, ale bardziej, w przypadku niektórych rzeczy, patrzymy na ogólną jakość witryny. I […] jeśli masz znaczące fragmenty, które są gorszej jakości, to nie ma dla nas większego znaczenia, dlaczego miałyby być gorszej jakości, czy są to złe tłumaczenia, czy kiepskie treści. Ale jeśli zobaczymy, że są to znaczące części, które są niższej jakości, możemy ogólnie pomyśleć, że ta strona nie jest tak fantastyczna, jak myśleliśmy. A to może mieć skutki w różnych miejscach w witrynie.
Krótko mówiąc, wydaje mi się, że jeśli masz bardzo niskiej jakości tłumaczenie, które jest również zindeksowane i bardzo widoczne w wyszukiwaniu, to może to spowodować usunięcie dobrej jakości tłumaczenia lub dobrej jakości oryginalnej treści, którą również masz”.
Ocena jakości zawartości strony internetowej
10:19 „Jak Google ocenia, czy coś jest tłumaczeniem automatycznym, czy też jest złej jakości? Jeśli na przykład cały interfejs użytkownika jest słabej jakości, czy można go zrównoważyć tekstem SEO o wysokiej jakości, takimi rzeczami?”
John odpowiedział: „Nie wiem, czy mamy coś, co konkretnie szuka tłumaczeń niskiej jakości. Więc przynajmniej tak, jak ja to rozumiem, jest to bardziej kwestia tego, że staramy się zrozumieć ogólną jakość strony internetowej. I zwykle nie jest to coś, na co moglibyśmy wskazać pojedyncze rzeczy i powiedzieć, że jeśli masz pięć błędów pisowni na stronie, jest to oznaką niskiej jakości. Te rzeczy zdarzają się indywidualnie. I wszystkie te czynniki z osobna trudno powiedzieć, że są oznaką niskiej jakości czegoś, ale raczej musimy wziąć wszystko razem. […]
Jest to również powód, dla którego czasami, gdy znacząco poprawiasz ogólną jakość strony internetowej lub gdy sytuacja znacznie się pogarsza, po prostu nasze systemy potrzebują dużo czasu, aby ogólnie określić, czy ta strona jest teraz lepsza lub gorsza. Więc z tego punktu widzenia nie jest tak, że mamy coś konkretnego, na co moglibyśmy wskazać. Najlepsze, co mógłbym zrobić, jeśli chcesz pojedynczych elementów, to spojrzeć na wpis na blogu, który zrobiliśmy na temat aktualizacji podstawowych […], który zawiera mnóstwo różnych pytań, które możesz zadać sobie na temat strony internetowej, które możesz również idź i spójrz razem z niektórymi testerami lub użytkownikami, aby uzyskać również zewnętrzne opinie. I nie chodzi o to, że mamy algorytmy, które próbują to skopiować bezpośrednio, ale to prawie jak kierunek, w którym mówimy, no cóż, to jest kierunek, w którym chcemy iść. A potem postaramy się, aby nasze algorytmy próbowały to rozgryźć”.
301 przekierowań z niezaindeksowanych stron
19:53 „Mamy witrynę, na której jest 100 stron, które […] są oznaczone tagiem meta robots noindex, ale są dostępne dla użytkowników. W branży istnieje wiele dobrych witryn, które prowadzą do tych stron. Więc chociaż otrzymujemy ruch polecający […], nic nie otrzymujemy [z ruchu organicznego], ponieważ oczywiście nie są one indeksowane. Co się stanie, jeśli skonfigurujemy przekierowania 301 dla Googlebota pod tymi adresami URL do odpowiednich stron? Czy będzie to sprzeczne z wytycznymi Google?”
John odpowiedział: „To wydaje się być czymś na granicy. Wydaje się również, że możesz po prostu użyć rel = „canonical” i pozostawić to tak, aby wskazywało stronę, którą chcesz zindeksować. Ponieważ jeśli robisz to przekierowanie specjalnie dla Googlebota, myślę, że z jednej strony, z technicznego punktu widzenia, bardzo łatwo jest się pomylić i mieć coś pomieszanego. Z punktu widzenia użytkownika nie sądzę, że byłby to duży problem, ponieważ prawdopodobnie i tak zaindeksowalibyśmy tylko stronę docelową. Nie jest więc tak, że użytkownik kliknąłby link w wynikach wyszukiwania i znalazłby się na jednej stronie, która wygląda zupełnie inaczej niż ta, którą kliknął. Tak więc, z jednej strony, wydaje mi się, że istnieją łatwiejsze rozwiązania tego problemu z rel = „canonical”, aby zrobić zasadniczo to samo, ale nie sądzę, że byłoby to super problematyczne. […]
Z mojego punktu widzenia wolałbym używać rel="canonical" tak często, jak to tylko możliwe, aby upewnić się, że nie musisz konfigurować żadnej oddzielnej infrastruktury, aby ukryć się przed Googlebotem i wszystkimi związanymi z tym problemami ponieważ wydaje Ci się, że musisz włożyć dużo pracy, aby to działało tak, jak chcesz. A drugie podejście jest o wiele prostsze i […] mniej podatne na błędy”.
Dodatkowo John potwierdził, że użycie przekierowań 301 w tym przypadku „[…] nie będzie sprzeczne z wytycznymi Google. Problematyczne byłoby to, że gdyby ta strona była indeksowana i przekierowywałeś ją w zależności od klienta użytkownika, mogłoby to być postrzegane jako podstępne przekierowanie. Ale ponieważ indeksujemy stronę docelową, nie ma znaczenia, co robisz na stronach prowadzących do tej strony, pod warunkiem, że nie są one indeksowane”.
Tekst niedostępny dla użytkowników a jego indeksowanie
23:48 „Jeśli blok tekstowy jest dostępny w kodzie źródłowym, ale nie ma możliwości zobaczenia tej treści przez użytkowników. [Czy ten tekst może zostać zindeksowany?]”
Jan odpowiedział: „Może. Jeśli jest w normalnym kodzie HTML na stronie i jest po prostu ukryty, to możliwe, że przechwytujemy go i używamy do indeksowania. Nie wydaje mi się, żeby robienie tego celowo było świetnym pomysłem, ale może się zdarzyć. Należy o tym pamiętać, zwłaszcza jeśli próbujesz uniknąć indeksowania określonego rodzaju tekstu. Na przykład ostatnio widziałem, że ktoś miał komunikat o błędzie w części strony, która była ukryta. I był pokazywany tylko wtedy, gdy na stronie był błąd, ale zawsze był na stronie. Nasze systemy wychwyciły to i pomyślały, że ta strona jest stroną błędu – możemy ją zignorować.

Więc z tego punktu widzenia […] jeśli chcesz to zindeksować, upewnij się, że jest widoczne i możliwe do zindeksowania. Jeśli nie chcesz go indeksować, upewnij się, że nie można go indeksować i w ogóle nie ma go na stronie”.
Przeniesiona domena nie znajduje się w rankingu Google Top Stories
35:02 “ Zrobiłem migrację strony internetowej do nowej domeny. […] Miałem włączony AMP na starym, a moje stare artykuły AMP są zawsze umieszczane w rankingu Google Top Stories. Ale teraz mój nowy nie jest. Mam teraz wyłączone AMP w mojej nowej domenie, ponieważ mi się to nie podobało i sprawia mi to zbyt wiele problemów. […] Ale AMP nie jest teraz potrzebne do włączenia do Top Stories. Dlaczego moja nowa domena nie znajduje się w rankingu Google Top Stories?”
Według Johna: „Trudno powiedzieć. Myślę, że jeśli przeprowadzasz migrację domeny i jednocześnie wyłączasz AMP, to zwłaszcza w przypadku czegoś takiego jak Top Stories, może to być trochę mylące. Ale wygląda na to, że jest inaczej, sprawy są dobrze odbierane. Więc prawdopodobnie jesteś na dobrej drodze.
Szczególnie w przypadku Top Stories jest to funkcja wyszukiwania organicznego. I nie jest to coś, co witryna otrzymuje, ponieważ na to zasługuje, ale bardziej staramy się dowiedzieć, co powinniśmy pokazywać w sekcji Top Stories. A czasem może być więcej, czasem mniej. Czasami obejmuje to treści z poszczególnych witryn lub poszczególnych rodzajów artykułów […]. Rozważałbym tutaj z jednej strony poświęcenie trochę więcej czasu.
Inną rzeczą jest ponowne sprawdzenie rzeczy związanych z ustawieniem Page Experience, ponieważ jak wspomnieliśmy w poście na blogu , po wyłączeniu tej opcji powiedzieliśmy, że strony z bardzo dobrym wynikiem Page Experience mogą również pojawiać się w Top Stories . Nie chodzi więc o to, żebyśmy wzięli jakąkolwiek stronę i pokazali ją w Top Stories, ale raczej wykorzystalibyśmy wynik Page Experience prawie jako czynnik rankingowy w celu określenia, co pokażemy w sekcji Top Stories”.
Ramy czasowe na zmiany jakości przetwarzania
42:29 „Obecnie poprawiam jakość witryny po odkryciu wielu stron, które [obecnie] nie są indeksowane. Zastanawiam się, w jakich ramach czasowych mogę się spodziewać, że Google wykryje zmiany jakości”.
John powiedział: „Wprowadzanie większych zmian jakości w witrynie internetowej zajmuje sporo czasu, zanim systemy Google to wykryją. Założyłbym więc , że jest to coś więcej w stylu kilku miesięcy, a nie kilku dni. Oto ramy czasowe, do których dążyłbym tutaj.
A ponieważ uchwycenie zmian jakości zajmuje trochę czasu, moim zaleceniem nie byłoby dokonywanie małych zmian i czekanie i sprawdzanie, czy to wystarczająco dobre, ale raczej upewnienie się, że jeśli wprowadzasz znaczące zmiany jakości, […] i nie to, że będziesz musiał cofać się i poprawiać to ponownie. Bo […] nie chcecie czekać paru miesięcy, a potem zdecydować, och, inne strony też muszę zmienić. Upewnij się, że masz wszystko zabezpieczone.”
Unikalne opisy produktów a jakość treści
45:09 „Sprzedam ręcznie robione buty. Wszystkie są produkowane dla określonego przedziału wiekowego, w tym samym materiale, technice itp. […] Czy Google uznałoby to za zduplikowane treści, gdybym napisał jeden wysokiej jakości opis produktu dla wszystkich? A może lepiej mieć unikalne opisy dla każdego z nich, co obniża jakość treści?”
Odpowiedź Johna brzmiała: „Nie wiem, czy unikalne opisy obniżyłyby jakość treści. Z tego punktu widzenia twierdzę, że możesz mieć zarówno unikalne, jak i wysokiej jakości opisy. […]
Ale ogólne pytanie dotyczące zduplikowanych treści brzmi: prawdopodobnie uznalibyśmy to za zduplikowaną treść, ale nie zdegradowalibyśmy witryny z powodu zduplikowanej treści. Więc z praktycznego punktu widzenia, co by się stało, gdyby ktoś szukał fragmentu tekstu, który znajduje się w tym zduplikowanym opisie na twoich stronach, wtedy rozpoznalibyśmy, że ten fragment tekstu znajduje się na kilku stronach na twoich stronach. witryny, a my spróbujemy wybrać jedną lub dwie strony z Twojej witryny do wyświetlenia. Nie chodzi o to, że w jakikolwiek sposób zdegradowalibyśmy lub ukarali Twoją witrynę, ponieważ zawiera zduplikowaną treść. […] Więc jeśli ktoś szuka konkretnie tej treści, nie ma sensu pokazywać wszystkich tych stron. I jest to rozsądne, gdy ludzie szukają fragmentu treści. Nie muszą znajdować wszystkich stron w Twojej witrynie, które zawierają tę treść.
Należy zwrócić uwagę na to, że jeśli w treści tekstowej nie ma niczego, co obejmuje element wizualny Twoich produktów, bardzo trudno jest nam je odpowiednio pokazać w wynikach wyszukiwania. Na przykład […] jeśli masz niebieskie buty i czerwone buty i nigdy nie wspomniałeś, w jakim kolorze te buty są, to jeśli ktoś szuka niebieskich butów, możemy pomyśleć, że twoje strony nie są tak istotne, ponieważ nie nie wspominaj słowa „niebieski” nigdzie na swoich stronach. Więc pod tym kątem bym tutaj brał. Dobrze jest powielać części opisu, ale upewniłbym się, że masz przynajmniej coś, co zawiera tekst o elementach wizualnych, które są unikalne dla tych poszczególnych produktów, które sprzedajesz”.
Brak indeksowania stron archiwum autora
48:04 „Mam pytanie dotyczące powiadomienia z Search Console. Chodzi o strony mojego archiwum autora, w których brakuje adresu URL pola. Chciałbym zindeksować strony mojego archiwum autora. Czy wpłynie to na wyświetlanie mojej witryny w wynikach wyszukiwania? […] Czy mój wynik EAT spadnie, jeśli nie zindeksuję stron archiwum autora?”
John odpowiedział: „ Nie mamy wyniku EAT. Więc z tego punktu widzenia nie musisz się tym martwić.
Ogólnie rzecz biorąc, powiadomienie otrzymane w Search Console prawdopodobnie dotyczy uporządkowanych danych, których używasz na tych stronach. A jeśli nie chcesz, aby te strony były indeksowane, to nie indeksując tych stron, usuniesz również to powiadomienie. Jeśli używasz w swojej witrynie wtyczki, która generuje tam dane strukturalne, być może możesz ją wyłączyć dla tych stron autorów, a to również zostanie naprawione. A może możesz naprawić pola, które udostępniają uporządkowane dane, a to również rozwiąże problem.
Domyślam się, że uporządkowane dane, których używasz na tych stronach, nie mają kluczowego znaczenia dla Twojej witryny, i tak nie pokazalibyśmy ich bezpośrednio w wynikach wyszukiwania. Z tego punktu widzenia prawdopodobnie nie ma nic złego w usuwaniu uporządkowanych danych z tych stron [lub] nieindeksowaniu tych stron, jeśli nie są one krytyczne dla Twojej witryny. Wszystko byłoby w porządku.
Widziałbym to nieco inaczej, gdybym wiedział, że jest to strona, która bardzo skupia się na autorytecie, wiedzy i nazwisku autorów, gdzie jeśli ludzie aktywnie szukają nazwiska autora, to Twój zbiór treści według ten autor może być przydatny w wynikach wyszukiwania. Myślę więc, że w przypadku tych witryn przydatne byłoby ich indeksowanie. Ale wtedy prawdopodobnie chciałbyś już zachować to indeksowanie, ponieważ generują ruch z wyszukiwania. Więc jeśli nie widzisz żadnego ruchu na tych stronach autorów, a są to po prostu przypadkowe osoby, które piszą dla twojego bloga, prawdopodobnie nie indeksowanie ich byłoby w porządku”.
