8 lutego 2019 r. – Google Help Hangout Notes
Opublikowany: 2019-02-14W tym tygodniu John miał świetny wgląd w przewodnik Quality Raters Guide, którego jesteśmy wielkimi fanami, jeśli chodzi o wiarygodność witryny. Poniżej znajdują się wybrane przez nas pytania i odpowiedzi, które naszym zdaniem były najbardziej przydatne dla SEO. Pełny film i transkrypcja poniżej!
Jak Google interpretuje stronę, gdy zamiast <p> używane są tagi h?
4:34

Nie widzę z tym dużego problemu, mam na myśli oczywiście, że tak jak ty, ponieważ zauważyłeś, że prawdopodobnie jest to coś, co miałoby sens, ale nie chodzi o to, że powiedzielibyśmy, że jest to negatywny efekt, ale raczej to, co tam robisz mówiąc, że wszystko jest ważne, mówisz nam, że to wszystko jest tak samo ważne. To tak, jakby wszystko było ważne, więc nic nie jest szczególnie ważne. Więc mamy problem ze zrozumieniem kontekstu na stronie. Dlatego właśnie to bym posprzątał. Możemy dowiedzieć się, które części są naprawdę ważne, a które są częścią normalnego tekstu, dzięki czemu możemy trochę lepiej zrozumieć te strony. Nie wiem, czy zobaczylibyście bezpośrednią zmianę w rankingu z powodu naprawienia tego, ale ułatwia nam to zorientowanie się, o czym tak naprawdę jest strona. Nie sądzę, że byłoby to coś, co zobaczylibyśmy jako spam lub coś, co zobaczylibyśmy, jest problematyczne, po prostu tak naprawdę nie przekazujesz nam tyle informacji, ile mogłeś nam przekazać, mówiąc nam, że jest to naprawdę ważne i to jest normalna treść
Podsumowanie: To prawdopodobnie nie jest wielka sprawa. John potwierdził jednak, że Google może używać tagów h do określania, która treść na stronie jest ważna i o czym jest strona.
Dlaczego Google czasami nie honoruje kanonicznej treści syndykowanej?
8:56

Myślę, że jest to zawsze trudna sytuacja, w której próbujemy dowiedzieć się, która strona jest najbardziej odpowiednia dla niektórych z tych zapytań i bezpośrednio na nią skierować użytkowników, ale jeśli są to całkowicie oddzielne witryny internetowe i po prostu publikują ten sam artykuł, to jest także wiele dodatkowej wartości z reszty witryny, a może to być informacja na tej konkretnej stronie, może to być rodzaj dodatkowej wartości, którą reszta witryny przynosi, gdy ktoś przejdzie do tego jednego artykułu, może się zepsuć i spójrz na inne rzeczy na tej stronie, ponieważ poza tym to też było bardzo miłe. Jest to więc coś, co zawsze może się zdarzyć, a jeśli udostępniasz treści, musisz wziąć pod uwagę, że może się zdarzyć, że treść, którą przesłałeś do innej witryny, skończy się w rankingu powyżej Twojej treści, co nie zawsze jest całkowicie możliwe do uniknięcia . Więc to są rodzaje kompromisów, na które trzeba spojrzeć. Myślę, że kanoniczny jest dobrym sposobem na poinformowanie nas, że te dwie strony należą do siebie, ale jest też tak, że kanoniczny nie jest tak naprawdę poprawny w każdym przypadku, jak to dlatego, że same strony mogą być zupełnie inne. Możliwe, że na obu tych stronach znajduje się ten sam blok tekstu, ale może być tak, że na tej stronie znajduje się wiele innych treści, które są zupełnie inne niż komentarze użytkowników, które mogą być resztą samą stronę internetową. Więc znowu jest to rodzaj kompromisu, na który trzeba się przyjrzeć, sensowne jest udostępnianie informacji szerszemu gronu odbiorców poprzez dystrybucję treści, ale z drugiej strony należy wziąć pod uwagę, że być może te inne witryny będą miały wyższą pozycję Twoja witryna, jeśli chodzi o wyszukiwanie tego konkretnego fragmentu treści.
Podsumowanie: jeśli dystrybuujesz treści, Google może zdecydować się na indeksowanie treści w witrynach ponownego publikowania, a nie w Twoich własnych. Jeśli na jednej z tych stron znajduje się wiele innych treści (takich jak komentarze), Google może nie przestrzegać zasad kanonicznych.
Czy Google zawsze rozpoznaje znaczniki danych strukturalnych?
26:58

Więc nie wiem, co masz na myśli, mówiąc o organizacji danych strukturalnych, ale ogólnie mamy algorytmy, które próbują ustalić, kiedy ma sens pokazywanie danych strukturalnych jako wyników rozszerzonych w wynikach wyszukiwania, a kiedy uważamy, że może to nie poczucie lub gdy czujemy, że może nie jesteśmy w stu procentach pewni co do tej witryny lub sposobu, w jaki dane strukturalne są zaimplementowane w tej witrynie i będziemy trochę bardziej ostrożni. Tak więc, jeśli podasz prawidłowe znaczniki danych strukturalnych, nie gwarantuje to, że zawsze będą wyświetlane dokładnie w ten sposób w wynikach wyszukiwania.
Podsumowanie: jeśli uporządkowane dane nie przynoszą Ci wyników z elementami rozszerzonymi (np. gwiazdki w wynikach wyszukiwania), może to oznaczać, że nie są one prawidłowo zaimplementowane. Ale może to być również spowodowane tym, że algorytmy Google postanowiły tego nie pokazywać.
Czy Google zawsze rozpoznaje znaczniki danych strukturalnych?
53:46

Myślę, że to zawsze jest trochę skomplikowane, zwykle są dwa aspekty, które są w to zaangażowane. Jeszcze jeden problem, zwłaszcza w nowszych witrynach, w których nazwa witryny lub nazwa firmy przypomina bardziej ogólne zapytanie. Więc jeśli na przykład nazwa witryny to „Najlepsi prawnicy w Pittsburghu” lub coś w tym stylu. Wtedy z jednej strony może to być nazwa firmy, z drugiej strony, gdyby ktoś wpisał ją w wyszukiwarkę, prawdopodobnie założylibyśmy, że nie szuka tej konkretnej firmy, ale raczej szuka informacji do tego zapytania . Tak jest zwłaszcza w przypadku nowszych firm, co widzimy od czasu do czasu. Widzimy, że fora lub ludzie tam mówią: och, nie oceniam swojej nazwy domeny, a ich nazwa domeny to coś w stylu Nie znam najlepszych dostawców VPN. nie oznacza, że będziesz rankingować dla tego zapytania. Więc to jest jedna rzecz, jeśli chodzi o strony, które są nieco bardziej ugruntowane, które już tam są, zwykle jest to raczej znak, że po prostu nie ufamy już tej witrynie tak bardzo. Więc to jest coś, w którym możemy rozpoznać, że faktycznie ludzie szukają tej firmy, ale uważamy, że może sama strona internetowa firmy nie jest tutaj najistotniejszym wynikiem, może uważamy, że są jakieś dodatkowe informacje o tej firmie, które są ważniejsze niż użytkownicy zobacz najpierw, gdzie może się wydarzyć coś takiego. Zwykle jest to raczej kwestia przetasowania na pierwszej lub dwóch stronach wyników wyszukiwania. Byłoby naprawdę rzadko, gdyby coś takiego spowodowało, że witryna nie wyświetlałaby się na pierwszych kilku stronach wyników wyszukiwania. Myślę, że to właśnie podkreśliłeś w swoim pytaniu i to jest coś, w czym myślę dobrze, nawet jeśli nie ufaliśmy już tej stronie tak bardzo, to powinniśmy przynajmniej mieć to gdzieś w wynikach wyszukiwania, bo jeśli możemy powiedzieć że ktoś wyraźnie szuka tej witryny, byłoby nieprzysługą dla użytkownika, gdyby w ogóle jej nie pokazywał. Na przykład w przypadku ogólnych zapytań można by się spierać, że może nie jest to idealny wynik, ale jeśli możemy powiedzieć, że naprawdę szukają tej witryny, przynajmniej powinniśmy dać użytkownikowi szansę zobaczenia tej witryny. Dlatego właśnie to przyjąłem i powiedziałem dobrze, że może powinniśmy to trochę lepiej wyłapać i nie wiem, czy nasze algorytmy właściwie rozumieją, jak godna zaufania byłaby Twoja witryna. Nie znam strony internetowej, więc ciężko mi to ocenić, ale nawet jeśli wydaje nam się, że w ogóle nie była godna zaufania, to może powinniśmy pokazać ją gdzieś w wynikach wyszukiwania na pierwszej stronie. Inną rzeczą, na którą warto zwrócić uwagę, jeśli jeszcze tego nie zrobiłeś, jest przyjrzenie się naszym wskazówkom dotyczącym oceny jakości, które zawierają wiele informacji o rodzaju wiarygodności. Niektóre z nich warto brać z przymrużeniem oka, nie chodzi o to, że bierzemy takie relacje jeden do jednego i wykorzystujemy to jako czynnik rankingowy, ale jest tam wiele pomysłów, zwłaszcza gdy mówimy o temacie to rodzaj legalnej witryny internetowej lub witryny medycznej, więc warto pokazać użytkownikom, dlaczego podajesz te informacje, dlaczego powinni ci ufać.
Podsumowanie: Jeśli masz nową markę, która ma słowa kluczowe w nazwie marki i adresie URL, nie oznacza to, że powinieneś automatycznie pozycjonować te słowa kluczowe. Jeśli jednak algorytmy Google nie ufają Twojej witrynie, nie będzie ona dobrze oceniana. John kieruje nas do wytycznych Quality Raters' Guidelines, aby uzyskać więcej informacji. Nasza uwaga: Są tu również dobre informacje na temat tego, jak naszym zdaniem ostatnie aktualizacje algorytmów są powiązane z zaufaniem.
Jeśli lubisz takie rzeczy, pokochasz mój newsletter!
Mój zespół i ja co tydzień informujemy o najnowszych aktualizacjach algorytmu Google, wiadomościach i wskazówkach dotyczących SEO.
Powodzenie!! Teraz sprawdź pocztę e-mail, aby potwierdzić subskrypcję biuletynu Google Update.
Pełne wideo i transkrypcja
Notatka z Jana 0:33 – Chciałem tylko krótko omówić jedną rzecz, zanim przejdziemy do pytań. Jak zapewne widzieliście, napisaliśmy post na blogu o Search Console, o niektórych zmianach, które nadchodzą w Search Console. W zeszłym roku zaczęliśmy przenosić się na nową platformę w konsoli wyszukiwania i dla nas dla zespołu konsoli wyszukiwania jest to coś, nad czym pracowali od dłuższego czasu i jest to coś, co musimy osiągnąć mniej więcej w kierunku najpóźniej do końca roku. Dlatego naszym celem w poście na blogu z niektórymi nadchodzącymi zmianami jest upewnienie się, że poinformujemy was wszystkich tak wcześnie, jak to możliwe. Tak więc, gdy coś się zmieni lub zniknie w sposób, który naszym zdaniem może wpłynąć na Ciebie, chcemy Cię o tym poinformować jak najwcześniej. Myślę, że zmiana jest zawsze trochę kłopotliwa, zwłaszcza gdy masz procesy, które działają całkiem dobrze, a ktoś odchodzi i zmienia narzędzia lub zmienia dane, które są dostarczane w narzędziach, zawsze jest to trochę frustrujące. Więc niektórych z tych zmian nie możemy uniknąć, niektórych uważamy, że powinniśmy byli zrobić na początku, kiedy zaczęliśmy z konsolą wyszukiwania, wiedząc teraz, czy wiemy, to co wiemy teraz jest czymś w rodzaju ogłoszonej przez nas zmiany kanonicznej w tym tygodniu. Więc zdaję sobie sprawę, że czasami jest to trochę frustrujące, ale mamy nadzieję, że będziemy mieli całkiem niezłą ścieżkę naprzód i chcemy naprawdę poinformować was wcześnie i pozwolić wam wypróbować rzeczy wcześnie, abyście nie byli zbyt zaskoczeni, gdy coś się zmieni. Mamy też wiele naprawdę fajnych rzeczy, a dzięki przejściu na nową platformę i usunięciu niektórych starych funkcji zespół ma dużo więcej czasu, aby ruszyć do przodu i stworzyć nowe i fantazyjne rzeczy. Tak dobrze, że możesz to zrobić, jeśli masz silne przekonanie o pewnych rzeczach, które znikają lub których brakuje, lub które chciałbyś zobaczyć w nowym narzędziu, upewnij się, że korzystasz z funkcji opinii w konsoli wyszukiwania i nie po prostu idź i powiedz, że naprawdę tego chcę, ale raczej podaj nam informacje o tym, co chciałbyś z tego zobaczyć, na przykład, co próbujesz osiągnąć dzięki tej nowej funkcji lub tym samym, co mieliśmy w starej w nowym, ponieważ podanie nam trochę więcej informacji pomaga nam dowiedzieć się, w jaki sposób musimy ustalić priorytety, jest to coś, o czym być może przeoczyliśmy coś, o czym powinniśmy pomyśleć wcześniej. Czy jest to coś, co może możemy zapewnić lepszy sposób na przekazanie tych informacji lub pomoc w zrobieniu tego, co mieliśmy w starym narzędziu. Pamiętaj więc, aby przejść do narzędzia do przesyłania opinii, wyślij nam informacje, przekaż nam swoją opinię na temat tego, co Twoim zdaniem chcesz zobaczyć inaczej, niektóre z tych rzeczy, które będziemy w stanie wykonać, niektóre z nich mogą potrwać trochę dłużej, ponieważ naprawdę potrzebujemy najpierw oczyścić wszystkie te stare rzeczy, które zebraliśmy przez lata i przenieść wszystko na nową platformę. Więc w przypadku niektórych z nich uwielbiam trochę cierpliwości, ale dobrze jest też dać nam znać głośno, jeśli jest coś, co jest dla ciebie naprawdę silne, więc nie wstydź się zbytnio.
Pytanie 4:34 - Znaleźliśmy witrynę jednego z naszych klientów, sposób, w jaki zbudował witrynę, nie zawiera tekstu akapitowego, wszystkie są tagami h1 h2 h3 h4. Używają one tagu nagłówka 4 zamiast tagu P. W swojej głównej treści witryny używają tagu nagłówka 4 dla głównej treści witryny. Czy ma to jakiś negatywny wpływ na ich ranking?
Odpowiedź 4:40 - Nie widzę z tym większego problemu, mam na myśli oczywiście, że tak jak ty, ponieważ zauważyłeś, że prawdopodobnie byłoby to coś, co miałoby sens, ale nie chodzi o to, żebyśmy powiedzieli, że jest to negatywny efekt, ale raczej co robisz tam, mówiąc, że wszystko jest ważne, mówisz nam, że to wszystko jest tak samo ważne. To tak, jakby wszystko było ważne, więc nic nie jest szczególnie ważne. Więc mamy problem ze zrozumieniem kontekstu na stronie. Dlatego właśnie to bym posprzątał. Możemy dowiedzieć się, które części są naprawdę ważne, a które są częścią normalnego tekstu, dzięki czemu możemy trochę lepiej zrozumieć te strony. Nie wiem, czy zobaczylibyście bezpośrednią zmianę w rankingu z powodu naprawienia tego, ale ułatwia nam to zorientowanie się, o czym tak naprawdę jest strona. Nie sądzę, że byłoby to coś, co zobaczylibyśmy jako spam lub coś, co zobaczylibyśmy, jest problematyczne, po prostu tak naprawdę nie przekazujesz nam tyle informacji, ile mogłeś nam przekazać, mówiąc nam, że jest to naprawdę ważne i to jest normalna treść
Pytanie 7:03 - Ciągle pojawiają się losowe niedziałające linki w konsoli wyszukiwania. Zastanawiam się, co powinniśmy tam robić, przekierowując je lub zostawiając tak, jak są?
Odpowiedź 7:15 – Nie wiem, jakie losowe uszkodzone linki tam widzisz, a które mogą być czymś, co można opublikować na forum, aby uzyskać porady, ale ogólnie, jeśli widzisz link wskazujący na Twoją witrynę, która nie w ogóle nie działa, to dobrze jest zwrócić 404 dla adresu URL, który nie istnieje. Do tego właśnie służy kod stanu 404 i to jest coś, z czym dobrze współpracują nasze systemy. Więc jeśli istnieje adres URL, który nigdy nie istniał, zwróć 404, to jest w porządku. Z drugiej strony, jeśli widzisz, że są linki prowadzące do Twojej witryny, które wskazują na Twoje gdzie indziej, możesz zgadnąć, co one oznaczają, a może mają po prostu literówkę lub dodatkową kropkę na końcu lub coś w tym rodzaju, to może mieć sens przekierowywać, zwłaszcza gdy widzisz ludzi przechodzących przez te linki, ponieważ wydaje się, że coś lub ktoś próbuje polecić Twoją witrynę, ale nie zrobili tego idealnie. Dlatego sensowne może być przekierowanie ich na właściwą stronę. Myślę, że w obu tych sytuacjach można też trochę przyjrzeć się ruchowi przez te adresy URL, jeśli wiele osób przechodzi na te adresy URL, to w jakiś sposób jest to zachęcające, ponieważ ludzie chcą przejść do twoich stron, może to mieć sens wymyślić sposób na ustalenie, co oznaczał ten link i gdzie mógłbym go wskazać, gdzie mógłbym przekierować ludzi.
Pytanie 8:56 — Jakie czynniki mogą spowodować, że część treści, która jest rozpowszechniana w witrynie partnerskiej, ma dobrą pozycję w rankingu. Dzieje się tak pomimo faktu, że kanoniczny jest ustawiony na oryginalną treść po mojej stronie i istnieje od kilku miesięcy. Czy to kwestia miejsca, niszy lub autorytetu. Co moglibyśmy tam zrobić?
Odpowiedź 9:19 – Myślę, że jest to zawsze trudna sytuacja, staramy się ustalić, która strona jest najbardziej odpowiednia dla niektórych z tych zapytań i bezpośrednio na nią kierować użytkowników, ale jeśli są to całkowicie oddzielne witryny internetowe i po prostu publikują ten sam artykuł, to jest też wiele dodatkowych wartości z reszty witryny i mogą to być informacje na tej konkretnej stronie, może to być rodzaj dodatkowej wartości, którą reszta witryny przynosi, gdy ktoś przechodzi do tego jednego artykułu może wychodzą i patrzą na inne rzeczy na tej stronie, ponieważ w przeciwnym razie to też było bardzo miłe. Jest to więc coś, co zawsze może się zdarzyć, a jeśli udostępniasz treści, musisz wziąć pod uwagę, że może się zdarzyć, że treść, którą przesłałeś do innej witryny, skończy się w rankingu powyżej Twojej treści, co nie zawsze jest całkowicie możliwe do uniknięcia . Więc to są rodzaje kompromisów, na które trzeba spojrzeć. Myślę, że kanoniczny jest dobrym sposobem na poinformowanie nas, że te dwie strony należą do siebie, ale jest też tak, że kanoniczny nie jest tak naprawdę poprawny w każdym przypadku, jak to dlatego, że same strony mogą być zupełnie inne. Możliwe, że na obu tych stronach znajduje się ten sam blok tekstu, ale może być tak, że na tej stronie znajduje się wiele innych treści, które są zupełnie inne niż komentarze użytkowników, które mogą być resztą samą stronę internetową. Więc znowu jest to rodzaj kompromisu, na który trzeba się przyjrzeć, sensowne jest udostępnianie informacji szerszemu gronu odbiorców poprzez dystrybucję treści, ale z drugiej strony należy wziąć pod uwagę, że być może te inne witryny będą miały wyższą pozycję Twoja witryna, jeśli chodzi o wyszukiwanie tego konkretnego fragmentu treści.
Pytanie 11:24 – Google zgłasza nasze wygasłe strony produktów jako miękkie 404 dla tych adresów URL, które przekierowują do odpowiednich alternatywnych produktów z komunikatem, że żądany produkt jest niedostępny. Czy przekierowanie powoduje miękki błąd 404 lub zawartość strony przekierowania?
Odpowiedź 11:47- Podejrzewam, że to, co się tutaj dzieje, polega na tym, że nasze algorytmy przeglądają te strony i widzą, że może na tej stronie znajduje się baner z informacją, że ten produkt nie jest już dostępny, i zakładają, że dotyczy to strony użytkownik skończył. Więc czasami nie da się tego uniknąć. Jeśli naprawdę zastępujesz jeden produkt innym, sensowne może być przekierowanie.
Pytanie 12:32 – Ile czasu zajmuje Google rozpoznanie tagów Hreflang? Czy to możliwe, że Google najpierw indeksuje ze Szwajcarii i wyświetla wersję CH witryny pod niemiecką TLD?
Odpowiedź 13:02 — Dlatego w rzeczywistości nie indeksujemy najpierw treści ze Szwajcarii, nasze roboty indeksujące i nasze systemy znajdują się raczej w Stanach Zjednoczonych niż w Szwajcarii. Nie sądzę więc, żebyśmy nadawali priorytet szwajcarskiej zawartości nad innymi treściami, ale ogólnie rzecz biorąc, to co dzieje się z linkami hrefLang, jest procesem wieloetapowym. Najpierw musimy przeszukać i zindeksować te różne wersje strony. Następnie musimy je zindeksować za pomocą tego samego adresu URL, który określasz w znaczniku hreflang, a następnie musimy być w stanie śledzić znaczniki hreflang między tymi różnymi wersjami strony i w tym celu musimy również odzyskać to potwierdzenie . Więc jest to coś, co zajmuje trochę więcej czasu niż zwykłe przeszukiwanie i indeksowanie. Musimy zrozumieć sieć między tymi różnymi stronami, które mają być częścią tego zestawu stron hreflang. Więc to jest coś, w czym prawdopodobnie normalnie zajmujemy się, nie wiem, może dwa do trzech razy dłużej, niż po prostu przemierzylibyśmy i zindeksowali pojedynczą stronę, abyśmy mogli zrozumieć powiązanie między wersjami hreflang. Znowu nie ma preferencji dla Szwajcarii nad innymi krajami w Europie. Myślę, że byłoby to miłe tylko dla mnie osobiście z pewnego rodzaju egoistycznego punktu widzenia, ale nie miałoby to sensu w ogólnoświatowym obszarze globalnym. Staramy się traktować wszystkie strony internetowe tak samo. Więc tylko dlatego, że strona internetowa ma wersję CH, nie oznacza, że automatycznie przewyższałaby wersję niemiecką. Inną rzeczą z hreflang jest to, że w większości nie zmienia on rankingów, po prostu zamienia adresy URL.
Pytanie 15:12 - Niedawno zmieniłem domenę mojej witryny z tej na inną. Przekierowania 301 w miejscu. Zmiana adresu została rozpoczęta, nadal widzę stare adresy URL, a minęły ponad trzy tygodnie, czy to normalne? Miałem pewne problemy z brakiem aktywności 301 przez tydzień po migracji, ale teraz są one aktywne. W przypadku niektórych zapytań w wynikach wyszukiwania pojawia się zarówno stara, jak i nowa witryna. Co mógłbym tutaj zrobić inaczej?
Odpowiedź 15:46 - Tak więc przekierowanie 301 jest naprawdę tym, na co powinieneś uważać. Zależy nam na tym, aby przekierowanie 301 odbywało się w przeliczeniu na stronę. Tak więc wszystkie stare strony przekierowują na tę samą stronę w nowej witrynie. Wszystko to omówiliśmy w naszych informacjach w Centrum pomocy dotyczących przenoszenia witryny, więc sprawdziłbym to dokładnie i przejrzałbym krok po kroku i adres URL według adresu URL, nawet aby zobaczyć, czy to naprawdę działa tak, jak powinno działać . Inną rzeczą, o której należy pamiętać, jest to, że przeszukujemy i indeksujemy adresy URL indywidualnie. Więc nie indeksujemy całej witryny na raz, a potem zmieniamy rzeczy, robimy to krok po kroku, a niektóre z tych stron są pobierane i indeksowane bardzo szybko w ciągu kilku godzin, a niektóre z nich wymagają znacznie więcej czasu, aby przeszukane i ponownie zindeksowane, a to może potrwać kilka miesięcy. To jest coś, co może odgrywać rolę również tutaj, gdzie być może po prostu nie mieliśmy okazji przeszukać, zindeksować i przetworzyć przekierowań dla wszystkich tych stron, więc wciąż są takie, które widzieliśmy tylko na starej witrynie i niektóre, które już widzieliśmy na nowym. To również może odgrywać pewną rolę, zwłaszcza jeśli patrzysz na okres trzech lub czterech tygodni i byłoby to całkiem normalne, a na koniec to, co również w tym gra, jest czymś, co dla SEO i webmasterów jest naprawdę mylące że nawet po przetworzeniu tego przekierowania, jeśli ktoś jawnie szuka starego adresu URL, pokażemy mu stary adres URL. To trochę mylące, nasze systemy starają się być tutaj pomocne i mówią dobrze, że wiemy, że ten stary adres URL istniał kiedyś i mamy tutaj nową zawartość, ale pokażemy ci ją, ponieważ prawdopodobnie tego właśnie szukasz. Na przykład, jeśli wyślesz zapytanie do witryny dla starego adresu URL, nawet tutaj, po przeniesieniu witryny, nadal możemy pokazać niektóre adresy URL z Twojej starej witryny za pomocą zapytania witryny, mimo że przetworzyliśmy już przekierowanie dla tych adresów URL . Na przykład po zmianie nazwy witryny w zapytaniu dotyczącym witryny zobaczysz stare adresy URL z wymienioną tam nową nazwą witryny iz naszego punktu widzenia, która działa zgodnie z przeznaczeniem, staramy się pomóc przeciętny użytkownik, który szuka adresu URL. Dla webmastera, który właśnie przeniósł witrynę, jest to trochę mylące. Więc nie wiem, czy to jest coś, co będziemy zmieniać, ale ogólnie uważam, że to ma sens.

Pytanie 21:46 – W jaki sposób bot wyszukiwarki Google przegląda personalizację witryny? Mamy nową warstwę produktową, dzięki której strona internetowa umożliwia personalizację w oparciu o lokalizację branży nawet do jednej firmy, co pozwala nam naprawdę dostosować treść.
Odpowiedź 22:12 — Myślę, że przyjrzeliśmy się temu również po raz ostatni, ale żeby udzielić krótkiej odpowiedzi, ważne jest, aby Googlebot głównie indeksował ze Stanów Zjednoczonych. Jeśli więc udostępniasz różne treści w różnych krajach, Googlebot prawdopodobnie zobaczy tylko amerykańską wersję treści. Nie moglibyśmy indeksować różnych wersji treści w różnych lokalizacjach. Jeśli więc chcesz coś zindeksować, upewnij się, że znajduje się w ogólnej części witryny, aby Googlebot mógł to wykryć. Możesz użyć personalizacji, aby dodać dodatkowe informacje na całej stronie, ale jeśli chcesz coś zaindeksować, powinno to być w części strony, która nie jest związana z personalizacją.
Pytanie 22:59 - Zastanawiam się, jak bardzo niski wskaźnik wydajności w web.div wpływa na ranking witryny w Google?
Odpowiedź 23:06 - Nie wiem. Web.dev jest więc naprawdę fajnym narzędziem, które łączy różne testy, które mamy w latarni morskiej i podaje wyniki z nich oraz prowadzi przez proces poprawiania tych wyników. Więc jeśli chodzi o szybkość rzeczy, które musisz uważać na rzeczy, które możesz wypróbować, z czasem śledzi postęp Twojej witryny i tak jakby przeglądasz różne treści, które znajdują się w tym narzędziu. Więc myślę, że jest to ogólnie dobra praktyka do przejścia i pewnego rodzaju pracy, ale jest to również coś, czego należy przestrzegać, ale nie oznacza to, że automatycznie dadzą one wyższą pozycję w rankingu. Podobnie, jeśli masz tutaj niskie wyniki, nie oznacza to, że Twoja witryna ma kiepski ranking, ponieważ nie przestrzega najlepszych praktyk. Z jednej strony jest więc pewien aspekt, jeśli Twoja witryna jest tak zła, że nie możemy jej w ogóle poprawnie zindeksować, co może mieć miejsce w przypadku bardzo niskiego wyniku SEO w latarni morskiej, w której nie możemy uzyskać dostępu do adresów URL lub na tej stronie nie ma adresów URL i jest to tylko powłoka JavaScript, dla której nie możemy przetworzyć JavaScript. Że mogę mieć poważny wpływ na SEO, ale z drugiej strony, jeśli chodzi tylko o to, że Twoja witryna jest trochę wolna lub nie jest idealnie zoptymalizowana, nie wiem, czy miałoby to znaczący wpływ na Twoją witrynę. Dlatego zalecam, aby zapoznać się z radami, które są udzielane w narzędziach takich jak web.dev i zastanowić się, co możesz zaimplementować, pomyśl o częściach, które Twoim zdaniem są ważne dla Twojej witryny z jednej strony dla wyszukiwarek, oczywiście, jeśli jesteś proś o to z drugiej strony również dla swoich użytkowników, ponieważ ostatecznie, jeśli robisz coś, co poprawia rzeczy dla swoich użytkowników, będzie to miało rodzaj długoterminowego efektu spływania również na resztę Twojej witryny.
Pytanie 26:58 – Czy Google może zdecydować, czy pokazać informacje o organizacji danych strukturalnych.
Odpowiedź 27:05 – Więc nie wiem, co masz na myśli z organizacją danych strukturalnych, ale ogólnie mamy algorytmy, które próbują ustalić, kiedy ma sens pokazywanie danych strukturalnych jako bogatych wyników w wynikach wyszukiwania i kiedy uważamy, że może nie ma to sensu lub gdy czujemy, że może nie jesteśmy w stu procentach pewni tej witryny lub sposobu, w jaki dane strukturalne są zaimplementowane w tej witrynie, i będziemy trochę bardziej ostrożni. Tak więc, jeśli podasz prawidłowe znaczniki danych strukturalnych, nie gwarantuje to, że zawsze będą wyświetlane dokładnie w ten sposób w wynikach wyszukiwania.
Pytanie 28:31 - Pytanie dotyczące struktury strony internetowej i wielojęzycznej konfiguracji wieloregionalnej, czy powinienem martwić się konfiguracją parametrów adresu URL podczas dzielenia domen na foldery do oddzielnych usług w konsoli wyszukiwania.
Odpowiedź 28:52 — Myślę, że z jednej strony myślę, że to dobrze, że przyglądasz się tego rodzaju problemom, z drugiej strony trochę się martwię, że będziesz mieć różne konfiguracje dla witryny według podkatalogów, ponieważ brzmi to na przykład może nie robisz czegoś tak czystego z parametrami konfiguracyjnymi adresu URL ogólnie w całej witrynie. Więc to jest coś, w czym nie znam konkretnie strony internetowej, więc naprawdę trudno powiedzieć, ale wydaje się, że masz różne parametry, które oznaczają różne rzeczy lub które można zignorować lub których nie należy ignorować w zależności od indywidualny rodzaj podkatalogu w Twojej witrynie. Z jednej strony powinno to być możliwe, z drugiej strony powinniśmy być w stanie sobie z tym poradzić, jeśli istnieją sytuacje, w których możemy całkowicie zignorować poszczególne parametry adresu URL, a w innych przypadkach, w których dokładnie te same parametry są krytyczne dla treści, wydaje się, że jak coś, w którym nasze algorytmy mogą się pomylić i powiedzieć: cóż, zawsze musimy zachowywać te parametry lub nigdy nie musimy zachowywać tych parametrów, a potem nagle brakuje części treści lub część treści jest indeksowana wielokrotnie. Korzystanie z narzędzia do określania parametrów adresu URL zdecydowanie pomaga nam w takim przypadku, ale wydaje mi się, że bardziej sensowne byłoby ogólne wyczyszczenie tych parametrów adresu URL i znalezienie sposobu na uzyskanie spójnej struktury adresów URL witryn, tak że algorytmy nie muszą zgadywać, że algorytmy nie muszą domyślać się, Och, w tej konkretnej ścieżce ten parametr jest ważny, aw innych ścieżkach możemy go zignorować. Za każdym razem, gdy dodajesz tak dużo dodatkowej złożoności do przeszukiwania i indeksowania witryny, wpadasz w sytuację, w której może coś pójdzie nie tak. Im łatwiej więc możesz ją zachować, im czystsze ją utrzymasz, im prostsze i możesz zachować ją w strukturze adresu URL, tym większe prawdopodobieństwo, że będziemy mogli przeszukiwać i indeksować tę witrynę bez konieczności zastanawiania się i jak zawsze istnieją inne wyszukiwarki, które nie mają narzędzia do konfiguracji adresów URL. Że dane, które tam mamy, więc nie będą mogli tego zobaczyć, a Ty możesz powodować problemy w innych wyszukiwarkach, a może ma to również wpływ na sposób, w jaki Twoje treści są udostępniane w mediach społecznościowych. Więc wszystkie te rzeczy wchodzą tutaj w grę. Moim ogólnym zaleceniem byłoby, aby nie spędzać zbyt wiele czasu na dostrajaniu narzędzia do obsługi parametrów adresu URL dla wszystkich tych różnych podkatalogów, ale raczej poświęcić ten czas i zainwestować go w przemyślenie tego, co chciałbyś mieć jako adres URL na dłuższą metę i zastanowienie się nad krokami, które trzeba by uzyskać, aby uzyskać czystszą strukturę adresów URL.
Pytanie 32:17 — Mam nadzieję, że uzyskam wgląd w opublikowany przeze mnie problem dotyczący treści będącej indeksem jako duplikat przesłanego adresu URL, który nie został wybrany jako kanoniczny.
Odpowiedź 33:04 – Ogólnie rzecz biorąc, myślę, że to, co się tutaj dzieje, jest z jakichkolwiek powodów, dla których nasze algorytmy uważają, że te strony są równoważne i że możemy je złożyć razem i dlatego wybieramy kanoniczny z jednej z tych stron i wygląda to na przykład ręczne przeglądanie stron w przeglądarce, które w rzeczywistości są zupełnie różnymi stronami, więc składanie ich razem nie miałoby sensu, dlatego wybór kanonicznego z tego zasobu również nie miałby sensu. Jedną z rzeczy, które widziałem w przeszłości, które doprowadziły do czegoś takiego, jest to, że nie możemy poprawnie renderować treści. Kiedy nie możemy właściwie uzyskać dostępu do treści, kiedy w zasadzie widzimy pustą stronę, o której mówimy, no cóż, to jest to samo, co druga pusta strona, którą widzieliśmy, może możemy je złożyć. Tak więc to jest rodzaj kierunku, w którym bym się zastanowił, w jaki sposób Google myśli, że te strony są równoważne, czy możliwe, że w teście przyjaznym dla urządzeń mobilnych nie mają one rzeczywistej treści. Czy to możliwe, że wyświetlam reklamę pełnoekranową w wypadku Googlebota i tylko ta reklama pełnoekranowa jest indeksowana, co się tutaj dzieje? Nie miałem jeszcze okazji przyjrzeć się temu tak szczegółowo, więc może się zdarzyć, że coś takiego dzieje się po twojej stronie, być może dzieje się coś dziwnego po naszej stronie i musimy to naprawić, ale to miłe kierunku, który obrałbym w takim przypadku.
Pytanie 34:41 – Chcę trochę lepiej nawigować moich klientów w mojej witrynie. Chcę się upewnić, że nie wprowadzi to Google w błąd. Chciałbym ustawić strukturę mojego adresu URL tak, aby zawierała domenę, a następnie kategorię, a następnie produkt w ścieżce, a może ustawię to inaczej, co mam zrobić, jaką strukturę adresu URL wybrać?
Odpowiedź 35:13 - Z naszego punktu widzenia możesz użyć dowolnej struktury adresu URL. Więc jeśli używasz struktury podkatalogów poddomeny ścieżki, która jest w porządku, ważne jest dla nas, abyśmy nie uciekali w nieskończone przestrzenie. So if you use URL rewriting on your server that it's not the case that you can just add like the last item in your URL and just continue adding that multiple times and just it always shows the same content but it should be a clean URL structure where we can crawl from one URL to the other without getting lost in infinite spaces along the way. You can use your URL parameters if you want but if you do decide to use your URL parameters like I mentioned in one of the previous questions try to keep it within a reasonable bound. So that we don't again run off into infinite spaces where lots of URLs lead to the same content but whether or not you put the product first or the category first or you use an ID for the category or write out the category as text that's totally up to you. That doesn't have to be a line between your ecommerce site on your blog that can be completely different on both of these. So I think it's good to look at this but on the other hand I lose too much sleep over this and rather define the URL structure that works for you in the long run in particular one that you don't think you need to change in the future. So try not to get too narrow down and pick something that works for you, works for your website.
Question 37:43 - We're developing an application for angular Universal with some sections we want to change the appearance of the URLs in the browser but keep it the same on the server side. So for the server it would be luxury goods leather bags but the user would see just leather bags. Is there any problem with this in angular Universal using dynamic rendering?
Answer 38:08- So just from from a practical point of view Googlebot doesn't care what you do on the server you can track that however you want on your server. The important part for us is that we have separate URLs for separate pages that we have links that Googlebot can click on that are in kind of a elements with an href pointing to a URL that we can follow and that we can access these URLs without any history is with them. So if we take one URL from your website we can copy and paste it into an incognito browser and it should be able to load that content and if it loads that content if you have proper links between those pages then from our point of view how you handle that on your server is totally up to you. Using angular Universal with dynamic rendering or if you have something of your own that you set up that's all totally up to you that's not something that we would care about. It's not something we would even see because we see the HTML that you serve us and the URLs that you serve us.
Question 39:18 - My website fetches individual web pages which are not interlinked through an API but no links are displayed through clicks. It has a search box where every individual page shows search results is Google is successfully crawling all links as valid via sitemap does Google see this is a valid practice because links and millions will harm rankings or increase ranking.
Question 39:48 - So there are lots of aspects in this question where I say this sounds kind of iffy there is some things that sound kind of ok. So if Google is already indexing these pages then something is working out right. In general I I'd be careful to avoid setting up a situation where normal website navigation doesn't work. So we should be able to crawl from one URL to any other URL on your website just by following the links on the page. If that's not possible then we lose a lot of context. So if we're only seeing these URLs through your sitemap file then we don't really know how these URLs are related to each other and it makes it really hard for us to be able to understand how relevant is this piece of content in the context of your website, in the context of the whole web. So that's that's one thing to kind of watch out for and the other thing to watch out for. The other thing too watch out for I think is if you're talking about millions of pages that you're generating through an API with a search box and just so many of those via sitemap files. I may be kind of cautious there with regards to the quality of the content that you're providing there. So in particular if you have like product feeds if you're using RSS feeds to generate these pages, if you're doing anything to automatically pull content from other websites or from other sources and just kind of republishing that on your site then that's something where I could imagine our quality algorithms maybe not being so happy with that. Similarly if this is all really completely republished from other web sites I could imagine the web spam team taking a look at that as well and saying well why should we even index any of this content because we already have all of the content indexed from from the original sources. Like what is the value that your website is providing that the rest of the web is not providing. So that's one thing to kind of watch out for. I don't want to kind of suggest that your website is spammy I haven't seen your website but it is something that we do see a lot and it's something where as a developer you go, oh I have all of these sources and I can create code therefore I can combine all of these sources and create HTML pages and now have a really large website without doing a lot of work, and that's really tempting and lots of people do that, lots of people also buy frameworks that do this for you but it doesn't mean that you're creating a good website. It doesn't mean that you're creating something that Google will look at and say oh this is just what we've been waiting for we will index it and ranked it number one for all of these queries. So it might mean that it looks like very little work in the beginning because you could just combine all of these things but in the end you spend all this time working on your website when actually you're not providing anything of value then you end up starting over again and trying to create something new again. So it looks tempting to save a lot of work in the beginning but in the long run you basically lose that time. So it might make more sense to figure out how can you provide significant value of your own on your website in a way that isn't available from other sites.
Question 43:34 - We're facing an issue where lots of resources couldn't load through the to the same page not getting rendered in the snapshot for Googlebot while debugging these issues we couldn't find a solution and Google is marking them as other error. What could that be?
Answer 43:51 - So this is also a fairly common question what is essentially happening here is we're making a trade-off between a testing tool and the actual indexing and within the testing tool we try to get information as quickly as possible directly from your server but at the same time we also want to give you an answer fairly reasonably quickly so that you can see what is happening. What what tends to happen here is if you have a lot of resources on your pages that need to be loaded in order for your page to load then it could happen that our systems essentially timeout and we try to fetch all of these embedded resources but we don't have enough time because we want to provide an answer to you as quickly as possible. So you end up seeing these embedded resources not being pulled and you see an error in the live rendering of the page like that. When it comes to indexing our systems are quite a bit more complex though we cache a lot of these resources. So if we try to index an HTML page we'll know all of these CSS files we've seen before we can just pull them out of our cache we don't have to fetch them again we can render those pages normally and that just works. One thing you can do or maybe they're two you can do to to kind of help improve that for the testing tool and for users in general. On the one hand you can reduce the number of embedded resources that are required on your pages. So instead of having a hundred CSS files you've you kind of throw them into the tool you create one CSS file out of that that's one thing that you can do that makes sense for both users and for search engines. You can do that for JavaScript as well you can minify the JavaScript you can combine things and kind of make packages rather than individual files I think that's a good approach. The other thing is if you're seeing this happening for your pages and you don't have a lot of embedded content then that's kind of a hint that your server is a bit slow and that we can't kind of fetch enough content from your server to actually make this work. So that might be a chance to look at your server your network connectivity and to think about what you can do to make that a little bit faster so that these tools don't time out so that it's also faster for users as well. So in both of these cases the net effect is that users will mostly be seeing the speed improvement but the side effect will also be that you'll be able to use these tools a little bit better because they tend not to time out as much.
So what what I would do there is try to use some other tools to figure out is this really a problem on your side somehow that things are a little bit slow or is this something just on Google side that we we tend not to have as much time to fetch all of these individual resources so what you could do is use the the chrome developer tools what is it the network tab that you have there and to figure out like how many of these resources are being loaded how long does it take you can use webpagetest.org it also creates a kind of a waterfall diagram for your content also listing the the time that it takes for those test URLs and the size of the resources that were to return and by using those two you can kind of figure out is is it the case that it just takes 20 seconds to load my page with all of the embedded content with all of the high resolution images or is it the case that these testing tools say my page loads in 3 or 4 seconds with all of the embedded content therefore it's probably more an issue on Google side I don't have to worry about it.
Question 53:46 - I've noticed as a result of the last several updates that have been coined the the medic update. I've seen some websites that no longer show on the first page of search results for their own company, for their own brand, and I was wondering why in general what would that be?
Answer 54:35 - I think that's that's always a bit tricky there usually are two aspects that are involved there. One is more an issue especially with newer websites where the website name or the company name is more like a generic query. So if for example the the website's name is “ Best Lawyers in Pittsburgh” or something like that. Then on the one hand that might be the company name, on the other hand if someone were to type that into search, we would probably assume that they're not looking for that specific company but rather they're looking for information for that query. So that's especially with newer companies that's something that we see every now and then. We see that the forums or people there saying, oh I'm not ranking for my domain name, and then their domain name is something like I don't know best VPN providers.com it's like well, it's a domain name but it doesn't mean that you will rank for for that query. So that's one thing when it comes to sites that are a little bit more established that are out there already usually it's more a sign that we just don't really trust that website as much anymore. So that's something where we might recognize that actually people are searching for this company but we feel maybe the company website itself is not the most relevant result here, maybe we feel that there is kind of auxiliary information about that company which is more important that users see first where which could result in something like this happening. Usually that that's more a matter of things kind of shuffling around on the first one or two pages in the search results. It would be really rare that that's something like that would result in a website not showing up at all the first couple pages of the search results. I think that's that's kind of what you highlighted there with your question and that's something where I think well, even if we didn't trust this website as much anymore then we should at least have it somewhere in the search results because if we can tell that someone is explicitly looking for that website it would be a disservice for the user to not show it at all. Like for maybe for generic queries one could argue maybe it's not the perfect result but if we can tell that they're really looking for that website at least we should give the user a chance to see that website as well. So that's kind of why I took that and said well maybe we should be catching this a little bit better and II don't know if our algorithms are correctly kind of understanding how trustworthy your website there would be. I don't know the website so that's really hard for me to judge but even if we think that it wasn't trustworthy at all maybe we should still show it somewhere in the search results on the first page. The other thing to maybe look at if you haven't done so already is look at look at the quality rater guidelines that we have and there's a lot of information about kind of trustworthiness in there. Some of that is worth taking with a grain of salt it's not that we take that kind of one-to-one and use that as a ranking factor but there there are a lot of ideas in there especially when you're talking about a topic that's a kind of legal website or medical website then it does make sense to show users like why are you providing this information why should they trust you.
