22 stycznia 2019 r. – Google Help Hangout Notes
Opublikowany: 2019-01-29W tym tygodniu John jest w Big Apple w Nowym Jorku. Do IRL dołączył, od lewej do prawej, Martin Splitt z zespołu Java Script w Google, Chris Love, Lily Ray, Marie Haynes, Dave Minchala i Quason Carter. W tym tygodniu pojawiło się kilka świetnych pytań dotyczących Cloudfare, QRG i The New Page Speed Tool. Link do wideo i pełną transkrypcję znajdziesz poniżej!
Czy Cloudflare czasami blokuje Googlebota?
7:58
„Tak, nie wiem, jak to jest w tej chwili skonfigurowane z Cloudflare, ale wiem, że w przeszłości blokowali ludzi, którzy udają Googlebota. Więc jeśli używasz, na przykład, własnego, nie wiem, Krzyki Żaba czy coś -- mówisz, że używam klienta użytkownika Googlebota, a oni by to zablokowali, ponieważ mogliby stwierdzić, że to nie jest prawdziwy Googlebot. Możemy to zablokować. Ale w większości przypadków myślę, że wystarczy wprawy, aby rozpoznać normalne Googleboty i pozwolić im normalnie indeksować”.
Podsumowanie: Czasami podczas testowania może wyglądać na to, że Cloudflare blokuje Googlebota. Prawdopodobnie dzieje się tutaj, że Cloudflare blokuje ludzi, którzy udają, że są Googlebotem. Jeśli więc korzystasz z narzędzia takiego jak Screaming Frog i wybierzesz Googlebota jako klienta użytkownika, możesz nie być w stanie indeksować witryn za pomocą Cloudflare .
Czy nienaturalne linki nadal mogą zaszkodzić witrynie algorytmicznie? Jeśli tak, czy użycie narzędzia disavow może pomóc?
14:01
„Myślę, że to było dobre pytanie. Z mojego punktu widzenia to, na co bym spojrzał, to z jednej strony zdecydowanie przypadek, w którym jest działanie ręczne. Ale także przypadki, w których chcesz wiele ręcznych działań oznaczałoby, że gdyby zespół ds. spamu internetowego przyjrzał się temu teraz, podałby Ci ręczne działanie. czasu, a nie w pewnym sensie, że opiera się na czymś, co zostało zrobione -- nie wiem -- gdzie wyraźnie zostało to zrobione kilka lat temu, a to było coś z pogranicza. Ale rodzaj rzeczy, na które patrzysz i powiedzmy, że jeśli ktoś z zespołu ds. spamu internetowego dostałby to jako wskazówkę, podjąłby ręczne działanie, a to zdecydowanie jest ten rodzaj rzeczy, w którym ja bym to wyczyścił i zrobiłbym zrzeczenie się tego. Tak, myślę trudno powiedzieć, czy istnieje jakaś konkretna oś czasu. Ale ogólnie, jeśli zespół spamu internetowego spojrzał na to i powiedział, że sprawy poszły naprzód. To było wyraźnie d jeden kilka lat temu. To nie było całkowicie złośliwe. Wtedy prawdopodobnie nie podjęliby w tym celu ręcznych działań. "
I zakładam, że prawdopodobnie nie możesz odpowiedzieć na to pytanie, ale czy jest jakiś sposób, na przykład, powiedzmy, że nie otrzymaliśmy ręcznego działania lub nie otrzymaliśmy ręcznego działania. Czy te linki mogą im zaszkodzić algorytmicznie? Ponieważ wydaje nam się, że po zrzeczeniu się widzimy pewne ulepszenia w niektórych witrynach. Więc, znowu, wiem, że to jest zawsze -- nigdy nie jest czarno-białe.
Tak na pewno może być. Więc to jest coś, w czym nasze algorytmy, kiedy na to spojrzymy i zobaczą, och, to jest kilka naprawdę złych linków, to może będą nieco bardziej ostrożne w odniesieniu do linków w ogóle do witryny. Więc jeśli to posprzątasz, wtedy algorytmy spojrzą na to i powiedzą, och, jest-- jest to rodzaj-- jest OK. Nie jest źle.
Podsumowanie: Jeśli masz linki, które zostały stworzone specjalnie dla SEO, a masz ich dużo, mogą one spowodować, że algorytmy Google nie będą ufać wszystkim Twoim linkom. W takich przypadkach najlepiej się wyrzec.
Jak algorytmy Google mierzą EAT wydawców?
33:40
„Nie wiem. Myślę, że prawdopodobnie trudno to rozgryźć algorytmicznie. A jeśli byłyby jakieś techniczne rzeczy, które powinieneś zrobić, to byśmy ci o tym powiedzieli. Więc jeśli są takie rzeczy, jak znaczniki autorstwa, które w niektórych momentach, które naszym zdaniem byłyby przydatne do czegoś takiego, na pewno byśmy to przedstawili. Ale wiele rzeczy to tak naprawdę bardziej miękkie czynniki jakościowe, które staramy się rozgryźć, i nie jest to coś technicznego, albo robisz, albo nie robisz. To raczej próba ustalenia, jak użytkownik może na to spojrzeć. Więc nie ma nic konkretnego, na co mógłbym wskazać. ”
Podsumowanie: Istnieje wiele „miękkich czynników jakości”, na które zwraca się uwagę Google. Spójrz na rzeczy z perspektywy użytkownika. Ponadto znaczniki autorstwa mogą pomóc Google lepiej zrozumieć rzeczy.
Jeśli coś znajduje się we wskazówkach dla osób oceniających jakość, czy rozsądne jest założenie, że Google chce, aby znalazło to odzwierciedlenie w ich algorytmach?
34:44
Myślę, że ogólnie rzecz biorąc, dążenie do tego jest prawdopodobnie dobrą praktyką. Unikam skupiania się zbytnio na tym, co Google może wykorzystać jako czynnik algorytmiczny, i patrzę na to bardziej, ponieważ uważamy, że jest to dobre dla sieci, dlatego postaramy się pójść w tym kierunku i zrobić to rodzaj rzeczy. Więc nie chodzi o to, że tworzę dobrą witrynę tylko po to, aby uzyskać lepszą pozycję w rankingu, ale tworzę dobrą witrynę, ponieważ kiedy pojawiam się w wynikach wyszukiwania, chcę, aby ludzie mieli dobre wrażenia. A potem wrócą na moją stronę i może coś kupią. To jest rodzaj kierunku, który postrzegam, nie tak, jak zrobić to w celu sklasyfikowania, ale zrobić to, aby mieć zdrową, długoterminową relację w sieci.
Podsumowanie: Zastanów się, co jest najlepsze dla użytkowników. Chociaż nie wszystko, co znajduje się w QRG, jest obecnie odzwierciedlone w algorytmach Google, są to świetne kroki w kierunku ogólnej poprawy jakości.
Czy istnieje schemat, który pomaga witrynom wyświetlać się wyżej w wynikach wyszukiwania głosowego?
36:10
Nie wiem. Nic nie przychodzi mi do głowy. Jest więc możliwe do wypowiedzenia znaczniki, których można użyć, co prawdopodobnie jest rozsądne, aby... zajrzeć do środka, aby zobaczyć, gdzie może to mieć sens na stronie. Nie sądzę, że użyjemy tego jeszcze we wszystkich lokalizacjach.
Podsumowanie: Mówione znaczniki nie są jeszcze używane we wszystkich lokalizacjach geograficznych. Ale to dobry początek.
Kilka wskazówek dotyczących wygrywania polecanych fragmentów
38:03
Ale w szczególności fragmenty z wyróżnieniem, nie sądzę, że mamy jakikolwiek typ znaczników, który byłby specyficzny dla tego. To jest coś, w czym jeśli masz przejrzystą strukturę na stronie, bardzo nam to pomaga. Jeśli potrafimy rozpoznać jak tabele na stronie, możemy to znacznie łatwiej wyciągnąć. Zważywszy, że jeśli użyjesz wymyślnego HTML i CSS, aby wyglądać jak tabela, ale w rzeczywistości nie jest to tabela, wtedy będzie nam o wiele trudniej wyciągnąć.
Podsumowanie: nie ma znaczników, które można dodać, aby wygrać polecany fragment. Ale dobre wykorzystanie znaczników h i zwykłych tabel HTML może naprawdę pomóc.
Czy schemat lokalizacji powinien być dodany do wszystkich stron?
50:47

Odpowiedź 51:42 - O ile wiem, to tylko strona główna. Nie wiem. Czy ktoś z was wie?
Odpowiedź od Liz 51:4 7 - To ma być tylko jedna strona, zwykle z organizacyjnymi i korporacyjnymi. To generalnie zalecenie.
MARTIN SPLITT 52:00 - Myślę, że to nie ma znaczenia, które - nie ma tak dużego znaczenia, które strony, podobnie jak nie umieszczaj tego na każdej stronie, którą masz, jest chyba ważniejszy. Myślę, że to zależy od... jeśli prowadzisz witrynę z wiadomościami, prawdopodobnie warto umieścić ją na stronie kontaktowej, stronie z informacjami lub czymś podobnym. Podczas gdy na stronie sklepu lub restauracji prawdopodobnie wystarczy umieścić go na stronie głównej.
JANA 52:20 - Myślę też, że w tym przypadku nie ma to dla nas większego znaczenia, ponieważ musimy być w stanie go znaleźć na czymś takim jak strona główna lub strona kontaktowa. Ale jeśli mamy go gdzie indziej, to nic dla nas nie zmieni. Tak więc najważniejszą rzeczą, z którą nie należy tego porównywać, jest znacznik recenzji, w którym czasami widzimy, że ludzie umieszczają recenzje firmy na wszystkich stronach witryny z nadzieją na uzyskanie gwiazdek i wyników wyszukiwania dla każdej strony w swojej witrynie. A to byłoby dla nas złe. Ale informacje kontaktowe, jeśli masz to zaznaczone, to... Nie widzę z tym problemu.
Podsumowanie: To naprawdę nie ma znaczenia. Powinien znajdować się na stronie kontaktowej i prawdopodobnie na Twojej stronie i stronie głównej. Posiadanie schematu lokalizacji w witrynie nie stanowi problemu, ale prawdopodobnie nie jest konieczne.
Dlaczego nowe narzędzie PageSpeed Insights, oparte na Lighthouse, jest tak surowe podczas oceniania witryn?
53:05

Marie Haynes: To nie moje pytanie, ale aby nadać kontekst, nowe dane Lighthouse dotyczące szybkości strony są o wiele bardziej surowe niż dawniej Page Speed Insights. Więc coś, co miało wynik 80 na Page Speed Insights, może być czerwonymi 29 w Lighthouse. Więc to jest dobre pytanie. Czy to może spowodować, ponieważ wiemy, że bardzo wolne witryny na urządzeniach mobilnych mogą zostać zdegradowane. Więc czy to dobrze, jeśli powiemy, wiesz, jeśli jesteś na minusie w teście Lighthouse, że naprawdę powinniśmy poprawiać rzeczy, ponieważ może to spowodować degradację, czy jest to odcięcie?
Odpowiedź 54:07 — Nie mamy więc mapowania jeden do jednego narzędzi zewnętrznych i wszystkiego, czego używamy w mediach społecznościowych. Tak, to sprawia, że naprawdę trudno to powiedzieć, ale w wyszukiwaniu staramy się używać kombinacji rzeczywistych, co to jest, danych z testów laboratoryjnych, które przypominają test Lighthouse, i danych z raportu Chrome UX, gdzie zasadniczo mierzymy to, co zobaczyliby użytkownicy witryny.
MARTIN SPLITT 55:37 – Ważne jest również, aby zobaczyć, że Lighthouse, na przykład, mierzy konkretnie połączenie 3G na środkowym końcu – lub jak telefon o średniej wydajności, tak. Tak więc, w zasadzie, jeśli korzystasz z najnowszego Apple McIntosh lub najnowszego szybkiego komputera z systemem Windows z naprawdę dobrym połączeniem przewodowym lub naprawdę dobrym połączeniem Wi-Fi w swoim biurze, oczywiście widzisz czas ładowania wynoszący dwie sekundy, ale prawdziwy użytkownik z telefonem na wolności prawdopodobnie tego nie widzi. Jest to więc jeden z tych przypadków, w którym przyspieszenie witryny nigdy nie zaszkodzi, ale naprawdę trudno jest powiedzieć, jak by to wyglądało z perspektywy wnętrza, ponieważ używamy bardzo konkretnych wskaźników, które niekoniecznie są mapowaniem jeden do tego, co ujawniają narzędzia… oczywiście ważne jest, aby to naprawić, ponieważ nie chcesz, aby użytkownicy czekali w Twojej witrynie w nieskończoność. To cię zrani. To zaszkodzi Twoim użytkownikom. To po prostu zrani cię podczas wyszukiwania. Ale nie płacę - powiedziałbym, że wystarczy spojrzeć na narzędzia. Jeśli narzędzia mówią ci, że dobrze sobie radzisz, nie powinieneś się tym zbytnio martwić. Jeśli narzędzia mówią ci, że naprawdę nie radzisz sobie dobrze, myślę, że czas spędzony na zastanawianiu się, dlaczego jest napisane – na przykład, jeśli to, co mówi, jest istotne, jest zmarnowane. Powinieneś raczej poszukać szybszej strony.
Wydajność mobilna jest bardzo ważnym czynnikiem dla Twoich użytkowników, podobnie jak wszystko inne. Powiedziałbym więc, że upewnij się, że Twoja witryna działa dobrze w rzeczywistych warunkach. Może nawet zdobądź tani telefon i wypróbuj stronę od czasu do czasu, a jeśli... to jest coś, co lubię robić i robiłem to, zanim dołączyłem do Google z zespołem programistów, z którym pracowałem. Pytałem, czy chcesz korzystać z tej strony na tym telefonie? To było jak, och, to jest okropne. Myślę, mhm, tak, więc może powinniśmy coś z tym zrobić.
JOHN — W Chrome możesz to skonfigurować i wypróbować różne szybkości połączenia. Emulator mobilny. Myślę, że to naprawdę dobre rzeczy do oglądania, a także, na przykład, spójrz na swoją bazę użytkowników. Spójrz na swoje dane analityczne, jeśli widzisz, że ludzie korzystają z Twojej witryny tylko z zaawansowanym iPhonem, to może jest to mniejszy problem niż w przypadku, gdy widzisz, że ludzie łączą się z Twoją witryną z przypadkowych połączeń wiejskich, które są powolne i mają urządzenia z niższej półki, to może to więcej.
Podsumowanie: Lighthouse mierzy prędkości dla połączenia 3G, więc większość witryn będzie działać znacznie szybciej niż wyświetlana tutaj przez większość sesji. Uwaga: po zakończeniu tego hangouta Martin powiedział, że to „pierwsza zawartość treściowa” jest najważniejsza, jeśli chodzi o potencjalne degradacje w rankingu.
Jeśli lubisz takie rzeczy, pokochasz mój newsletter!
Mój zespół i ja co tydzień informujemy o najnowszych aktualizacjach algorytmu Google, wiadomościach i wskazówkach dotyczących SEO.
Powodzenie!! Teraz sprawdź pocztę e-mail, aby potwierdzić subskrypcję biuletynu Google Update.
Wideo i pełny zapis
Pytanie 1:32 - Zastanawiałem się, czy masz więcej wskazówek lub więcej punktów widzenia na temat testowania w sposób, który SEO może wykorzystać, aby być bardziej precyzyjnym i pewniejszym raportowaniem do firmy. Próbowaliśmy tego i wywarło to wpływ. I zrobiliśmy to w sposób, który jest pewny, w sposób, który poleciłby Google.
Odpowiedź 3:20 - Więc z mojego punktu widzenia, staram się oddzielić bardziej techniczne rzeczy od rodzaju zmian jakości. Więc wszystko, co jest naprawdę czystą techniczną rzeczą, możesz prawie przetestować, czy to działa, czy nie. To nie jest kwestia tego, czy działa, czy też nie działa, ale wiele z tych technicznych rzeczy, zwłaszcza gdy patrzysz na renderowanie, lub gdy patrzysz na to, czy Google może faktycznie zaindeksować tę treść, to jest coś, co albo działa, albo nie. Trudne jest to, że wszystko, o co chodzi — jest indeksowane, ale jak pojawia się w rankingach? I myślę, że dla wielu z nich nie ma absolutnego sposobu, aby to naprawdę przetestować. Ponieważ jeśli przetestujesz to w odosobnionej sytuacji, na przykład tworzysz witrynę testową, i skonfigurujesz ją z dowolnymi zaleceniami, nie możesz tak naprawdę założyć, że witryna testowa będzie działać tak samo, jak normalna witryna internetowa. Czasami zdarzają się proste rzeczy, jak na przykład strona testowa, to może nie zrobimy pełnego renderowania, ponieważ uważamy, że nie ma sensu spędzać tak dużo czasu na tym i tym, ponieważ nikt na to nie patrzy. Nigdy nie pojawia się w wynikach wyszukiwania, dlaczego mielibyśmy zawracać sobie głowę umieszczaniem za tym tak wielu zasobów? Natomiast gdybyś zrobił to na normalnej stronie internetowej, działałoby to zupełnie inaczej. Więc to jest coś, w czym tak naprawdę nie mam żadnych jasnych wskazówek, co powinieneś robić, a czego nie powinieneś robić. Wygląda to bardziej na coś w rodzaju tego, w którym patrzysz na ogólne trendy, w których widzisz, że ta witryna jest wyświetlana, na zmiany w rankingach, które widzisz dla tych zapytań i próbujesz zastosować tam najlepsze praktyki.
Pytanie 5:21 - Więc może, jeśli - konkretny przykład, możesz go użyć do - może to byłoby pomocne, więc coś w rodzaju testu tagu tytułu, prawda? Jeśli to robiłeś... czego, jeśli w ogóle, powinniśmy szukać? A może jest coś, na co warto spojrzeć, żeby się rozplątać — czy to z powodu naszego testu, czy jest to spowodowane zmianą serwera, algorytmem, dynamiką rywalizacji? [ŚMIECH] Zakładając, że robimy inne rzeczy, aby spojrzeć na te efekty zewnętrzne.
Odpowiedź 5:56 – Myślę, że zmiana tagu tytułu jest w rzeczywistości dość skomplikowana po naszej stronie, ponieważ istnieje rodzaj wzajemnego oddziaływania tego, czy Google używa tagu tytułu, który faktycznie podajesz, z jednej strony, do rankingu, na z drugiej strony do wyświetlania w wynikach wyszukiwania. Podobnie jak w przypadku komputerów stacjonarnych i urządzeń przenośnych, mamy inną ilość miejsca, więc możemy wyświetlać nieco inne tagi tytułów. Użytkownicy mogą na to odpowiedzieć na różne sposoby. Możesz więc ustawiać się w ten sam sposób, ale użytkownicy mogą pomyśleć, och, to świetna strona. Pokażę go wyżej — albo kliknę go w wynikach wyszukiwania, bo wygląda na świetną stronę. A potem masz większy ruch. Ale ranking jest właściwie taki sam. Więc czy to dobra rzecz? Prawdopodobnie tak myślę. Jeśli patrzysz tylko na ranking, to wyglądałoby to tak, że nic nie zmieniłeś, a my po prostu mamy większy ruch.
Ale to jest coś, w którym jest wiele różnych aspektów tego rodzaju przepływu. Dlatego uważam, że jako SEO przydatne jest z jednej strony techniczne zrozumienie tego, co się wydarzyło, ale także bardziej marketingowe i jakościowe zrozumienie tego, jak użytkownicy reagują na zmiany, co są to długoterminowe zmiany, na które możemy wpłynąć po stronie użytkowników. Jak możesz je prowadzić, aby upewnić się, że nasza witryna jest postrzegana jako najbardziej odpowiednia w sytuacjach, gdy ludzie szukają czegoś z tym związanego. I myślę, że to jest coś, co naprawdę ciężko przetestować. To tak, jakby nawet w tradycyjnym marketingu, gdzie mieli wieloletnią praktykę, naprawdę trudno jest przetestować, na przykład, czy to rzeczywiście ma duży wpływ, czy nie? Jest to coś, w którym kończą patrząc na szerszy obraz lub przeprowadzając badania użytkowników, co możesz zrobić również jako SEO. Przepraszam. [ŚMIECH]
Pytanie 7:58 - Mam bardziej bezpośrednie pytanie. A więc wiele naszych witryn korzysta z Cloudflare i zauważyliśmy, że bezpośrednio blokują Googlebota, prawda? Ale nie miało to dużego wpływu na nasze rankingi, na naszą widoczność i tak dalej. Więc próbuję dowiedzieć się, jak, na przykład, używacie innego bota do indeksowania indeksu bezpośrednio poza Googlebotem i jak powinniśmy o tym myśleć, gdy sieci CDN robią wszystko, aby zablokować bota?
Odpowiedź 8:33 - Tak, nie wiem, jak to jest w tej chwili skonfigurowane z Cloudflare, ale wiem, że w przeszłości blokowali ludzi, którzy podszywają się pod Googlebota. Więc jeśli użyjesz, na przykład, swojego własnego, nie wiem, Screaming Frog lub czegoś podobnego -- mówisz, że używam klienta użytkownika Googlebota, wtedy zablokowaliby to, ponieważ mogliby stwierdzić, że to nie jest uzasadnione Googlebota. Możemy to zablokować. Ale myślę, że w większości mają wystarczającą praktykę, aby rozpoznać normalne Googleboty i pozwolić im normalnie indeksować.
Pytanie 9:02 - Tak, to było interesujące. Ponieważ skontaktowałem się z grupą kolegów z innych agencji, którzy powielali podobne sytuacje nawet we własnej witrynie. Na przykład w Cloudflare było zgłoszenie do pomocy technicznej, które również było blokowane, gdy próbowałem renderować bezpośrednio ze smartfona Googlebota lub Googlebota.
Odpowiedź 9:21 - OK, tak. Cóż, nie mamy żadnego obejścia. Na przykład, jeśli strony internetowe nas blokują, utknęliśmy. Ale zwykle, gdyby usługa taka jak Cloudflare domyślnie blokowała nas, miałoby to wpływ na wiele stron internetowych. I zauważylibyśmy to. Prawdopodobnie skontaktowalibyśmy się z Cloudflare w takiej sprawie. Być może mają różne poziomy usług. To tak, jakbyś był na niższym poziomie, to jest jak usługa bezpłatna, ale mamy limit ruchu. Nie wiem, czy mają coś takiego. To coś, co widziałem u niektórych innych hosterów, gdzie jeśli masz skonfigurowany darmowy domyślny hosting, czasami mają po prostu limit ruchu i blokują różne rzeczy.
MARTIN SPLITT: Możesz nie od razu zobaczyć tego w statystykach z twojego rankingu i tak dalej. Bo w zasadzie, jeśli mamy zawartość od ciebie, a zasadniczo strona nie jest -- w zależności od tego, co jest zablokowane, w tym przypadku oznacza to, że tego nie widziałem. Prowadzę kilka stron internetowych za Cloudflare i nie miałem żadnych problemów. Ale z drugiej strony nie mam gigantycznej strony internetowej ani nie lubię ogromnego ruchu, ponieważ korzystam z darmowego planu. To jest -- ale jeśli nie pojawi się błąd po naszej stronie, to -- może być tak, że zachowujemy zawartość, którą widzieliśmy ostatnim razem. I to po prostu dobrze plasuje się i to jest w porządku.
Odpowiedź 12:09 - Tak, więc myślę, że w takim przypadku jak twój spowolnilibyśmy indeksowanie. I staralibyśmy się zachować zawartość, którą możemy pobrać więcej, w indeksie i po prostu przeszukalibyśmy trochę dłużej. Ale oznacza to również, że jeśli wprowadzisz zmiany w swojej witrynie, zajmie nam to więcej czasu. Jeśli będziemy musieli znacząco przeindeksować rzeczy, na przykład, nie wiem, AMP lub dodasz coś takiego w całej witrynie, to wszystko potrwa znacznie dłużej. Jeśli więc naprawdę regularnie widzisz, że nie możemy indeksować za pomocą zwykłego Googlebota, to jest to coś, co zajmuję się hostem, abyśmy mogli to zobaczyć.
Pytanie 14:01 - Świetnie. Mam więc pytanie dotyczące narzędzia disavow. Dlatego cały czas pozyskujemy ludzi, którzy chcą, abyśmy robili audyty linków. I od czasu Penguin 4.0, czyli września 2016 roku, kiedy Gary Illyes powiedział, i myślę, że ty też powiedziałeś, na przykład, Google całkiem nieźle ignoruje nienaturalne linki. W tamtym czasie pomyślałem więc, że nie powinniśmy używać narzędzia zrzekania się, aby prosić Google o ignorowanie linków, które już ignoruje, chyba że podjęto ręczne działania w przypadku nienaturalnych linków. Więc poleciliśmy go tylko w przypadku witryn, które aktywnie, wiesz, budują linki, próbują manipulować rzeczami, rzeczami, które są nienaturalnymi linkami. Ale myślę, że wśród webmasterów jest tyle zamieszania, ponieważ cały czas widuję ludzi, którzy pobierają tony pieniędzy na audyt, żeby zrzec się linków, które są tylko... Wiem, że są ignorowani. Tak więc bardzo chciałbym, gdybyśmy mogli mieć trochę więcej wyjaśnień. Więc może, jeśli dam ci przykład, na przykład, gdyby był właściciel firmy, który kilka lat temu zatrudnił firmę SEO i ta firma SEO zrobiła kilka postów gościnnych tylko dla linków i, wiesz, rzeczy, które był trochę średniej jakości, jeśli wiesz, co mam na myśli, nie ultra spamerski, czy możemy być pewni, że Google ignoruje te linki? A może powinniśmy wchodzić i wyrzekać się?
Odpowiedź 15:22 - Myślę, że to było dobre pytanie. Więc z mojego punktu widzenia to, na co bym spojrzał, to z jednej strony zdecydowanie przypadek, w którym jest działanie ręczne. Ale także przypadki, w których chcesz zobaczyć wiele ręcznych działań, oznaczałyby, że gdyby zespół ds. spamu internetowego przyjrzał się temu teraz, podałby ci ręczne działanie. Rodzaje przypadków, w których można powiedzieć, że ręczne działanie jest raczej kwestią czasu, a nie opiera się na czymś, co zostało zrobione – nie wiem – gdzie wyraźnie zostało zrobione kilka lat temu i nie było to granica. Ale tego rodzaju rzeczy, w których patrzysz na to i mówisz, że jeśli ktoś z zespołu spamu internetowego otrzymałby to jako wskazówkę, podjąłby ręczne działanie, a to zdecydowanie jest rodzaj rzeczy, w których ja bym to uporządkował i zrobił jak zrzeczenie się tego. Tak, myślę, że trudno powiedzieć, czy istnieje jakaś konkretna oś czasu. Ale ogólnie, jeśli zespół zajmujący się spamem internetowym spojrzał na to i powiedział, że sprawy potoczyły się dalej. Było to wyraźnie zrobione kilka lat temu. To nie było całkowicie złośliwe. Wtedy prawdopodobnie nie podjęliby w tym celu ręcznych działań.
Pytanie 16:43 – Zakładam, że prawdopodobnie nie możesz na to odpowiedzieć, ale czy jest jakiś sposób, żeby -- powiedzmy, że nie otrzymaliśmy ręcznego działania, albo nie otrzymaliśmy ręcznego działania. Czy te linki mogą im zaszkodzić algorytmicznie? Ponieważ wydaje nam się, że po zrzeczeniu się widzimy pewne ulepszenia w niektórych witrynach. Więc, znowu, wiem, że to jest zawsze -- nigdy nie jest czarno-białe.
Odpowiedź 17:03 - Zdecydowanie tak może być. Więc to jest coś, w czym nasze algorytmy, kiedy na to spojrzymy i zobaczą, och, to jest kilka naprawdę złych linków, to może będą nieco bardziej ostrożne w odniesieniu do linków w ogóle do witryny. Więc jeśli to posprzątasz, wtedy algorytmy spojrzą na to i powiedzą, och, jest-- jest to rodzaj-- jest OK. Nie jest źle.
Pytanie 17:24 - Nadal dobrze jest zasadniczo się wyrzec tylko po to, aby zapobiec ręcznym działaniom, prawda?
Odpowiedź 17:29 - Myślę, że jeśli jesteś w sytuacji, w której jest naprawdę jasne, że zespół ds. spamu internetowego podałby ci ręczne działanie w oparciu o obecną sytuację, to bym się tego wyrzekł.
Pytanie 17:37 – Więc dobrze jest myśleć jak w Google – tak, jakby ktoś z zespołu Google ds. spamu pomyślał, no wiesz, patrząc na to, co by zrobił, gdyby to zrobił?
Odpowiedź 17:47 - Tak.
Pytanie 17:48 – Problem w tym, że większość ludzi nie wie. Mam na myśli, że przeciętny właściciel firmy nie wie, które linki wybrałby zespół ds. spamu internetowego – to znaczy, istnieją wytyczne, ale to bardzo – wiesz, trudno je zinterpretować. Więc myślę... Mam na myśli kilka obaw, ale moim głównym zmartwieniem jest to, że ludzie wydają mnóstwo pieniędzy na audyty linków, które moim zdaniem nie są tego warte. Z drugiej strony możemy nie przeprowadzać audytów linków i zrzekać się niektórych witryn, które mogłyby z tego skorzystać. Więc bardzo chciałbym, wiesz, myślę, że to, co powiedziałeś, bardzo pomogło, żebyśmy... wiesz, to dobrze.
Odpowiedź 18:22 — Tak, myślę, że w przypadku zdecydowanej większości witryn, które mają normalną mieszankę rzeczy, to tak, jakbyś postępował za złymi radami w przeszłości i jest tak, jakbyś poszedł dalej, a teraz wszystko jest całkiem naturalne, wtedy naprawdę nie muszą tego robić. Taki jest cel w tym wszystkim i właśnie dlatego narzędzie zrzekania się nie jest główną funkcją w Search Console. Szukasz tego wprost. To wszystko jest zrobione celowo, ponieważ w przypadku większości witryn naprawdę nie musisz tak bardzo skupiać się na linkach. To, co lubię w narzędziu wyrzekania się, to to, że jeśli się tym martwisz, nadal możesz tam iść i powiedzieć: OK, wiem, że jest kilka rzeczy, które zrobiliśmy przez kilka lat temu i naprawdę się tym martwię. Wtedy z mojego punktu widzenia wyparcie się ich nie stanowi problemu. Nie wychodziłbym i nie szukał specjalnie tych wszystkich rzeczy. Ale jeśli o tym wiesz i naprawdę się tym martwisz, możesz się tym zająć.
Pytanie 19:27 - Mam pytanie dotyczące jednej ze stron internetowych naszych klientów. Więc mają klub, mają klub w trzech miastach w Nowej Południowej Walii. A każdy klub ma na swojej stronie subdomenę. Teraz, gdy dodają dowolną stronę do swojej witryny, tworzą stronę dla każdej subdomeny. Niedawno dodali stronę, która dotyczy ich działalności w klubie, i dodali tę stronę do swoich... wszystkich subdomen. Oznacza to, że wszystkie subdomeny mają tę samą treść, z wyjątkiem tego, że tytuł strony jest inny. Ponieważ kiedy dodają do... dla Sydney, dodają nazwę swojej lokalizacji w tagu tytułu. Kiedy dodają go do Newcastle, dodają Newcastle w tagu tytułu, ale reszta treści na stronie jest taka sama. Czy będzie problem, bo mają 50 subdomen i stworzyli 50 stron, które mają tę samą treść poza tytułem?
Odpowiedź 20:36 — Wydaje mi się, że to trochę nieefektywne. Mam na myśli, że już o tym mówisz i mówisz, że wydaje się, że można to zrobić inaczej. Myślę, że jeśli jesteś w przypadku, gdy masz 50 subdomen, które mają tę samą treść, i po prostu zmieniasz tag tytułu, prawdopodobnie nie dostarczasz nam wielu naprawdę przydatnych treści. Więc to jest sytuacja, w której powiedziałbym, że bardziej sensowne jest łączenie rzeczy i tworzenie naprawdę mocnych stron, niż rozcieńczanie rzeczy w jeszcze większej liczbie subdomen.
Pytanie 21:44 – A co z tworzeniem jednej strony, a następnie używaniem kanonicznych adresów URL do innych stron lokalizacji. Chcę tylko utworzyć jedną stronę, na której będziemy rozmawiać o ich działaniach, i użyję linku jako kanonicznego adresu URL do innych stron lokalizacji.
Odpowiedź 22:10 - Lokalizacja-- tak. Myślę, że to może mieć sens, ponieważ wtedy znowu łączysz różne rzeczy. Wtedy tworzysz jedną mocną stronę, a nie kilka rozrzedzonych stron.
Pytanie 22:20 - Ponieważ co się dzieje, gdy ktoś odwiedza witrynę i wybiera swoją lokalizację, automatycznie przekierowuje tę osobę do tej subdomeny, dla której wskazał swoją konkretną lokalizację. To jest powód, dla którego potrzebują strony w tej subdomenie. Myślę więc, że właśnie dlatego, jeśli zachowamy jedną stronę i dodamy kanoniczny adres URL, to jest to jedyna opcja, jaką mamy w tej chwili.
Odpowiedź 23:08 - OK, ale myślę, że jeśli masz osobne strony, które musisz mieć na stronie z przyczyn technicznych i umieszczasz kanoniczne, to jest to dobre podejście.
Pytanie 23:21 – Czy to byłoby tak, jakby firma, która ma wiele franczyz w różnych lokalizacjach, która zasadniczo miała tę samą treść dla każdej franczyzy, byłaby w innym mieście lub gminie, lub cokolwiek innego, punktu widzenia z powrotem na jedną stronę?
Odpowiedź 23:34 – Myślę, że to zawsze jest trochę trudne, ponieważ równoważysz ludzi szukających tego rodzaju działalności w określonej lokalizacji z rodzajem strony informacyjnej bezpośrednio wokół tej firmy. Więc to jest coś, co czasami ma sens, aby mieć to oddzielne dla firmy. Czasami sensowne jest umieszczenie ogólnych informacji w centralnym miejscu i podobnych, takich jak strony docelowe lokalizacji, które są bardziej skoncentrowane na adresie, godzinach otwarcia i tego typu rzeczach.
Pytanie 24:12 – Tak, mam-- Mam powiązane pytanie dotyczące punktu kanonicznego, który przedstawiałeś. To pytanie, które mój zespół i ja zadaliśmy sobie od wielu lat. I nadal nie znamy dokładnie rozwiązania. Więc jeśli prowadzisz dużą witrynę e-commerce z wieloma, wieloma produktami i wieloma, wieloma kategoriami. Załóżmy, że znajdujesz się na stronie kategorii, która ma wiele różnych filtrów, aspektów i tego typu elementów, które nieznacznie zmieniają zawartość strony, ale może nie wystarczają, aby uzasadnić posiadanie własnego adresu URL. Ale być może w niektórych przypadkach z pewnymi filtrami uzasadnia to posiadanie adresu URL witryny. Więc jak sobie radzisz z raczkowaniem w takiej sytuacji? Jak działa tag kanoniczny? Czy jest to ogólne rozwiązanie polegające na stworzeniu tylko jednej zindeksowanej strony? A może powinieneś przyjrzeć się, no wiesz, nie indeksować pewnych aspektów i filtrów lub używać robotów, albo jak to kontrolować w przypadku dużych witryn e-commerce?
Odpowiedź 24:57 - To trudne. Nie sądzę, że mamy w tej chwili naprawdę jasne wytyczne w tej sprawie. To jest coś, w czym wszystkie te różne metody mogą mieć sens. Ogólnie staram się unikać używania do tego robots.txt, ponieważ może się zdarzyć, że znajdziemy adresy URL. Po prostu nie wiemy, co tam jest. Więc jeśli naprawdę nie widzisz problemów, które powodowały zbyt duże obciążenie serwera, staram się używać takich rzeczy, jak brak indeksu, użyj kanonicznego rel. Być może używasz rel no-follow z wewnętrznymi linkami do lejka, aby nieco jaśniej określić, co powinniśmy indeksować, zamiast używać robots.txt. Ale decyzja o tym, kiedy połączyć elementy w stronę na poziomie indeksu, a kiedy zablokować ją przed indeksowaniem, kiedy delikatnie skierować ją w stronę jednego kanonicznego adresu URL, to -- to czasami naprawdę trudne.
Pytanie 25:53 – Ponieważ czasami elementy kanoniczne są ignorowane, jeśli zawartość strony jest zbyt różna.
Odpowiedź 25:57 - Dokładnie. Jeśli treść jest inna, możemy powiedzieć, że są to różne strony. Nie powinniśmy używać kanonicznego. Mógłbyś powiedzieć, że to jest naprawdę coś, czego nie chcę indeksować. Może brak indeksu byłby bardziej sensowny niż kanoniczny. Możesz również połączyć oba. Nie zalecamy ich łączenia, ponieważ naprawdę trudno nam powiedzieć, co masz na myśli? Czy mówisz, że są takie same, ale jeden jest indeksowalny, a drugi nie, to nie są takie same. Ale wyobrażam sobie, że w ciągu tego roku pojawią się jasne wskazówki dotyczące tego, co mogłoby się tam sprawdzić. Ale zwłaszcza w przypadku naprawdę dużych witryn e-commerce, strona indeksowania może być dość trudna.
Pytanie 26:46 - Jest więc scenariusz, który próbowałem ostatnio rozgryźć z kilkoma moimi klientami. Próbujemy dowiedzieć się, dlaczego nie jesteśmy w stanie zasadniczo usunąć witryny, która nadal korzysta z protokołu HTTP, a mniej więcej wygląda na porzuconą, ponieważ strona nie była aktualizowana od dłuższego czasu, a jej zawartość jest stara, nieaktualna i ogólnie trochę cienka, więc mam na ten temat kilka teorii. Częścią tego jest, jak sądzę, może to było w indeksie tak długo, że wszyscy macie z nimi czynnik zaufania. And it's kind of hard to unseat them. That's part of my theory on that. So I'm just trying to figure out what's going on because I know HTTPS is a factor. I don't know how much of a factor it can be, but I also think the age might be part of the problem of trying to provide that newer, fresher content that-- in most cases, what we have done over last year is a lot more thorough than what was written, say 10, 12 years ago. So we're trying to figure out why is it taking so long to essentially move ahead of those pages in a lot of cases.
Answer 27:46 - So HTTPS is a ranking factor for us. But it's really kind of a soft ranking factor. It's really a small thing.

Question 27:55 - One of the things I've noticed about when I encounter sites that are still using HTTP is they haven't really-- they haven't been updated, in general, in two or three years, usually. So to me, it's kind of like they've almost been abandoned. To me I'm looking at it as a signal of freshness and stuff like that.
Answer 28:10 - Yeah, I mean, freshness is always an interesting one, because it's something that we don't always use. Because sometimes it makes sense to show people content that has been established. If they're looking at kind of long-term research, then like some of this stuff just hasn't changed for 10, 20 years.
Question 28:30 - I'll give you a pragmatic examples since I'm a web developer. I see pages that were written, say in 2006 or 2007. They haven't actually been changed, but the web standards, web specifications, or just the general way of handling those things has evolved. But that page is still written as if it's 2006. And yet I've got something that's fresher, you know, that's more in depth and things like that, and I'm like at number 11. They're sitting at number four, for example, like, why are they still up there, you know?
Answer 28:59 - Yeah. It's hard to say without looking at the specific cases. But it can really be the case that sometimes we just have content that looks to us like it remains to be relevant. And sometimes this content is relevant for a longer time. I think it's tricky when things have actually moved on, and these pages just have built up so much kind of trust, and links, and all of the kind of other signals over the years, where like, well, it seems like a good reference page. But we don't realize that, actually, other pages have kind of moved on and become kind of more relevant. So I think long-term, we would probably pick that up. But it might take a while.
I don't know if we call it trust or anything crazy like that. It's more-- it feels more like we just have so many signals associated with these pages, and it's not that-- like, if they were to change, they would disappear from rankings. It's more, well, they've been around. They're not doing things clearly wrong or for as long time, and people are maybe still referring to them, still linking to them. Maybe they're kind of misled in kind of linking to them because they don't realize that, actually, the web has moved on. Or maybe, I don't know, a new PHP version came out, and the old content isn't as relevant anymore. But everyone is still linking to, I don't know, version 3 or whatever.
Question 30:42 - But I've also seen that kind of in the health and fitness space as well, you know, like workout types were more popular 10 years ago, but the particular, you know, approach to it isn't necessarily as popular now or been kind of proven to not necessarily be as good. You know, it's just some other general observations I've made too.
Answer 31:06 - Yeah, I think it's always tricky because we do try to find a balance between kind of showing evergreen content that's been around and kind of being seeing more as reference content and kind of the fresher content and especially when we can tell that people are looking for the fresher content. But we'll try to shift that as well. So it's not something that would always be the same.
Question 32:20 - "We have a large e-commerce site that's not in the mobile-first index yet. We know we serve different HTML for the same URL, depending on the user agent. Could this harm us?
Answer 32:38 - So you don't have a ranking bonus for being in the mobile-first index. So it's not that you need to be in there. But it's more a matter of when we can tell that a site is ready for the mobile-first index, then we'll try to shift it over. And at the moment, it's not at the stage where we'd say, we're like flagging sites with problems and telling them to fix things. But more where we're just trying to get up to the current status and say, OK, we've moved all of the sites over that we think are ready for mobile-first indexing. And kind of as a next step, we'll trying to figure out the problems that people are still having and let them know about these issues so that they can resolve them for mobile-first indexing. So it's not that there is any kind of mobile-first indexing bonus that's out there. It's more that we're, step by step, trying to figure out what the actual good criteria should be.
Question 33:40 - Given that the search quality guidelines are an indication of where Google wants its algorithm to go, how does the current algorithm handle measuring the expertise and credibility of publishers?
Answer 33:59 - I don't know. I think that's probably hard to kind of figure out algorithmically. And if there were any kind of technical things that you should do, then we would let you know. So if there are things like authorship markup that we had at some points that we think would be useful for something like this, we would definitely bring that out there. But a lot of things are really more kind of soft quality factors that we try to figure out, and it's not something technical that you're either doing or not doing. It's more, like, trying to figure it out how a user might look at this. So not anything specific that I could point at.
Question 34:44 - Is that reasonable to assume that if something is in the Quality Raters' Guidelines that Google-- I mean, that's what Ben Gomes said, right? That's where the Google wants the algorithm to go. So I mean, we may be guilty putting too much emphasis on the Quality Raters' Guidelines, but it's all good stuff in there, right? So is it reasonable to make that assumption? Like, if it's in there, we should aim for that sort of standard of quality?
Answer 35:09 - I think, in general, it's probably good practice to aim for that. I avoid trying to focus too much on what Google might use as an algorithmic factor and look at it more as-- we think this is good for the web, and, therefore, we will try to kind of go in that direction and do these kind of things. So not so much it's like I'm making a good website just so that I can rank better, but I'm making a good website because when I do show up in search, I want people to have a good experience. And then they'll come back to my website, and maybe they'll buy something. So that's kind of the direction I would see that, not as, like, do this in order to rank, but do this in order to kind of have a healthy, long-term relationship on the web.
Question 36:10 - Is there a particular type of schema that is more likely to obtain featured snippets of voice search results?
Answer 36:18 - I don't know. I can't think of anything offhand. So there is the speakable markup that you can use, which is probably reasonable to-- kind of look into to see where it could make sense on a page. I don't think we'll use that in all locations yet.
Question 36:41 - Is that the goal to us it in more locations?
Answer 36:47 - I believe-- I guess. I mean, it's always a bit tricky because, sometimes, we try them out in one location, and we try to refine it over time. And usually, that means we roll it out in the US, and where we can kind of process the feedback fairly quickly, we can look to see how it works, how sites start implementing it or not. And based on that, we can refine things and say, OK, we're doing this in other countries, and other languages, and taking it from there. But it's not always the case that that happens. Sometimes it happens that we keep it in the US for a couple of years, and then we just said, oh, actually, this didn't pan out the way that we wanted it. So we'll try something new, or we'll give it up. Yeah. But a lot of the structured data types, we do try to roll out in other countries, other languages. I imagine the speakable markup is tricky with regards to the language. So that's something more where we'd say, well, Google Assistant isn't available in these languages. So, like, why do we care what markup is actually used there.
I don't know how many places this system is available yet. Maybe that's everywhere now. But featured snippets, in particular, I don't think we have any type of markup that's specific to that. So that's something where if you have clear kind of structure on the page, that helps us a lot. If we can recognize like tables on a page, then we can pull that out a lot easier. Whereas if you use fancy HTML and CSS to make it look like a table, but it's not actually a table, then that's a lot harder for us to pull out.
Question 38:37 - John, do internal links help with featured snippets if you have an anchor? Sorry, not an internal, like, an anchor like-- do you think that that would help?
Answer 38:48 - I don't know. I do know we sometimes show those anchor links in search as a sub site link-type thing. But I don't know if that would work for featured snippets.
Question 39:04 - Does cross domain site map submissions still work when 301 redirecting to an external sitemap file URL?
Answer 39:16 - Hopefully.
Question 39:17 - What about using meta-refresh? This was something that was recommended by a video hosting company. People said, we'll host the site map on our site, but, you know, the XML file will metarefresh over to our site where all the links are located.
Answer 39:33 - I don't think that would work. So sitemap files are XML files, and we process those kind of directly.
So if you do something that's more like a JavaScript redirect or that uses JavaScript to get us the sitemap content, then that would work. It would really need to be a server-side redirect. What you can also do is use the robots.txt file to specify a sitemap file on a different host. That also confirms to us that actually you told us specifically to use a sitemap file from there. So I probably use something like that more than any kind of a redirect. I imagine the 301 server-side redirect would work. But, no, I don't know, you should be able to see some of that in Search Console too, like, if we're picking the sitemap up in the index composition tool, you can pick the sitemap file, then that's a pretty clear sign that we can process that.
Pytanie 42:29 - Chodziło o strony internetowe biur podróży do podróżowania. Wybieramy wyszukiwarkę wewnętrzną, aby wyświetlać treści dynamiczne, takie jak 10 najlepszych najtańszych hoteli w wyszukiwanym mieście, OK? Tak więc ramka strony ładuje się w mgnieniu oka. Ale 10 najlepszych wyników wyszukiwania najtańszych hoteli ładuje się dynamicznie w ciągu około 30 sekund od przeprowadzenia wyszukiwania, ponieważ witryna musi przeprowadzić to wyszukiwanie z tyłu, a następnie porównuje i udoskonala wyniki, aby wyświetlić dla osoby wyszukującej najlepsze 10 tanich hotele. Wypisanie ich zajmuje więc trochę czasu. W tej chwili Googlebot widzi tylko tło strony. Następnie te 10 pustych symboli zastępczych znalazło się w miejscu, w którym wyniki zostaną załadowane nieco później po przeprowadzeniu wyszukiwania wewnętrznego. Skoro więc jest to tendencja dla serwisów turystycznych, aby informacje były jak najświeższe i jak najdokładniejsze, zastanawiam się, co Google z tym robi. Oczywiście możemy wymienić na tych stronach niektóre statyczne treści, tak jak wszystkie inne witryny robią obecnie dla Google, jeśli mogę tak powiedzieć. Ale to jest sprzeczne z celem tego, co większość użytkowników chce teraz zobaczyć, świeżego i taniego.
Odpowiedź 44:00 - Więc jeśli się tam nie załaduje, nie możemy tego zindeksować. Ale zwykle jest to bardziej kwestia tego, że nie jesteśmy w stanie przetworzyć kodu JavaScript lub być może zablokowaliśmy dostęp do zawartej tam zawartości. Więc jest to coś, co możesz zrobić w sposób, który zadziała. To nie jest zgodne z projektem, że to nigdy nie zadziała. To jest coś, w czym możesz zagłębić się w szczegóły, używając takich rzeczy, jak test przyjazny dla urządzeń mobilnych, aby sprawdzić, czy występują błędy JavaScript, czy coś jest zablokowane, i w pewnym sensie je udoskonalić. Więc nie jest to niemożliwe, ale wymaga trochę pracy.
Pytanie 44:42 - John, zagłębiam się w to, aby upewnić się, że nic nie jest blokowane przed Google. Jedyne, czego oczekujemy od Google, to trochę poczekać, aż dynamiczna zawartość załaduje się na strony, wiesz? To kolejny krok, jeśli mogę tak powiedzieć, ponieważ chociaż ta strona nie jest niekończącym się przewijaniem, powiedzmy Facebook, jest to strona z ograniczonymi 10 wynikami. Więc to jest skończone. To jest ograniczone. Rzecz w tym, że Google powinno trochę poczekać na zawartość dynamiczną. Daję ci tylko przykład. Ale jestem pewien, że istnieje wiele innych przykładów na wolności. A ponieważ jest to trend, w którym ludzie oglądają treści dynamiczne, ponieważ jakoś sortują rzeczy, a czasu spędzają coraz mniej — ludzie spędzają coraz mniej czasu na stronach internetowych i chcą jak najszybciej znaleźć doskonałe rezultaty, jeśli mogę tak powiedzieć. Zastanawiałem się, czy patrzycie na to ulepszenie.
Odpowiedź 45:55 - Więc trochę czekamy na renderowanie. Ale jeśli ludzie są niecierpliwi, to znak, że i tak powinieneś być szybszy. Więc i tak bym się tym zajął. Ale myślę, że patrząc na zrzut ekranu, wszystkie przedmioty były zablokowane w szarych pudełkach. Wydaje się więc, że jest to raczej kwestia techniczna, a nie tylko przerwa.
MARTIN SPLITT : Tak. Chciałem powiedzieć, że widzimy dużo dynamicznej zawartości, która jest indeksowana bez problemów, nawet jeśli używa JavaScriptu i innych rzeczy. Jeśli więc przekroczymy limit czasu, możesz mieć problem z długością wyszukiwania, a to może mieć odzwierciedlenie również w innych miejscach. Czekamy dość długo, aż zawartość się skończy.
Pytanie 46:48 - Czy możesz... czy możesz mi podać ramy czasowe? Ile czekasz?
MARTIN SPLITT : To bardzo, bardzo trudne, ponieważ w zasadzie – chodzi o to, że powodem, dla którego nie możemy podać ram czasowych, jest czas – i to zabrzmi bardzo dziwnie, i wytrzymam ze mną przez chwilę . Czas renderowania Googlebotów jest wyjątkowy i niekoniecznie jest zgodny z zasadami Einsteina. [ŚMIECH] Więc nie mogę za dużo powiedzieć. Mogę tylko powiedzieć, że jeśli sieć jest zajęta, a sieć jest wąskim gardłem, prawdopodobnie czekamy, ale czekamy tylko tak długo. Więc jeśli zajmie ci to około minuty lub 30 sekund, prawdopodobnie mierzymy czas pomiędzy. Ale nie ma trudnego -- jeśli powiem ci 10 sekund, to może zadziałać lub nie. Jeśli powiem ci 30 sekund, może to zadziałać lub nie. Więc wolałbym nie podawać liczby. Co bym powiedział, postaraj się to zrobić tak szybko, jak możesz. A jeśli nie możesz tego szybko uzyskać, spróbuj czegoś podobnego do buforowania wyników wyszukiwania, aby wyszukiwanie było bardziej lub mniej intensywne – lub tworzenie wyników na stronie staje się coraz bardziej – mniej lub bardziej natychmiastowe. Lub wypróbuj dynamiczne renderowanie po swojej stronie, które może być obejściem tego problemu. Możesz też spróbować lubić umieścić go po stronie serwera i zasadniczo spróbować wygenerować jak najwięcej treści w pierwszym przejściu. To jest coś, co przyniesie korzyści również Twoim użytkownikom, zwłaszcza jeśli korzystają z wolnych sieci. Więc tak. Przepraszam, nie mam prostej odpowiedzi, ale czas w Googlebot jest dziwny.
Odpowiedź 49:29 - Myślę, że to prawdopodobnie zależy od tego, co faktycznie robi strona. Jedną z rzeczy, które są trudne z szybkością renderowania, jest to, że możemy buforować wiele rzeczy, które są wysyłane z serwera, więcej niż byłoby to w przeglądarce, ponieważ możemy użyć naszego indeksu do wielu z tych rzeczy. Dlatego czasami, jeśli JavaScript jest buforowany po naszej stronie, nie musimy go pobierać. Następnie, jeśli ponownie porównasz czasy, nie będzie to zgodne z tym, co widzi użytkownik. Nie będzie pasować do tego, co widzisz na stronie webpagetest.org. Więc to jest naprawdę trudne, a w przypadku części, o których wiemy, że trwa to dłużej, będziemy trochę bardziej cierpliwi. Ale to utrudnia testowanie. Dlatego mamy teraz wszystkie te narzędzia testowe, które pokazują jak najwięcej błędów, aby można było dowiedzieć się, na przykład, czy to w ogóle nie działa? Czy to czasami działa i gdzie są czasami pojawiające się problemy?
Pytanie 50:29 – Czy w przypadku bardzo dużych witryn kolejność adresów URL w mapach witryn XML ma znaczenie?
Odpowiedź 50:34 — Nie. Nie obchodzi nas to. To plik XML. Pobieramy wszystkie dane. Przetwarzamy to wszystko na raz.
Pytanie 50:44 – A co z parametrem priorytetu w mapach witryn?
Odpowiedź 50:47 - W ogóle tego nie używamy. To jest coś, co na początku pomyśleliśmy, och, może to być przydatne, aby dowiedzieć się, jak często powinniśmy indeksować strony. Ale okazuje się, że jeśli zapytasz webmasterów, powiedzą, że wszystko jest priorytetem. To najważniejsze. Podobnie jest z, jak sądzę, częstotliwością zmian w mapach witryn, gdzie również zauważamy, że ludzie mówią nam, że rzeczy cały czas się zmieniają, ale ostatnia aktualizacja została zaktualizowana w zeszłym roku. Jeśli więc znasz częstotliwość zmian i datę, to i tak otrzymamy tę informację od daty. Więc ignorujemy częstotliwość zmian.
Pytanie 51:35 – Czy schemat korporacyjny powinien być dodany tylko do strony głównej, strony kontaktowej, czy do wszystkich stron?
Odpowiedź 51:42 - O ile wiem, to tylko strona główna. Nie wiem. Czy ktoś z was wie?
Odpowiedź od Liz 51:4 7 - To ma być tylko jedna strona, zwykle z organizacyjnymi i korporacyjnymi. To generalnie zalecenie.
MARTIN SPLITT 52:00 - Myślę, że to nie ma znaczenia, które - nie ma tak dużego znaczenia, które strony, podobnie jak nie umieszczaj tego na każdej stronie, którą masz, jest chyba ważniejszy. Myślę, że to zależy od... jeśli prowadzisz witrynę z wiadomościami, prawdopodobnie warto umieścić ją na stronie kontaktowej, stronie z informacjami lub czymś podobnym. Podczas gdy na stronie sklepu lub restauracji prawdopodobnie wystarczy umieścić go na stronie głównej.
JANA 52:20 - Myślę też, że w tym przypadku nie ma to dla nas większego znaczenia, ponieważ musimy być w stanie go znaleźć na czymś takim jak strona główna lub strona kontaktowa. Ale jeśli mamy go gdzie indziej, to nic dla nas nie zmieni. Tak więc najważniejszą rzeczą, z którą nie należy tego porównywać, jest znacznik recenzji, w którym czasami widzimy, że ludzie umieszczają recenzje firmy na wszystkich stronach witryny z nadzieją na uzyskanie gwiazdek i wyników wyszukiwania dla każdej strony w swojej witrynie. A to byłoby dla nas złe. Ale informacje kontaktowe, jeśli masz to zaznaczone, to... Nie widzę z tym problemu.
Pytanie 53:05 – Test szybkości witryny Google, którego używaliśmy, odnotowuje bardzo powolny czas ładowania strony, ale niezależne testy, które przeprowadziliśmy z kolegami z zagranicy, wykazały bardzo krótki czas ładowania strony. Czy to fałszywe rejestrowanie pomiarów Google wpływa na ranking naszej witryny w algorytmie Google?
Marie Haynes: To nie moje pytanie, ale aby nadać kontekst, nowe dane Lighthouse dotyczące szybkości strony są o wiele bardziej surowe niż dawniej Page Speed Insights. Więc coś, co miało wynik 80 na Page Speed Insights, może być czerwonymi 29 w Lighthouse. Więc to jest dobre pytanie. Czy to może spowodować, ponieważ wiemy, że bardzo wolne witryny na urządzeniach mobilnych mogą zostać zdegradowane. Więc czy to dobrze, jeśli powiemy, wiesz, jeśli jesteś na minusie w teście Lighthouse, że naprawdę powinniśmy poprawiać rzeczy, ponieważ może to spowodować degradację, czy jest to odcięcie?
Odpowiedź 54:07 — Nie mamy więc mapowania jeden do jednego narzędzi zewnętrznych i wszystkiego, czego używamy w mediach społecznościowych. Tak, to sprawia, że naprawdę trudno to powiedzieć, ale w wyszukiwaniu staramy się używać kombinacji rzeczywistych, co to jest, danych z testów laboratoryjnych, które przypominają test Lighthouse, i danych z raportu Chrome UX, gdzie zasadniczo mierzymy to, co zobaczyliby użytkownicy witryny.
MARTIN SPLITT 55:37 – Ważne jest również, aby zobaczyć, że Lighthouse, na przykład, mierzy konkretnie połączenie 3G na środkowym końcu – lub jak telefon o średniej wydajności, tak. Tak więc, w zasadzie, jeśli korzystasz z najnowszego Apple McIntosh lub najnowszego szybkiego komputera z systemem Windows z naprawdę dobrym połączeniem przewodowym lub naprawdę dobrym połączeniem Wi-Fi w swoim biurze, oczywiście widzisz czas ładowania wynoszący dwie sekundy, ale prawdziwy użytkownik z telefonem na wolności prawdopodobnie tego nie widzi. Jest to więc jeden z tych przypadków, w którym przyspieszenie witryny nigdy nie zaszkodzi, ale naprawdę trudno jest powiedzieć, jak by to wyglądało z perspektywy wnętrza, ponieważ używamy bardzo konkretnych wskaźników, które niekoniecznie są mapowaniem jeden do tego, co ujawniają narzędzia… oczywiście ważne jest, aby to naprawić, ponieważ nie chcesz, aby użytkownicy czekali w Twojej witrynie w nieskończoność. To cię zrani. To zaszkodzi Twoim użytkownikom. To po prostu zrani cię podczas wyszukiwania. Ale nie płacę - powiedziałbym, że wystarczy spojrzeć na narzędzia. Jeśli narzędzia mówią ci, że dobrze sobie radzisz, nie powinieneś się tym zbytnio martwić. Jeśli narzędzia mówią ci, że naprawdę nie radzisz sobie dobrze, myślę, że czas spędzony na zastanawianiu się, dlaczego jest napisane – na przykład, jeśli to, co mówi, jest istotne, jest zmarnowane. Powinieneś raczej poszukać szybszej strony.
Wydajność mobilna jest bardzo ważnym czynnikiem dla Twoich użytkowników, podobnie jak wszystko inne. Powiedziałbym więc, że upewnij się, że Twoja witryna działa dobrze w rzeczywistych warunkach. Może nawet zdobądź tani telefon i wypróbuj stronę od czasu do czasu, a jeśli... to jest coś, co lubię robić i robiłem to, zanim dołączyłem do Google z zespołem programistów, z którym pracowałem. Pytałem, czy chcesz korzystać z tej strony na tym telefonie? To było jak, och, to jest okropne. Myślę, mhm, tak, więc może powinniśmy coś z tym zrobić.
JOHN — W Chrome możesz to skonfigurować i wypróbować różne szybkości połączenia. Emulator mobilny. Myślę, że to naprawdę dobre rzeczy do oglądania, a także, na przykład, spójrz na swoją bazę użytkowników. Spójrz na swoje dane analityczne, jeśli widzisz, że ludzie korzystają z Twojej witryny tylko z zaawansowanym iPhonem, to może jest to mniejszy problem niż w przypadku, gdy widzisz, że ludzie łączą się z Twoją witryną z przypadkowych połączeń wiejskich, które są powolne i mają urządzenia z niższej półki, to może to więcej.
