8 februarie 2019 – Google Help Hangout Notes
Publicat: 2019-02-14Săptămâna aceasta, John a avut o perspectivă excelentă despre Ghidul evaluatorilor de calitate, de care suntem mari fani, când vine vorba de credibilitatea unui site web. Mai jos sunt întrebările și răspunsurile alese manual pe care le-am considerat cele mai utile pentru SEO. Video complet și transcriere mai jos!
Cum interpretează Google o pagină când sunt folosite etichetele h în loc de <p>?
4:34

Nu văd o mare problemă cu asta, vreau să spun, evident, ca tine, deoarece observi că este probabil ceva care ar avea sens să cureți, dar nu este că am spune că acesta este un efect negativ, ci mai degrabă ceea ce faci acolo. spunând că totul este important, ne spui că toate au aceeași importanță. Deci este ca și cum totul este important, deci nimic nu este deosebit de important. Deci avem probleme în a înțelege contextul din pagină. Deci, de aceea aș curăța în mare parte asta. Ne putem da seama care părți sunt cu adevărat importante și care sunt într-un fel în text normal și astfel putem înțelege puțin mai bine aceste pagini. Nu știu dacă ați vedea o schimbare directă a clasamentului din cauza remedierii acesteia, dar ne face mai ușor să ne dăm seama despre ce este cu adevărat pagina. Nu cred că ar fi ceva ce am vedea un spam sau ceva care ar vedea este problematic, doar că nu ne oferiți atât de multe informații pe cât ne-ați putea oferi spunându-ne că acest lucru este foarte important și acesta este un fel de conținut normal
Rezumat: Probabil că nu este mare lucru. Cu toate acestea, John a confirmat că Google poate folosi etichetele h pentru a determina ce conținut de pe pagină este important și despre ce este vorba.
De ce uneori Google nu onorează canonicul conținutului sindicalizat?
8:56

Cred că aceasta este întotdeauna o situație dificilă, încercăm să ne dăm seama care pagină este cea mai relevantă pentru unele dintre aceste interogări și să direcționăm utilizatorii direct acolo, dar dacă acestea sunt site-uri web complet separate și doar postează același articol, atunci există de asemenea, o mulțime de valoare suplimentară de la restul site-ului web și care ar putea fi informații de pe pagina respectivă ar putea fi un fel de valoare suplimentară pe care restul site-ului o aduce acolo unde, atunci când cineva merge la acel articol, poate dispare și uită-te la alte lucruri de pe site-ul respectiv, pentru că altfel a fost foarte frumos. Deci, acesta este ceva care se poate întâmpla întotdeauna și, dacă sindicați conținut, este ceva de care trebuie să luați în considerare că s-ar putea întâmpla ca conținutul pe care l-ați sindicat către un alt site web să ajungă să se claseze deasupra conținutului dvs., ceea ce nu este întotdeauna complet evitabil. . Deci, acestea sunt un fel de compromisuri pe care trebuie să le analizați acolo. Cred că canonicalul este o modalitate bună de a ne anunța că aceste două pagini aparțin împreună, dar este, de asemenea, cazul că un canonical nu este chiar corect în niciun caz, cum ar fi asta pentru că paginile în sine ar putea fi complet diferite. S-ar putea să existe acest bloc de text care să fie același în ambele pagini, dar s-ar putea să existe o mulțime de conținut în jurul acelei pagini, care este complet diferit, care ar putea fi comentariile utilizatorilor, care ar putea fi oarecum restul site-ul propriu-zis. Deci, din nou, acesta este un fel de compromis pe care trebuie să îl analizați, are sens să aduceți informațiile unui public mai larg prin sindicarea conținutului, dar, pe de altă parte, trebuie să țineți cont de faptul că poate aceste alte site-uri web se vor clasa deasupra. site-ul dvs. atunci când vine vorba de căutarea acelui conținut specific.
Rezumat: dacă distribuiți conținut, Google poate alege să indexeze conținutul pe site-urile de republicare, mai degrabă decât pe al dvs. Dacă există mult alt conținut (cum ar fi comentarii) pe una dintre aceste pagini, atunci este posibil ca Google să nu respecte canonicul.
Google recunoaște întotdeauna marcarea datelor structurate?
26:58

Așa că nu știu ce vrei să spui cu organizarea datelor structurate, dar în general avem algoritmi care încearcă să dea seama când are sens să afișăm datele structurate ca rezultate bogate în rezultatele căutării și când simțim că poate nu face asta. sens sau când simțim că poate nu suntem sută la sută siguri de acest site sau de modul în care datele structurate sunt implementate pe acest site și vom fi puțin mai precauți. Deci, dacă furnizați un marcaj de date structurat valid, nu este o garanție că va fi întotdeauna afișat exact așa în rezultatele căutării.
Rezumat: dacă datele structurate nu produc rezultate bogate pentru dvs. (cum ar fi stelele din rezultatele căutării), este posibil ca acestea să nu fie implementate corect. Dar, ar putea fi și pentru că algoritmii Google au decis să nu-l arate.
Google recunoaște întotdeauna marcarea datelor structurate?
53:46

Cred că asta este întotdeauna puțin complicat, de obicei sunt două aspecte care sunt implicate acolo. Una este mai mult o problemă, în special cu site-urile web mai noi, unde numele site-ului web sau numele companiei seamănă mai mult cu o interogare generică. Deci, dacă, de exemplu, numele site-ului este „Cel mai buni avocați din Pittsburgh” sau ceva de genul acesta. Apoi, pe de o parte, acesta ar putea fi numele companiei, pe de altă parte, dacă cineva ar introduce asta în căutare, probabil am presupune că nu caută acea companie specifică, ci mai degrabă caută informații pentru acea interogare. . Deci, în special cu companiile mai noi, ceea ce vedem din când în când. Vedem că forumurile sau oamenii de acolo spun, oh, nu fac clasament pentru numele meu de domeniu, iar apoi numele lor de domeniu este ceva de genul Nu știu cei mai buni furnizori VPN.com, este bine, este un nume de domeniu, dar nu Nu înseamnă că te vei clasa pentru acea interogare. Deci, acesta este un lucru când vine vorba de site-uri care sunt puțin mai stabilite și care sunt deja acolo, de obicei, este mai degrabă un semn că pur și simplu nu mai avem încredere în acel site web. Deci este ceva în care am putea recunoaște că de fapt oamenii caută această companie, dar credem că poate site-ul web al companiei în sine nu este cel mai relevant rezultat aici, poate credem că există un fel de informații auxiliare despre acea companie, care este mai importantă pentru utilizatori. vezi mai întâi unde ar putea avea ca rezultat să se întâmple așa ceva. De obicei, aceasta este mai degrabă o chestiune de lucruri care se amestecă pe primele una sau două pagini din rezultatele căutării. Ar fi foarte rar ca așa ceva să ducă la un site web să nu apară deloc în primele două pagini ale rezultatelor căutării. Cred că asta e ceea ce ați subliniat acolo cu întrebarea dvs. și asta cred că e bine, chiar dacă nu mai avem încredere în acest site, atunci ar trebui să-l avem undeva în rezultatele căutării pentru că dacă putem spune că cineva caută în mod explicit acel site web ar fi un deserviciu pentru utilizator să nu îl arate deloc. Ca și pentru interogările generice, s-ar putea argumenta că poate nu este rezultatul perfect, dar dacă putem spune că ei caută cu adevărat acel site, cel puțin ar trebui să oferim utilizatorului șansa de a vedea și acel site. Deci, de aceea am luat asta și am spus că poate ar trebui să înțelegem asta puțin mai bine și nu știu dacă algoritmii noștri înțeleg corect cât de demn de încredere ar fi site-ul tău. Nu cunosc site-ul, așa că îmi este foarte greu să judec, dar chiar dacă credem că nu a fost deloc de încredere, poate ar trebui să-l arătăm totuși undeva în rezultatele căutării de pe prima pagină. Un alt lucru pe care ar putea să-l uitați dacă nu ați făcut-o deja este să vă uitați la regulile de evaluare a calității pe care le avem și există o mulțime de informații despre tipul de încredere. Unele dintre acestea merită luate cu un sâmbure de sare, nu este că luăm acest tip de unu-la-unu și îl folosim ca factor de clasare, dar există o mulțime de idei acolo, mai ales când vorbiți despre un subiect acesta este un fel de site web legal sau site medical, atunci are sens să le arătați utilizatorilor de ce furnizați aceste informații de ce ar trebui să aibă încredere în dvs.
Rezumat: dacă aveți o marcă nouă care se întâmplă să aibă cuvinte cheie în numele mărcii și adresa URL, aceasta nu înseamnă că ar trebui să vă clasați automat pentru acele cuvinte cheie. Cu toate acestea, dacă algoritmii Google nu au încredere în site-ul dvs., atunci acesta nu se va clasa bine. John ne indică Ghidul evaluatorilor de calitate pentru mai multe informații. Nota noastră: există și informații bune aici despre modul în care credem că actualizările recente ale algoritmilor sunt legate de încredere.
Dacă vă plac astfel de lucruri, vă va plăcea newsletter-ul meu!
Eu și echipa mea raportăm în fiecare săptămână despre cele mai recente actualizări ale algoritmului Google, știri și sfaturi SEO.
Succes!! Acum verificați-vă e-mailul pentru a vă confirma abonamentul la Buletinul informativ Google Update.
Video complet și transcriere
Notă din Ioan 0:33 - Am vrut doar să vorbesc pe scurt despre un lucru înainte de a trece la întrebări. După cum probabil ați văzut, am făcut o postare pe blog despre consola de căutare, unele dintre modificările care apar în consola de căutare. Anul trecut am început să ne mutăm la o nouă platformă în consola de căutare, iar pentru noi, pentru echipa din consola de căutare, acest lucru este ceva la care lucrează de ceva timp și este ceva la care trebuie să-l completăm mai mult sau mai puțin către cel mai tarziu la sfarsitul anului. Prin urmare, scopul nostru cu postarea de blog cu unele dintre modificările care urmează este să ne asigurăm că vă informăm pe toți cât mai curând posibil. Așa că atunci când lucrurile se schimbă sau dispar în moduri care credem că te-ar putea afecta, dorim să te anunțăm cât mai curând posibil. Schimbarea cred că este întotdeauna o bătaie de cap, mai ales când ai procese care funcționează destul de bine și cineva pleacă și schimbă instrumentele sau schimbă datele furnizate în instrumente, este întotdeauna puțin frustrant. Așa că unele dintre aceste modificări nu le putem evita unele dintre ele credem că ar fi trebuit să le facem la început, când am început cu consola de căutare, știind acum dacă am știut atunci ceea ce știm acum este ceva de genul schimbării canonice pe care am anunțat-o. săptămâna aceasta. Așa că îmi dau seama că uneori acest lucru este puțin frustrant, dar sperăm că vom avea un drum destul de frumos în continuare și vrem să vă informăm devreme și să vă lăsăm să încercați lucrurile devreme, astfel încât să nu fiți prea surprins când lucrurile se schimbă. Avem, de asemenea, o mulțime de lucruri cu adevărat îngrijite aliniate și, trecând la o nouă platformă și eliminând unele dintre caracteristicile vechi, o echipă are mult mai mult timp pentru a merge mai departe și a crea lucruri noi și fanteziste. Așa de bine, poți să faci acolo dacă simți cu tărie anumite lucruri care fie dispar, fie lipsesc sau pe care ai dori să le vezi într-un instrument nou, asigură-te că folosești o funcție de feedback în consola de căutare și nu mergi pur și simplu acolo și spuneți că îmi doresc cu adevărat acest lucru, ci mai degrabă dați-ne câteva informații despre ceea ce ați dori să vedeți din asta, cum ar fi ce încercați să obțineți dacă aveți această nouă caracteristică sau având același lucru pe care îl aveam în vechea în cel nou, deoarece oferindu-ne puțin mai multe informații acolo, ne ajută să ne dăm seama cum trebuie să acordăm prioritate, acesta este ceva la care poate am omis ceva la care ar fi trebuit să ne gândim devreme. Este ceva care poate vă putem oferi o modalitate mai bună de a vă oferi acele informații sau de a vă ajuta să faceți acel lucru decât aveam în vechiul instrument. Așa că asigurați-vă că accesați instrumentul de feedback, trimiteți-ne informații, oferiți-ne feedback cu privire la ceea ce credeți că ați dori să vedeți diferit. unele dintre aceste lucruri pe care le vom putea face unele dintre ele ar putea dura puțin mai mult, deoarece avem cu adevărat nevoie pentru a curăța mai întâi toate aceste lucruri vechi pe care le-am adunat de-a lungul anilor și a muta totul pe noua platformă. Așa că pentru unele dintre ele îmi place puțină răbdare, dar este bine să ne anunți vocal dacă există ceva de care simți cu adevărat, așa că nu fi prea timid.
Întrebarea 4:34 - Am găsit unul dintre site-urile clienților noștri, modul în care au construit site-ul web nu există text de paragraf, toate sunt etichete h1 h2 h3 h4. Deci, acestea folosesc eticheta titlul 4 în loc de eticheta P. Conținutul lor principal al site-ului, îl folosesc eticheta titlul 4 pentru conținutul principal al site-ului. Are acest lucru vreun impact negativ asupra clasamentului lor?
Răspuns 4:40 - Nu văd o mare problemă cu asta, vreau să spun, evident, ca tine, deoarece observi că este probabil ceva care ar avea sens să curățăm, dar nu este că am spune că acesta este un efect negativ, ci mai degrabă ceea ce te descurci acolo spunând că totul este important, ne spui că toate au aceeași importanță. Deci este ca și cum totul este important, deci nimic nu este deosebit de important. Deci avem probleme în a înțelege contextul din pagină. Deci, de aceea aș curăța în mare parte asta. Ne putem da seama care părți sunt cu adevărat importante și care sunt într-un fel în text normal și astfel putem înțelege puțin mai bine aceste pagini. Nu știu dacă ați vedea o schimbare directă a clasamentului din cauza remedierii acesteia, dar ne face mai ușor să ne dăm seama despre ce este cu adevărat pagina. Nu cred că ar fi ceva ce am vedea un spam sau ceva care ar vedea este problematic, doar că nu ne oferiți atât de multe informații pe cât ne-ați putea oferi spunându-ne că acest lucru este foarte important și acesta este un fel de conținut normal
Întrebarea 7:03 - Primim în continuare link-uri rupte aleatoriu în consola de căutare. Mă întreb ce ar trebui să facem acolo, redirecționându-le sau lăsându-le așa cum sunt?
Răspuns 7:15 - Nu știu ce link-uri rupte aleatoriu vezi acolo, care ar putea fi ceva de postat pe forum pentru a obține și un sfat, dar în general, dacă vezi un link care indică site-ul tău web care nu nu funcționează deloc, atunci este bine să returnați 404 pentru o adresă URL care nu există. Cam pentru asta este codul de stare 404 și este ceva cu care sistemele noastre funcționează bine. Deci, dacă există o adresă URL care nu a existat niciodată returnează 404, e perfect. Pe de altă parte, dacă vedeți că există link-uri care vin către site-ul dvs. care indică în altă parte, puteți ghici ce au vrut să spună și poate că au doar o greșeală de scriere sau un punct suplimentar la sfârșit sau ceva de genul, atunci acestea ar putea avea sens. pentru a redirecționa mai ales când vezi oameni care trec prin acele link-uri pentru că pare ceva sau cineva încearcă să-ți recomande site-ul, dar nu a înțeles perfect. Deci, ar putea avea sens să le redirecționați către pagina corectă. Cred că, în ambele situații, este ceva în care poți să te uiți puțin la traficul prin acele URL-uri, dacă mulți oameni merg la acele URL-uri, atunci, într-un fel, este încurajator, deoarece oamenii vor să meargă la paginile tale, atunci ar putea avea sens. pentru a găsi o modalitate de a determina ce înseamnă acest link și unde l-aș putea îndrepta, unde aș putea redirecționa oamenii.
Întrebarea 8:56 - Ce factori ar putea face ca o bucată de conținut care a fost sindicalizată pe un site partener să se claseze bine. Acest lucru se întâmplă în ciuda faptului că canonicul este setat la conținutul original din partea mea și a fost acolo de câteva luni. Este o chestiune de site, de nișă sau de autoritate. Ce am putea face acolo?
Răspuns 9:19 - Cred că aceasta este întotdeauna o situație dificilă, încercăm să ne dăm seama care pagină este cea mai relevantă pentru unele dintre aceste interogări și să direcționăm utilizatorii direct acolo, dar dacă acestea sunt site-uri web complet separate și doar postează același articol, atunci există și o mulțime de valoare suplimentară din restul site-ului web și care ar putea fi informații de pe pagina respectivă ar putea fi un fel de valoare suplimentară pe care restul site-ului o aduce atunci când cineva merge la acel articol. poate se duc și se uită la alte lucruri de pe acel site, pentru că altfel a fost și foarte frumos. Deci, acesta este ceva care se poate întâmpla întotdeauna și, dacă sindicați conținut, este ceva de care trebuie să luați în considerare că s-ar putea întâmpla ca conținutul pe care l-ați sindicat către un alt site web să ajungă să se claseze deasupra conținutului dvs., ceea ce nu este întotdeauna complet evitabil. . Deci, acestea sunt un fel de compromisuri pe care trebuie să le analizați acolo. Cred că canonicalul este o modalitate bună de a ne anunța că aceste două pagini aparțin împreună, dar este, de asemenea, cazul că un canonical nu este chiar corect în niciun caz, cum ar fi asta pentru că paginile în sine ar putea fi complet diferite. S-ar putea să existe acest bloc de text care să fie același în ambele pagini, dar s-ar putea să existe o mulțime de conținut în jurul acelei pagini, care este complet diferit, care ar putea fi comentariile utilizatorilor, care ar putea fi oarecum restul site-ul propriu-zis. Deci, din nou, acesta este un fel de compromis pe care trebuie să îl analizați, are sens să aduceți informațiile unui public mai larg prin sindicarea conținutului, dar, pe de altă parte, trebuie să țineți cont de faptul că poate aceste alte site-uri web se vor clasa deasupra. site-ul dvs. atunci când vine vorba de căutarea acelui conținut specific.
Întrebarea 11:24 - Google raportează paginile noastre de produse expirate ca soft 404 pentru aceste adrese URL redirecționează către un produs alternativ relevant, cu un mesaj care spune că produsul dorit nu este disponibil. Redirecționarea cauzează un soft 404 sau conținutul paginii de redirecționare?
Răspuns 11:47- Bănuiesc că ceea ce se întâmplă aici este că algoritmii noștri se uită la aceste pagini și văd că poate există un banner pe această pagină care spune că acest produs nu mai este disponibil și presupun că acest lucru se aplică paginii de pe care a ajuns utilizatorul. Deci, uneori, asta nu este chiar evitabil acolo. Dacă într-adevăr înlocuiți un produs cu altul, ar putea avea sens să redirecționați.
Întrebarea 12:32 - Cât timp durează Google să recunoască etichetele Hreflang? Este posibil ca Google să indexeze mai întâi din Elveția și să afișeze o versiune CH a unui site web sub TLD-ul german?
Răspuns 13:02 - Deci nu indexăm mai întâi conținutul din Elveția crawlerele noastre și sistemele noastre sunt mai mult localizate în SUA decât în Elveția. Deci, nu cred că am acorda prioritate conținutului elvețian față de alt conținut, dar ceea ce se întâmplă cu link-urile hrefLang în general este un fel de proces în mai mulți pași. Mai întâi trebuie să accesăm cu crawlere și să indexăm acele versiuni diferite ale paginii. Apoi trebuie să le indexăm cu aceeași adresă URL pe care o specificați în cadrul marcajului hreflang și apoi trebuie să putem urmări acel marcaj hreflang între acele versiuni diferite ale paginii și pentru a face asta trebuie să avem și confirmarea înapoi. . Deci, este ceva care durează puțin mai mult decât doar accesarea cu crawlere și indexare normală, trebuie să înțelegem cumva rețeaua dintre aceste pagini diferite care ar trebui să facă parte din acest set de pagini hreflang. Așa că este ceva în care probabil că este normal să luăm, nu știu, poate de două până la trei ori mai mult decât am face doar să accesăm cu crawlere și să indexăm o pagină individuală, astfel încât să putem înțelege legătura dintre versiunile hreflang. Din nou, nu există nicio preferință pentru Elveția față de alte țări din Europa. Cred că ar fi bine doar pentru mine personal dintr-un punct de vedere egoist, dar nu ar avea sens în genul de zonă globală în general. Încercăm să tratăm toate site-urile web la fel. Deci, doar pentru că un site web are o versiune CH nu înseamnă că s-ar clasa automat peste o versiune germană. Deci, celălalt lucru cu hreflang este, în cea mai mare parte, că nu schimbă clasamentele, ci doar schimbă adresele URL.
Întrebarea 15:12 - Am schimbat recent domeniul site-ului meu de la acesta la altul 301 redirecționări pe loc. Schimbarea adresei a fost inițiată, încă văd vechile URL-uri și au trecut peste trei săptămâni, este normal? Am avut câteva probleme cu 301-urile care nu au fost active timp de o săptămână după ce a avut loc migrarea, dar sunt active acum. Pentru unele interogări, atât site-ul vechi, cât și cel nou apar în rezultatele căutării. Ce aș putea să fac diferit aici?
Răspuns 15:46 - Deci, redirecționarea 301 este cu adevărat la care ar trebui să fii atent. Este important pentru noi ca redirecționarea 301 să fie pe pagină. Deci, toate paginile vechi redirecționează către aceeași pagină de pe noul site web. Avem toate acestea acoperite în informațiile noastre din Centrul de ajutor pentru mutarea site-ului, așa că aș verifica asta și aș parcurge pas cu pas și URL-ul cu URL chiar și pentru a vedea că acest lucru funcționează într-adevăr așa cum ar trebui să funcționeze . Un alt lucru de reținut este că accesăm cu crawlere și indexăm adresele URL individual. Deci nu accesăm cu crawlere întregul site deodată și apoi comutăm lucrurile, le facem pas cu pas și unele dintre aceste pagini sunt accesate cu crawlere și indexate foarte repede în câteva ore, unele dintre ele durează mult mai mult pentru a fi re- crawled și reindexat și asta ar putea dura câteva luni. Deci, acesta este ceva care ar putea juca un rol și aici, unde poate pur și simplu nu am avut șansa de a accesa cu crawlere, de a indexa și de a procesa redirecționarea pentru toate aceste pagini, așa că mai sunt unele pe care le-am văzut doar pe vechiul site web. și unele pe care le-am văzut deja pe cel nou. Și asta ar putea juca un rol și aici, mai ales dacă te uiți la o perioadă de trei sau patru săptămâni și ar fi ceva normal și, în cele din urmă, ceea ce joacă un pic în asta este ceva pe care SEO și webmasterii îl găsesc cu adevărat confuz. că, chiar și după ce am procesat acea redirecționare, dacă cineva caută în mod explicit vechiul URL, îi vom arăta vechiul URL. Așa că este puțin confuz, sistemele noastre încearcă să fie de ajutor aici și spun că știm că această adresă URL veche a existat și avem noul conținut aici, dar vi-l vom arăta pentru că, probabil, acesta este ceea ce căutați. Deci, de exemplu, dacă faceți o interogare a site-ului pentru vechea adresă URL, chiar și aici după ce am mutat site-ul dvs., vă putem arăta în continuare unele dintre adresele URL de pe vechiul dvs. site web cu o interogare de site, chiar dacă am procesat deja redirecționarea pentru acele adrese URL. . Deci, atunci când schimbați numele site-ului dvs., de exemplu, veți vedea în interogarea site-ului, veți vedea vechile adrese URL cu noul nume de site menționat acolo și, din punctul nostru de vedere, acesta funcționează conform intenției, încercăm să ajutăm utilizatorul mediu care caută o adresă URL. Pentru un webmaster care tocmai a făcut o mutare a site-ului, aceasta este puțin confuză. Deci nu știu dacă asta e ceva pe care îl vom schimba, dar în general cred că are sens.

Întrebarea 21:46 - Cum vede robotul de căutare Google personalizarea site-ului? Avem un nou strat de produs pe care site-ul web permite personalizarea în funcție de locația industriei, chiar și pentru o singură companie, ceea ce ne permite să ajustăm într-adevăr conținutul.
Răspuns 22:12 - Cred că ne-am uitat și la asta pentru ultima dată, dar doar pentru a oferi un răspuns rapid aici, partea importantă este că Googlebot se accesează cu crawlere în mare parte din SUA. Deci, dacă difuzați conținut diferit în țări diferite, Googlebot ar vedea probabil doar versiunea din SUA a conținutului. Nu am putea indexa versiuni diferite ale conținutului pentru diferite locații. Deci, dacă există ceva pe care doriți să îl indexați, asigurați-vă că se află în partea generică a site-ului dvs. web, astfel încât Googlebot să fie sigur că va putea prelua asta. Sunteți binevenit să utilizați personalizarea pentru a adăuga informații suplimentare pe toată pagina, dar dacă doriți ca ceva să fie indexat, ar trebui să fie în partea paginii care nu este legată de personalizare.
Întrebarea 22:59 - Mă întreb cât de mult afectează o rată de performanță foarte scăzută în web.div clasarea Google a unui site?
Răspuns 23:06 - Nu știu. Așadar, web.dev este un instrument foarte grozav care reunește diferitele teste pe care le avem în far și vă oferă scoruri la acestea și vă ghidează prin procesul de îmbunătățire a acestor scoruri. Deci, când vine vorba de accelerarea lucrurilor, trebuie să fiți atenți la lucrurile pe care le puteți încerca și, în timp, urmărește progresul site-ului dvs. și cam pe măsură ce parcurgeți conținutul diferit de pe instrumentul de acolo. Așa că este ceva ce cred că este, în general, o practică bună de urmat și de rezolvat, dar este și ceva pe care acestea sunt bune practici de urmat, dar nu înseamnă că vor duce automat la o poziție mai înaltă. În mod similar, dacă aveți scoruri scăzute aici, nu înseamnă că site-ul dvs. se clasează groaznic, deoarece nu respectă cele mai bune practici. Deci, există un fel de aspect al, pe de o parte, dacă site-ul dvs. este atât de prost încât nu îl putem indexa deloc corect, ceea ce ar putea fi cazul, cum ar fi un scor SEO foarte scăzut în far, unde nu putem accesa adresele URL sau nu există adrese URL pe această pagină și este doar un shell JavaScript pentru care nu putem procesa JavaScript. Că aș putea avea un efect sever asupra SEO, dar, pe de altă parte, dacă este doar o problemă ca site-ul tău să fie puțin lent sau să nu fie perfect optimizat, nu știu dacă asta ar avea un efect semnificativ asupra site-ului tău. Așadar, recomandarea mea aici este să vă uitați la sfaturile oferite în instrumente precum web.dev și să vă gândiți la ce puteți implementa, gândiți-vă la părțile pe care le considerați importante pentru site-ul dvs., pe de o parte, pentru motoarele de căutare, desigur, dacă sunteți întrebând acest lucru aici, pe de altă parte, și pentru utilizatorii dvs., deoarece, în cele din urmă, dacă faceți ceva care îmbunătățește lucrurile pentru utilizatorii dvs., atunci asta va avea un fel de efect de scurgere pe termen lung și asupra restului site-ului dvs.
Întrebarea 26:58 - Poate Google să decidă dacă să afișeze sau nu informații despre organizarea datelor structurate.
Răspuns 27:05 - Deci nu știu ce vrei să spui cu organizarea datelor structurate, dar în general avem algoritmi care încearcă să descopere când are sens să afișăm datele structurate ca rezultate bogate în rezultatele căutării și când simțim că poate nu are sens sau când simțim că poate nu suntem sută la sută siguri de acest site sau de modul în care datele structurate sunt implementate pe acest site și vom fi puțin mai precauți. Deci, dacă furnizați un marcaj de date structurat valid, nu este o garanție că va fi întotdeauna afișat exact așa în rezultatele căutării.
Întrebarea 28:31 - Întrebare privind structura site-ului web și configurația multi-regională multilingvă Ar trebui să-mi fac griji cu privire la configurația parametrilor URL atunci când împart domeniile pe foldere în servicii separate în consola de căutare.
Răspuns 28:52 - Deci cred că, pe de o parte, cred că este bine că te uiți la astfel de probleme, pe de altă parte, sunt oarecum îngrijorat că ai avea diferite configurații pentru un site web în funcție de subdirector, deoarece asta sună ca poate nu faci ceva care să curețe cu parametrii de configurare URL în general pe site. Deci, asta este ceva în care, nu cunosc site-ul aici în mod specific, așa că este foarte greu de spus, dar se pare că aveți diferiți parametri care înseamnă lucruri diferite sau care pot fi ignorați sau care nu ar trebui ignorați în funcție de tip individual de subdirector în cadrul site-ului dvs. web. Pe de o parte, că acest lucru ar trebui să fie posibil, ar trebui să putem face față cu asta, pe de altă parte, dacă există situații în care putem ignora complet parametrii URL individuali și în alte cazuri în care acești exact aceiași parametri sunt critici pentru conținut, atunci se simte cum ar fi ceva în care algoritmii noștri ar putea deveni confuzi și să spună, ei bine, trebuie să păstrăm întotdeauna acești parametri sau nu trebuie să păstrăm niciodată acești parametri, iar apoi dintr-o dată lipsesc părți din conținutul tău sau părți din conținutul tău sunt indexate de mai multe ori. Deci, folosirea instrumentului de parametri URL ne ajută cu siguranță într-un caz ca acesta, dar mi se pare că probabil că ar avea mai mult sens să încercăm să curățăm acești parametri URL în general și să găsim o modalitate de a avea o structură coerentă pentru adresele URL ale site-urilor dvs. că algoritmii nu trebuie să ghicească, că algoritmii nu trebuie să-și dea seama, Oh, în această cale specială, acest parametru este important și în aceste alte căi îl putem ignora. De fiecare dată când adăugați atât de multă complexitate suplimentară la accesarea cu crawlere și la indexarea site-ului web, ajungeți într-un fel în situația în care poate lucrurile vor merge prost. Deci, cu cât îl puteți păstra mai ușor, cu atât mai curat îl puteți păstra, cu atât mai simplu și îl puteți păstra în structura dvs. URL, cu atât este mai probabil să reușim să accesăm cu crawlere și să indexăm acel site fără a trebui să ne gândim de două ori și ca întotdeauna există și alte motoare de căutare, care nu au instrumentul de configurare URL. Că datele pe care le avem acolo, astfel încât ei să nu poată vedea asta și ați putea cauza probleme pe acele alte motoare de căutare sau poate că joacă, de asemenea, un rol în modul în care conținutul dvs. este partajat pe rețelele sociale. Deci toate aceste lucruri intră în joc aici. Recomandarea mea generală aici ar fi să nu petreceți prea mult timp încercând să reglați instrumentul de gestionare a parametrilor URL pentru toate aceste subdirectoare diferite, ci mai degrabă să vă luați acest timp și să-l investiți în a vă gândi la ceea ce doriți să aveți ca URL. structura pe termen lung și gândindu-vă la pașii de care ați avea nevoie pentru a ajunge la acea structură URL mai curată.
Întrebarea 32:17 - Sper să obțin o perspectivă asupra unei probleme pe care am postat-o legată de faptul că conținutul este indexul ca adresă URL trimisă duplicat neselectat ca canonic.
Răspuns 33:04 - Deci, în general, ceea ce cred că se întâmplă aici este din orice motiv algoritmii noștri cred că aceste pagini sunt echivalente și că le putem împături și din această cauză alegem un canonic dintr-una dintre aceste pagini și pare cum ar fi să privim paginile manual într-un browser, că de fapt sunt pagini destul de diferite, așa că plierea lor nu ar avea sens, prin urmare, selectarea unui canonic din acest material nu ar avea sens. Unul dintre lucrurile pe care le-am văzut în trecut care au dus la așa ceva este când nu putem reda conținutul corect. Când nu putem accesa conținutul în mod corespunzător, când vedem o pagină goală pe care o spunem, ei bine, aceasta este la fel cu cealaltă pagină goală pe care am văzut-o, poate le putem plia împreună. Așadar, de la îndemână, aceasta este direcția pe care aș lua-o acolo pentru a mă gândi cum crede Google că aceste pagini sunt echivalente, este posibil ca, în testul de compatibilitate cu dispozitivele mobile, să nu aibă conținut real. S-ar putea să afișez un accident interstițial pentru Googlebot și doar acel interstițial este indexat, ce s-ar putea întâmpla aici? Încă nu am avut ocazia să analizez atât de multe detalii aici, așa că s-ar putea să se întâmple așa ceva de partea ta, s-ar putea să se întâmple ceva ciudat de partea noastră și trebuie să reparăm asta, dar asta e amabil. de direcția pe care aș lua-o într-un caz ca acesta.
Întrebarea 34:41 - Vreau să-mi navighez puțin mai bine clienții pe site-ul meu. Vreau să mă asigur că acest lucru nu va deruta Google. Aș dori să-mi configurez structura URL pentru a avea ca un domeniu și apoi o categorie și apoi un produs într-o cale sau poate o configurez diferit ce ar trebui să fac, ce structură URL ar trebui să aleg?
Răspuns 35:13 - Din punctul nostru de vedere puteți folosi orice structură URL. Deci, dacă utilizați un fel de structură de subdirector de subdomeniu de cale care este perfect în regulă, este important pentru noi să nu alergăm în spații infinite. So if you use URL rewriting on your server that it's not the case that you can just add like the last item in your URL and just continue adding that multiple times and just it always shows the same content but it should be a clean URL structure where we can crawl from one URL to the other without getting lost in infinite spaces along the way. You can use your URL parameters if you want but if you do decide to use your URL parameters like I mentioned in one of the previous questions try to keep it within a reasonable bound. So that we don't again run off into infinite spaces where lots of URLs lead to the same content but whether or not you put the product first or the category first or you use an ID for the category or write out the category as text that's totally up to you. That doesn't have to be a line between your ecommerce site on your blog that can be completely different on both of these. So I think it's good to look at this but on the other hand I lose too much sleep over this and rather define the URL structure that works for you in the long run in particular one that you don't think you need to change in the future. So try not to get too narrow down and pick something that works for you, works for your website.
Question 37:43 - We're developing an application for angular Universal with some sections we want to change the appearance of the URLs in the browser but keep it the same on the server side. So for the server it would be luxury goods leather bags but the user would see just leather bags. Is there any problem with this in angular Universal using dynamic rendering?
Answer 38:08- So just from from a practical point of view Googlebot doesn't care what you do on the server you can track that however you want on your server. The important part for us is that we have separate URLs for separate pages that we have links that Googlebot can click on that are in kind of a elements with an href pointing to a URL that we can follow and that we can access these URLs without any history is with them. So if we take one URL from your website we can copy and paste it into an incognito browser and it should be able to load that content and if it loads that content if you have proper links between those pages then from our point of view how you handle that on your server is totally up to you. Using angular Universal with dynamic rendering or if you have something of your own that you set up that's all totally up to you that's not something that we would care about. It's not something we would even see because we see the HTML that you serve us and the URLs that you serve us.
Question 39:18 - My website fetches individual web pages which are not interlinked through an API but no links are displayed through clicks. It has a search box where every individual page shows search results is Google is successfully crawling all links as valid via sitemap does Google see this is a valid practice because links and millions will harm rankings or increase ranking.
Question 39:48 - So there are lots of aspects in this question where I say this sounds kind of iffy there is some things that sound kind of ok. So if Google is already indexing these pages then something is working out right. In general I I'd be careful to avoid setting up a situation where normal website navigation doesn't work. So we should be able to crawl from one URL to any other URL on your website just by following the links on the page. If that's not possible then we lose a lot of context. So if we're only seeing these URLs through your sitemap file then we don't really know how these URLs are related to each other and it makes it really hard for us to be able to understand how relevant is this piece of content in the context of your website, in the context of the whole web. So that's that's one thing to kind of watch out for and the other thing to watch out for. The other thing too watch out for I think is if you're talking about millions of pages that you're generating through an API with a search box and just so many of those via sitemap files. I may be kind of cautious there with regards to the quality of the content that you're providing there. So in particular if you have like product feeds if you're using RSS feeds to generate these pages, if you're doing anything to automatically pull content from other websites or from other sources and just kind of republishing that on your site then that's something where I could imagine our quality algorithms maybe not being so happy with that. Similarly if this is all really completely republished from other web sites I could imagine the web spam team taking a look at that as well and saying well why should we even index any of this content because we already have all of the content indexed from from the original sources. Like what is the value that your website is providing that the rest of the web is not providing. So that's one thing to kind of watch out for. I don't want to kind of suggest that your website is spammy I haven't seen your website but it is something that we do see a lot and it's something where as a developer you go, oh I have all of these sources and I can create code therefore I can combine all of these sources and create HTML pages and now have a really large website without doing a lot of work, and that's really tempting and lots of people do that, lots of people also buy frameworks that do this for you but it doesn't mean that you're creating a good website. It doesn't mean that you're creating something that Google will look at and say oh this is just what we've been waiting for we will index it and ranked it number one for all of these queries. So it might mean that it looks like very little work in the beginning because you could just combine all of these things but in the end you spend all this time working on your website when actually you're not providing anything of value then you end up starting over again and trying to create something new again. So it looks tempting to save a lot of work in the beginning but in the long run you basically lose that time. So it might make more sense to figure out how can you provide significant value of your own on your website in a way that isn't available from other sites.
Question 43:34 - We're facing an issue where lots of resources couldn't load through the to the same page not getting rendered in the snapshot for Googlebot while debugging these issues we couldn't find a solution and Google is marking them as other error. What could that be?
Answer 43:51 - So this is also a fairly common question what is essentially happening here is we're making a trade-off between a testing tool and the actual indexing and within the testing tool we try to get information as quickly as possible directly from your server but at the same time we also want to give you an answer fairly reasonably quickly so that you can see what is happening. What what tends to happen here is if you have a lot of resources on your pages that need to be loaded in order for your page to load then it could happen that our systems essentially timeout and we try to fetch all of these embedded resources but we don't have enough time because we want to provide an answer to you as quickly as possible. So you end up seeing these embedded resources not being pulled and you see an error in the live rendering of the page like that. When it comes to indexing our systems are quite a bit more complex though we cache a lot of these resources. So if we try to index an HTML page we'll know all of these CSS files we've seen before we can just pull them out of our cache we don't have to fetch them again we can render those pages normally and that just works. One thing you can do or maybe they're two you can do to to kind of help improve that for the testing tool and for users in general. On the one hand you can reduce the number of embedded resources that are required on your pages. So instead of having a hundred CSS files you've you kind of throw them into the tool you create one CSS file out of that that's one thing that you can do that makes sense for both users and for search engines. You can do that for JavaScript as well you can minify the JavaScript you can combine things and kind of make packages rather than individual files I think that's a good approach. The other thing is if you're seeing this happening for your pages and you don't have a lot of embedded content then that's kind of a hint that your server is a bit slow and that we can't kind of fetch enough content from your server to actually make this work. So that might be a chance to look at your server your network connectivity and to think about what you can do to make that a little bit faster so that these tools don't time out so that it's also faster for users as well. So in both of these cases the net effect is that users will mostly be seeing the speed improvement but the side effect will also be that you'll be able to use these tools a little bit better because they tend not to time out as much.
So what what I would do there is try to use some other tools to figure out is this really a problem on your side somehow that things are a little bit slow or is this something just on Google side that we we tend not to have as much time to fetch all of these individual resources so what you could do is use the the chrome developer tools what is it the network tab that you have there and to figure out like how many of these resources are being loaded how long does it take you can use webpagetest.org it also creates a kind of a waterfall diagram for your content also listing the the time that it takes for those test URLs and the size of the resources that were to return and by using those two you can kind of figure out is is it the case that it just takes 20 seconds to load my page with all of the embedded content with all of the high resolution images or is it the case that these testing tools say my page loads in 3 or 4 seconds with all of the embedded content therefore it's probably more an issue on Google side I don't have to worry about it.
Question 53:46 - I've noticed as a result of the last several updates that have been coined the the medic update. I've seen some websites that no longer show on the first page of search results for their own company, for their own brand, and I was wondering why in general what would that be?
Answer 54:35 - I think that's that's always a bit tricky there usually are two aspects that are involved there. One is more an issue especially with newer websites where the website name or the company name is more like a generic query. So if for example the the website's name is “ Best Lawyers in Pittsburgh” or something like that. Then on the one hand that might be the company name, on the other hand if someone were to type that into search, we would probably assume that they're not looking for that specific company but rather they're looking for information for that query. So that's especially with newer companies that's something that we see every now and then. We see that the forums or people there saying, oh I'm not ranking for my domain name, and then their domain name is something like I don't know best VPN providers.com it's like well, it's a domain name but it doesn't mean that you will rank for for that query. So that's one thing when it comes to sites that are a little bit more established that are out there already usually it's more a sign that we just don't really trust that website as much anymore. So that's something where we might recognize that actually people are searching for this company but we feel maybe the company website itself is not the most relevant result here, maybe we feel that there is kind of auxiliary information about that company which is more important that users see first where which could result in something like this happening. Usually that that's more a matter of things kind of shuffling around on the first one or two pages in the search results. It would be really rare that that's something like that would result in a website not showing up at all the first couple pages of the search results. I think that's that's kind of what you highlighted there with your question and that's something where I think well, even if we didn't trust this website as much anymore then we should at least have it somewhere in the search results because if we can tell that someone is explicitly looking for that website it would be a disservice for the user to not show it at all. Like for maybe for generic queries one could argue maybe it's not the perfect result but if we can tell that they're really looking for that website at least we should give the user a chance to see that website as well. So that's kind of why I took that and said well maybe we should be catching this a little bit better and II don't know if our algorithms are correctly kind of understanding how trustworthy your website there would be. I don't know the website so that's really hard for me to judge but even if we think that it wasn't trustworthy at all maybe we should still show it somewhere in the search results on the first page. The other thing to maybe look at if you haven't done so already is look at look at the quality rater guidelines that we have and there's a lot of information about kind of trustworthiness in there. Some of that is worth taking with a grain of salt it's not that we take that kind of one-to-one and use that as a ranking factor but there there are a lot of ideas in there especially when you're talking about a topic that's a kind of legal website or medical website then it does make sense to show users like why are you providing this information why should they trust you.
