Jam Kerja SEO – 17 September 2021

Diterbitkan: 2021-09-21

Inilah rangkuman pertanyaan dan jawaban paling menarik dari Google SEO Office Hours bersama John Mueller pada 17 September 2021.

Isi sembunyikan
Batasan 1 kata
2 Tidak ada perubahan dalam metrik Cakupan Indeks
3 Pembaruan laporan Cakupan Indeks
4 Memahami kualitas situs web
5 Melewati ekuitas tautan
6 Migrasi situs domain
7 Menambahkan beberapa jenis Skema
8 404 vs. crawlability dan indexability
9 Memblokir lalu lintas dari negara lain
10 Pengelompokan ulang halaman
11 Algoritma MUM
12 Migrasi situs
13 Menghapus konten lama dari situs berita

Batas kata

09:05 “Berapa batas kata-kata yang harus kita gunakan di halaman [kategori]?”

John menyatakan bahwa tidak ada batasan seperti itu dan menambahkan bahwa “[…] terutama dengan halaman kategori, Anda perlu memiliki beberapa informasi di halaman tersebut agar kami mengerti apa topiknya. Tapi itu umumnya sangat sedikit informasi. Dan dalam banyak kasus, kami memahami bahwa dari produk yang telah Anda daftarkan pula jika nama produk cukup jelas untuk kami pahami. […] Namun terkadang nama produk agak sulit dipahami, dan mungkin masuk akal untuk menambahkan beberapa konteks di sana. Tapi biasanya konteks tambahan dalam ukuran mungkin satu atau dua atau tiga kalimat.”

Tidak ada perubahan dalam metrik Cakupan Indeks

10:57 “Saya sedang mengerjakan situs web besar dengan beberapa juta halaman. Kami melakukan pengalihan antara dua bahasa. […] Jadi migrasi berjalan dengan baik, lalu lintas bergerak dari jalur kedua. Hanya untuk memperjelas, ini adalah proyeksi antara dua subfolder atau semuanya dalam domain yang sama. Hal yang ingin saya sampaikan di sini adalah kami tidak melihat perubahan apa pun dalam metrik Cakupan setelah hampir tiga minggu melakukan pengalihan itu. […] Tidak menjatuhkan halaman yang valid, bukan peningkatan halaman yang dikecualikan karena pengalihan atau semacamnya. Haruskah kita khawatir tentang itu? ”

“Saya tidak berpikir ada garis waktu yang pasti untuk hal-hal semacam itu agar terlihat. […] Kami merayapi laman dengan kecepatan berbeda di seluruh situs web. Dan beberapa halaman akan kami crawl ulang setiap hari dan halaman lain yang akan kami crawl ulang mungkin sebulan sekali, atau setiap beberapa bulan. Jadi, jika konten dalam folder yang Anda gabungkan ini adalah konten yang sangat jarang dirayapi, maka perlu waktu lama untuk mencerminkannya. Sedangkan jika itu konten yang sangat aktif dirayapi, maka Anda akan melihat perubahan di sana, biasanya, saya tidak tahu, seminggu atau lebih.”

Pembaruan laporan Cakupan Indeks

13:25 Saat menggabungkan dua subfolder, “[…] lalu lintas berpindah dari satu bagian situs ke bagian lain. Semuanya berjalan dengan baik, dan kami juga melihatnya di file log. […] Tapi kami tidak melihat ini di metrik Cakupan. Kami khawatir itu mungkin bug pelaporan atau kami harus menunggu sepanjang hari?”

John menjawab sebagai “[…] Laporan Cakupan Indeks diperbarui mungkin dua kali seminggu. […] Banyak laporan di Search Console sekali atau dua kali seminggu, jadi itu mungkin hanya penundaan. Tetapi jika Anda melihat lalu lintas menuju ke halaman yang tepat, jika Anda melihat Laporan Kinerja dan Anda melihat perubahan semacam itu, maka menurut saya itu baik-baik saja. Saya rasa Anda tidak perlu mewaspadai laporan Cakupan Indeks untuk hal seperti ini. Karena apa yang biasanya terjadi ketika Anda menggabungkan halaman seperti ini adalah sistem kami terlebih dahulu harus mencari tahu bahwa kami harus menemukan kanonik baru untuk halaman ini. Jadi Anda mengambil dua halaman, Anda melipatnya menjadi satu. Kemudian kita melihat ini adalah satu set halaman, kita harus memilih kanonik, dan proses itu membutuhkan sedikit waktu. Dan kemudian dibutuhkan sedikit waktu untuk itu tercermin dalam pelaporan. Sedangkan jika Anda melakukan sesuatu seperti pemindahan situs yang bersih, maka kami dapat mentransfer semuanya. Kami tidak memiliki proses kanonikalisasi yang harus kami pahami. Jadi saya bisa membayangkan bahwa butuh waktu lebih lama untuk terlihat di sana.”

Memahami kualitas situs web

15:22 “Pertanyaan saya seputar […] khususnya algoritme dengan halaman baru […] ketika Google datang dan memanggilnya dan tampaknya memahaminya. Apakah kemudian membandingkan halaman tersebut dengan halaman lama di situs dan berkata, oke, yah, halaman ini bagus, tetapi halaman yang jauh lebih tua ini sebenarnya sampah. Sehingga selanjutnya akan mempengaruhi kualitas halaman yang lebih baru dan halaman kategori. Apakah itu sesuatu yang dilakukan algoritme […] untuk benar-benar memahami kualitas situs web?”

John mengatakan bahwa “[…] Ketika kami mencoba memahami kualitas sebuah situs web secara keseluruhan, itu hanya sebuah proses yang memakan banyak waktu. Dan itu - saya tidak tahu - waktu yang cukup lama di sana. Jadi jika Anda menambahkan lima halaman ke situs web yang sudah memiliki 10.000 halaman, maka kita mungkin akan fokus pada sebagian besar situs terlebih dahulu, dan kemudian seiring waktu, kita akan melihat bagaimana hal itu dapat diselesaikan dengan konten baru; di sana juga.”

Melewati ekuitas tautan

17:06 “Jika Anda mendapatkan backlink, [Google] tidak hanya akan berasumsi bahwa itu adalah backlink berkualitas baik dan kemudian hanya memberikan ekuitas tautan ke situs secara membabi buta. Jadi, apakah Google, ketika merayapi tautan balik ini, melihat lalu lintas rujukan dan memainkannya ke dalam algoritme? Atau jika ia tidak melihat informasi itu, apakah ia mencoba, saya rasa, menilai apakah ada kecenderungan tinggi untuk mengeklik tautan itu? Dan, jadi jika ada kecenderungan tinggi untuk mengklik tautan itu, maka mereka akan melewati ekuitas tautan? Jika tidak ada, katakanlah Anda tahu, […] Anda benar-benar dapat membuat blog dan tautan sekarang. Dalam hal ini, Google berkata, sebenarnya, tidak ada lalu lintas; sebenarnya tidak banyak yang terjadi di sini, jadi mengapa kita harus melewati segala bentuk ekuitas tautan? […] Apakah umpan semacam itu ke dalam apakah ekuitas tautan diteruskan ke situs atau tidak?”

"Saya kira tidak demikian. Kami tidak menggunakan hal-hal seperti lalu lintas melalui tautan ketika mencoba mengevaluasi bagaimana tautan harus dinilai. Sejauh yang saya tahu, kami juga tidak melihat hal-hal seperti kemungkinan seseorang akan mengklik tautan sehubungan dengan bagaimana kami harus menghargainya. Karena terkadang tautan pada dasarnya hanya referensi, dan kami tidak mengharapkan orang untuk mengklik setiap tautan di halaman . Tetapi jika seseorang merujuk ke situs Anda dan berkata, saya melakukan ini karena pakar ini mengatakan untuk melakukan itu. Kemudian orang tidak akan mengklik tautan itu dan selalu […] melihat situs Anda dan mengonfirmasi apa pun yang tertulis di sana. Tapi mereka akan melihatnya hampir seperti referensi. […] Jika mereka perlu mencari tahu lebih banyak informasi, mereka bisa pergi ke sana. Tapi mereka tidak perlu. Dan dari sudut pandang itu, saya rasa kami tidak akan mempertimbangkannya saat mengevaluasi nilai tautan.”

Migrasi situs domain

20:53 Kami melakukan migrasi domain situs dari satu domain ke domain baru dan mengikuti semua persyaratan dan rekomendasi migrasi. Kami memperbarui pengalihan, tag kanonik, dan kami menguji di lingkungan pengembang sebelumnya. Kami menambahkan properti baru dan memverifikasi domain baru di Google Search Console. Saat melakukan Ubah Alamat, kami mendapatkan kesalahan validasi gagal yang mengatakan bahwa ada pengalihan 301 dari beranda dan tidak dapat mengambil domain lama. Bagaimana kita melewati validasi untuk alat Ganti Alamat?”

“Pertama-tama, hal terpenting yang harus diingat adalah bahwa alat Ganti Alamat hanyalah satu sinyal tambahan yang kami gunakan sehubungan dengan migrasi. Ini bukan persyaratan. Jadi, jika, karena alasan apa pun, Anda tidak dapat membuat alat Ubah Alamat berfungsi untuk situs web Anda, jika Anda telah mengatur pengalihan dengan benar, semua hal itu, maka Anda harus disetel. Itu bukan sesuatu yang benar-benar perlu Anda lakukan. Saya membayangkan sebagian besar situs […] sebenarnya tidak menggunakan alat ini. Ini lebih seperti mereka yang tahu tentang Search Console dan mereka yang tahu tentang semua hal mewah ini, mereka mungkin menggunakannya. Berkenaan dengan mengapa itu mungkin gagal, sangat sulit untuk mengatakan tanpa mengetahui nama situs Anda atau URL yang Anda uji di sana.

Satu hal yang saya lihat adalah jika Anda memiliki versi www dan versi non-www dari situs web Anda dan Anda mengarahkan ulang langkah demi langkah melalui itu. Jadi, misalnya, Anda mengarahkan ulang ke versi non-www, dan kemudian Anda mengarahkan ulang ke domain baru. Kemudian hal itu bisa terjadi yang membuat kami terlempar jika Anda mengirimkan Ubah Alamat di versi situs yang bukan versi utama. Jadi itu mungkin satu hal, untuk memeriksa ulang sehubungan dengan alat Ubah Alamat yang Anda kirimkan versi yang sedang atau yang saat ini diindeks, atau apakah Anda mengirimkan mungkin versi alternatif di Search Console.

Menambahkan beberapa jenis Skema

23:36 “Dapatkah saya menambahkan beberapa jenis Skema ke satu halaman? Jika ya, apa cara terbaik untuk menggabungkan skema FAQ dan skema resep pada satu halaman?”

Anda dapat menempatkan sebanyak mungkin data terstruktur di halaman Anda sesuai keinginan. Namun untuk sebagian besar kasus, jika menyangkut hasil kaya yang kami tampilkan di hasil penelusuran, kami cenderung memilih hanya satu jenis data terstruktur atau satu jenis hasil kaya dan hanya fokus pada itu. Jadi, jika Anda memiliki beberapa jenis data terstruktur di halaman Anda, maka kemungkinan besar kami hanya memilih salah satu dari jenis ini , dan kami menunjukkannya. Jadi jika Anda ingin jenis tertentu ditampilkan dalam hasil pencarian dan Anda melihat bahwa tidak ada penggunaan gabungan ketika Anda melihat hasil pencarian sebaliknya, maka saya akan mencoba untuk fokus pada jenis yang Anda inginkan, dan tidak hanya menggabungkannya dengan hal-hal lain. Jadi idealnya, pilih satu yang benar-benar Anda inginkan dan fokuslah pada hal itu.”

404 vs. crawlability dan indexability

24:39 Laporan Statistik Perayapan GSC kami menunjukkan peningkatan yang stabil dari 404 halaman yang BUKAN bagian dari situs kami (tidak ada di peta situs kami, juga tidak dihasilkan oleh pencarian internal). Tampaknya itu adalah penelusuran Google yang ditambahkan ke URL kami, dan Google mencoba merayapinya. Di bawah perincian respons perayapan, 404 ini menghasilkan lebih dari 40% respons perayapan. Bagaimana kami memastikan ini tidak berdampak negatif pada kemampuan perayapan dan kemampuan indeks kami?”

“Pertama-tama, kami tidak membuat URL, jadi kami tidak akan mengambil pencarian Google dan kemudian membuat URL di situs web Anda. Saya kira ini hanya tautan acak yang kami temukan di web. […] Jadi itu adalah sesuatu yang terjadi sepanjang waktu. Dan kami menemukan tautan ini, lalu kami merayapinya. Kami melihat bahwa mereka mengembalikan 404, dan kemudian kami mulai mengabaikannya. Jadi dalam praktiknya, ini bukan sesuatu yang harus Anda urus. […] Biasanya, yang terjadi dengan jenis tautan ini adalah, kami mencoba mencari tahu secara keseluruhan untuk situs web Anda URL mana yang perlu kami jelajahi dan URL mana yang perlu kami jelajahi pada frekuensi yang mana. Dan kemudian kami mempertimbangkan setelah kami menyelesaikan apa yang benar-benar perlu kami lakukan, apa yang dapat kami lakukan sebagai tambahan. Dan dalam ember tambahan itu, yang juga seperti kumpulan URL yang sangat, menurut saya, bergradasi, pada dasarnya itu juga akan menyertakan […] tautan acak dari situs scraper, misalnya. Jadi, jika Anda melihat bahwa kami merayapi banyak URL di situs Anda yang berasal dari tautan acak ini, pada dasarnya, Anda dapat berasumsi bahwa kami telah selesai merayapi hal-hal yang kami pedulikan yang menurut kami milik Anda situs penting untuk. Kami hanya memiliki waktu dan kapasitas di server Anda, dan kami juga akan mencoba hal-hal lain. Jadi dari sudut pandang itu, 404 ini tidak akan menyebabkan masalah dengan perayapan situs web Anda. Ini hampir lebih merupakan pertanda bahwa, kami memiliki kapasitas yang cukup untuk situs web Anda. Dan jika Anda memiliki lebih banyak konten daripada yang sebenarnya Anda tautkan dalam situs web Anda, kami mungkin akan merayapi dan mengindeksnya juga. Jadi pada dasarnya, ini hampir seperti pertanda baik, dan Anda pasti tidak perlu memblokirnya dengan robots.txt, itu bukan sesuatu yang perlu Anda tekan […]”

Memblokir lalu lintas dari negara lain

27:34 Kami memiliki situs web layanan yang hanya beroperasi di Prancis. Dan kami memiliki banyak lalu lintas yang datang dari negara lain yang memiliki bandwidth sangat buruk, yang menyebabkan skor CWV kami turun. […] Karena kami tidak beroperasi di luar Prancis, kami tidak menggunakan lalu lintas di luar Prancis. Apakah disarankan untuk memblokir lalu lintas dari negara lain?”

Inilah yang dikatakan John: “Saya akan mencoba menghindari pemblokiran lalu lintas dari negara lain. Saya pikir itu adalah sesuatu yang pada akhirnya terserah Anda. Ini adalah situs web Anda; Anda dapat memilih apa yang ingin Anda lakukan. […] Dalam hal ini, salah satu hal yang perlu diingat adalah bahwa kami merayapi hampir semua situs web dari AS. Jadi, jika Anda berada di Prancis, dan Anda memblokir semua negara lain, Anda juga akan memblokir perayapan Googlebot . Dan kemudian, pada dasarnya, kami tidak akan dapat mengindeks konten Anda. Dari sudut pandang itu, jika Anda ingin memblokir negara lain, pastikan setidaknya Anda tidak memblokir negara tempat Googlebot merayapi. Setidaknya, jika Anda peduli dengan pencarian. ”

Pengelompokan ulang halaman

35:38 Google baru-baru ini mengelompokkan ulang >30.000 halaman di situs kami yang merupakan halaman yang sangat berbeda untuk skor CWV. […] Ini telah membawa LCP rata-rata untuk halaman ini hingga 3,4 detik, meskipun faktanya halaman produk kami rata-rata 2,5 detik sebelum pengelompokan ulang. Kami bekerja untuk mendapatkan halaman pada 2,5 detik di bawah ambang batas, tetapi taktik kami sekarang tampaknya terlalu tidak signifikan untuk membawa kami ke skor yang perlu kami capai. Apakah pengelompokan ditetapkan dan kemudian diambil rata-rata skor atau skor diambil dan kemudian ditetapkan pengelompokan? – (ini akan membantu kami menentukan apakah mendapatkan halaman produk di bawah 2.5 akan membantu menyelesaikan masalah atau tidak).”

“[…] Kami tidak memiliki definisi yang jelas atau pasti tentang bagaimana kami melakukan pengelompokan karena itu adalah sesuatu yang harus berkembang dari waktu ke waktu sedikit tergantung pada jumlah data yang kami miliki untuk sebuah situs web. Jadi, jika kami memiliki banyak data untuk banyak jenis halaman yang berbeda di situs web, akan lebih mudah bagi sistem kami untuk mengatakan bahwa kami akan melakukan pengelompokan yang sedikit lebih halus dibandingkan yang kasar seperti sebelumnya. Sedangkan jika kita tidak memiliki banyak data, kita bahkan mungkin akan pergi ke situasi di mana kita mengambil seluruh situs web sebagai satu kelompok. Jadi itu satu hal. Hal lainnya adalah data yang kami kumpulkan berdasarkan data lapangan. Anda juga melihatnya di Search Console, yang berarti kami tidak akan mengambil rata-rata setiap halaman dan hanya membuat rata-rata berdasarkan jumlah halaman. Namun, apa yang akan terjadi dalam praktiknya adalah bahwa ini lebih merupakan rata-rata tertimbang lalu lintas dalam arti bahwa beberapa laman akan memiliki lebih banyak lalu lintas, dan kami akan memiliki lebih banyak data di sana. Dan halaman lain akan memiliki lebih sedikit lalu lintas, dan kami tidak akan memiliki banyak data di sana. Jadi itu mungkin sesuatu di mana Anda melihat perbedaan semacam ini. Jika banyak orang pergi ke beranda Anda dan tidak begitu banyak ke produk individual, maka mungkin beranda memiliki bobot sedikit lebih tinggi hanya karena kami memiliki lebih banyak data di sana. Jadi itulah arah yang akan saya tuju, dan dalam praktiknya, itu berarti alih-alih terlalu fokus pada halaman individual, saya cenderung melihat hal-hal seperti Google Analytics Anda atau analitik lain sehingga Anda harus mencari tahu halaman mana atau jenis halaman mana mendapatkan banyak lalu lintas. Dan kemudian, dengan mengoptimalkan halaman tersebut, Anda pada dasarnya mencoba untuk meningkatkan Pengalaman Pengguna […], dan itu adalah sesuatu yang akan kami coba ambil untuk penilaian Core Web Vital di sana. Jadi, pada dasarnya, lebih sedikit rata-rata di seluruh jumlah halaman dan lebih rata-rata di seluruh lalu lintas dari apa yang sebenarnya dilihat orang ketika mereka datang ke situs web Anda.”

Algoritma MUM

42:44 Dengan munculnya algoritme MUM , apakah hasil pencarian akan menjadi respons terhadap berbagai sumber? Maksud saya, ketika pengguna mencari suatu topik, jawabannya dipilih dari berbagai sumber dan diberikan kepadanya sebagai satu paket? Kami berpikir bahwa persaingan di masa depan akan menjadi semacam interaksi antar pesaing. Bersama-sama mereka dapat memenuhi kebutuhan seorang pencari. Situs fokus pada layanan yang dapat mereka berikan dengan lebih baik. Beberapa pesaing dapat memenuhi kebutuhan pencari. Portofolio kebutuhan pengguna dilengkapi oleh beberapa situs yang bersaing untuk mendapatkan layanan terbaik, di mana mereka lebih dikenal.”

John menjawab, “Saya tidak tahu; mungkin itu akan terjadi suatu saat nanti. Kami memiliki gagasan untuk mencoba memberikan serangkaian opsi yang beragam dalam hasil pencarian di mana jika kami dapat mengatakan bahwa mungkin ada hal-hal seperti pendapat yang sangat kuat atau berbeda tentang topik tertentu . Dan ini adalah pertanyaan tentang opini apa yang ada di luar sana. Maka masuk akal untuk memberikan sesuatu seperti serangkaian hasil yang beragam yang mencakup sudut pandang berbeda untuk topik itu. Saya tidak berpikir itu berlaku untuk sebagian besar kueri, tetapi terkadang itu adalah sesuatu yang kami coba pertimbangkan.”

Migrasi situs

47:11 Bagaimana jika ketika melakukan migrasi situs dan pada hari kami menarik pelatuknya, kami: robots.txt memblokir kedua domain […], melakukan 302 pengalihan sementara (dalam beberapa hari atau minggu beralih ke 301 setelah Pengembang tidak yakin apa-apa rusak), dan melayani 503 status HTTP di seluruh situs selama satu hari atau beberapa jam juga sementara Pengembang memeriksa apakah ada yang rusak?“

Menurut John, “[…] Ini semua adalah situasi yang terpisah. Dan kami tidak akan mengatakan, ini adalah perpindahan situs dengan variasi ini. Tetapi jika Anda menghalangi sesuatu, jika ada yang rusak, maka pertama-tama kita akan melihatnya sebagai sesuatu yang rusak. Dan jika pada tahap selanjutnya kami melihat bahwa itu sebenarnya pengalihan, maka kami akan mengatakan, nah, sekarang situs tersebut mengalihkan. Dan kami akan memperlakukannya sebagai negara bagian yang terpisah. Jadi jika pada hari Anda ingin melakukan pemindahan situs, ada yang rusak dan semuanya rusak di server Anda, maka kita lihat saja, semuanya rusak di server. Kami tidak akan tahu bahwa maksud Anda adalah melakukan pemindahan situs karena kami hanya akan melihat bahwa semuanya rusak. Jadi dari sudut pandang itu, saya akan memperlakukan ini sebagai negara bagian yang terpisah. Dan tentu saja, cobalah untuk memperbaiki keadaan yang rusak secepat mungkin, dan pada dasarnya pindah ke migrasi secepat mungkin setelah itu.”

Menghapus konten lama dari situs berita

49:42 “Apakah layak untuk menghapus/tidak mengindeks/melarang berita lama di situs web berita? Berita seperti 10+ tahun? Apakah itu berpengaruh pada kualitas situs web secara umum, dan apakah itu mengoptimalkan anggaran perayapan? Ini adalah situs dengan 3+ juta halaman di dalamnya. Apakah itu melakukan sesuatu untuk itu? ”

“Saya tidak berpikir Anda akan mendapatkan banyak nilai dari menghapus hanya berita lama. Ini juga bukan sesuatu yang saya rekomendasikan ke situs web berita karena terkadang semua informasi masih berguna. Dari sudut pandang itu, saya tidak akan melakukan ini karena alasan SEO. Jika alasan mengapa Anda ingin menghapus konten atau memasukkannya ke bagian arsip di situs web Anda untuk alasan kegunaan atau pemeliharaan […], itu adalah sesuatu yang pasti dapat Anda lakukan. Tapi saya tidak akan menghapus konten lama begitu saja karena sudah tua.”