Jam Kerja SEO, 1 Juli 2022

Diterbitkan: 2022-07-19

Ini adalah rangkuman pertanyaan dan jawaban paling menarik dari Google SEO Office Hours bersama John Mueller pada 1 Juli 2022.

Isi sembunyikan
1 PageSpeed ​​Insights atau Google Search Console mana yang lebih akurat?
2 Mengapa Googlebot kesulitan mengindeks halaman berbasis JavaScript?
3 Apakah menautkan ke halaman HTTP memengaruhi SEO situs web Anda?
4 Haruskah Anda menghapus file penolakan Anda?
5 Apakah lebih baik memblokir perayapan dengan robots.txt atau tag meta robots?
6 Dapatkah Anda menempatkan URL yang sama dalam beberapa file peta situs?
7 Bagaimana mencegah halaman video yang disematkan dari pengindeksan?

PageSpeed ​​Insights atau Google Search Console mana yang lebih akurat?

0:44 “Ketika saya memeriksa skor PageSpeed ​​Insights saya di situs web saya, saya melihat angka sederhana. Mengapa ini tidak cocok dengan apa yang saya lihat di Search Console dan laporan Data Web Inti? Manakah dari angka-angka ini yang benar?”

Menurut John: “[…] Tidak ada angka yang benar dalam hal kecepatan dalam hal memahami bagaimana kinerja situs web Anda untuk pengguna Anda. Di PageSpeed ​​Insights, secara default, saya yakin kami menampilkan satu angka yang merupakan skor dari 0 hingga 100, yang didasarkan pada sejumlah asumsi di mana kami berasumsi bahwa hal-hal yang berbeda sedikit lebih cepat atau lebih lambat bagi pengguna. Dan berdasarkan itu, kami menghitung skor.

Di Search Console, kami memiliki informasi Data Web Inti , yang didasarkan pada tiga angka untuk kecepatan, daya tanggap, dan interaktivitas. Dan angka-angka ini sedikit berbeda, tentu saja, karena itu tiga angka, bukan hanya satu angka. Tapi, juga, ada perbedaan besar dalam cara menentukan angka-angka ini. Yaitu, ada perbedaan antara apa yang disebut data lapangan dan data lab.

Data lapangan adalah apa yang dilihat pengguna saat mereka mengunjungi situs web Anda. Dan inilah yang kami gunakan di Search Console. Itu juga yang kami gunakan untuk Penelusuran. Sedangkan data lab adalah pandangan teoretis dari situs web Anda, di mana sistem kami memiliki asumsi tertentu di mana mereka berpikir, yah, rata-rata pengguna mungkin seperti ini, menggunakan perangkat semacam ini, dan dengan koneksi semacam ini, mungkin. Dan berdasarkan asumsi tersebut, kami akan memperkirakan berapa angka tersebut untuk rata-rata pengguna. Anda dapat membayangkan bahwa perkiraan tersebut tidak akan pernah 100% benar.

Demikian pula, data yang telah dilihat pengguna yang akan berubah seiring waktu, juga, di mana beberapa pengguna mungkin memiliki koneksi yang sangat cepat atau perangkat yang cepat, dan semuanya berjalan cepat di situs web mereka atau ketika mereka mengunjungi situs web Anda, dan yang lainnya mungkin tidak memiliki itu. Dan karena itu, variasi ini selalu dapat menghasilkan angka yang berbeda.

Rekomendasi kami umumnya adalah menggunakan data lapangan, data yang akan Anda lihat di Search Console, sebagai cara untuk memahami situasi saat ini untuk situs web kami, dan kemudian menggunakan data lab, yaitu, pengujian individual yang dapat Anda jalankan langsung sendiri, untuk mengoptimalkan situs web Anda dan mencoba untuk meningkatkan hal-hal. Dan ketika Anda cukup puas dengan data lab yang Anda dapatkan dengan versi baru situs web Anda, maka seiring waktu, Anda dapat mengumpulkan data lapangan, yang terjadi secara otomatis, dan memeriksa ulang apakah pengguna melihatnya lebih cepat atau lebih responsif juga.

Jadi, singkatnya, sekali lagi, tidak ada angka yang benar dalam hal metrik ini. […] Tetapi, lebih tepatnya, ada asumsi yang berbeda dan cara pengumpulan data yang berbeda, dan masing-masingnya agak berbeda.”

Mengapa Googlebot kesulitan mengindeks halaman berbasis JavaScript?

4:19 “Kami memiliki beberapa halaman pelanggan yang menggunakan Next.js tanpa file robots.txt atau peta situs. Secara teoritis, Googlebot dapat menjangkau semua halaman ini, tetapi mengapa hanya beranda yang diindeks? Tidak ada kesalahan atau peringatan di Search Console. Mengapa Googlebot tidak menemukan halaman lain?”

John berkata, “[…] Next.js adalah kerangka kerja JavaScript, yang berarti bahwa seluruh halaman dibuat dengan JavaScript. Tetapi jawaban umum, juga, untuk semua pertanyaan ini seperti, mengapa Google tidak mengindeks semuanya penting untuk terlebih dahulu mengatakan bahwa Googlebot tidak akan pernah mengindeks semuanya di seluruh situs web. Saya tidak berpikir itu terjadi pada situs web non-sepele apa pun yang akan dimatikan Google dan mengindeks semuanya. Dari sudut pandang praktis, tidak mungkin untuk mengindeks semuanya di seluruh web. Jadi asumsi bahwa situasi ideal adalah segalanya diindeks Saya akan mengesampingkannya dan mengatakan Anda ingin Googlebot fokus pada halaman penting.

Namun, hal lain yang menjadi sedikit lebih jelas ketika, saya pikir, orang tersebut menghubungi saya di Twitter dan memberi saya sedikit lebih banyak informasi tentang situs web mereka, adalah bahwa cara situs web itu menghasilkan tautan ke halaman lain adalah dengan cara yang tidak dapat diambil oleh Google. Jadi, khususnya, dengan JavaScript, Anda dapat mengambil elemen apa pun pada halaman HTML dan mengatakan, jika seseorang mengklik ini, maka jalankan bagian JavaScript ini. Dan bagian dari JavaScript itu bisa untuk menavigasi ke halaman yang berbeda, misalnya. Dan Googlebot tidak mengeklik semua elemen untuk melihat apa yang terjadi tetapi, sebaliknya, kami pergi dan mencari tautan HTML biasa, yang merupakan cara biasa dan tradisional yang Anda lakukan untuk menautkan ke laman individual di situs web.

Dan, dengan kerangka kerja ini, itu tidak menghasilkan tautan HTML normal ini. Jadi kami tidak dapat mengenali bahwa ada lebih banyak untuk dirayapi, lebih banyak halaman untuk dilihat. Dan ini adalah sesuatu yang dapat Anda perbaiki dengan cara Anda mengimplementasikan situs JavaScript Anda. Kami memiliki banyak informasi di situs Dokumentasi Pengembang Penelusuran seputar JavaScript dan SEO, khususnya, tentang topik tautan karena hal itu muncul sesekali. Ada banyak cara kreatif untuk membuat tautan, dan Googlebot perlu menemukan tautan HTML tersebut agar berfungsi. […]”

Dan kecuali dokumentasi resmi Google, lihat Panduan Utama untuk SEO JavaScript di blog kami.

Apakah menautkan ke halaman HTTP memengaruhi SEO situs web Anda?

7:35 “Apakah itu memengaruhi skor SEO saya secara negatif jika halaman saya tertaut ke situs web eksternal yang tidak aman? Jadi di HTTP, bukan HTTPS.”

John berkata, “Pertama, kami tidak memiliki gagasan tentang skor SEO, jadi Anda tidak perlu khawatir tentang skor SEO.

Tetapi, terlepas dari itu, saya mengerti pertanyaannya seperti: apakah buruk jika saya menautkan ke halaman HTTP alih-alih halaman HTTPS. Dan, dari sudut pandang kami, itu baik-baik saja. Jika halaman-halaman ini menggunakan HTTP, maka itulah yang akan Anda tautkan. Itulah yang diharapkan pengguna temukan. Tidak ada yang melarang menautkan ke situs seperti itu. Tidak ada kerugian bagi situs web Anda untuk menghindari menautkan ke halaman HTTP karena sudah tua atau kasar dan tidak sekeren di HTTPS. Saya tidak akan khawatir tentang itu.”

Haruskah Anda menghapus file penolakan Anda?

10:16 “Selama 15 tahun terakhir, saya telah mengingkari lebih dari 11.000 tautan secara total. […] Tautan yang saya tolak mungkin berasal dari situs yang diretas atau dari konten yang dibuat secara otomatis dan tidak masuk akal. Karena Google sekarang mengklaim bahwa mereka memiliki alat yang lebih baik untuk tidak memasukkan jenis tautan yang diretas atau berisi spam ini ke dalam algoritme mereka, haruskah saya menghapus file penolakan saya? Apakah ada risiko atau kerugian hanya dengan menghapusnya?”

John menjawab, “[…] Menolak tautan selalu menjadi salah satu topik rumit karena rasanya Google mungkin tidak memberi tahu Anda informasi lengkapnya.

Namun, dari sudut pandang kami, […] kami bekerja keras untuk menghindari mempertimbangkan tautan ini. Dan kami melakukannya karena kami tahu bahwa alat Tolak tautan adalah alat khusus, dan SEO mengetahuinya, tetapi rata-rata orang yang menjalankan situs web tidak mengetahuinya. Dan semua tautan yang Anda sebutkan adalah jenis tautan yang didapat situs web mana pun selama bertahun-tahun. Dan sistem kami memahami bahwa ini bukanlah hal yang Anda coba lakukan untuk mempermainkan algoritme kami.

Jadi, dari sudut pandang itu, jika Anda yakin bahwa tidak ada tindakan manual yang harus Anda selesaikan sehubungan dengan tautan ini, saya akan menghapus file penolakan dan […] mengesampingkan semua itu. Satu hal yang saya pribadi akan lakukan adalah mengunduhnya dan membuat salinannya sehingga Anda memiliki catatan tentang apa yang Anda hapus. Tapi, jika tidak, jika Anda yakin ini hanyalah hal-hal normal dan kasar dari Internet, saya akan menghapusnya dan melanjutkan. Ada lebih banyak waktu yang Anda habiskan untuk mengunjungi situs web daripada sekadar menyangkal hal-hal acak yang terjadi pada situs web mana pun di web.”

Apakah lebih baik memblokir perayapan dengan robots.txt atau tag meta robot?

14:19 “Mana yang lebih baik: memblokir dengan robots.txt atau menggunakan tag meta robot di halaman? Bagaimana cara terbaik untuk mencegah perayapan?”

John: “[…] Kami juga membuat episode podcast baru-baru ini tentang ini . Jadi saya akan memeriksanya. […]

Dalam praktiknya, ada perbedaan halus di sini di mana, jika Anda berada di SEO dan Anda telah bekerja dengan mesin pencari, maka mungkin Anda sudah memahaminya. Namun bagi orang yang baru mengenal daerah tersebut, terkadang tidak jelas persis di mana letak semua jalur tersebut.

Dengan robots.txt, yang merupakan yang pertama Anda sebutkan dalam pertanyaan, Anda dapat memblokir perayapan. Jadi Anda dapat mencegah Googlebot melihat halaman Anda. Dan dengan tag meta robot, saat Googlebot melihat halaman Anda dan melihat tag meta robot itu, Anda dapat melakukan hal-hal seperti memblokir pengindeksan. Dalam praktiknya, kedua hasil ini di laman Anda tidak muncul di hasil penelusuran, tetapi keduanya agak berbeda.

Jadi jika kita tidak bisa merangkak, maka kita tidak tahu apa yang kita lewatkan. Dan mungkin kita berkata, sebenarnya, ada banyak referensi ke halaman ini. Mungkin itu berguna untuk sesuatu. Kami tidak tahu. Dan kemudian URL itu dapat muncul di hasil pencarian tanpa konten apa pun karena kami tidak dapat melihatnya. Sedangkan dengan meta tag robots, jika kita bisa melihat halamannya, maka kita bisa melihat meta tag tersebut dan melihat apakah ada noindex di sana, misalnya. Kemudian kami berhenti mengindeks halaman itu, dan kemudian kami menghapusnya sepenuhnya dari hasil pencarian.

Jadi jika Anda mencoba untuk memblokir perayapan, maka pasti, robots.txt adalah cara yang tepat. Jika Anda tidak ingin halaman tersebut muncul di hasil pencarian, maka saya akan memilih mana yang lebih mudah untuk Anda terapkan. Di beberapa situs, lebih mudah untuk menyetel kotak centang yang mengatakan bahwa saya tidak ingin halaman ini ditemukan di Penelusuran, lalu menambahkan tag meta noindex. Pada orang lain, mungkin mengedit file robots.txt lebih mudah. [Itu] tergantung pada apa yang Anda miliki di sana.”

Bisakah Anda menempatkan URL yang sama dalam beberapa file peta situs?

16:40Apakah ada implikasi negatif untuk memiliki URL duplikat dengan atribut berbeda di peta situs XML Anda? Misalnya, satu URL di satu peta situs dengan anotasi hreflang, dan URL yang sama di peta situs lain tanpa anotasi itu.”

John berkata, “[…] Dari sudut pandang kami, ini baik-baik saja. […] Ini terjadi sesekali. Beberapa orang memiliki anotasi hreflang dalam file peta situs yang dipisahkan secara khusus, dan kemudian mereka juga memiliki file peta situs normal untuk semuanya. Dan ada beberapa tumpang tindih di sana.

Dari sudut pandang kami, kami memproses file peta situs ini semampu kami, dan kami mempertimbangkan semua informasi itu. Tidak ada kerugian memiliki URL yang sama di beberapa file peta situs.  

Satu-satunya hal yang akan saya perhatikan adalah Anda tidak memiliki informasi yang saling bertentangan dalam file peta situs ini. Jadi, misalnya, jika dengan anotasi hreflang, Anda mengatakan, halaman ini untuk Jerman, lalu di file peta situs lainnya, Anda mengatakan, sebenarnya halaman ini juga untuk Prancis, […] sistem mungkin seperti, apa yang terjadi di sini? Kami tidak tahu apa yang harus dilakukan dengan campuran anotasi ini. Dan kemudian bisa terjadi bahwa kita memilih satu atau yang lain.

Demikian pula, jika Anda mengatakan, halaman ini terakhir diubah 20 tahun yang lalu […], dan di file peta situs lainnya, Anda mengatakan, sebenarnya, itu lima menit yang lalu. Kemudian sistem kami mungkin melihat itu dan berkata, yah, salah satu dari Anda salah. Kami tidak tahu yang mana. Mungkin kita akan mengikuti satu atau yang lain. Mungkin kita akan mengabaikan tanggal modifikasi terakhir itu sepenuhnya. Jadi itu yang harus diwaspadai.

Tetapi sebaliknya, jika itu hanya menyebutkan beberapa file peta situs dan informasinya konsisten atau bekerja sama, mungkin salah satunya memiliki tanggal modifikasi terakhir, yang lain memiliki anotasi hreflang, itu tidak masalah.”

Bagaimana mencegah halaman video yang disematkan dari pengindeksan?

19:00 “Saya bertanggung jawab atas platform pemutaran ulang video, dan penyematan kami terkadang diindeks satu per satu. Bagaimana kita bisa mencegahnya?”

John menjawab: “[…] Saya melihat situs web, dan ini adalah iframe yang menyertakan halaman HTML yang disederhanakan dengan pemutar video yang disematkan di dalamnya.

Dari segi teknis, jika sebuah halaman memiliki konten iframe, maka kita melihat dua halaman HTML tersebut. Dan mungkin saja sistem kami mengindeks kedua halaman HTML tersebut karena keduanya merupakan halaman HTML yang terpisah. Yang satu termasuk dalam yang lain, biasanya, tetapi mereka secara teoritis dapat berdiri sendiri juga.

Dan ada satu cara untuk mencegahnya, yaitu kombinasi yang cukup baru dengan meta tag robots yang bisa Anda lakukan, yaitu dengan meta tag robots indexifembedded bersama dengan meta tag robots noindex .

Dan pada versi yang disematkan, jadi file HTML dengan video langsung di dalamnya, Anda akan menambahkan kombinasi tag meta robot noindex plus indexifembedded. Dan itu berarti jika kita menemukan halaman itu satu per satu, kita akan melihat ada [tag] noindex. Kita tidak perlu mengindeks ini.

Tetapi dengan indexifembedded, ini memberi tahu kita bahwa [...] jika kita menemukan halaman ini dengan video yang disematkan di dalam situs web umum, maka kita dapat mengindeks konten video itu, yang berarti bahwa halaman HTML individual tidak akan diindeks. Tapi halaman HTML dengan embed, dengan informasi video, yang akan diindeks secara normal. Jadi itulah pengaturan yang akan saya gunakan di sana. Dan ini adalah tag meta robot yang cukup baru, jadi ini adalah sesuatu yang tidak semua orang butuhkan. Karena kombinasi konten iframe atau konten yang disematkan ini jarang terjadi. Tapi, untuk beberapa situs, masuk akal untuk melakukannya seperti itu.”