SEO Office Hours 1 กรกฎาคม 2022
เผยแพร่แล้ว: 2022-07-19นี่คือบทสรุปของคำถามและคำตอบที่น่าสนใจที่สุดจาก Google SEO Office Hours กับ John Mueller ในวันที่ 1 กรกฎาคม 2022
PageSpeed Insights หรือ Google Search Console ‒ อันไหนแม่นกว่ากัน?
0:44 “เมื่อฉันตรวจสอบคะแนน PageSpeed Insights บนเว็บไซต์ของฉัน ฉันเห็นตัวเลขง่ายๆ เหตุใดจึงไม่ตรงกับที่ฉันเห็นใน Search Console และรายงาน Core Web Vitals ตัวเลขใดถูกต้อง”
John กล่าวว่า “ […] ไม่มีตัวเลขที่ถูกต้องเมื่อพูดถึงความเร็ว ‒ เมื่อพูดถึงการทำความเข้าใจว่าเว็บไซต์ของคุณทำงานอย่างไรสำหรับผู้ใช้ของคุณ ใน PageSpeed Insights โดยค่าเริ่มต้น ฉันเชื่อว่าเราแสดงตัวเลขเดียวที่มีคะแนนตั้งแต่ 0 ถึง 100 ซึ่งอิงตามสมมติฐานหลายประการ ซึ่งเราคิดว่าสิ่งต่าง ๆ จะเร็วขึ้นหรือช้าลงเล็กน้อยสำหรับผู้ใช้ และตามนั้น เราคำนวณคะแนน
ใน Search Console เรามี ข้อมูล Core Web Vitals ซึ่งอิงตามตัวเลขสามตัวสำหรับความเร็ว การตอบสนอง และการโต้ตอบ และตัวเลขเหล่านี้แตกต่างกันเล็กน้อย แน่นอน เพราะมันคือตัวเลขสามตัว ไม่ใช่แค่ตัวเลขเดียว แต่ยังมีความแตกต่างกันมากในวิธีการกำหนดตัวเลขเหล่านี้ กล่าวคือ มีความแตกต่างระหว่างข้อมูลภาคสนามและข้อมูลห้องปฏิบัติการ
ข้อมูลภาคสนามคือสิ่งที่ผู้ใช้เห็นเมื่อไปที่เว็บไซต์ของคุณ และนี่คือสิ่งที่เราใช้ใน Search Console นั่นคือสิ่งที่เราใช้สำหรับการค้นหาเช่นกัน ในขณะที่ข้อมูลในห้องปฏิบัติการเป็นมุมมองทางทฤษฎีของเว็บไซต์ของคุณ ซึ่งระบบของเรามีสมมติฐานบางอย่างที่พวกเขาคิดว่า ผู้ใช้ทั่วไปน่าจะเป็นแบบนี้ โดยใช้อุปกรณ์ประเภทนี้ และด้วยการเชื่อมต่อประเภทนี้ บางที และจากสมมติฐานเหล่านั้น เราจะประมาณว่าตัวเลขเหล่านั้นจะเป็นอย่างไรสำหรับผู้ใช้ทั่วไป คุณสามารถจินตนาการได้ว่าค่าประมาณเหล่านั้นจะไม่มีวันถูกต้อง 100%
ในทำนองเดียวกัน ข้อมูลที่ผู้ใช้เห็น ‒ ที่จะเปลี่ยนไปตามกาลเวลาเช่นกัน โดยที่ผู้ใช้บางคนอาจมีการเชื่อมต่อที่รวดเร็วจริงๆ หรืออุปกรณ์ที่เร็ว และทุกอย่างดำเนินไปอย่างรวดเร็วบนเว็บไซต์ของพวกเขาหรือเมื่อพวกเขาเยี่ยมชมเว็บไซต์ของคุณ และคนอื่นๆ อาจไม่ มีสิ่งนั้น และด้วยเหตุนี้ การเปลี่ยนแปลงนี้จึงส่งผลให้มีตัวเลขต่างกันได้เสมอ
โดยทั่วไป คำแนะนำของเราคือการใช้ข้อมูลภาคสนาม ข้อมูลที่คุณจะเห็นใน Search Console เพื่อทำความเข้าใจสถานการณ์ปัจจุบันของเว็บไซต์ของเรา จากนั้นจึงใช้ข้อมูลห้องปฏิบัติการ กล่าวคือ การทดสอบแต่ละรายการที่คุณเรียกใช้ได้ ตัวคุณเองโดยตรง เพื่อเพิ่มประสิทธิภาพเว็บไซต์ของคุณและพยายามปรับปรุงสิ่งต่างๆ และเมื่อคุณพอใจกับข้อมูลห้องปฏิบัติการที่คุณได้รับจากเว็บไซต์เวอร์ชันใหม่ของคุณ เมื่อเวลาผ่านไป คุณสามารถรวบรวมข้อมูลภาคสนามซึ่งเกิดขึ้นโดยอัตโนมัติ และตรวจสอบอีกครั้งว่าผู้ใช้เห็นว่าข้อมูลนั้นเร็วขึ้นหรือ ตอบสนองมากขึ้นเช่นกัน
กล่าวโดยสรุป คือ ไม่มีตัวเลขที่ถูกต้องเมื่อพูดถึงเมตริกเหล่านี้ […] แต่มีสมมติฐานที่แตกต่างกันและวิธีการรวบรวมข้อมูลที่แตกต่างกัน และแต่ละข้อก็แตกต่างกันอย่างละเอียด”
เหตุใด Googlebot จึงต่อสู้กับการจัดทำดัชนีหน้าที่ใช้ JavaScript
4:19 “เรามีหน้าลูกค้าสองสามหน้าที่ใช้ Next.js โดยไม่มี robots.txt หรือไฟล์แผนผังเว็บไซต์ ตามทฤษฎีแล้ว Googlebot สามารถเข้าถึงหน้าเหล่านี้ได้ทั้งหมด แต่ทำไมจึงสร้างดัชนีเฉพาะหน้าแรก ไม่มีข้อผิดพลาดหรือคำเตือนใน Search Console ทำไม Googlebot ไม่พบหน้าอื่นๆ เลย”
John กล่าวว่า “ […] Next.js เป็นเฟรมเวิร์ก JavaScript ซึ่งหมายความว่าทั้งหน้าถูกสร้างขึ้นด้วย JavaScript แต่คำตอบทั่วไปสำหรับคำถามเหล่านี้ทั้งหมด เช่น เหตุใด Google จึงไม่จัดทำดัชนีทุกอย่าง ‒ สิ่งสำคัญคือต้องกล่าวก่อนว่า Googlebot จะไม่จัดทำดัชนีทุกอย่างในเว็บไซต์ ฉันไม่คิดว่ามันจะเกิดขึ้นกับเว็บไซต์ขนาดไม่เล็กที่ Google จะทำและจัดทำดัชนีทุกอย่างโดยสมบูรณ์ จากมุมมองเชิงปฏิบัติ เป็นไปไม่ได้ที่จะสร้างดัชนีทุกอย่างทั่วทั้งเว็บ ดังนั้นสมมติฐานที่ว่าสถานการณ์ในอุดมคติคือทุกอย่างได้รับการจัดทำดัชนี ‒ ฉันจะทิ้งมันไว้และบอกว่าคุณต้องการให้ Googlebot ให้ความสำคัญกับหน้าที่สำคัญ
อีกอย่างที่เข้าใจได้ชัดเจนขึ้นนิดหน่อยเมื่อฉันคิดว่าคนๆ นั้นติดต่อฉันทาง Twitter และให้ข้อมูลเพิ่มเติมเกี่ยวกับเว็บไซต์ของพวกเขากับฉันอีกเล็กน้อย นั่นคือ วิธีที่เว็บไซต์สร้างลิงก์ไปยังหน้าอื่นๆ คือ ในลักษณะที่ Google ไม่สามารถรับได้ โดยเฉพาะอย่างยิ่ง เมื่อใช้ JavaScript คุณสามารถใช้องค์ประกอบใดก็ได้บนหน้า HTML และพูดว่า ถ้ามีคนคลิกที่สิ่งนี้ ให้รัน JavaScript ชิ้นนี้ และ JavaScript ส่วนนั้นสามารถนำทางไปยังหน้าอื่นได้ และ Googlebot ไม่ได้คลิกองค์ประกอบทั้งหมดเพื่อดูว่าเกิดอะไรขึ้น แต่เราออกไปและมองหาลิงก์ HTML ปกติ ซึ่งเป็นวิธีปกติทั่วไปที่คุณจะลิงก์ไปยังหน้าแต่ละหน้าบนเว็บไซต์
และด้วยเฟรมเวิร์กนี้ มันไม่ได้สร้างลิงก์ HTML ปกติเหล่านี้ ดังนั้นเราจึงไม่ทราบว่ามีอะไรให้รวบรวมข้อมูลมากกว่านี้ มีหน้าให้ดูมากขึ้น และนี่คือสิ่งที่คุณสามารถแก้ไขได้ในแบบที่คุณใช้ไซต์ JavaScript ของคุณ เรามี ข้อมูลมากมายในไซต์ Search Developer Documentation เกี่ยวกับ JavaScript และ SEO โดยเฉพาะอย่างยิ่งในหัวข้อของลิงก์ เพราะมันมีให้เห็นเป็นระยะๆ มีวิธีสร้างสรรค์มากมายในการสร้างลิงก์ และ Googlebot จำเป็นต้องค้นหาลิงก์ HTML เหล่านั้นเพื่อให้ทำงานได้ […]”
และยกเว้นเอกสารทางการของ Google โปรดดู Ultimate Guide to JavaScript SEO ในบล็อกของเรา “
การลิงก์ไปยังหน้า HTTP ส่งผลต่อ SEO ของเว็บไซต์ของคุณหรือไม่
7:35 “จะส่งผลเสียต่อคะแนน SEO ของฉันหรือไม่หากหน้าของฉันเชื่อมโยงไปยังเว็บไซต์ภายนอกที่ไม่ปลอดภัย? ดังนั้นบน HTTP ไม่ใช่ HTTPS”
จอห์นกล่าวว่า “ก่อนอื่น เราไม่มีแนวคิดเรื่องคะแนน SEO ดังนั้นคุณจึงไม่ต้องกังวลเกี่ยวกับคะแนน SEO
แต่ไม่ว่าจะอย่างไรก็ตาม ฉันเข้าใจว่าคำถามคือ: มันไม่ดีไหมถ้าฉันเชื่อมโยงไปยังหน้า HTTP แทนที่จะเป็นหน้า HTTPS และจากมุมมองของเรา ถือว่าโอเคเลย หากหน้าเหล่านี้ใช้ HTTP นั่นคือสิ่งที่คุณจะลิงก์ไป นั่นคือสิ่งที่ผู้ใช้คาดหวังที่จะพบ ไม่มีอะไรต่อต้านการเชื่อมโยงไปยังไซต์เช่นนั้น ไม่มีข้อเสียสำหรับเว็บไซต์ของคุณที่จะหลีกเลี่ยงการลิงก์ไปยังหน้า HTTP เนื่องจากหน้าเก่าหรือดื้อและไม่เจ๋งเท่าบน HTTPS ฉันจะไม่กังวลเรื่องนั้น”

คุณควรลบไฟล์ปฏิเสธหรือไม่
10:16 “ในช่วง 15 ปีที่ผ่านมา ฉันได้ปฏิเสธลิงก์ทั้งหมดกว่า 11,000 ลิงก์ […] ลิงก์ที่ฉันปฏิเสธอาจมาจากไซต์ที่ถูกแฮ็กหรือจากเนื้อหาที่ไร้สาระและสร้างขึ้นโดยอัตโนมัติ เนื่องจากตอนนี้ Google อ้างว่าพวกเขามีเครื่องมือที่ดีกว่าในการไม่แยกประเภทของลิงก์ที่ถูกแฮ็กหรือสแปมเหล่านี้เข้าสู่อัลกอริทึม ฉันควรลบไฟล์ปฏิเสธหรือไม่ การลบมันมีความเสี่ยงหรือข้อเสียหรือไม่”
John ตอบว่า “ […] การปฏิเสธลิงก์เป็นหนึ่งในหัวข้อที่ยุ่งยากเสมอเพราะรู้สึกว่า Google อาจไม่บอกข้อมูลทั้งหมดแก่คุณ
แต่จากมุมมองของเรา […] เราทำงานอย่างหนักเพื่อหลีกเลี่ยงไม่ให้นำลิงก์เหล่านี้มาพิจารณา และเราทำเช่นนั้นเพราะเรารู้ว่าเครื่องมือลิงก์ปฏิเสธเป็นเครื่องมือเฉพาะ และ SEO รู้เรื่องนี้ แต่คนทั่วไปที่ดูแลเว็บไซต์ไม่มีความคิดเกี่ยวกับเรื่องนี้ และลิงค์ทั้งหมดที่คุณกล่าวถึงนั้นเป็นลิงค์ที่เว็บไซต์ใด ๆ ได้รับในช่วงหลายปีที่ผ่านมา และระบบของเราเข้าใจดีว่านี่ไม่ใช่สิ่งที่คุณพยายามทำเพื่อหลอกอัลกอริทึมของเรา
ดังนั้น จากมุมมองนั้น หากคุณแน่ใจว่าไม่มีการดำเนินการโดยเจ้าหน้าที่ที่คุณต้องแก้ไขเกี่ยวกับลิงก์เหล่านี้ ฉันจะลบไฟล์ปฏิเสธ และ […] ทิ้งสิ่งเหล่านั้นทั้งหมดไว้ สิ่งหนึ่งที่ฉันจะทำเป็นการส่วนตัวคือดาวน์โหลดและทำสำเนาเพื่อให้คุณมีบันทึกสิ่งที่คุณลบไป มิฉะนั้น หากคุณแน่ใจว่าสิ่งเหล่านี้เป็นเพียงสิ่งปกติและดื้อดึงจากอินเทอร์เน็ต ฉันจะลบมันและเดินหน้าต่อไป มีอะไรอีกมากที่จะใช้เวลาของคุณกับเว็บไซต์ มากกว่าแค่การปฏิเสธสิ่งสุ่มเหล่านี้ที่เกิดขึ้นกับเว็บไซต์ใดๆ บนเว็บ”
จะดีกว่าไหมที่จะบล็อกการรวบรวมข้อมูลด้วย robots.txt หรือเมตาแท็กของโรบ็อต
14:19 “อันไหนดีกว่า: บล็อกด้วย robots.txt หรือใช้เมตาแท็ก robots บนหน้า? เราจะป้องกันการรวบรวมข้อมูลได้ดีที่สุดอย่างไร”
จอห์น: “ […] เรา เพิ่งทำตอนพอดคาสต์เกี่ยวกับเรื่องนี้ เช่นกัน ดังนั้นฉันจะตรวจสอบว่า […]
ในทางปฏิบัติ มีความแตกต่างเล็กน้อยตรงที่ หากคุณอยู่ใน SEO และเคยทำงานกับเครื่องมือค้นหา คุณก็คงจะเข้าใจอยู่แล้ว แต่สำหรับผู้ที่ยังใหม่กับพื้นที่นี้ บางครั้งก็ไม่ชัดเจนว่าบรรทัดเหล่านี้ทั้งหมดอยู่ที่ไหน
เมื่อใช้ robots.txt ซึ่งเป็นไฟล์แรกที่คุณพูดถึงในคำถาม คุณจะบล็อกการรวบรวมข้อมูลได้ คุณจึงสามารถป้องกันไม่ให้ Googlebot ดูหน้าเว็บของคุณได้ และด้วยเมตาแท็กของโรบ็อต เมื่อ Googlebot ดูหน้าเว็บของคุณและเห็นว่าเมตาแท็กของโรบ็อตนั้น คุณทำสิ่งต่างๆ ได้ เช่น การบล็อกการจัดทำดัชนี ในทางปฏิบัติ ทั้งสองผลลัพธ์ในหน้าของคุณไม่ปรากฏในผลการค้นหา แต่แตกต่างกันโดยสิ้นเชิง
ดังนั้นถ้าเราคลานไม่ได้ เราก็ไม่รู้ว่าเราขาดอะไร และอาจเป็นไปได้ว่าเราบอกว่า จริงๆ แล้ว มีการอ้างอิงถึงหน้านี้มากมาย บางทีมันอาจมีประโยชน์สำหรับบางสิ่ง เราไม่รู้ จากนั้น URL นั้นก็อาจปรากฏในผลการค้นหาโดยไม่มีเนื้อหาใดๆ เนื่องจากเราไม่สามารถดูได้ ในขณะที่เมตาแท็กของโรบ็อต หากเราสามารถดูที่หน้า เราก็จะสามารถดูเมตาแท็กและดูว่ามี noindex อยู่ที่นั่นหรือไม่ จากนั้นเราหยุดสร้างดัชนีหน้านั้น จากนั้นเราจะลบหน้านั้นออกจากผลการค้นหาโดยสิ้นเชิง
ดังนั้น หากคุณกำลังพยายามบล็อกการรวบรวมข้อมูล แน่นอนว่า robots.txt เป็นวิธีที่จะไป หากคุณไม่ต้องการให้หน้าปรากฏในผลการค้นหา ฉันจะเลือกว่าหน้าใดง่ายกว่าสำหรับคุณในการติดตั้ง ในบางไซต์ ง่ายกว่าที่จะกำหนดช่องกาเครื่องหมายโดยบอกว่าฉันไม่ต้องการให้พบหน้านี้ในการค้นหา จากนั้นจะเพิ่มเมตาแท็ก noindex ในส่วนอื่นๆ การแก้ไขไฟล์ robots.txt อาจง่ายกว่า [มัน] ขึ้นอยู่กับสิ่งที่คุณมี”
คุณสามารถวาง URL เดียวกันภายในไฟล์แผนผังเว็บไซต์หลายไฟล์ได้หรือไม่
16:40 “ มีผลกระทบเชิงลบต่อการมี URL ที่ซ้ำกันซึ่งมีแอตทริบิวต์ต่างกันในแผนผังไซต์ XML ของคุณหรือไม่? ตัวอย่างเช่น URL หนึ่งรายการในแผนผังเว็บไซต์หนึ่งที่มีคำอธิบายประกอบ hreflang และ URL เดียวกันในแผนผังเว็บไซต์อื่นที่ไม่มีคำอธิบายประกอบนั้น”
จอห์นกล่าวว่า “ […] จากมุมมองของเรา นี่เป็นเรื่องปกติ […] สิ่งนี้เกิดขึ้นเป็นระยะ ๆ บางคนมีคำอธิบายประกอบ hreflang ในไฟล์แผนผังเว็บไซต์แยกจากกันโดยเฉพาะ จากนั้นพวกเขาก็มีไฟล์แผนผังเว็บไซต์ปกติสำหรับทุกอย่างเช่นกัน และมีบางส่วนทับซ้อนกันอยู่ที่นั่น
จากมุมมองของเรา เราประมวลผลไฟล์แผนผังเว็บไซต์เหล่านี้อย่างสุดความสามารถ และเรานำข้อมูลทั้งหมดมาพิจารณาด้วย ไม่มีข้อเสียที่จะมี URL เดียวกันในไฟล์แผนผังเว็บไซต์หลายไฟล์
สิ่งเดียวที่ฉันจะระวังคือคุณไม่มีข้อมูลที่ขัดแย้งกันในไฟล์แผนผังเว็บไซต์เหล่านี้ ตัวอย่างเช่น หากคุณใช้หมายเหตุประกอบ hreflang หน้านี้สำหรับเยอรมนี และในไฟล์แผนผังเว็บไซต์อื่น คุณกำลังบอกว่า จริงๆ แล้ว หน้านี้สำหรับฝรั่งเศสด้วย […] งั้นเรา ระบบอาจจะประมาณว่า เกิดอะไรขึ้นที่นี่? เราไม่รู้ว่าจะทำอย่างไรกับคำอธิบายประกอบแบบผสมกันนี้ แล้วมันก็เกิดขึ้นได้ที่เราเลือกอย่างใดอย่างหนึ่ง
ในทำนองเดียวกัน ถ้าคุณพูดว่า หน้านี้มีการเปลี่ยนแปลงล่าสุดเมื่อ 20 ปีที่แล้ว […] และในไฟล์แผนผังเว็บไซต์อื่น คุณพูด ที่จริงแล้ว เมื่อห้านาทีที่แล้ว จากนั้นระบบของเราอาจตรวจสอบแล้วบอกว่า คุณมีคนหนึ่งผิด เราไม่รู้ว่าอันไหน บางทีเราจะทำตามอย่างใดอย่างหนึ่ง บางทีเราอาจเพิกเฉยต่อวันที่แก้ไขครั้งล่าสุดนั้นโดยสิ้นเชิง นั่นคือสิ่งที่ต้องระวัง
แต่ถ้าเป็นเพียงแค่ไฟล์แผนผังเว็บไซต์หลายไฟล์และข้อมูลมีความสอดคล้องกันหรือทำงานร่วมกัน โดยที่อาจมีวันที่แก้ไขล่าสุด อีกไฟล์หนึ่งมีหมายเหตุประกอบ hreflang ก็ถือว่าใช้ได้”
จะป้องกันหน้าวิดีโอที่ฝังไว้ไม่ให้สร้างดัชนีได้อย่างไร
19:00 “ฉันรับผิดชอบแพลตฟอร์มการเล่นวิดีโอซ้ำ และบางครั้งการฝังของเราก็ถูกจัดทำดัชนีทีละรายการ เราจะป้องกันได้อย่างไร”
John ตอบว่า: “ […] ฉันดูที่เว็บไซต์และนี่คือ iframes ที่มีหน้า HTML แบบง่ายพร้อมเครื่องเล่นวิดีโอที่ฝังอยู่ในนั้น
จากมุมมองทางเทคนิค หากหน้ามีเนื้อหา iframe เราจะเห็นหน้า HTML สองหน้านั้น และอาจเป็นไปได้ว่าระบบของเราจัดทำดัชนีหน้า HTML ทั้งสองหน้าเนื่องจากเป็นหน้า HTML ที่แยกจากกัน อันหนึ่งรวมอยู่ในอีกอันหนึ่ง แต่ในทางทฤษฎีก็สามารถยืนได้ด้วยตัวของมันเองเช่นกัน
และมีวิธีหนึ่งที่จะป้องกันสิ่งนั้น ซึ่งเป็นการผสมผสานที่ค่อนข้างใหม่กับเมตาแท็กของโรบ็อตที่คุณสามารถทำได้ ซึ่งก็คือ เมตาแท็กโรบ็อต indexifembedded ร่วมกับ เมตาแท็ก ของ โรบ็อต noindex
และในเวอร์ชันที่ฝัง ดังนั้นไฟล์ HTML ที่มีวิดีโออยู่ในนั้นโดยตรง คุณจะต้องเพิ่มเมตาแท็กของโรบ็อต noindex บวก indexifembedded และนั่นก็หมายความว่าหากเราพบหน้านั้นทีละหน้า เราจะเห็นว่ามี noindex [แท็ก] เราไม่ต้องจัดทำดัชนีสิ่งนี้
แต่ด้วย indexifembedded มันบอกเราว่า […] หากเราพบหน้านี้ซึ่งมีวิดีโอที่ฝังอยู่ภายในเว็บไซต์ทั่วไป เราก็สามารถสร้างดัชนีเนื้อหาวิดีโอนั้นได้ ซึ่งหมายความว่าหน้า HTML แต่ละหน้าจะไม่ได้รับการจัดทำดัชนี แต่หน้า HTML ที่มีการฝังพร้อมข้อมูลวิดีโอนั้นจะได้รับการจัดทำดัชนีตามปกติ นั่นคือการตั้งค่าที่ฉันจะใช้ที่นั่น และนี่คือเมตาแท็กของโรบ็อตที่ค่อนข้างใหม่ ดังนั้นจึงเป็นสิ่งที่ทุกคนไม่ต้องการ เนื่องจากการรวมเนื้อหา iframe หรือเนื้อหาที่ฝังไว้นั้นหายาก แต่สำหรับบางไซต์ การทำแบบนั้นก็สมเหตุสมผล”
