เวลาทำการของ SEO วันที่ 3 มิถุนายน 2022

เผยแพร่แล้ว: 2022-07-04

นี่คือบทสรุปของคำถามและคำตอบที่น่าสนใจที่สุดจาก Google SEO Office Hours กับ John Mueller ในวันที่ 3 มิถุนายน 2022

เนื้อหา ซ่อน
1 ฉันสามารถใช้รหัสผลลัพธ์ HTTP สองรหัสบนหน้าได้หรือไม่
2 การใช้ CDN ช่วยปรับปรุงการจัดอันดับหากเว็บไซต์ของฉันมีความเร็วในประเทศหลักอยู่แล้วหรือไม่?
3 ฉันควรไม่อนุญาตให้ส่งคำขอ API เพื่อลดการรวบรวมข้อมูลหรือไม่
4 ฉันควรใช้ rel=”nofollow” ในลิงก์ภายในหรือไม่
5 มีวิธีบังคับให้แสดงไซต์ลิงก์หรือไม่
6 ไซต์ของเราฝัง PDF ด้วย iframes เราควร OCR ข้อความหรือไม่
7 Google รวบรวมข้อมูล URL ในมาร์กอัปข้อมูลที่มีโครงสร้างหรือไม่

ฉันสามารถใช้รหัสผลลัพธ์ HTTP สองรหัสบนหน้าได้หรือไม่

1:22 “[…] ในทางทฤษฎี เป็นไปได้ที่จะมีรหัสผลลัพธ์ HTTP สองรหัสที่แตกต่างกันในหน้าหนึ่ง แต่ Google จะทำอะไรกับรหัสทั้งสองนี้ Google จะได้เห็นพวกเขาหรือไม่ และถ้าใช่ Google จะทำอย่างไร ตัวอย่างเช่น 503 บวก 302”

คำตอบของ John คือ: “ […] ด้วยรหัสผลลัพธ์ HTTP คุณสามารถรวมสิ่งต่าง ๆ มากมาย Google จะดูโค้ดผลลัพธ์ HTTP แรก และประมวลผลตามหลักนั้น

และ ในทางทฤษฎีคุณยังคงมีรหัสผลลัพธ์ HTTP สองรหัสหรือมากกว่านั้นหากมีการเปลี่ยนเส้นทาง ที่นำไปสู่หน้าสุดท้ายบางหน้า ตัวอย่างเช่น คุณอาจมีการเปลี่ยนเส้นทางจากหน้าหนึ่งไปอีกหน้าหนึ่ง นั่นคือรหัสผลลัพธ์หนึ่งรหัส จากนั้นในหน้าอื่น คุณสามารถแสดงรหัสผลลัพธ์อื่นได้ นั่นอาจเป็นการเปลี่ยนเส้นทาง 301 ไปยังหน้า 404 […] และจากมุมมองของเรา ในสถานการณ์ลูกโซ่ที่เราสามารถติดตามการเปลี่ยนเส้นทางเพื่อให้ได้ผลลัพธ์สุดท้าย เราจะเน้นที่ผลลัพธ์สุดท้ายนั้นเป็นหลัก

และหากผลลัพธ์สุดท้ายนั้นมีเนื้อหา นั่นคือสิ่งที่เราอาจใช้เพื่อกำหนดรูปแบบบัญญัติได้ หากผลลัพธ์สุดท้ายคือหน้าข้อผิดพลาด แสดงว่าเป็นหน้าแสดงข้อผิดพลาด และมันก็ดีสำหรับเราเช่นกัน”

การใช้ CDN ช่วยปรับปรุงการจัดอันดับหรือไม่ หากเว็บไซต์ของฉันมีความเร็วในประเทศหลักอยู่แล้ว

2:50 “[…] เราได้รับการเข้าชมส่วนใหญ่จากประเทศใดประเทศหนึ่ง เราโฮสต์เว็บไซต์ของเราบนเซิร์ฟเวอร์ที่ตั้งอยู่ในประเทศนั้น คุณแนะนำให้วางเว็บไซต์ทั้งหมดของเราไว้เบื้องหลัง CDN เพื่อปรับปรุงความเร็วหน้าเว็บสำหรับผู้ใช้ทั่วโลก หรือไม่จำเป็นในกรณีของเรา”

John ตอบว่า: “ ฉันไม่คิดว่ามันจะส่งผลกระทบอย่างมากต่อ Google เกี่ยวกับ SEO เลย

ผลเดียวที่ฉันสามารถจินตนาการได้ว่ามีบางอย่างเกิดขึ้นคือสิ่งที่ผู้ใช้เห็น […] หากผู้ใช้ส่วนใหญ่ของคุณเห็นเว็บไซต์ที่เร็วมากอยู่แล้วเพราะเซิร์ฟเวอร์ของคุณอยู่ที่นั่น แสดงว่าคุณกำลัง […] กำลังทำสิ่งที่ถูกต้อง แต่แน่นอนว่า หากผู้ใช้ในสถานที่อื่นเห็นผลลัพธ์ที่ช้ามาก เพราะบางทีการเชื่อมต่อกับประเทศของคุณอาจไม่ดีมาก นั่นก็เป็นสิ่งที่คุณอาจมีโอกาสปรับปรุงสิ่งนั้น

[…] หากมีบางสิ่งที่คุณสามารถทำได้เพื่อปรับปรุงสิ่งต่างๆ ทั่วโลกสำหรับเว็บไซต์ของคุณ ฉันคิดว่านั่นเป็นความคิดที่ดี ฉันไม่คิดว่ามันสำคัญ […] แต่มันเป็นสิ่งที่คุณสามารถทำได้เพื่อ […] ขยายเว็บไซต์ของคุณให้พ้นประเทศปัจจุบันของคุณ

บางทีสิ่งหนึ่งที่ฉันควรชี้แจง ถ้าการรวบรวมข้อมูลของ Google ช้าจริงๆ แน่นอนว่าอาจส่งผลต่อจำนวนที่เราจะสามารถรวบรวมข้อมูลและจัดทำดัชนีจากเว็บไซต์ […] ฉันไม่ได้เห็นว่านี่เป็นปัญหากับเว็บไซต์ใด ๆ ที่มีขนาดไม่ใหญ่เป็นล้านและหลายล้านหน้า […]

คุณสามารถตรวจสอบความเร็วของ Google ในการรวบรวมข้อมูลใน Search Console และสถิติการรวบรวมข้อมูลได้อีกครั้ง และถ้ามันดูสมเหตุสมผล แม้ว่ามันจะไม่เร็วมาก ฉันก็จะไม่กังวลเรื่องนั้นจริงๆ”

ฉันควรไม่อนุญาตให้ส่งคำขอ API เพื่อลดการรวบรวมข้อมูลหรือไม่

5:20 “[…] ปัจจุบันไซต์ของเราใช้งบประมาณการรวบรวมข้อมูลประมาณ 20% ในโดเมนย่อย API และอีก 20% สำหรับภาพขนาดย่อของวิดีโอ โดเมนย่อยเหล่านี้ไม่มีเนื้อหาที่เป็นส่วนหนึ่งของกลยุทธ์ SEO ของเรา เราควรห้ามไม่ให้โดเมนย่อยเหล่านี้รวบรวมข้อมูล หรือปลายทาง API ถูกค้นพบหรือใช้งานอย่างไร”

ดังที่จอห์นกล่าวไว้ “[…] ในหลายกรณี ปลายทาง API ถูกใช้โดย JavaScript บนเว็บไซต์ และเราจะแสดงหน้าเว็บของคุณ และหากพวกเขาเข้าถึง API ที่อยู่ในเว็บไซต์ของคุณ เราจะพยายามโหลดเนื้อหาจาก API นั้นและใช้สำหรับการแสดงผลหน้า

และขึ้นอยู่กับวิธีการตั้งค่า API ของคุณและวิธีการตั้งค่า JavaScript ของคุณ อาจเป็นไปได้ว่าเราแคชผลลัพธ์ API เหล่านั้นได้ยาก ซึ่งหมายความว่าบางทีเราอาจรวบรวมข้อมูลคำขอ API เหล่านี้จำนวนมากเพื่อพยายามรับเวอร์ชันที่แสดงผล ของหน้าเว็บของคุณ เพื่อให้เราสามารถนำไปใช้ในการจัดทำดัชนีได้ ปกติแล้วสถานที่นี้จะถูกค้นพบ และนั่นคือสิ่งที่คุณสามารถช่วยได้โดยทำให้แน่ใจว่าผลลัพธ์ของ API สามารถแคชได้ โดยที่คุณไม่ต้องใส่การประทับเวลาใดๆ ลงใน URL […] เมื่อคุณใช้ JavaScript สำหรับ API […]

หากคุณไม่สนใจเนื้อหาที่ส่งคืนด้วยตำแหน่งข้อมูล API เหล่านี้ คุณสามารถบล็อกโดเมนย่อยทั้งหมดจากการรวบรวมข้อมูลด้วยไฟล์ robots.txt ได้ และนั่นจะบล็อกคำขอ API ทั้งหมดไม่ให้เกิดขึ้น

[…] ก่อนอื่นคุณต้องคิดก่อนว่าผลลัพธ์ API เหล่านี้ […] เป็นส่วนหนึ่งของ […] เนื้อหาสำคัญที่ฉันต้องการให้สร้างดัชนีจาก Google หรือไม่ และถ้าเป็นเช่นนั้น คุณก็ไม่ควรปิดกั้นการรวบรวมข้อมูล แต่ถ้า […] เป็น […] กำลังสร้างบางสิ่ง […] ซึ่งไม่สำคัญสำหรับหน้าเว็บของคุณ […] ก็อาจคุ้มค่าที่จะตรวจสอบอีกครั้งว่ามีลักษณะอย่างไรเมื่อถูกบล็อก

และวิธีหนึ่งที่คุณสามารถตรวจสอบได้อีกครั้งคือ คุณสามารถสร้างหน้าทดสอบแยกต่างหากที่ไม่เรียก API หรือที่ใช้ URL ที่ใช้งานไม่ได้สำหรับปลายทาง API […] คุณสามารถดูว่าหน้านี้แสดงผลในเบราว์เซอร์ของฉันได้อย่างไร? มันแสดงผลสำหรับ Google อย่างไร”

ฉันควรใช้ rel=”nofollow” ในลิงก์ภายในหรือไม่

8:05 “เหมาะสมหรือไม่ที่จะใช้แอตทริบิวต์ nofollow บนลิงก์ภายในเพื่อหลีกเลี่ยงคำขอของโปรแกรมรวบรวมข้อมูลที่ไม่จำเป็นไปยัง URL ที่เราไม่ต้องการให้รวบรวมข้อมูลหรือจัดทำดัชนี”

นี่คือวิธีที่ John ตอบกลับ: “ […] ฉันคิดว่าโดยส่วนใหญ่ การใช้ nofollow ในลิงก์ภายในนั้นไม่สมเหตุสมผลเลย แต่ถ้าเป็นสิ่งที่คุณต้องการที่จะทำไปเลย

ในกรณีส่วนใหญ่ ฉันจะพยายามทำบางอย่าง เช่น ใช้ rel=canonical เพื่อชี้ไปที่ URL ที่คุณต้องการสร้างดัชนี หรือ ใช้ robots.txt สำหรับสิ่งที่คุณไม่ต้องการให้รวบรวมข้อมูลจริงๆ

ลองคิดดูว่ามันเหมือนเป็นเรื่องละเอียดอ่อน […] ที่คุณต้องการสร้างดัชนีแล้วใช้ rel=canonical สำหรับสิ่งนั้นหรือไม่ หรือเป็นสิ่งที่คุณพูด จริงๆ แล้ว เมื่อ Googlebot เข้าถึง URL เหล่านี้ จะทำให้เซิร์ฟเวอร์ของฉันมีปัญหา มันทำให้เกิดภาระมาก มันทำให้ทุกอย่างช้ามาก มันแพงหรืออะไรที่คุณมี

และในกรณีเหล่านั้น ฉันจะไม่อนุญาตให้รวบรวมข้อมูลของ URL เหล่านั้น […] ด้วย rel=canonical แน่นอนว่าเราต้องรวบรวมข้อมูลหน้านั้นก่อนจึงจะเห็น rel=canonical แต่เมื่อเวลาผ่านไป เราจะเน้นที่มาตรฐานที่คุณกำหนดไว้ และเราจะใช้อันนั้นเป็นหลักในการรวบรวมข้อมูลและจัดทำดัชนี”

มีวิธีบังคับให้แสดงไซต์ลิงก์หรือไม่

16:02 “มีกลยุทธ์ใดบ้างที่หน้าที่ต้องการสามารถปรากฏเป็นลิงก์เว็บไซต์ในผลการค้นหาของ Google ได้”

จอห์นชี้แจงว่า “[…] ไม่มีเมตาแท็กหรือข้อมูลที่มีโครงสร้างที่คุณสามารถใช้เพื่อบังคับให้แสดงลิงก์ของ ไซต์

[…] ระบบของเราพยายามค้นหาว่าอะไรคือ […] ที่เกี่ยวข้องหรือเกี่ยวข้องกับผู้ใช้เมื่อพวกเขาดูหน้าเว็บนี้ […]? […] คำแนะนำของเราโดยพื้นฐานแล้วต้องมีโครงสร้างเว็บไซต์ที่ดี มีลิงก์ภายในที่ชัดเจน เพื่อให้เราจดจำได้ง่ายว่าหน้าใดเกี่ยวข้องกับหน้าเหล่านั้น และมีชื่อที่ชัดเจนที่เราสามารถใช้ได้และ […] แสดงเป็น ลิงค์เว็บไซต์

[…] ไม่ใช่ว่ามีการรับประกันว่าสิ่งนี้จะแสดงเช่นนั้น แต่มันช่วยให้เราเข้าใจว่ามีอะไรเกี่ยวข้องกัน และถ้าเราคิดว่าการแสดงลิงก์ของเว็บไซต์เป็นเรื่องที่สมเหตุสมผล เราก็จะเลือกลิงก์จากข้อมูลนั้นได้ง่ายขึ้นมาก”

ไซต์ของเราฝัง PDF ด้วย iframes เราควร OCR ข้อความหรือไม่

17:14 “เว็บไซต์ของเราใช้ iframes และสคริปต์เพื่อฝังไฟล์ PDF ลงในเพจและเว็บไซต์ของเรา มีข้อได้เปรียบใดบ้างในการนำข้อความ OCR ของ PDF มาวางใน HTML ของเอกสารเพื่อวัตถุประสงค์ในการทำ SEO หรือ Google จะแยกวิเคราะห์เนื้อหา PDF ที่มีน้ำหนักเท่ากันและความเกี่ยวข้องในการจัดทำดัชนีเนื้อหาหรือไม่

John ตอบกลับ: “ […] ดูเหมือนว่าคุณต้องการนำข้อความของ PDF และ […] ซ่อนไว้ใน HTML เพื่อวัตถุประสงค์ SEO และนั่นคือสิ่งที่ฉันไม่แนะนำให้ทำอย่างแน่นอน หากคุณต้องการให้เนื้อหาสามารถจัดทำดัชนีได้ ให้แสดงเนื้อหานั้นบนหน้า

[…] เราพยายามนำข้อความออกจาก PDF และจัดทำดัชนีสำหรับ PDF เอง จากมุมมองเชิงปฏิบัติ สิ่งที่เกิดขึ้นกับ PDF เป็นหนึ่งในขั้นตอนแรก เราแปลงเป็นหน้า HTML และเราพยายามสร้างดัชนีที่เหมือนกับหน้า HTML […] สิ่งที่คุณทำคือ […] กำหนดกรอบหน้า HTML ทางอ้อม และเมื่อพูดถึง iframes เราสามารถนำเนื้อหานั้นมาพิจารณาสำหรับการจัดทำดัชนีภายในหน้าหลัก แต่ก็สามารถเกิดขึ้นได้ที่เราจัดทำดัชนี PDF แยกกันอยู่แล้ว […] ฉันจะพลิกคำถามและใส่กรอบว่าคุณต้องการให้เกิดอะไรขึ้น?

และถ้าคุณต้องการให้หน้าเว็บปกติของคุณถูกสร้างดัชนีด้วยเนื้อหาของไฟล์ PDF ให้สร้างมันขึ้นมาเพื่อให้เนื้อหานั้นมองเห็นได้ทันทีบนหน้า HTML ดังนั้น แทนที่จะฝัง PDF เป็นเนื้อหาหลัก ให้สร้างเนื้อหา HTML เป็นส่วนหลักและลิงก์ไปยังไฟล์ PDF

แล้วมีคำถามว่าคุณต้องการให้ PDF เหล่านั้นทำดัชนีแยกกันหรือไม่? บางครั้งคุณต้องการจัดทำดัชนี PDF แยกกัน และถ้าคุณต้องการให้ดัชนีแยกจากกัน การลิงก์ไปยังรายการเหล่านั้นก็เยี่ยมมาก

หากคุณไม่ต้องการให้สร้างดัชนีแยกกัน การใช้ robots.txt เพื่อบล็อกการจัดทำดัชนีก็ใช้ได้เช่นกัน คุณยังสามารถใช้ noindex [? x-robots ?] ส่วนหัว HTTP มันซับซ้อนกว่าเล็กน้อยเพราะคุณต้องทำหน้าที่เป็นส่วนหัวสำหรับไฟล์ PDF หากคุณต้องการให้ไฟล์ PDF เหล่านั้นมีอยู่ใน iframe แต่ไม่ได้จัดทำดัชนีจริงๆ”

Google รวบรวมข้อมูล URL ในมาร์กอัปข้อมูลที่มีโครงสร้างหรือไม่

23:24 “Google รวบรวมข้อมูล URL ที่อยู่ในมาร์กอัปข้อมูลที่มีโครงสร้างหรือ Google เก็บข้อมูลเพียงอย่างเดียว”

John อธิบายว่า “โดยส่วนใหญ่ เมื่อเราดูหน้า HTML หากเราเห็นบางอย่างที่ดูเหมือนลิงก์ เราอาจปิดและลองใช้ URL นั้นด้วย […] หากเราพบ URL ใน JavaScript เราสามารถลองหยิบมันขึ้นมาและลองใช้มัน หากเราพบลิงก์ในไฟล์ข้อความบนไซต์ เราสามารถลองรวบรวมข้อมูลนั้นและใช้งานได้ แต่มันไม่ใช่ลิงค์ปกติจริงๆ

[…] หากคุณต้องการให้ Google เลิกใช้งานและรวบรวมข้อมูล URL นั้น ตรวจสอบให้แน่ใจว่ามีลิงก์ HTML ตามธรรมชาติที่ไปยัง URL นั้น พร้อมด้วย anchor text ที่ชัดเจนด้วย ซึ่งคุณให้ข้อมูลบางอย่างเกี่ยวกับหน้าปลายทาง

หากคุณไม่ต้องการให้ Google รวบรวมข้อมูล URL นั้น อาจบล็อกด้วย robots.txt หรือในหน้านั้น ให้ใช้ rel=canonical ที่ชี้ไปยังเวอร์ชันที่คุณต้องการ อะไรก็ได้แบบนั้น […] ฉันจะไม่สุ่มสี่สุ่มห้าคิดว่าเพียงเพราะมันอยู่ในข้อมูลที่มีโครงสร้างจะไม่พบและฉันจะไม่สุ่มสี่สุ่มห้าสุ่มสี่สุ่มห้าเพียงเพราะมันอยู่ในข้อมูลที่มีโครงสร้างจะพบ

[…] ฉันจะมุ่งเน้นไปที่สิ่งที่คุณต้องการให้เกิดขึ้นที่นั่นแทน หากต้องการให้เห็นว่าเป็นลิงก์ ให้สร้างเป็นลิงก์ หากคุณไม่ต้องการให้มีการรวบรวมข้อมูลหรือจัดทำดัชนี ให้บล็อกการรวบรวมข้อมูลหรือการจัดทำดัชนี […]”