19 ปัญหา SEO ทางเทคนิคทั่วไป (พร้อมวิธีแก้ปัญหาที่แนะนำ)
เผยแพร่แล้ว: 2020-08-19ที่ Semetrical ผู้เชี่ยวชาญ SEO ของเราได้ทำการตรวจสอบ SEO ทางเทคนิคนับไม่ถ้วนในช่วงหลายปีที่ผ่านมา และพบปัญหาทางเทคนิคทั่วไปที่เว็บไซต์ประสบในหลายอุตสาหกรรม คู่มือของเราสรุปปัญหา SEO ทางเทคนิคที่พบบ่อยที่สุดพร้อมวิธีแก้ปัญหาที่แนะนำ
ด้านล่างแสดงรายการปัญหา SEO ทางเทคนิคที่พบบ่อยที่สุด:
- กฎที่ไม่คำนึงถึงตัวพิมพ์เล็กและใหญ่ใน Robots,txt
- การทำสำเนา URL ตัวพิมพ์ใหญ่และตัวพิมพ์เล็ก
- HTTP 302 เปลี่ยนเส้นทางไปยัง HTTPS
- Canonical URLs ที่ส่งผลต่อการเชื่อมโยงภายใน
- Canonical URLs ที่เชื่อมโยงกับ 404 URLs
- แท็ก Canonical หลายรายการ
- การทำสำเนาหน้าแรก
- ไซต์เวอร์ชันมือถือและเดสก์ท็อปต่างกัน
- การตรวจจับ IP ระหว่างประเทศ
- การทำสำเนาเว็บไซต์ระหว่างประเทศ
- แผนผังเว็บไซต์ XML รวมถึง URL ที่ผ่านมาและ URL การแสดงละคร
- การจัดทำดัชนีเว็บไซต์ทำให้เกิดความซ้ำซ้อน
- กำลังจัดทำดัชนีการค้นหาภายใน
- พารามิเตอร์ที่ก่อให้เกิดความซ้ำซ้อน
- การทำสำเนา URL ของผลิตภัณฑ์
- ความลึกของเว็บไซต์
- JavaScript
- การใช้ Meta Robots NOINDEX . ไม่ถูกต้อง
- ซอฟท์ 404 หน้า
1. กฎที่ไม่คำนึงถึงตัวพิมพ์เล็กและตัวพิมพ์ใหญ่ใน Robots,txt
ปัญหา:
เมื่อทำการตรวจสอบทางเทคนิค SEO เรามักจะพบว่ากฎที่ไม่อนุญาตใน robots.txt ไม่ได้รองรับกฎทั้งตัวพิมพ์ใหญ่และตัวพิมพ์เล็ก
ตัวอย่างเช่น ในไซต์อีคอมเมิร์ซ เส้นทางตะกร้ามักจะหมดทั้ง /basket/ และ /Basket/ แต่จะรวมเฉพาะเส้นทางตัวพิมพ์เล็กเท่านั้นเป็นกฎใน robots.txt ซึ่งหมายความว่า URL ที่มี /Basket/ จะยังคงสร้างดัชนีได้ และนั่นจะทำให้เนื้อหาซ้ำซ้อน ซึ่งคุณต้องหลีกเลี่ยงเพื่อปรับปรุงการจัดทำดัชนีเว็บไซต์ของคุณในเครื่องมือค้นหา
กฎของ Robots.txt:
ไม่อนุญาต: /ตะกร้า/
ไม่อนุญาต: /ตะกร้า/*
วิธีการแก้:
ตรวจสอบเว็บไซต์ของคุณและตรวจสอบว่ามีเส้นทางทั้งตัวพิมพ์ใหญ่และตัวพิมพ์เล็กที่ต้องบล็อกหรือไม่ คุณสามารถทำได้โดยใช้โปรแกรมรวบรวมข้อมูลเว็บ เช่น เพื่อนของเราที่ DeepCrawl หากเว็บไซต์มีทั้งสองเวอร์ชันที่ใช้งานอยู่ ให้เพิ่มกฎข้อที่สองใน robots.txt เพื่อรองรับเส้นทางตัวพิมพ์ใหญ่ที่จะถูกบล็อก ตัวอย่างเช่น Disallow: /Basket/*
หากคุณไม่มีสิทธิ์เข้าถึงโปรแกรมรวบรวมข้อมูลเว็บ การค้นหาโปรโตคอลของเว็บไซต์จะมีประโยชน์มากในการดูว่ามีการจัดทำดัชนีทั้งเวอร์ชันตัวพิมพ์ใหญ่และตัวพิมพ์เล็กหรือไม่
2. การทำสำเนา URL ตัวพิมพ์ใหญ่และตัวพิมพ์เล็ก
ปัญหา:
ปัญหาทั่วไปที่เราพบคือความซ้ำซ้อนของ URL ที่ไม่คำนึงถึงตัวพิมพ์เล็กและตัวพิมพ์ใหญ่ซึ่งเชื่อมโยงไปถึงทั่วทั้งเว็บไซต์ และ Google เห็นว่า URL เหล่านี้เป็น URL ที่แตกต่างกันสอง URL ตัวอย่างเช่น:
สิ่งนี้อาจเกิดขึ้นเนื่องจากบรรณาธิการในบล็อกโพสต์เพิ่มลิงก์โดยตรงไปยังหน้าผลิตภัณฑ์ แต่พวกเขาได้พิมพ์อักษรตัวพิมพ์ใหญ่แทนที่จะเป็นตัวพิมพ์เล็ก
นอกจากนี้เรายังพบว่าสิ่งนี้เกิดขึ้นเนื่องจากโมดูลการเชื่อมโยงภายในมีจุดบกพร่องที่ลิงก์ผลิตภัณฑ์ยอดนิยมถูกเชื่อมโยงผ่านตัวพิมพ์ใหญ่
วิธีการแก้:
เราขอแนะนำให้ตั้งค่ากฎที่ระดับเซิร์ฟเวอร์โดยที่ URL ตัวพิมพ์ใหญ่ทั้งหมดเปลี่ยนเส้นทางเป็นตัวพิมพ์เล็กผ่านการเปลี่ยนเส้นทาง 301 สิ่งนี้จะปกป้องเว็บไซต์จากการทำซ้ำในอนาคตที่มีการเชื่อมโยงทั้ง URL ตัวพิมพ์ใหญ่และตัวพิมพ์เล็ก
การเพิ่มกฎการเปลี่ยนเส้นทาง 301 จะรวมส่วนของลิงก์ที่ไซต์ภายนอกอาจเชื่อมโยงไปยังไซต์ของคุณโดยไม่ได้ตั้งใจโดยใช้อักษรตัวพิมพ์ใหญ่
หากเปลี่ยนเส้นทาง 301 ไม่ได้ เราขอแนะนำให้เพิ่มแท็กบัญญัติในซอร์สโค้ดของ URL ตัวพิมพ์ใหญ่เพื่ออ้างอิงเวอร์ชัน URL ตัวพิมพ์เล็ก
3. HTTP 302 เปลี่ยนเส้นทางไปที่ HTTPS
ปัญหา:
บริษัทต่างๆ มักจะโยกย้ายเว็บไซต์ของตนเพื่อรักษาความปลอดภัย HTTPS URLs แต่พวกเขาไม่ได้ใช้กฎการเปลี่ยนเส้นทาง 301 เสมอไป แต่ใช้การเปลี่ยนเส้นทาง 302 แทน ดังนั้นในทางทฤษฎีแล้วสิ่งนี้จะบอกเครื่องมือค้นหาว่าเวอร์ชัน HTTP ของ URL ได้ย้ายเพียงชั่วคราวแทนที่จะเป็นอย่างถาวร ซึ่งสามารถลดส่วนของลิงก์และอำนาจโดยรวมของเว็บไซต์ของคุณ เนื่องจาก HTTP URL ที่ได้รับลิงก์ย้อนกลับเมื่อเวลาผ่านไปจะไม่ส่งต่อส่วนของลิงก์ไปยังเวอร์ชัน HTTPS อย่างสมบูรณ์ เว้นแต่จะมีการเปลี่ยนเส้นทาง 301
วิธีการแก้:
เราขอแนะนำให้ตั้งค่ากฎที่ระดับเซิร์ฟเวอร์โดยที่ HTTP URL 301 ทั้งหมดเปลี่ยนเส้นทางไปยังเวอร์ชัน HTTPS
4. Canonical URLs ที่ส่งผลต่อการเชื่อมโยงภายใน
ปัญหา:
ในเว็บไซต์อีคอมเมิร์ซหลายแห่ง เราได้เห็นผลิตภัณฑ์ที่มี URL ผลิตภัณฑ์หลายรูปแบบ แต่แต่ละรูปแบบจะลิงก์ไปยัง URL ผลิตภัณฑ์ตามรูปแบบบัญญัติเพื่อป้องกันการซ้ำซ้อน อย่างไรก็ตาม หน้าผลิตภัณฑ์ตามรูปแบบบัญญัติจะพบได้ผ่านแท็กตามรูปแบบบัญญัติเท่านั้น และไม่มีลิงก์ภายในอื่นๆ
นอกจากนี้ หน้าผลิตภัณฑ์ตามรูปแบบบัญญัติไม่ได้รวมเบรดครัมบ์ใดๆ ที่ส่งผลต่อการเชื่อมโยงภายในทั่วทั้งเว็บไซต์
การตั้งค่ามาตรฐานการลิงก์ภายในนี้ทำให้เครื่องมือค้นหาไม่สามารถเลือกเวอร์ชัน URL ตามรูปแบบบัญญัติได้ เนื่องจากละเว้นคำแนะนำเนื่องจากลิงก์ภายในทั่วทั้งไซต์กำลังส่งสัญญาณผสมกัน ซึ่งอาจส่งผลให้มีการจัดทำดัชนีผลิตภัณฑ์เวอร์ชันที่ไม่ใช่ Canonical ซึ่งทำให้เกิดการ Cannibalization URL ซึ่งท้ายที่สุดแล้วส่งผลเสียต่อประสิทธิภาพ SEO ของคุณ
วิธีการแก้:
เพื่อช่วยจัดทำดัชนี URL ตามรูปแบบบัญญัติ เว็บไซต์ควร:
เพิ่ม Canonical URL ลงในแผนผังเว็บไซต์ XML ไม่ใช่ URL อื่น ๆ
ลิงก์ภายในไปยังเวอร์ชัน Canonical URL ภายในโมดูลการเชื่อมโยงภายในทั่วทั้งไซต์ เช่น "ผลิตภัณฑ์ยอดนิยม"
เพิ่มโครงสร้างเบรดครัมบ์หลักในหน้า Canonical URL
5. Canonical URLs ที่เชื่อมโยงกับ 404 URLs
ปัญหา:
Canonical URL บางครั้งอ้างอิง 404 URL แต่สิ่งนี้ส่งสัญญาณผสมไปยังการค้นหา
เครื่องยนต์ Canonical URL กำลังสั่งให้โปรแกรมรวบรวมข้อมูลของ URL ที่ต้องการจัดทำดัชนี แต่ URL ที่ต้องการไม่มีอยู่แล้วในขณะนี้
วิธีการแก้:
ประการแรก คุณควรกำหนดว่า Canonical URL ควรเป็น 404 หรือควรคืนสถานะหรือไม่ หากคืนสถานะได้ ปัญหาจะได้รับการแก้ไข อย่างไรก็ตาม หาก Canonical URL ควรเป็น 404 คุณควรเลือก Canonical URL ใหม่ หรืออัปเดต Canonical URL เพื่ออ้างอิงด้วยตนเอง
6. แท็ก Canonical หลายรายการ
ปัญหา:
ในโค้ด HTML ของหน้าเว็บ บางครั้งอาจพบแท็กบัญญัติสองแท็ก การดำเนินการนี้สามารถส่งข้อความที่ขัดแย้งกันไปยังเครื่องมือค้นหา และจะมีการนับและใช้เฉพาะ Canonical แรกเท่านั้น
วิธีการแก้:
โปรแกรมรวบรวมข้อมูลเว็บไซต์บางโปรแกรมอาจตั้งค่าสถานะแท็ก Canonical หลายรายการ อย่างไรก็ตาม หากไม่เป็นเช่นนั้น คุณควรตั้งค่าการแยกข้อมูลแบบกำหนดเองเมื่อรวบรวมข้อมูลเว็บไซต์เพื่อค้นหาแท็ก Canonical หลายรายการ
หน้าเว็บที่มีแท็กบัญญัติหลายแท็กในโค้ด HTML จำเป็นต้องได้รับการอัปเดตโดยที่หน้าหนึ่งถูกนำออกและเหลือเพียงแท็กบัญญัติที่ถูกต้องเท่านั้น
7. การทำสำเนาหน้าแรก
ปัญหา:
บางครั้งเว็บไซต์มี URL ของหน้าแรกหลายรายการซึ่งทำให้เกิดความซ้ำซ้อนและอาจทำให้เกิดการแบ่งส่วนของลิงก์ได้ URL การทำสำเนาหน้าแรกทั่วไป ได้แก่:
www.example.com
www.example.com/home
www.example.com/index.html
www.example.com/home.html
วิธีการแก้:
หากเว็บไซต์ของคุณมี URL ของหน้าแรกหลายรายการ เราขอแนะนำให้ตั้งค่าการเปลี่ยนเส้นทาง 301 โดยที่เวอร์ชันที่ซ้ำกันทั้งหมดจะเปลี่ยนเส้นทางไปยังเวอร์ชันหลักของหน้าแรก
8. ไซต์เวอร์ชันมือถือและเดสก์ท็อปต่างกัน
ปัญหา:
ไซต์บนมือถือควรมีเนื้อหาเหมือนกับเวอร์ชันเดสก์ท็อปของเว็บไซต์ เมื่อทำการตรวจสอบเว็บไซต์และเปรียบเทียบการรวบรวมข้อมูลเว็บไซต์บนมือถือกับเดสก์ท็อป เราพบความแตกต่างของเนื้อหาที่เวอร์ชันอุปกรณ์เคลื่อนที่มีเนื้อหาน้อยกว่าเวอร์ชันเดสก์ท็อปในบางหน้า
ซึ่งอาจทำให้เกิดปัญหาได้เนื่องจากการจัดทำดัชนีของเว็บไซต์เกือบทั้งหมดมาจากรุ่นมือถือ และหากไม่มีเนื้อหาสำคัญ การจัดอันดับอาจเริ่มลดลง
วิธีการแก้:
ไซต์เวอร์ชันมือถือควรมีเนื้อหาเหมือนกับเวอร์ชันเดสก์ท็อป และควรเพิ่มเนื้อหาที่ขาดหายไปลงในเว็บไซต์บนมือถือ
9. การแยกทรัพย์สินทางปัญญาระหว่างประเทศ
ปัญหา:
สำหรับเว็บไซต์ที่ใช้การเปลี่ยนเส้นทาง IP ทางภูมิศาสตร์ ปัญหาที่พบบ่อยที่สุดคือการใช้งานจะเปลี่ยนเส้นทางสำหรับผู้ใช้ทั้งหมด ซึ่งรวมถึงบอทด้วย
โดยปกติแล้ว Googlebot จะรวบรวมข้อมูลจาก IP ของสหรัฐอเมริกา และหากมีการเปลี่ยนเส้นทางบอทตามตำแหน่งทางภูมิศาสตร์ Googlebot จะรวบรวมข้อมูลและจัดทำดัชนีเฉพาะเว็บไซต์เวอร์ชันสหรัฐอเมริกาเท่านั้น ซึ่งจะป้องกันไม่ให้มีการรวบรวมข้อมูลและจัดทำดัชนีไซต์เวอร์ชันทางภูมิศาสตร์อื่นๆ
นอกจากนี้ การทำเช่นนี้อาจทำให้เกิดปัญหาสำหรับมาร์กอัปสคีมาการกำหนดราคาผลิตภัณฑ์บนไซต์อีคอมเมิร์ซที่มีการอัปเดตราคาตามตำแหน่งทางภูมิศาสตร์ เนื่องจากจะมีเพียงราคาในสหรัฐอเมริกาเท่านั้นที่จะปรากฏในทุกตลาด ตัวอย่างเช่น ตัวอย่างด้านล่างแสดงการกำหนดราคาในสหรัฐอเมริกาผ่านเว็บไซต์เวอร์ชันสหราชอาณาจักรภายในสหราชอาณาจักร
วิธีการแก้:
หากคุณต้องการใช้การเปลี่ยนเส้นทาง IP ทางภูมิศาสตร์ เราขอแนะนำให้คุณยกเว้นบ็อตทั้งหมดจากกฎการเปลี่ยนเส้นทาง เนื่องจากจะทำให้บ็อต เช่น Googlebot สามารถรวบรวมข้อมูลและจัดทำดัชนีเวอร์ชันสากลทั้งหมดได้
หากคุณไม่ใช้การเปลี่ยนเส้นทาง IP ทางภูมิศาสตร์ เราขอแนะนำให้เปิดเว็บไซต์ของคุณต่อผู้ใช้ทั้งหมดจากตำแหน่งทางภูมิศาสตร์ใดๆ และแสดงแบนเนอร์ JavaScript ที่ใช้งานง่าย ซึ่งให้ผู้ใช้เลือกภาษา/ตำแหน่งของตนเองได้
นี่เป็นคุณสมบัติ UX ที่มีประโยชน์ หากผู้ใช้เข้าสู่เว็บไซต์สากลเวอร์ชันที่ไม่ถูกต้อง ป๊อปอัปจะปรากฏขึ้นตามการตรวจจับ IP ตัวอย่างเช่น หากผู้ใช้เข้าสู่เว็บไซต์ของสหรัฐอเมริกาจาก IP ของสหราชอาณาจักร แบนเนอร์จะปรากฏขึ้นเพื่อแจ้งผู้ใช้ว่าไซต์ในสหราชอาณาจักรอาจเหมาะสมกว่า
10. การทำสำเนาเว็บไซต์ระหว่างประเทศ
ปัญหา:
เป็นเรื่องปกติที่จะเห็นเว็บไซต์หลายเวอร์ชันเมื่อบริษัทดำเนินการในประเทศต่างๆ ทั่วโลก นี่เป็นวิธีปฏิบัติทั่วไป เนื่องจากคุณต้องการมอบประสบการณ์การใช้งานที่ดีที่สุดแก่ผู้ใช้ และการทำเช่นนี้ เว็บไซต์เฉพาะประเทศช่วยให้บริษัทต่างๆ ปรับแต่งเส้นทางของผู้ใช้ตามตำแหน่งที่ผู้ใช้อยู่ทั่วโลก
อย่างไรก็ตาม บริษัทต่างๆ อาจทำผิดพลาดในการสร้างเว็บไซต์หลายเวอร์ชัน แต่อย่าส่งสัญญาณใดๆ ไปยังเครื่องมือค้นหาเพื่อระบุว่าเว็บไซต์ใดควรกำหนดเป้าหมายไปยังประเทศหรือภูมิภาคที่เฉพาะเจาะจง
เมื่อเจ้าของเว็บไซต์สร้างไซต์หลายเวอร์ชันโดยไม่มีคำแนะนำสำหรับเครื่องมือค้นหา อาจทำให้เกิดความโกลาหล เช่น การทำซ้ำเว็บไซต์และการกินเนื้อคนข้ามโดเมน
วิธีการแก้:
เมื่อสร้างเว็บไซต์เวอร์ชันสากล ควรใช้แท็ก Hreflang เพื่อช่วยส่งสัญญาณไปยังเครื่องมือค้นหา เช่น Google ให้แสดงหน้าเว็บที่ถูกต้องแก่ผู้ใช้ตามสถานที่และภาษา
แท็ก Hreflang ยังป้องกันไม่ให้เว็บไซต์เวอร์ชันสากลถูกมองว่าซ้ำกับเครื่องมือค้นหาเนื่องจากแท็ก Hreflang บ่งชี้ว่าจำเป็นต้องมีหน้าเฉพาะเพื่อให้บริการผู้ใช้ในตำแหน่ง X ด้วยการตั้งค่าภาษา X
การตั้งค่าและการทำแผนที่แท็ก Hreflang อาจทำให้เกิดความสับสนและเป็นงานใหญ่ขึ้นอยู่กับขนาดของเว็บไซต์ของคุณ หากตั้งค่าไม่ถูกต้อง อาจส่งผลเสียต่อการเข้าชมเว็บไซต์ของคุณ
โปรดไปที่หน้าบริการ SEO ระหว่างประเทศของเรา หากคุณกำลังวางแผนขยายเว็บไซต์ในต่างประเทศ หรือมีปัญหากับเว็บไซต์ต่างประเทศของคุณ
11. แผนผังเว็บไซต์ XML รวมถึง URL ในอดีตและ URL การแสดงละคร
ปัญหา:
ปัญหาที่น่าสนใจที่เราพบบ่อยกว่าที่คุณคิดคือเว็บไซต์ที่มี URL แบบเก่าในแผนผังเว็บไซต์ XML หรือ URL การแสดงละครที่บีบตัวเองลงในแผนผังเว็บไซต์ XML
ซึ่งอาจทำให้เกิดปัญหาได้เหมือนกับว่า URL การแสดงละครปรากฏในแผนผังไซต์ของคุณ และเครื่องมือค้นหาอาจไม่บล็อกไซต์แสดงระยะของคุณ URL เหล่านี้อาจเริ่มสร้างดัชนีและทำให้เกิดการทำซ้ำโดยไม่จำเป็น
URL ที่ผ่านมาในแผนผังเว็บไซต์ซึ่งขณะนี้แสดงรหัสสถานะ 4xx หรือ 3xx สามารถส่งสัญญาณที่สร้างความสับสนไปยังเครื่องมือค้นหาว่าหน้าใดที่คุณต้องการให้รวบรวมข้อมูลหรือจัดทำดัชนี
วิธีการแก้:
อย่าลืมตรวจสอบแผนผังเว็บไซต์ XML ของคุณเป็นประจำโดยคอยดู Search Console และตรวจสอบข้อผิดพลาดที่ปรากฏขึ้นหรือตั้งค่าการรวบรวมข้อมูลเป็นประจำในเครื่องมือ เช่น Deepcrawl
การตั้งค่าการรวบรวมข้อมูลแผนผังเว็บไซต์ XML เป็นประจำใน Deepcrawl นั้นมีประโยชน์มาก เนื่องจากสามารถตั้งค่าสถานะ URL ใด ๆ ที่ไม่ควรปรากฏในแผนผังเว็บไซต์ได้อย่างรวดเร็ว และช่วยให้คุณสามารถติดตามปัญหาที่อาจเกิดขึ้นได้
12. การจัดทำดัชนีเว็บไซต์ทำให้เกิดความซ้ำซ้อน
ปัญหา:
น่าแปลกที่บริษัทจำนวนหนึ่งมีเว็บไซต์แสดงละครที่สามารถจัดทำดัชนีสำหรับเครื่องมือค้นหาเช่น Google ไม่ได้ตั้งใจ แต่เกิดจากความผิดพลาด ซึ่งอาจทำให้เกิดความซ้ำซ้อนได้อย่างมาก เนื่องจากเว็บไซต์แสดงละครมักจะเป็นแบบจำลองสภาพแวดล้อมแบบสดของคุณ จากการค้นหาโปรโตคอล URL อย่างง่ายบน Google มีหน้าเว็บการแสดงละครหลายล้านหน้าและจัดทำดัชนีได้

วิธีการแก้:
ที่ Semetrical เราขอแนะนำให้เพิ่มชั้นการตรวจสอบสิทธิ์ซึ่งคุณต้องป้อนชื่อผู้ใช้และรหัสผ่านเพื่อเข้าถึงเว็บไซต์แสดงระยะ การเพิ่มกฎ disallow ยังเป็นตัวเลือกในการป้องกันไม่ให้มีการสร้างดัชนีสภาพแวดล้อมการจัดเตรียม อย่างไรก็ตาม จะเป็นการดีกว่าถ้าใช้สิ่งนี้หากไซต์ staging ยังไม่ได้รับการจัดทำดัชนี ตัวอย่างเช่น:
ตัวแทนผู้ใช้: *
ไม่อนุญาต: /
เครื่องมือโปรแกรมรวบรวมข้อมูลเว็บไซต์ส่วนใหญ่มีฟังก์ชันการเขียนทับของ robots.txt ดังนั้นคุณจึงสามารถแทนที่กฎที่ไม่อนุญาตได้อย่างง่ายดายเมื่อทำการทดสอบในสภาพแวดล้อมการจัดเตรียมของคุณ
13. การค้นหาภายในถูกจัดทำดัชนี
ปัญหา:
URL การค้นหาภายในบนเว็บไซต์นั้นยอดเยี่ยมสำหรับ SEO ซึ่งช่วยให้เว็บไซต์สามารถจัดอันดับสำหรับข้อความค้นหาที่มีความยาวมากเกินไป หรือเพื่อจัดอันดับสำหรับคำหลักที่ไม่มี URL หลักในการจัดอันดับ
อย่างไรก็ตาม ในหลายกรณี หน้าการค้นหาภายในอาจทำให้เกิดความซ้ำซ้อนในเว็บไซต์จำนวนมาก และยังอาจทำให้เกิดปัญหางบประมาณในการรวบรวมข้อมูลในเว็บไซต์ขนาดใหญ่ได้อีกด้วย สำหรับคู่มือนี้ เราจะเน้นด้านลบของการค้นหาภายใน
หน้าการค้นหาภายในมักจะมีคุณภาพต่ำมาก เนื่องจากจะไม่ได้รับการปรับให้เหมาะสม และในหลายๆ ครั้งอาจถูกจัดประเภทเป็นเนื้อหาที่บาง เนื่องจากจะเก็บผลลัพธ์จำนวนน้อย เช่น ผลิตภัณฑ์
วิธีการแก้:
ก่อนตัดสินใจบล็อกหน้าการค้นหาภายใน ขอแนะนำให้ตรวจสอบว่าหน้าเหล่านี้ไม่มีอันดับสำหรับคำหลักใดๆ หรือนำการเข้าชมปกติ
นอกจากนี้ โปรดตรวจสอบว่า URL เหล่านี้ไม่ได้สร้างลิงก์ย้อนกลับในช่วงหลายปีที่ผ่านมา หากหน้าการค้นหาภายในของคุณไม่มีลิงก์ย้อนกลับที่เชื่อถือได้ และไม่สร้างการเข้าชมที่เกิดขึ้นเอง ที่ Semetrical เราขอแนะนำสองขั้นตอน:
ขั้นตอนที่หนึ่ง: เพิ่มแท็ก NOINDEX, FOLLOW ในหน้าการค้นหาทั้งหมดเพื่อให้เครื่องมือค้นหายกเลิกการสร้างดัชนีหน้า เมื่อหน้าเหล่านี้ได้รับการยกเลิกการจัดทำดัชนีแล้วในช่วงสองสามเดือน เราจะดำเนินการขั้นตอนที่สอง
ขั้นตอนที่สอง: เพิ่มไดเร็กทอรีการค้นหาภายในไปยังไฟล์ robots.txt เช่น Disallow: */search*
14. พารามิเตอร์ที่ก่อให้เกิดความซ้ำซ้อน
ปัญหา:
การเรียงลำดับและกรองการทำซ้ำพารามิเตอร์อาจเป็นปัญหาทั่วไปเมื่อตรวจสอบเว็บไซต์ เว็บไซต์จำนวนมากจะใช้ตัวกรองเนื่องจากสามารถปรับปรุงประสบการณ์ของผู้ใช้และอนุญาตให้ผู้ใช้กรองผลการค้นหาของตน อย่างไรก็ตาม ปัญหาหลักคือเมื่อเว็บไซต์สามารถจัดทำดัชนีตัวกรองได้ เนื่องจากทำให้เกิดความซ้ำซ้อนจำนวนมากทั่วทั้งเว็บไซต์ ตัวอย่างเช่น:
ในบางครั้ง เราจะพบเว็บไซต์ที่เพิ่มพารามิเตอร์การติดตามที่ส่วนท้ายของ URL ในลิงก์ภายในเพื่อระบุว่ามีการคลิกลิงก์ที่ใดในไซต์ เราจะไม่แนะนำการตั้งค่านี้ในอินสแตนซ์แรก แต่เมื่อไซต์มีสิ่งนี้อยู่แล้ว อาจทำให้เกิดความซ้ำซ้อนมากมายบนเว็บไซต์ เนื่องจากสามารถสร้างหน้าเดียวกันได้หลายเวอร์ชัน ตัวอย่างเช่น:
พารามิเตอร์การติดตามทั่วไปอื่นๆ ที่อาจทำให้เกิดความซ้ำซ้อนคือพารามิเตอร์การติดตาม UTM ที่ลิงก์ถูกใช้สำหรับแคมเปญเฉพาะเพื่อติดตามว่าแคมเปญทำงานอย่างไร ตัวอย่างเช่น:
วิธีการแก้:
มีหลายวิธีในการป้องกันไม่ให้มีการจัดทำดัชนีพารามิเตอร์และทำให้เกิดความซ้ำซ้อน ซึ่งรวมถึง:
Canonicalizing URL พารามิเตอร์เป็นเวอร์ชัน URL ที่สะอาด
การเพิ่มกฎในไฟล์ robots.txt เพื่อไม่อนุญาตพารามิเตอร์เฉพาะ
การเพิ่มพารามิเตอร์ลงในเครื่องมือพารามิเตอร์ URL ใน Search Console ซึ่งส่งสัญญาณให้ Google ทราบว่าไม่ควรรวบรวมข้อมูลพารามิเตอร์บางตัว
15. การทำสำเนา URL ของผลิตภัณฑ์
ปัญหา:
การทำสำเนา URL ผลิตภัณฑ์ในเว็บไซต์อีคอมเมิร์ซอาจเป็นปัญหาใหญ่เช่นเดียวกับเว็บไซต์ของผู้เผยแพร่ สาเหตุหลักของการทำซ้ำ URL ของผลิตภัณฑ์เนื่องจากผลิตภัณฑ์สามารถสืบทอดหมวดหมู่/หมวดหมู่ย่อยในโครงสร้าง URL และหากผลิตภัณฑ์อยู่ในหลายหมวดหมู่/หมวดหมู่ย่อย ดังนั้น URL หลายรายการจึงถูกสร้างขึ้น
บนเว็บไซต์ของผู้จัดพิมพ์ เอกสารยังสามารถอยู่ในหลายพื้นที่ และหาก URL ของเอกสารสืบทอดตำแหน่งของเอกสาร เอกสารจะถูกสร้างขึ้นหลายเวอร์ชัน ตัวอย่างเช่น:
วิธีการแก้:
เมื่อเราพบความซ้ำซ้อนเช่นนี้ มีหลายวิธีในการทำความสะอาด เพื่อให้มั่นใจว่ามีการรวบรวมข้อมูลและจัดทำดัชนีเวอร์ชัน URL ที่ถูกต้อง
ในการแก้ไขการซ้ำซ้อนของ URL เราขอแนะนำให้กำหนดรูปแบบ URL ของผลิตภัณฑ์ทั้งหมดให้เป็นมาตรฐานระดับบนสุดหรือเวอร์ชันทั่วไป ตัวอย่างเช่น:
ตัวอย่างบัญญัติหลัก
ผู้หญิง-collections-dresses-day-dresses
/71hdo/bella-lula-floral-mini-dress
จะเป็นที่ยอมรับเพื่อ:
ผู้หญิง-คอลเลกชัน-dresses
/71hdo/bella-lula-floral-mini-dress
ตัวอย่างมาตรฐานทั่วไป:
ผู้หญิง-collections-dresses-day-dresses
/71hdo/bella-lula-floral-mini-dress
ผู้หญิง-คอลเลกชัน-dresses
/71hdo/bella-lula-floral-mini-dress
จะเป็นที่ยอมรับถึง
ทางเลือก:
หากคุณมีสิทธิ์เข้าถึงนักพัฒนา โซลูชันอื่นคือลิงก์ภายในไปยัง Canonical ของผลิตภัณฑ์ทั่วทั้งเว็บไซต์ และ 301 เปลี่ยนเส้นทาง URL ของผลิตภัณฑ์ทั้งหมดที่ไม่มีหมวดหมู่/หมวดหมู่ย่อยไปยัง URL ของผลิตภัณฑ์ตามรูปแบบบัญญัติทั่วไป
การทำเช่นนี้จะหยุดการทำซ้ำผลิตภัณฑ์และช่วยให้คุณสามารถเชื่อมโยงไปยังผลิตภัณฑ์ผ่านหลายเส้นทาง
16. ความลึกของเว็บไซต์
ปัญหา:
ความลึกของหน้าคือจำนวนคลิกที่หน้าใดหน้าหนึ่งมาจากหน้าแรกของเว็บไซต์ เมื่อทำการตรวจสอบเว็บไซต์ เราพบเว็บไซต์ที่มีความลึกของเว็บไซต์มากกว่า 10 ซึ่งหมายความว่าหน้าเหล่านี้อยู่ห่างจากหน้าแรก 10 คลิก!
ยิ่งจำเป็นต้องคลิกเพื่อค้นหาหน้าเว็บมากเท่าใด เครื่องมือค้นหาก็จะพบ URL นั้นได้ยากขึ้นเท่านั้น และมีแนวโน้มว่า URL จะไม่ถูกเข้าชมซ้ำบ่อยเท่าหน้าที่สูงขึ้นในเว็บไซต์
นอกจากนี้ ยิ่งหน้าที่อยู่ในสถาปัตยกรรมเว็บไซต์ของคุณสูงขึ้นเท่าใด เครื่องมือค้นหาก็จะถูกมองว่าเป็นหน้าระดับความสำคัญสูงเท่านั้น หากหน้าที่มีลำดับความสำคัญต่ำกว่าในสถาปัตยกรรม ก็มีความเสี่ยงที่หน้านั้นจะไม่ติดอันดับเช่นกัน
วิธีการแก้:
วิธีหลักในการปรับปรุงความลึกของเว็บไซต์และเพื่อให้แน่ใจว่าหน้าที่มีลำดับความสำคัญสูงในสถาปัตยกรรมเว็บไซต์ ได้แก่:
การเชื่อมโยงภายในเว็บไซต์ เช่น สินค้าแนะนำ สินค้าที่เกี่ยวข้อง และหน้าแนะนำ
การใช้ breadcrumbs ทั่วทั้งเว็บไซต์
การตั้งค่าการแบ่งหน้าที่มีหน้าแรก หน้าสุดท้าย และหน้าผลลัพธ์สองหน้าด้านใดด้านหนึ่งของหน้าที่คุณอยู่
ดำเนินการวิจัยคำหลักเพื่อค้นหาหน้าหมวดหมู่ระดับบนสุดที่ควรเชื่อมโยงภายในการนำทางหลักของเว็บไซต์และเพิ่มลิงก์ไปยังหน้าที่มีลำดับความสำคัญ
17. ปัญหา seo ทางเทคนิคของ JavaScript
ปัญหา
เว็บไซต์จำนวนมากในปัจจุบันจะใช้ JavaScript อย่างไรก็ตาม เมื่อปิดการใช้งาน JavaScript บางเว็บไซต์อาจใช้งานไม่ได้อย่างสมบูรณ์และลิงก์ต่างๆ อาจหายไปและเครื่องมือค้นหาจะไม่พบ นี่เป็นปัญหา SEO ทางเทคนิคทั่วไป
บ่อยครั้งที่เราเห็นว่าโมดูล "คุณอาจชอบ" บนหน้าผลิตภัณฑ์อีคอมเมิร์ซไม่สามารถมองเห็นได้โดยโปรแกรมรวบรวมข้อมูลของเครื่องมือค้นหา ทำให้โมดูลการเชื่อมโยงภายในซ้ำซ้อน
นอกจากนี้ โมดูลตรวจสอบที่มี UGC ที่มีคีย์เวิร์ดสมบูรณ์จะอยู่ภายในโมดูล JavaScript ซึ่งโปรแกรมรวบรวมข้อมูลไม่สามารถค้นพบได้เช่นกัน
ปัญหาที่น่าสนใจที่เว็บไซต์อีคอมเมิร์ซหลายแห่งมีคือเมื่อปิดใช้งาน JavaScript ในหน้าผลลัพธ์ ลิงก์ผลิตภัณฑ์ยังคงพบได้ แต่รูปภาพทั้งหมดหายไปเนื่องจากไม่มีตัวเลือกย้อนกลับสำหรับการค้นหารูปภาพ
วิธีการแก้:
ทำงานร่วมกับทีมพัฒนาเพื่อพยายามสร้าง JavaScript ทางเลือกที่รูปภาพยังคงอยู่ในซอร์สโค้ด รวมทั้งโมดูล JavaScript ที่สามารถรวบรวมข้อมูลได้ผ่าน HTML
วิธีที่ยอดเยี่ยมในการทดสอบว่าเนื้อหา JavaScript ได้รับการจัดทำดัชนีอย่างไรโดยไปที่เวอร์ชันแคชของหน้าเว็บของคุณและดูว่า "เวอร์ชันเต็ม" ของหน้าเว็บเป็นอย่างไร รวมทั้งตรวจสอบ "เวอร์ชันข้อความเท่านั้น"
18. การใช้ Meta Robots NOINDEX . อย่างไม่ถูกต้อง
ปัญหา:
ทีมเทคนิค SEO ของเราได้ตรวจสอบเว็บไซต์และพบว่าแท็ก NOINDEX ถูกเพิ่มลงในซอร์สโค้ดของหน้าเว็บโดยไม่ได้ตั้งใจ นอกจากนี้ ยังพบหน้าเว็บที่มีการเข้าชมซึ่งมีแท็ก NOINDEX อยู่ด้วย
น่าแปลกที่ปัญหาที่สามารถเกิดขึ้นได้บ่อยกว่าที่คุณคิดคือนักพัฒนาผลักดันสภาพแวดล้อมการแสดงละครโดยที่แท็ก NOINDEX ยังคงอยู่ในซอร์สโค้ด
ในท้ายที่สุด แท็ก NOINDEX จะบอกเครื่องมือค้นหาไม่ให้สร้างดัชนีหน้า และจะป้องกันไม่ให้หน้าปรากฏในผลการค้นหา
วิธีการแก้:
หากคุณพบหน้าที่มีแท็ก NOINDEX ขณะตรวจสอบเว็บไซต์และไม่ชัดเจนว่าทำไมแท็กจึงถูกใช้งาน ให้ตรวจสอบกับทีมพัฒนาเพื่อดูว่าเมื่อใดและเพราะเหตุใดหน้าเหล่านั้นจึงรวมแท็ก
หากมีการเพิ่มแท็ก NOINDEX โดยไม่ได้ตั้งใจ คุณควรขอให้นักพัฒนาอัปเดตซอร์สโค้ดและลบแท็กออกทั้งหมด หรืออัปเดตให้อ่าน <meta name=”robots” content=” INDEX, FOLLOW”>
19. ซอฟท์ 404 หน้า
ปัญหา:
หน้า soft 404 ไม่ควรมีอยู่บนเว็บไซต์ แต่เกิดขึ้นเมื่อหน้าที่ไม่มีอยู่ซึ่งควรส่งคืนรหัสสถานะ 404 ส่งคืนรหัสสถานะ 200 OK หากหน้า 404 ส่งคืนรหัสสถานะ 200 หน้าจะยังคงรวบรวมข้อมูลและจัดทำดัชนีได้
ท้ายที่สุดนี้เป็นปัญหาเนื่องจากเสิร์ชเอ็นจิ้นเช่น Google สามารถเสียเวลาในการรวบรวมข้อมูลหน้าเหล่านี้ ซึ่งไม่ก่อให้เกิดการสูญเสียงบประมาณในการรวบรวมข้อมูล แทนที่จะเน้นเวลาไปที่หน้าที่มีค่า หน้าเหล่านี้ยังสามารถสร้างปัญหาที่ซ้ำกันบนเว็บไซต์ โดยเฉพาะอย่างยิ่งหากเว็บไซต์มีหน้า soft 404 จำนวน 1,000 หน้าที่แสดงข้อความ "ไม่พบหน้า"
มีหลายวิธีในการค้นหาหน้า soft 404 ซึ่งรวมถึง:
ไปที่ Search Console ที่ตั้งค่าสถานะ soft 404 หน้า
รวบรวมข้อมูลเว็บไซต์ของคุณและมองหาหน้ารหัสสถานะ 200 หน้าที่มีแท็กชื่อ "ไม่พบหน้า"
การรวบรวมข้อมูลเว็บไซต์ของคุณด้วยการแยกข้อมูลแบบกำหนดเอง ซึ่งจะค้นหาข้อความคัดลอกเนื้อหาที่ปรากฏในหน้ารหัสสถานะ 404 และหน้ารหัสสถานะ 200 หน้าใดๆ ที่มีข้อความนั้นควรเป็นแบบ soft 404
วิธีการแก้:
หากคุณพบหน้า soft 404 บนเว็บไซต์ของคุณ มีวิธีแก้ไขปัญหาสองสามวิธีที่สามารถนำมาใช้ได้ ซึ่งรวมถึง:
301 เปลี่ยนเส้นทางซอฟต์ 404 เพจไปยังหน้าทางเลือกที่เหมาะสม หากมี
เปลี่ยนรหัสสถานะของหน้าเหล่านี้เป็นรหัสสถานะ 404 หรือ 410 แต่ตรวจสอบว่าส่วนของลิงก์จะไม่สูญหาย
หากคุณกำลังประสบปัญหากับเว็บไซต์ของคุณหรือต้องการการตรวจสอบ SEO ทางเทคนิค โปรดไปที่หน้าบริการ SEO ด้านเทคนิคของเราเพื่อดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่ Semetrical สามารถช่วยได้
