ทีมงาน BT ได้มีโอกาสอัปเดตเรื่อง SEO ล่าสุดจาก Google ในงาน Search Central Live Bangkok เมื่อวันที่ 9 สิงหาคม 2024 ที่คนทำเว็บทุกคนควรรู้ จึงสรุปมาให้อ่านกัน

เว็บที่กูเกิ้ลชอบ

  1. สร้างเนื้อหาโดยโฟกัสกับมนุษย์
  2. เนื้อหาในเว็บแสดงถึงความเชี่ยวชาญ มีความน่าเชื่อถือ
  3. เนื้อหาและคุณภาพเว็บ เนื้อหาที่เขียนเป็นออริจินัล หรือมีคุณค่ามากกว่าเว็บในกลุ่มเดียวกันไหม
  4. การนำเสนอและโปรดักชัน เช่น ไม่มีโฆษณาในเว็บมารบกวน, หรือเนื้อหาทำมาเพื่อเว็บเดียว ไม่ใช่ทำเนื้อหาเดียวแล้วไปลงหลาย ๆ ที่
  5. สรุปคือพยายามหลีกเลี่ยงเนื้อหาที่สร้างเพื่อ Google โดยเฉพาะ ให้เน้นสร้างเนื้อหาเพื่อมนุษย์

ช่วงแก้ความเข้าใจผิด

วิทยากรทั้ง 4
  • – Google ชอบ subdomain (เช่น buzz.bt.th) มากกว่า sub-directory (เช่น bt.th/buzz) จริงไหม
    • ตอบ: ไม่ได้ชอบแบบไหนเป็นพิเศษ ทำแบบไหนก็ได้ที่เหมาะสม
  • ซื้อ backlink ในเว็บอื่น ๆ ไม่ได้ทำให้อันดับใน Google ดีขึ้น อย่างเว็บ Porsche ของนอร์เวย์ ไม่มีลิงก์เลย แต่ก็ได้อันดับดีมาก
  • ลิงก์คุณภาพต่ำยิงเข้ามาเว็บเรา ไม่เกี่ยวกับอันดับของเราเลย อย่ากังวล
  • เนื้อหาจาก AI ก็อาจจะได้อันดับดีใน google ได้ ขึ้นอยู่กับคุณภาพของงาน
  • Google ไม่มีข้อจำกัดเรื่องความยาวเนื้อหา ว่าเขียนยาวไปอันดับจะตก ดูที่คุณภาพเป็นหลัก
  • อีกเรื่องที่ไม่จริงคือ ซื้อโดเมนเก่าที่มีอายุแล้วหมดอายุแล้ว จะได้ Rank ที่ดี คือเมื่อโดเมนหมดอายุ Google จะพยายามลบ Signal เดิมออก เพราะงั้นก็จะเหมือนโดเมนใหม่ Page Rank ใหม่
  • โดเมนใหม่ก็สามารถแข่งอันดับกับโดเมนเก่าได้เหมือนกัน เช่น ทำรูปให้ดี ไปติดอันดับในการค้นหารูป ได้ยอดเข้าเว็บเยอะ ก็ทำได้เหมือนกัน
  • Schema ไม่มีผลต่อ Rank แต่มีผลกับพื้นที่ในหน้าค้นหาที่อาจจะใหญ่ขึ้น
  • เปรียบเทียบความสำเร็จหลังปรับเว็บ ให้ดูข้อมูลเป็นรายสัปดาห์ เทียบกับสัปดาห์ก่อนหน้านั้น แล้วก็เทียบกับช่วงเดียวกันของเดือนที่แล้ว แล้วดูว่า keyword เปลี่ยนแปลงไปไหม
  • Google ไม่ได้ให้ความสำคัญกับชื่อ URL เท่าเมื่อก่อนแล้ว เพราะตอนนี้สามารถวิเคราะห์เนื้อหาในหน้าได้แล้ว เพราะฉะนั้นจะตั้ง URL เป็นภาษาไทยหรืออังกฤษก็ได้
  • ทำยังไงให้ติด SGE (Google Search Generative Experience) ตอบ ตอนนี้ยังไม่มีเอกสารอย่างเป็นทางการออกมา แต่ให้คิดเหมือน Snippet หรือข้อมูลแนะนำที่ Google แสดงเวลาค้นหา ถ้าติดใน Snippet ได้ SGE ก็คล้าย ๆ กัน
  • เรื่องคุณภาพของเนื้อหาที่สร้างด้วย AI ก็เป็นประเด็นที่ Google ให้ความสำคัญ เราอาจไม่รู้ว่าเนื้อหาที่ดูโครงสร้างดีนี้สร้างด้วย AI แล้วข้อมูลมันผิด เราเลยให้ความสำคัญกับการจัดเว็บที่อยู่ในหมวดข่าวมาก เพราะชื่อของเว็บจะเป็นตัวการันตีเนื้อหาได้
  • ตอนนี้ Google Crawer ดึงเนื้อหาในรูปแบบมือถือ การกำหนดเว็บให้แสดงบนมือถือให้ถูกต้องจึงเป็นเรื่องสำคัญ
  • Google มองความเชี่ยวชาญของเว็บเป็นน้ำหนักในการให้อันดับเว็บ เช่น เป็นเว็บข่าว แล้วไปทำอย่างอื่นที่อาจจะไม่เกี่ยว ก็อาจถูกลดน้ำหนัก สิ่งที่ต้องคิดคือทำให้คนรู้ว่าเป็นเนื้อหาแยกกัน Google ไม่ได้ตอบว่าในทางเทคนิคจะเป็นการแยกด้วย Sub domain หรือ Sub Directory หรือยังไง แต่ให้คิดจากความรู้สึกของผู้ใช้ว่าเข้าใจไหมว่าเป็นเนื้อหาแยกกัน

ตำรา SEO ภาษาไทยจากกูเกิ้ล ดีมาก ทุกคนควรอ่าน developers.google.com/search/docs?hl=th

เรื่อง Index หน้าเว็บ

  • การทำงานของการค้นหาของ Google มี 3 กระบวนการคือ
    • 1. Crawling
    • 2. Indexing
    • 3. Serving
  • เมื่อ Google รู้ว่ามีเว็บอะไร ก็จะตามลิงก์ไปเก็บเรื่อย ๆ
  • Crawler คือ Googlebot ซึ่งจะตัดสินใจด้วยตัวเองว่าควรจะดึงข้อมูลบ่อย ดึงเยอะแค่ไหน ความเร็วของเว็บก็มีส่วน คุณภาพเนื้อหาก็มีส่วน ถ้าเซิร์ฟเวอร์มีปัญหาก็จะเข้าน้อยลง
  • แต่การเข้ามาตรวจบ่อย ไม่ได้แปลว่าอันดับใน Google จะสูงขึ้น
  • ถ้าใครไม่อยากให้เนื้อหาหลุดไป ก็ใช้ robot.txt เพื่อป้องกันบอต Google มาส่องได้
  • index ของ Google ใหญ่มาก ใหญ่แบบพิมพ์แล้วไปกลับดวงจันทร์ได้ 12 รอบ
  • มี keyword แค่ไหนถึงจะดี -> การมี keyword ในหน้าเยอะแล้วดีเป็นความรู้เก่า เอาที่ใช้ปกติ คนอ่านแล้วไม่หงุดหงิด
  • Meta Keyword สำคัญไหม -> Google ไม่เคยใช้ Meta Keyword
  • Google เข้าใจรูปภาพแบบทั่ว ๆ ไป คือ AI พิจารณาองค์ประกอบภาพเองได้ เช่น ภาพผู้ชายหน้าบ้าน แต่ถ้าจะเจาะจงกว่านั้น เช่น ผู้ชายชื่ออะไร ก็ต้องใส่คำบรรยายรูป หรือใส่ Alt Attribute เพื่อบอกว่ารูปอะไร
  • หลังจาก Crawling แล้วก็จะมาจัดกลุ่ม URL ที่ไปหน้าที่มีเนื้อหาซ้ำ Canonical คือตัวแทนกลุ่ม สำหรับหน้าซ้ำ แล้วเก็บเป็นกลุ่ม
เรื่องของ Canonical
  • หลังจากเก็บข้อมูลแล้วจะเข้าสู่ Index Selection เพื่อดูว่าควรอยู่ใน Index เพื่อให้ค้นเจอไหม อย่างหน้าที่จัดเป็น Canonical จะไม่ถูกค้นเจอ เจอแค่หน้าต้นฉบับ
  • แล้วถ้าเจอ Discovered – not indexed (คือเจอหน้าแล้ว แต่ Google ไม่ได้ index ไว้) ใน Search Console แล้วจะทำยังไงได้บ้าง ส่วนใหญ่เป็นปัญหาเรื่องคุณภาพหน้า คือหน้านั้นไม่มีคุณภาพดีพอที่จะเก็บหรือนำเสนอผู้ใช้ ก็ต้องแก้ปัญหาคุณภาพหน้า
  • หลังจาก Index แล้วคือ Serving หรือการส่งข้อมูลให้ผู้ใช้ค้นหา
  • ถ้าเป็นภาษาไทยจะแบ่งส่วนคำ เพราะคำไทยไม่มีการเว้นวรรค ส่วนถ้าเป็นภาษาอังกฤษจะตัดคำ stopword ออก เช่น of, the แต่ถ้าเป็นคำเฉพาะเช่น the lord of the ring จะเข้าใจว่าเป็นคำเฉพาะ ไม่ได้ตัด
  • มาถึงตรงนี้ Google ย้ำมากเรื่องคุณภาพของเนื้อหา หลายรอบ

คุณภาพของเนื้อหา

  • สิ่งที่ขัดใจผู้ใช้ที่สุดคือ Spam กูเกิ้ลคือพยายามตัดเรื่องนี้ออกจากผลการค้นหา
Content Spam มีแบบไหนบ้าง
  • Cloaking คือซ่อนเนื้อหาสแปมไว้
  • Doorways ทำเนื้อหาที่หลากหลาย เพื่อกลบเนื้อหาสแปม
  • Scraped content ไปดูดเนื้อหาเว็บอื่นมา ซึ่งนับเป็นสแปมเพราะไม่ได้สร้างเนื้อหาใหม่
  • Link SPAM ตรงตัว คือลิงก์หาสแปม
  • Hacked Content คือโดนแฮก ซึ่งถ้าเจอ Google ก็จะตัดออกจาก index

Core Update มาทีไรเสียวทุกที

  • Google โฟกัสเรื่อง Helpfulness หรือความเป็นประโยชน์กับคน ให้น้ำหนักกับเรื่องนี้ในการจัด Ranking เว็บ จึงเป็น Core Update ที่มาให้คนทำเว็บตื่นเต้นกันอยู่ตลอด
  • เพราะ Google พยายามพัฒนาระบบตรวจสอบคุณภาพเนื้อหาให้ดีขึ้นเรื่อย ๆ โดยไม่มีใครได้สิทธิ์พิเศษในผลค้นหา
  • เมื่อปรับแล้วก็จะมานั่งรีวิวว่าคุณภาพเป็นยังไง (Search Quality Rater Guidelines)

ถ้า Google อัปเดตแล้ว อันดับแย่ลงทำยังไง

ถ้ายอดเว็บตก ตกใจแล้วต้องตั้งสติ
  • ต้องดูก่อนว่าเราโดนอัปเดตรอบไหนไปทำให้อันดับตกลง
  • รอบ Spam update การปรับการตรวจสแปม ถ้าโดนจัดเป็นสแปมในการอัปเดตใหม่ อันดับก็ต่ำลง
  • รอบ Core update อัปเดตการตรวจคุณภาพเนื้อหา อัปเรื่อย ๆ โดยไม่โฟกัสที่เว็บไหนเป็นหลัก
  • ใช้ส่วนเสริม GSC-guardian ใน Chrome ช่วยตีกรอบใน Google Search Console ได้ว่าช่วงไหนของกราฟ สอดคล้องกับการอัปเดตการค้นหาอะไรได้บ้าง
  • สรุปคือ ถ้าอันดับลด ลองค้นคำที่เคยได้ดี แล้วดูเว็บที่อันดับกลายเป็นสูงกว่าเรา ดูว่าเค้าทำยังไง (Google ยอมบอกแค่นี้)
  • เวลาค้นให้เลือก Term ให้ถูกด้วย เช่น Alphabet เป็นบริษัทหรือตัวอักษร
  • ถ้าค้นคำใน Google Trends แล้วไม่มีกราฟขึ้น กราฟตกเป็นศูนย์ ก็อย่าใช้คำนี้ คนสนใจน้อย
  • การควบคุมการค้นหาใน Google Trends คือ” ” ใช้เพื่อเจาะจงคำ, – ใช้ลบคำออก, + คือ OR
  • Google Trends สามารถค้น keyword เทียบกับเวลาในอดีตได้ โดยใส่ filter ปีลงไป ใส่เป็นประเทศก็ได้ จะได้หาแนวโน้มได้ว่าช่วงนี้ของแต่ละปี keyword นี้จะกลับมาไหม
  • นอกจากนี้ยังสามารถเปลี่ยนจาก Web Search เป็น YouTube search เพื่อดูเทรนด์ค้นหาของ YouTube ใน Trends ก็ได้
  • Knowledge Panel (เช่น กล่องเวลาค้นหาที่บอกว่าคนที่เราค้นหาเป็นใคร) ถ้าเป็นเจ้าของเรื่องนั้นจริง ๆ ก็ใช้บัญชีส่วนตัวอ้างสิทธิ์และแก้ไขข้อมูลได้
  • ถ้าเป็นธุรกิจก็ใช้ Google Business Profile เพิ่มพวกสถานที่ให้ค้นเจอใน Google Maps และใส่เว็บหรือข้อมูลอื่น ๆ ได้ ซึ่งถ้าข้อมูลครบถ้วนจะได้ความน่าเชื่อถือมากจากผู้ใช้
  • Structured Data ทำให้ Google เข้าใจเนื้อหามากขึ้น เช่น Product Snippet ถ้าทำ Structured Data ลงเว็บ Google จะนำไปแสดงในผลการค้นหาได้สวยขึ้น ดูเด่นขึ้น
  • อย่าง Structured Data แบบ NewsArticle ทำให้ Google เข้าใจว่าเป็นข่าวมากขึ้น
  • Search Console สามารถดูเรื่อง Rich snippet ได้แล้ว ปรับเว็บแล้ว Google ดูดข้อมูล Rich snippet ไหม ก็ดูได้

Google กับวิดีโอ

  • Google กำลังต้องการวิดีโอคุณภาพสูง และตรงกับความต้องการของผู้ใช้
  • สามารถใช้ตัวแปร Site: เพื่อเจาะเฉพาะเว็บเรา และดูที่แท็บ Video ใน Google เพื่อดูว่า index วิดีโอไปเท่าไหร่
  • ฟีเจอร์ใหม่คือต่อไปจะสามารถค้นหาเฉพาะจุด ๆ หนึ่งในวิดีโอได้แล้ว
  • Google ชอบเพจที่เป็นวิดีโอโดยเฉพาะ ไม่ต้องรวมเนื้อหาหลาย ๆ อย่างในหน้าวิดีโอ หน้าวิดีโอคือมีแต่วิดีโอที่เด่น แล้วก็ประกอบเนื้อหาของวิดีโอนั้นก็พอ
  • แล้วถ้าเป็นวิดีโอจากเพจที่เสียเงิน ก็สามารถเขียนข้อมูลให้ Google เข้าถึงวิดีโอได้ เพื่อเอาไปทำดัชนี คนจะได้หาเจอ แล้วพอกดเข้ามาจะเจอหน้าเก็บเงินของเว็บก็ได้
  • ใน Search Console มีรายงาน Video Indexing ให้ดูด้วย

เว็บที่มีหลายภาษา

การให้น้ำหนักการจัดว่าเว็บจะอยู่ประเทศไทย
  • หน้าเว็บต่างภาษา Google แนะนำควรจะใช้ URL ที่ต่างกันไปเลย
  • ใช้ฟังก์ชัน hreflang ในโค้ดเว็บ เพื่อบอก Google ว่าเป็นหน้าเดียวกัน แต่ต่างภาษา และต้องติดในทุกหน้าที่ต่างภาษากัน เพื่อยืนยันว่าเราเป็นเจ้าของทั้งหมด
  • หรือใส่ใน sitemaps ก็ได้ เหลือทางใดทางหนึ่ง
  • Google จะตัดสินใจให้หน้านั้นเป็นภาษาใดภาษาหนึ่งเท่านั้น Google ไม่มีการบอกว่าหน้านั้นเป็น 2 ภาษา เพราะงั้นควรแยกหน้ากัน ไม่ควรรวมหลายภาษาในหน้าเดียว

เว็บที่ Target เฉพาะประเทศ

สรุปการจัดประเทศ
  • คิดจาก ccTLD (Country Code Top-level Domain) เช่น .th .jp เป็นหลัก แล้วก็ข้อมูล hreflang เป็นตัวรอง
  • ซึ่ง Bot ของ Google ไม่ได้ทดลองเป็นชาติต่าง ๆ เวลาเข้าไป เช่น ถ้าบล็อกทราฟฟิกจากอเมริกา Bot อาจจะเข้าไม่ได้
  • เพราะฉะนั้นการซื้อ ccTLD สำหรับเว็บในประเทศต่าง ๆ จะเป็นสิ่งที่ Google ตรวจง่ายที่สุด แต่ถ้าทำไม่ได้ ก็ต้องเปลี่ยนไปทาง SubDomain หรือ SubDirectory แทน
  • Google เข้าใจโดเมนภาษาไทย
  • แต่ Google ไม่เข้าใจภาษาคาราโอเกะ เพราะไม่มีมาตรฐาน และคนใช้น้อย

ว่าด้วย AI

ML ที่ Google
  • ML อยู่ใต้ AI โดย ML คือระบบที่เรียนรู้จากข้อมูลจำนวนมาก
  • LLM ก็อยู่ใต้ AI อีกที
  • โดย Google ใช้ ML มานานกว่า 20 ปีแล้ว เช่น ใช้ตรวจสอบ spam และใช้ทำความเข้าใจเว็บและเนื้อหาต่าง ๆ
  • LLM คืออัลกอริทึม AI แบบหนึ่ง ใช้เทคนิคการเรียนรู้เชิงลึกจากชุดข้อมูลขนาดใหญ่ เพื่อทำความเข้าใจ สรุป สร้าง และคาดการณ์เนื้อหาใหม่
  • AI Overview ไม่ไช่ตัวเดียวกับ Gemini แต่ใช้ของตัวเองเลย โดยประมวลผลจากข้อมูลที่มีในเว็บ เลยไม่ค่อยมีปัญหาหลอน
  • AI Overview ทำงานพวกสร้าง snippet สรุปข้อมูลในเว็บ ซึ่งก็สร้างคลิกได้มากขึ้นด้วย
  • พูดถึง Gemini หน่อย ซึ่งมันอาจให้ข้อมูลผิดได้ เลยต้องใช้คนเข้ามาช่วยจูนข้อมูลที่ได้ แต่สุดท้ายก็ต้องเช็กข้อมูลที่ได้อีกที