ระบบค้นหา Google Search ใช้สัญญาณหลายอย่างมาประมวลผลร่วมกันเพื่อจัดอันดับเว็บ เช่น คำค้น, ความใหม่ของเนื้อหา, พื้นที่ของผู้คนหา, จำนวนลิงก์ (ที่เราเรียกกัน PageRank)
สัญญาณประเภทหนึ่งที่กูเกิลนำมาใช้ตั้งแต่ปี 2012 คือตัวคัดกรองสแปมผลการค้นหาชื่อ "Penguin" ที่ออกแบบมาจัดการกับพวกเว็บฟาร์มที่สร้างมาปั่นผลการค้นหาโดยเฉพาะ เดิมทีอัลกอริทึม Penguin จะปรับปรุงคะแนนของเว็บเป็นช่วงๆ แล้วค่อยนำคะแนนมาประมวลผลร่วมกับอัลกอริทึมหลัก (เว็บที่เคยถูกมองว่าเป็นสแปม ต้องใช้เวลานานมากกว่าจะหลุดอันดับใน Penguin)
แต่ในยุคนี้ การอัพเดตตามช่วงเวลาเริ่มไม่ตอบโจทย์อีกแล้ว อัพเดตล่าสุดของ Penguin จึงเปลี่ยนมาเป็นการอัพเดตข้อมูลแบบเรียลไทม์ และทำงานละเอียดมากขึ้น จากเดิมที่คิดคะแนนทั้งเว็บว่าเป็นสแปมหรือไม่ ก็เปลี่ยนมาเป็นการแยกคะแนนสแปมตามเพจด้วย
การเปลี่ยนแปลงครั้งนี้ทำให้ Penguin ที่เคยทำงานแยกจากอัลกอริทึมหลักมาโดยตลอด และทยอยประกาศอัพเดตเป็นระยะๆ ก็จะไม่มีการอัพเดตใหญ่แยกต่างหากอีกแล้ว เพราะ Penguin จะอัพเดตตลอดเวลา เพราะเป็นส่วนหนึ่งของอัลกอริทึมหลักไปแล้ว
ที่มา - Inside Search, Search Engine Land, ภาพโดย Giuseppe Zibordi จาก Wikipedia
Comments
อีกแล้วหรือ ...