เรารู้กันดีว่าระบบดัชนีค้นหา (search index) เก็บข้อมูลเว็บเพจจากทั่วทั้งอินเทอร์เน็ต ข้อมูลทั้งหมดมีปริมาณมหาศาล แต่ถ้าถามว่ามันใหญ่สักแค่ไหน การประเมินอาจทำได้ยาก
กูเกิลเคยประกาศข้อมูลนี้ไว้ในหน้า How Search Works เมื่อปี 2013 ว่าเก็บข้อมูลเว็บเพจไว้ 30 ล้านล้านเพจ (30 trillion)
เวลาผ่านมา 3 ปีกว่า กูเกิลอัพเดตข้อมูลหน้า How Search Works ใหม่ จำนวนเว็บเพจเพิ่มขึ้นอีก 100 ล้านล้านเพจ รวมเป็น 130 ล้านล้านเพจ (130 trillion) แล้ว
ที่มา - Search Engine Land
Comments
ผมขอตอบว่าอเมริกาได้เปรียบมากกว่าครับ เพราะผมสังเกตจากการที่จีนพยายามดันมือถือแบรนด์ประเทศตัวเอง search engine + ตลาดออนไลน์ของประเทศตัวเอง และสร้าง the Great Firewall บล็อกเซอร์วิสของต่างประเทศ ถ้าการที่อเมริกามาลงทุนในจีนแล้วจีนรวยผมว่าจีนคงไม่ดิ้นขนาดนี้ แต่จีนก็ยังคงอยากให้มาลงทุนกันเยอะๆอยู่นะอาจจะเพราะหวังเทคโนโลยีอะไรแบบนี้รึเปล่า
เหลือเชื่อจริงๆว่าเค้าจัดการข้อมูลปริมาณมหาศาลนี้ได้ยังไง
..: เรื่อยไป
Big Data + Data Mining + Machine learning
เพราะแบบนี้ถึงสามารถจัดสรรค์ข้อมูลได้ตามใจชอบด้วยซินะ
reindex หนึ่งครั้งนี่...ใช้เวลา /resource ขนาดไหนกัน นึกภาพไม่ออกเลย
อยากรู้ว่าระบบของ NSA เทียบกับของ Google นี้เป็นอย่างไรบ้าง
ปล.ในหนัง snowden ระบบของ NSA ดูอลังการอย่างไม่น่าเชื่อ