ไม่มีใครรู้ว่ากูเกิลมีเซิร์ฟเวอร์ทั้งหมดกี่ตัว รายละเอียดเกือบทั้งหมดของ IDC ของกูเกิลเป็นความลับ แต่ในงานสัมมนาด้านระบบคอมพิวเตอร์ขนาดใหญ่ที่จัดโดย ACM วิศวกรของกูเกิล Jeff Dean ได้กล่าวถึง "Spanner" ซอฟต์แวร์สำหรับกระจายงานคำนวณและเก็บข้อมูลที่กูเกิลกำลังพัฒนาอยู่ จุดเด่นคือมันสามารถทำงานข้าม IDC ได้ด้วย
สิ่งที่น่าสนใจคือ Jeff Dean เล่าว่า Spanner ออกแบบมาสำหรับคอมพิวเตอร์จำนวน 1-10 ล้านเครื่อง และเป้าหมายสูงสุดของกูเกิลคือระบบคอมพิวเตอร์ที่กระจายตัวอยู่ทั่วโลกเพื่อลดเวลาและค่าใช้จ่ายในการส่งข้อมูล โดยที่มันสามารถจัดการตัวเองได้อย่างอัตโนมัติ
ที่มา - Data Center Knowledge
Comments
ฟังๆ ดูเหมือน skynet เลย ;P
พระเจ้าช่วยกล้วยทอด
เทียบเท่าคนไทยที่ใช้เน็ททั้งประเทศ 2-3 คน ต่อเซิร์ฟเวอร์ของกูเกิล 1 เครื่องเลยนะนั่น
อืม.. สงสัยว่าระหว่างแยกกันอยู่ กับรวมๆ กัน จะใช้พลังงานเท่ากันหรือเปล่า
ฮิตเลอร์ โนโปเลียน อเล็กซานเดอร์ เคยคิดที่จะครองโลก แต่ไม่สำเร็จ
ตอนนี้คงเป็นเวลาของกูเกิล ที่จะครองโลกมั้งละ
บางทีเคล็ดลับของ search engine google อาจจะไม่มีอะไรเลยก็ได้นะ แค่อัด server เข้าไปเยอะแบบที่คนอื่นนึกไ่ม่ถึง
ถ้าเป็นแบบนั้น Microsoft คงทำไปก่อนแล้วล่ะครับ
-- ^_^ --
ของไมโครซอฟท์ก็ไม่น้อยครับ แต่อาจจะไม่ได้ทำเครื่องเองแบบกูเกิลเลยไม่เป็นข่าว
lewcpe.com, @wasonliw
ไมโครซอฟต์มีเซิร์ฟเวอร์เยอะมาก และไม่ทราบจำนวนที่แน่ชัดเช่นกัน เท่าที่ผมได้ยินข่าวลือ แว่วมาว่าส่วนใหญ่เป็นของเดลล์ครับ และไมโครซอฟต์กำลังสร้างศูนย์ข้อมูลขนาดยักษ์แบบไม่มีหลังคา ทำเป็นไร่เซิร์ฟเวอร์ ตามรายงานที่ผมเคยเขียนไป และไมโครซอฟต์ลงทุนกับ cloud computing ถึง 8 พันล้านเหรียญ ผมหาข่าวต้ันฉบับไม่เจอ แต่อ่านคร่าวๆได้ที่ betanews ครับ
ป.ล. ลืมอีกเรื่องไปเลยว่า ในหนังสือ Big Switch กล่าวว่า ที่ไมโครซอฟต์หันมาลงทุนกับการสร้างศูนย์ข้อมูล ก็เพราะศูนย์ข้อมูลขนาดยักษ์ยังกับไซโลของกูเกิลนี่แหละครับ
My Blog
เพราะ MS นึกไม่ถึงไงครับ
ใช้คำว่า นึกไม่ถึง อาจจะดูง่ายไป ความหมายคือ เค้าคง research มาแล้วว่าเพิ่มคอมเข้าไปมันจะ effective มั้ย คุ้มค่าการลงทุนหรือเปล่า คำตอบคือไม่เลยไม่ทำ แต่พอ Google ทำจริงๆแล้วมันดันเป็นวิธีที่ effective ที่สุด ในความหมายผม ตัว engine ของ Google อาจจะไม่ได้ดีไปว่า bing yahoo เลย แค่ google มีคอมมา process เยอะกว่าแค่นั้นเอง
ไม่มีอะไรพิสดารเลยครับ ยัดเซิร์ฟเวอร์เยอะๆ แบบที่คุณว่า แต่เคล็ดลับคือทำยังไงให้บริหารจัดการได้ง่าย และค่าใช้จ่ายต่ำพอที่จะคุ้มทุน ซึ่งต้องใช้เทคนิคทางวิศวกรรมจำนวนมาก
ตามที่คุณ mk ตอบครับ การซื้อเซิร์ฟเวอร์จำนวนมหาศาลไม่ใช่เรื่องยากถ้ามีเงินเยอะ แต่การจะซื้อให้คุ้มค่า หรือที่เรียกว่า optimal solution ของการลงทุนเป็นงานที่ท้าทายมาก เพราะมีข้อจำกัดหรือเงื่อนไขสำหรับควบคุมการตัดสินใจ (constraint) และความไม่แน่นอน (uncertainty) เยอะมากๆ เท่าที่เคยวิจัยมา ศูนย์ข้อมูลเล็กๆที่มีเซิร์ฟเวอร์เพียงหลักร้อยก็ยังมีทั้งข้อจำกัดและความไม่แน่นอนรวมกันแล้วเป็นแสนหน่วย
ถัดจากการลงทุนจัดซื้อเซิร์ฟเวอรให้ได้ optimal solution แล้ว ยังต้องมาจัดการบริหารกับการดำเนินการ (operation) และการบำรุงดูแลรักษามากมาย เพราะศูนย์ข้อมูลไม่ใช่ขนาดย่อมๆแล้ว หากแต่มีเซิร์ฟเวอร์เป็นหลักแสนหลักล้านเครื่อง ดังนั้น อุปกรณ์ทำความเย็นและค่าไฟ รวมถึงภาษี จึงเป็นต้นทุนที่มหาศาลมากกว่าราคาเซิร์ฟเวอร์ด้วยซ้ำ ดังนั้น กูเกิลจึงต้องมีวิธีการหลายๆอย่างมาลดทุนตรงนี้ อย่างที่กูเกิลสรุปไว้ที่ Going Green at Google
นอกจากนี้ ยังมีเรื่องของการกระจายการประมวลผลและกระจายข้อมูลไปให้เซิร์ฟเวอร์ ซึ่งต้องใช้อัลกอริธึมที่มีประสิทธิภาพมาใช้ในการกระจาย เพื่อใช้เซิร์ฟเวอร์จำนวนมหาศาลเหล่านี้ให้คุ้มค่าที่สุดครับ
My Blog
ใกล้จะถึงเวลาที่กูเกิลจะครองโลกแล้วสินะ หึหึหึ
เค้าไม่ได้บอกว่าเป็นจำนวนเซิฟเวอร์ว่าเท่าไหร่นี่ครับ แต่คิดว่าคงเยอะจนน่าตกใจเลยล่ะ
เขียนไวรัส skynet ลงไปที
g-force
เอา usb drive ไปเสียบก็พังดิ - -"
อาจมีสักเครื่องที่ตั้งอยู่ข้างๆ บ้านคุณ
google บริษัทเดียว แต่มีจำนวนคอมพิวเตอร์เกินครึ่งหนึ่งของประเทศไทย?
(เคยอ่านเจอว่าประเทศไทยมีคอมพิวเตอร์ประมาณ 16 ล้านเครื่อง)
มันจะเหมือนในหนังคนเหล็กรึป่าวเนี้ย
skynet บุกโลก // google บุกโลก
น่ากลัวๆ ถ้ายิ่งมันทำงานอัตโนมัติเองด้วยนะ - -"