อเมซอนได้เปิดตัวคอมพิวเตอร์เสมือนหรือ instance type ชนิดใหม่ชื่อ cluster compute เพื่อรองรับการประมวลผลสมรรถนะสูงโดยเฉพาะ และเหมาะต่อการติดตั้งคลัสเตอร์ ทั้งนี้ คอมพิวเตอร์เสมือนหนึ่งเครื่องของ cluster compute มีสมรรถนะเทียบเท่า Intel Nehalem ทั้งหมด 8 คอร์ มาพร้อมกับหน่วยความจำ 23 กิกะไบต์ พื้นที่จัดเก็บข้อมูล 1,690 กิกะไบต์ และติดตั้ง 10 Gigabit Ethernet โดยคิดค่าบริการที่ 1.60 เหรียญต่อชั่วโมง
อเมซอนได้วัดสมรรถนะการประมวลผลของ cluster compute ที่เชื่อมเป็นระบบเดียวกันจำนวน 880 เครื่อง แล้วได้ 41.82 เทราฟลอป ซึ่งเทียบเคียงกับซูเปอร์คอมพิวเตอร์อันดับที่ 146 ใน TOP500 และเมื่อเราพิจารณา cluster compute เพียงหนึ่งเครื่อง จะพบว่าเร็วถึง 47.52 กิกะฟลอปเลยทีเดียว
ที่มา - Amazon Web Services Blog
Comments
น่าเช่ามาพิมพ์เวิร์ด! >_<
my blog
เอามารัน notepad ดีกว่าครับ
880 เครื่องถ้ามากกว่านี้ก็ยังไปได้ไกลอีกใช่ป่าวครับพี่บูม ถ้าเพิ่มจำนวน node เข้าไปอีก
คิดเล่นๆนะครับ ผิดก็แนะนำด้วย
- อันดับ 1 = 1759 teraFLOPS
- 880 เครื่อง = 41.82 teraFLOPS
- ต่างกับอันดับ 1 อยู่ 1759/41.82 = 42 เท่า โดยประมาณ
- 880*42 = 36960 instance ถึงจะได้เท่าอันดับ 1 โอ้ววว!!!
แล้วถ้าเอาทั้ง 36960 ไปรัน 1 ชม ต้องเสียเงินถึง = 59136$
มันจะมีปัญหาอะไรหรือป่าวครับพี่บูมถ้าเพิ่ม node เข้าไปอีกเยอะๆ
ถ้าคำนวณแบบคร่าวๆ ก็ถือว่าน้องคิดออกมาไม่ผิดอันใดครับ แต่ถ้าจะเอาตัวเลขกันจริงๆคงต้องใช้ซอฟต์แวร์ linpack ไปวัดครับ (เอาธูปเทียบดอกไม้ไปด้วยนะ)
คำถามที่ว่าจะมีปัญหาอะไรหรือไม่? คงตอบได้เลยว่า ในทางวิศวะ ขอใช้คำว่า มันท้าทายแทนคำว่าปัญหาแล้วกัน เนื่องจากระบบใดๆที่มีขนาดใหญ่มากๆ การดูแลจัดการคงไม่ใช่เรื่องง่ายแน่นอน และการจะพัฒนาซอฟต์แวร์ให้ใช้พลังระบบคลัสเตอร์ขนาดใหญ่ให้มีประสิทธิภาพสูง ยิ่งเป็นงานท้าทายมากกว่าครับ
อีกเรื่องคือ การลงทุนด้วยเงิน 59,136 เหรียญต่อชั่วโมงคุ้มค่ากว่าการซื้อซูเปอร์คอมแบบติดตั้งแบบถาวรหรือไม่นั้น เราต้องพิจารณากันที่แอพพลิเคชันหรือความต้องการของผู้ใช้ระบบว่า มันคุ้มค่ามากเพียงใด ในเชิงเศรษฐศาสตร์เขามีเครื่องมือชื่อ cost benefit analysis สำหรับวิเคราะห์เรื่องดังกล่าว มีผลงานที่เกี่ยวข้องแนะนำให้อ่านชื่อ
Cost-Benefit Analysis of Cloud Computing versus Desktop Grids (กูเกิลดูครับมีเป็น pdf ให้อ่าน)
ความท้าทายอีกเรื่องที่นึกได้คือ อเมซอนลำบากแน่ครับถ้ามีลูกค้าเช่าจำนวนคอมพิวเตอร์เยอะแยะขนาดนั้น
My Blog
เอาไว้เช่าทำอะไร
ถ้าตอบแบบง่ายๆก็คือ เหมาะสำหรับแอพพลิเคชันหรืองานที่ต้องการสมรรถนะสูง คำว่า 'สมรรถนะสูง' เนี่ยนิยามให้ชัดๆก็ยากสำหรับผมอยู่ครับ แต่ถ้าตอบคร่าวๆคือ งานอะไรก็ตามที่เราต้องการระยะเวลาในการประมวลผลที่สั้นลง หรือพูดอีกอย่างคือ ประมวลผลได้เร็วขึ้น ตัวอย่างแอพพลิเคชัน ได้แก่ งานวิเคราะห์จัดการข้อมูลขนาดใหญ่ (เช่น วิเคราะห์หุ้น) งานพวก simulation (เช่น Monte Carlo) และส่วนใหญ่แล้วจะเป็นงานทางด้านวิทยาศาสตร์และวิศวกรรม
เราจะเห็นได้ว่า แอพพลิเคชันทางธุรกิจส่วนใหญ่จะเป็น transaction หรือเป็นรายการที่นับได้เป็นชิ้นเป็นอัน โดยแต่ละชิ้นมีเวลาในการคำนวณไม่มากนัก ถึงแม้จะมากก็เป็นเวลาที่ประมาณได้ และมีขอบเขตของเวลาที่ยอมรับได้ และ transaction มีลักษณะแบบซ้ำซาก (routine) และมีความไม่แน่นอนของจำนวนรายการด้วย บางครั้งมีรายการมาก บางครั้งรายการน้อย ลักษณะงานเช่นนี้ ได้แก่ web application รวมไปถึงงานที่เกี่ยวกับ database transaction ต่างๆ เป็นต้น งานประเภทนี้ไม่เหมาะกับ cluster compute การใช้ instance type ชนิดอื่น เช่น standard เป็นต้น น่าจะเหมาะสมกว่า และยังสามารถเพิ่มจำนวนของคอมพิวเตอร์เสมือน (เรียกว่า scale-out) และทำเป็นคลัสเตอร์ในราคาที่ถูกกว่าได้
ทั้งนี้ อเมซอนกล่าวถึงตัวอย่างแอพพลิเคชันที่เหมาะกับ cluster compute อยู่ครับ ลองอ่านได้ที่ Amazon
My Blog
ขอบคุณสำหรับ paper และความคิดเห็นครับพี่บูม
มีใครได้ซือมาลองยังเนี่ย มันใช้ Rocks+ หรือเปลาน่ะ? (ดจาก http://insidehpc.com/2010/07/13/amazon-ec2-cluster-workload-management/)
CPU แรงสุดของ Intel Xeon X5460 ประมาณ 50GFLOPs รัน John แกะ LanMan ได้ประมาณ 15 ล้านรหัสต่อวินาที
ถ้าตั้งรหัสแบบเลข+ตัวเล็ก+ตัวใหญ่
6 ตัว 64 นาที
7 ตัว 66 ชั่วโมง
8 ตัว 6 เดือน
แต่ถ้าสมมติมี 880 เครื่อง
6 ตัว 4 วินาที
7 ตัว 4.5 ชั่วโมง
8 ตัว 12 วัน
คำนวณแบบมั่วๆ...
อีกไม่นาน Amazon อาจทำ CSR โดยบริจาคชั่วโมงไปรัน SETI@Home