AWS เปิดบริการ Amazon EC2 High Memory instance เครื่องชนิด U7i ที่สามารถใส่แรมได้เยอะถึง 32 TiB ถือว่าเป็นเครื่องที่มีแรมเยอะที่สุดของ AWS ในปัจจุบัน
หลายคนอาจสงสัยว่าเอาเครื่องที่แรมเยอะขนาดนี้มาทำอะไร คำตอบคือ เอามารัน Chrome งานจำพวก in-memory database ที่มีข้อมูลขนาดใหญ่มากๆ ไม่ว่าจะเป็นฐานข้อมูล SAP HANA, Oracle หรือ SQL Server ก็ตาม
เครื่อง U7i ใช้ซีพียู Intel Xeon Scalable 4th Gen (Sapphire Rapids) แบบคัสตอม มีซีพียูเสมือน (vCPU) จำนวน 896 คอร์, ส่วนแรมเลือกได้ตั้งแต่ 12, 16, 24, 32 TiB เป็นแรมประเภท DDR5 และสามารถเชื่อมต่อกับสตอเรจประเภท Elastic Block Store (EBS) ได้เพียงอย่างเดียว
Werner Vogels ซึ่งเป็น CTO ของ AWS ประกาศข่าวว่าการปิดบริการเครื่องแบบ EC2-Classic ที่ใช้มาตั้งแต่ยุค EC2 เปิดตัวครั้งแรกในปี 2006 ยาวนานถึงปัจจุบัน 17 ปี โดย AWS ปิดเครื่องเหล่านี้ไปเงียบๆ ตั้งแต่วันที่ 15 สิงหาคม 2023 แต่เพิ่งมาประกาศต่อสาธารณะ
AWS ประกาศแผนปิดเครื่อง EC2-Classic ตั้งแต่เดือนสิงหาคม 2021 หรือประกาศล่วงหน้า 2 ปี โดยเครื่องเหล่านี้หยุดขายลูกค้าใหม่ไปตั้งแต่ปี 2013 แต่ลูกค้าเก่ายังใช้งานได้ต่อมาเรื่อยๆ
EC2 ถือเป็นบริการตัวแรกๆ ของ AWS โดยมีบริการที่เปิดตัวก่อนหน้าเพียง 2 ตัวคือ Amazon SQS เปิดตัวในปี 2004 (ตอนนั้นยังไม่นับเป็นคลาวด์ด้วยซ้ำ) และ S3 เปิดตัวปี 2006 ก่อนหน้า EC2 เพียงไม่กี่เดือน
วันนี้ที่งาน AWS re:Invent 2022 AWS ได้เปิดตัว EC2 รุ่นใหม่หลายตัว โดยแกนกลางเป็น Graviton ซีพียูที่ออกแบบเอง และรันผ่าน Nitro ฮาร์ดแวร์ hypervisor ของตัวเองที่ขณะนี้เดินทางมาถึง v5 แล้ว
C7gn เป็น EC2 ในกลุ่มที่เน้นซีพียู (Compute Optimized) เช่นนำมาทำระบบเน็ตเวิร์ค, วิเคราะห์ข้อมูล หรือการคำนวณแบบคลัสเตอร์ ใช้ซีพียู Graviton 3E รุ่นใหม่ที่เปิดตัวพร้อมกัน รองรับแบนด์วิดท์เน็ตเวิร์ค 200 Gbps และประมวลผลแพ็คเก็ตได้สูงขึ้น 50% (เทียบกับ C6gn) มีให้เลือกหลายขนาด สูงสุด 64 vCPU และแรม 128 GiB เริ่มให้ทดลองแล้วผ่านการลงทะเบียน
AWS เปิดบริการเช่าเครื่อง EC2 ที่เป็นซีพียู Apple M1 อย่างเป็นทางการ หลังเปิดทดสอบ Mac x86 มาตั้งแต่ปลายปี 2020 และ Mac M1 ในปี 2021
บริการ Amazon EC2 Mac เป็นการนำเครื่อง Mac Mini มาต่อพ่วงกับฮาร์ดแวร์ Amazon Nitro ที่ AWS พัฒนาเอง แล้วรัน Hypervisor เพื่อจำลองการทำงานเสมือนเป็นเครื่อง EC2 แบบอื่นๆ ใช้ชื่อเรียก instance ว่า mac2.metal
AWS เปิดตัวเซิร์ฟเวอร์ EC2 สองรุ่น คือ M6a ที่ใช้ซีพียู AMD EPYC รุ่นที่ 3 และ G5g ใช้ซีพียู Graviton2 ของ AWS เองพร้อมกับชิปกราฟิก NVIDIA T4G
เครื่อง M6a สามารถเลือกเครื่องขนาดใหญ่กว่าเดิม เครื่องใหญ่สุดคือ m6a.48xlarge ขนาดถึง 192 vCPU พร้อมแรม 768 GiB แบนด์วิดท์เน็ตเวิร์คสูงสุด 50 Gbps และเชื่อมต่อสตอเรจ EBS แบนด์วิดท์สูงสุด 40 Gbps
ตอนนี้ยังใช้งานได้เฉพาะในสหรัฐฯ ทาง AWS ระบุว่าประสิทธิภาพต่อราคาของเครื่อง M6a ดีกว่า M5a ถึง 35%
ที่มา - AWS
Amazon EC2 หนึ่งในบริการคลาวด์คอมพิวเตอร์ยุคแรกที่สุด (ตัวแรกจริงๆ คือ S3 ออกเร็วกว่ากัน 5 เดือน) มีอายุครบรอบ 15 ปีแล้วในเดือนสิงหาคม 2021
EC2 เปิดตัวครั้งแรกด้วยฟีเจอร์ที่ค่อนข้างจำกัดมาก (ในยุคนี้) เช่น ไม่มีสตอเรจสำหรับเก็บข้อมูลถาวร มีอายุเท่ากับ instance นั้นๆ, ไม่มี block storage, ต้องเก็บ root disk image (AMI) ลงใน S3 แทน, มี instance ให้เลือกเพียงประเภทเดียว (ตั้งชื่อในภายหลังว่า m1.small), คิดราคาเป็นรายชั่วโมง แต่เมื่อเปิดตัวก็ได้เสียงตอบรับเป็นอย่างดีจากลูกค้า และถือเป็นจุดเริ่มต้นของยุคสมัยคลาวด์ที่ AWS กลายเป็นผู้นำตลาด และทยอยพัฒนาฟีเจอร์อื่นๆ ตามมาในภายหลัง
AWS ประกาศแผนการยกเลิกบริการ EC2 รุ่นแรกสุดของบริษัท (ปัจจุบันเรียก EC2-Classic) ที่เปิดบริการครั้งแรกในปี 2006 ตั้งแต่ยุคบุกเบิกของ AWS (บริการตัวแรกสุดจริงๆ คือ S3 ส่วน EC2 คือตัวที่สอง ห่างกันไม่กี่เดือน)
เวลาผ่านมา 15 ปี ตัวบริการ EC2-Classic แบบดั้งเดิมเริ่มไม่ตอบโจทย์โลกยุคใหม่อีกต่อไป เพราะ EC2-Classic ยุคแรกถูกสร้างมาในยุคที่มี public IP แจกอยู่ ในขณะที่ปัจจุบัน ระบบเครือข่ายของ EC2 รุ่นหลังๆ เป็น Virtual Private Cloud (VPC) หมดแล้ว
EC2-Classic ไม่มีขายแล้วสำหรับบัญชี AWS ที่สร้างหลังปี 2013 เป็นต้นมา แต่ยังมีงานเก่ารันอยู่ และลูกค้าเก่ายังสามารถซื้อ instance แบบเดิมได้อยู่
AWS เปิดตัวเครื่อง EC2 แบบ mac1.metal เปิดทางให้ลูกค้าสามารถเช่าเครื่องแมครายวันเพื่อการพัฒนาแอปโดยไม่ต้องซื้อเครื่องแมคมาใช้งาน
เครื่อง mac1.metal บน AWS สามารถเลือกใช้ macOS 10.14 (Mojave) และ macOS 10.15 (Catalina) ตัวฮาร์ดแวร์เป็น Mac mini ใช้ Core i7 รุ่นที่ 8 แรม 32GB เชื่อมต่อกับสตอเรจ EBS, EFS, S3
ผู้ใช้เครื่อง mac1.metal สามารถ SSH เข้าไปทำงานในเครื่อง หรือจะใช้ VNC เพื่อรันแอปแบบ GUI ก็ได้ ข้อจำกัดสำคัญคือ mac1.metal เป็นเครื่องแบบ Dedicated Host การใช้งานแต่ละครั้งมีเวลาขั้นต่ำ 24 ชั่วโมง และไม่สามารถใช้งานใน Auto Scaling Group
AWS เริ่มให้บริการเครื่อง Amazon EC2 แบบใหม่ P4 instance ที่ใช้จีพียู NVIDIA A100 สถาปัตยกรรม Ampere สำหรับลูกค้าที่ต้องการเครื่องพลังสูงมาทำ Machine Learning และงานด้าน HPC
ตอนนี้เครื่อง P4 ยังมีเพียงรุ่นย่อยเดียวคือ P4d.24xlarge และยังมีบริการเฉพาะเขตสหรัฐ สเปกเครื่องคือ
AWS ประกาศเปิดตัวฟีเจอร์ใหม่ Savings Plan บริการที่ช่วยประหยัดค่าใช้จ่ายในการใช้งาน EC2 ได้พอกับ Reserved Instance ในขณะที่ให้ความยืดหยุ่นในการใช้งานมากกว่า
แนวคิดของ Reserved Instance หรือ RI จะเป็นลักษณะการเช่า EC2 instance ที่ลูกค้าจะแจ้ง AWS ว่าต้องการใช้งาน EC2 instance แบบไหน ระบบปฏิบัติการอะไร ใน AWS region ใด เป็นระยเวลาเท่าไร และในช่วงหลัง AWS ก็ลดข้อจำกัดของ RI ลงเรื่อย ๆ เช่น ให้ปรับขนาด instance ได้, เปลี่ยน OS ได้ หรือย้าย Availability Zones ภายใน region ได้ แต่ RI ก็ยังไม่ยืดหยุ่นพอสำหรับการใช้งานในหลาย ๆ รูปแบบ
Amazon ประกาศเพิ่มตัวเลือกเครื่อง EC2 ในกลุ่ม C5 สำหรับการรันเวิร์คโหลดที่เน้นการประมวลผลหนัก ๆ อีกสองขนาด คือ c5d.12xlarge และ c5d.24xlarge พร้อมด้วยตัวเลือก bare metal ให้เลือกเพิ่มเติม
สำหรับ instance ขนาดใหม่นี้จะรันอยู่บนโปรเซสเซอร์ Intel Xeon Scalable เจเนอเรชั่นที่สอง โค้ดเนม Cascade Lake พร้อมฟีเจอร์ Intel Deep Learning Boost
สเปคของเครื่องทั้งสามมีดังนี้
AWS เปิดให้บริการ Amazon EC2 แบบ G4 พร้อมชิพ NVIDIA อย่างเป็นทางการแล้ว สำหรับงานด้าน video transcoding, game streaming, remote graphics workstations ไปจนถึงงานประเภท ML, real-time speech และ NLP
สำหรับ Amazon EC2 G4 ทุก instance จะมาพร้อมกับ NVIDIA T4 Tensor Core GPU ซึ่งแต่ละตัวจะมี 320 Turing Tensor cores, 2,560 CUDA cores และเมมโมรี่ 16GB ส่วนซีพียูใช้ Intel Xeon Scalable (Cascade Lake) เจเนอเรชั่นที่ 2 ที่ปรับแต่งเพื่อ AWS โดยเฉพาะ มี 64 vCPU และพัฒนาอยู่บนระบบ AWS Nitro ซึ่งสตอเรจแบบ local NVMe ของ Nitro สามารถใช้กับดิสก์ได้สูงสุดถึง 1.8TB แบบ direct access
Amazon ประกาศเพิ่มตัวเลือกให้เครื่อง EC2 C5 ซึ่งเป็นเครื่องประเภทที่นิยมใช้ในงานที่ต้องการการคำนวณปริมาณมาก โดยเพิ่มตัวเลือกขนาด instance อีกสองแบบ คือ 12xlarge และ 24xlarge พร้อมกับตัวเลือกเครื่องแบบ bare metal ซึ่งเครื่องทั้งหมดรันบนซีพียู Intel Xeon Scalable รุ่นที่สอง โค้ดเนม Cascade Lake
สำหรับเครื่อง c5.12xlarge มี logical processor ทั้งหมด 48 ตัว, เมมโมรี่ 96GiB, แบนด์วิดท์แบบ EBS-Optimized 7Gbps และแบนด์วิดท์สำหรับเครือข่าย 12Gbps
Amazon ประกาศอัพเดตเครื่อง EC2 P3 ซึ่งเป็นเครื่องประเภทที่มีจีพียูในตัว โดยครั้งนี้ Amazon ได้เปิดให้ใช้เครื่อง P3dn ที่เปิดตัวในงาน re:Invent อย่างเป็นทางการ และลดราคาเครื่อง P3 เดิมลงสูงสุด 20%
สำหรับเครื่อง EC2 แบบใหม่คือ p3dn.24xlarge เป็นเครื่องที่ใหญ่ที่สุดในกลุ่ม P3 ใช้จีพียู NVIDIA V100 Tensor Core 8 ตัว, หน่วยความจำจีพียู 256GB, NVIDIA NVLink 300GB/s, หน่วยความจำหลัก 768GiB, พื้นที่เก็บข้อมูลในตัวเป็น NVMe SSD ขนาด 900GB สองตัว, แบนด์วิดท์สำหรับเชื่อมต่อเครือข่าย 100Gbps และแบนด์วิดท์แบบ EBS-Optimized อีก 14Gbps
ที่งาน AWS re:Invent 2018 Amazon ได้เปิดตัวบริการ Amazon Elastic Inference ที่ทำให้สามารถเพิ่ม GPU ไปยังเครื่อง EC2 ประเภทใดๆ ก็ได้
เดิมทีการใช้งาน GPU ใน EC2 นั้นจะต้องเลือกใช้เครื่องประเภทที่มี GPU ในตัวเท่านั้น เช่นประเภท P3 ซึ่งบางครั้งผู้ใช้งานอาจจะต้องการใช้เพียงแค่ GPU แต่ไม่ได้ต้องการ CPU หรือ Memory จำนวนมาก โดยเฉพาะงานประเภทหาคำตอบจากโมเดลที่สำเร็จแล้ว (inference) การใช้งานลักษณะนี้จึงสิ้นเปลืองค่าใช้จ่ายมาก
Elastic Inference จะทำให้เราสามารถเพิ่ม GPU ไปยังเครื่อง EC2 ประเภทใดๆ ก็ได้ (คล้ายๆ กับของ Google Cloud) หรือต่อกับ SageMaker รองรับการใช้งานผ่านทั้ง TensorFlow และ Apache MXNet
บริการ EC2 เพิ่มฟีเจอร์ hibernation ทำให้สามารถปิดเครื่องโดยเซฟสถานะทั้งหมดไว้ในดิสก์ได้ และสามารถเปิดเครื่องกลับมาโดยสถานะทุกอย่างคงเดิมได้ โดยปีที่แล้ว AWS เปิดฟีเจอร์นี้สำหรับเครื่องแบบ Spot แต่ปีนี้เปิดสำหรับเครื่อง EC2 ปกติแบบ M3, M4, M5, C3, C4, C5, R3, R4, และ R5
เครื่องที่จะใช้งานฟีเจอร์นี้ต้องใช้ Amazon Linux 1 เท่านั้น ส่วน Amazon Linux 2 จะรองรับเร็วๆ นี้ และไม่มีการประกาศถึงลินุกซ์ตัวอื่นๆ แต่อย่างใด
ขณะที่ hibernate ผู้ใช้จะเสียค่าสตอเรจและค่าไอพีต่อไป แต่ไม่เสียค่าเครื่อง
ข่าวที่น่าสนใจจากงาน AWS re:Invent 2018 คือ EC2 เปิดตัวเครื่องประเภท A1 ที่ใช้ซีพียู ARM แถมเป็นซีพียู ARM ที่ Amazon ออกแบบเองทั้งหมดด้วย
AWS ให้ข้อมูลของซีพียูตัวนี้ว่าชื่อ Graviton พัฒนาบนสถาปัตยกรรม ARM และออกแบบมาเพื่อลดต้นทุนเป็นหลัก (เมื่อเทียบกับ x86) รูปแบบงานที่ AWS แนะนำให้รันบน A1 คืองานที่สามารถแตกเป็นเวิร์คโหลดขนาดเล็กๆ แล้วสเกลตามจำนวนเครื่องได้ เช่น container, microservice, webserver, caching เป็นต้น
ในงาน AWS re:Invent วันนี้ AWS ได้เปิดตัว EC2 instance type ใหม่ดังนี้
ช่วงแรก instance ใหม่นี้ใช้ได้เฉพาะ region N. Virginia, Ohio, Oregon และ Ireland เท่านั้น ยกเว้น P3dn.24xlarge ที่ยังต้องรอประกาศต่อไป
Amazon เปิดตัวระบบ Auto Scaling รูปแบบใหม่สำหรับ EC2 นอกจากจะเพิ่มลดเครื่องตามโหลดของระบบแล้ว ยังสามารถใช้ Machine Learning ทำนาย load ในอนาคตล่วงหน้าได้อีกด้วย
การทำงานของ Predictive scaling จะใช้ข้อมูลที่วิเคราะห์ได้ ตั้งจำนวนเครื่องขั้นต่ำที่ต้องเปิดทิ้งไว้ และใช้ autoscaling แบบเดิมเข้ามาช่วยรองรับกรณีที่มี load สูงกว่าปกติ
Predictive scaling ใช้งานได้ฟรีไม่มีค่าใช้จ่ายเพิ่มจากปกติ สามารถใช้ใน region Singapore, North Virginia, Ohio, Oregon, Ireland ได้แล้ว โดยบนคอนโซลจะเป็นเมนู AWS Auto Scaling แยกออกไปจากเมนู EC2 ที่แสดง autoscaling แบบเดิม
AWS ประกาศอัพเดต instance บน EC2 ใหม่ชื่อ Z1d ที่มี Turbo Boost สำหรับการประมวลผลเธรดเดี่ยวประสิทธิภาพสูง
Z1d instance ใช้ซีพียู Intel Xeon สัญญาณนาฬิกาสูงสุด 4GHz เมื่อใช้ Turbo Boost แต่เครื่องถูกออกแบบมาให้ใช้งาน Turbo Boost ได้อย่างต่อเนื่อง ตัวเครื่องมีทั้งหมด 6 กลุ่มขนาด ซีพียูเสมือนสูงสุด 48 ตัว แรมสูงสุด 384GB พร้อมสตอเรจ NVMe สูงสุด 1.8TB, แบนด์วิธเครือข่ายสูงสุด 25Gbps และแบนด์วิธเชื่อมต่อไป Elastic Block Store (EBS) สูงสุด 14Gbps
AWS ประกาศออกฟีเจอร์ใหม่ให้กับ Snowball Edge สตอเรจที่รองรับการขนส่ง ด้วยการเพิ่มเซิร์ฟเวอร์เสมือน (instance) ของ EC2 เข้าไปให้ สำหรับการประมวลผลนอกสถานที่ โดยไม่เกี่ยงว่าจะมีอินเทอร์เน็ตเชื่อมต่อหรือไม่ เสริมทัพ Greengrassและ Lambda ที่มีบน Snowball Edge มาก่อนหน้า
Snowball Edge ทุกเครื่องจะมาพร้อมกับซีพียู Intel Xeon สัญญาณนาฬิกา 1.8GHz และรองรับซีพียูเสมือนสูงสุด 24 ตัวและแรมสูงสุด 32GB ส่วนค่าใช้จ่ายยังคิดตามค่าการใช้งาน Snowball Edge เหมือนเดิม
Amazon Web Services ประกาศเปลี่ยนวิธีคิดเงินของบริการหลายตัว ได้แก่ Elastic Compute Cloud (EC2), Elastic Block Store (EBS), Elastic MapReduce (EMR) และ AWS Batch จากรายชั่วโมง มาเป็นตามวินาที (Per-Second Billing)
AWS จะเริ่มคิดเงินเป็นวินาทีตั้งแต่วันที่ 2 ตุลาคมนี้ในทุก AWS Region โดยกรณีของ EC2 จะมีผลเฉพาะเครื่องที่เป็นลินุกซ์เท่านั้น ไม่มีผลกับเครื่องที่เป็นวินโดวส์หรือลินุกซ์บางดิสโทรที่ยังคิดเป็นรายชั่วโมง นอกจากนี้การคิดเงินเป็นวินาทีจะมีขั้นต่ำ 1 นาทีแรก และราคาที่แสดงบนหน้าเว็บของ AWS จะยังแสดงเป็นรายชั่วโมง แต่การลงบิลจะเปลี่ยนมาคำนวณเป็นรายวินาที
Amazon Web Services เดินหน้าสนับสนุน IPv6 อย่างต่อเนื่อง ล่าสุดประกาศว่าเครื่อง EC2 ที่รันอยู่บนบริการ Virtual Private Clouds (VPC) รองรับการใช้ IPv6 แล้ว
ก่อนหน้านี้ AWS รองรับ IPv6 บนบริการสตอเรจ S3, CloudFront, Route 53 มาแล้ว การรองรับ IPv6 บน EC2 และ VPC ย่อมช่วยให้การใช้งานแพร่หลายมากขึ้น
รูปแบบการทำงานของ IPv6 ของ AWS จะเป็น dual-stack นั่นคือหนึ่ง instance จะมีทั้ง IPv4 และ IPv6 ไปพร้อมกัน เพื่อให้ทำงานเข้ากันได้กับระบบเดิม
ตอนนี้ IPv6 บน EC2 เริ่มใช้ได้ในเขต US East (Ohio) เป็นที่แรก และจะค่อยๆ ขยายไปยังเขตอื่นในภายหลัง
ที่มา - AWS Blog
Amazon EC2 เพิ่มเครื่องประเภทที่ต้องการชิปกราฟิกจากเดิมเครื่องแบบ G2 ที่ให้กราฟิกไม่ระบุรุ่น มาเป็นเครื่อง P2 ที่ให้การ์ด Tesla K80 แรม 12GB
เครื่อง P2 ใช้ซีพียูเป็น Intel Xeon E5-2686v4 พร้อมกับการ์ดเน็ตเวิร์คแบบใหม่ที่สามารถส่งข้อมูลได้สูงสุด 20Gbps เหมาะกับงานที่ต้องการประมวลผลสูง เช่น งานจำลองและงานเรนเดอร์
เครื่องมีให้เลือก 3 แบบ คือ
Amazon Web Service เปิดตัวเครื่อง t2.nano มาตั้งแต่เดือนตุลาคม ตอนนี้ก็ได้เวลาเปิดให้ใช้งานจริงแล้ว โดยราคาแบบ on-demand อยู่ที่เดือนละ 4.75 ดอลลาร์ หรือชั่วโมงละ 0.0065 ดอลลาร์ ในสหรัฐฯ เป็นเครื่องรุ่นแรกที่คิดราคาแบบทศนิยมสี่หลัก ส่วนในสิงคโปร์ราคา 0.01 ดอลลาร์ต่อชั่วโมง
ราคานี้ถูกกว่า t2.micro ที่เคยเป็นเครื่องเล็กที่สุดเท่าตัว และหากจ่ายล่วงหน้าสามปีจะถูกลงเหลือเดือนละ 2.1 ดอลลาร์เท่านั้น เซิร์ฟเวอร์เช่นนี้เพียงพอสำหรับการใช้งานง่ายๆ เช่น เว็บขนาดเล็กที่คนเข้าไม่เกิน 25,000 ครั้งต่อเดือน
มีให้ใช้งานในสหรัฐฯ, ยุโรป, สิงคโปร์, โตเกียว, และบราซิล