NVIDIA เปิดตัวจีพียูศูนย์ข้อมูล Hopper H200 ที่อัพเกรดขึ้นจาก H100 ที่เปิดตัวตั้งแต่ปี 2022
จุดเด่นของ NVIDIA H200 คือใช้แรมแบบใหม่ HBM3e ที่เร็วขึ้นกว่าเดิม สามารถส่งข้อมูลในหน่วยความจำขนาด 141GB ด้วยอัตรา 4.8 TBps แบนด์วิดท์เพิ่มขึ้น 2.4 เท่าเทียบกับแรมใน NVIDIA A100 ของเจนก่อน
จีพียู H200 จะถูกนำไปใช้กับบอร์ด NVIDIA HGX H200 รองรับทั้งการคอนฟิกแบบ 4/8 จีพียู ฮาร์ดแวร์เข้ากันได้กับระบบที่เป็น HGX H100 เดิม ทำให้หน่วยงานที่มีของเดิมอยู่แล้วอัพเกรดได้ง่าย
NVIDIA คุยว่า H200 มีสมรรถนะในการรันโมเดล Llama 2 แบบ 70B ได้เร็วขึ้นกว่า H100 เกือบเท่าตัว ส่วนเซิร์ฟเวอร์ HGX H200 แบบ 8 จีพียู มีสมรรถนะการคำนวณทศนิยม FP8 มากกว่า 32 petaflops
H200 จะเริ่มส่งมอบสินค้าจริงในไตรมาส 2/2024 ตอนนี้ผู้ผลิตคลาวด์ชั้นนำ AWS, GCP, Azure, Oracle Cloud สั่งซื้อกันเรียบร้อยแล้ว ส่วนผู้ผลิตเซิร์ฟเวอร์หลายๆ เจ้าก็เตรียมวางขายสินค้าตามกำหนด
ส่วนชิป Grace Hopper GH200 ที่หลอมรวมซีพียู Grace และจีพียู Hopper เข้าด้วยกัน ก็เฉลยแล้วว่าใส่ H200 มาให้ด้วย โดยก่อนหน้านี้บอกแค่ว่าเป็นจีพียูสถาปัตยกรรม Hopper ที่ใช้แรม HBM3e เท่านั้น กำหนดวางขายพร้อมกันคือไตรมาส 2/2024
ที่มา - NVIDIA