ไมโครซอฟท์โชว์ต้นแบบศูนย์ข้อมูลที่ไม่ใช้น้ำเพิ่มเติม (Zero-Water Datacenter) ในการระบายความร้อนของเซิร์ฟเวอร์ เพื่อแนวทางการประหยัดน้ำในระยะยาว
ตัวเลขของศูนย์ข้อมูลในปัจจุบัน ใช้น้ำในการระบายความร้อนเซิร์ฟเวอร์ เฉลี่ยปีละ 125 ล้านลิตรต่อศูนย์ข้อมูลหนึ่งแห่ง เนื่องจากน้ำระเหยออกไปพร้อมกับความร้อน
ไมโครซอฟท์พยายามแก้ปัญหานี้ด้วยการใช้ระบบน้ำแบบปิด (closed-loop) ที่ไม่มีการระเหยออกไป ใส่น้ำเข้าไปครั้งแรกตอนเริ่มวางระบบ แล้วน้ำจะวนเวียนไปมาระหว่างการดูดความร้อนจากเซิร์ฟเวอร์ และคายความร้อนออกมาใส่ตัวทำความเย็น (chiller) โดยไม่สูญเสียน้ำออกจากระบบเลย
เว็บไซต์ข่าวไอที The Information รายงานข่าวไม่เป็นทางการว่า จีพียู NVIDIA Blackwell รุ่นใหม่ล่าสุดที่ทั้งโลกรอคอย เจอปัญหาความร้อนสูง เมื่อนำไปใช้ในเซิร์ฟเวอร์ที่ต้องอัดจีพียูลงไปเยอะๆ (72 ตัว) จนทำให้ NVIDIA ต้องปรับดีไซน์การออกแบบแร็คเซิร์ฟเวอร์หลายรอบ และส่งผลให้การส่งมอบ Blackwell ต้องล่าช้าออกไป
ปัญหาความร้อนนี้ถือเป็นเรื่องใหญ่สำหรับบริษัทไอทียักษ์ใหญ่ที่ต้องการเซิร์ฟเวอร์ความหนาแน่นสูง ใช้งานในศูนย์ข้อมูลขนาดใหญ่ เช่น Google, Microsoft, Meta ซึ่งตามข่าวบอกว่า NVIDIA กำลังทำงานร่วมกับพาร์ทเนอร์เหล่านี้ รวมถึงผู้ผลิตเซิร์ฟเวอร์รายต่างๆ เพื่อแก้ปัญหาความร้อน
Jensen Huang ซีอีโอ NVIDIA ให้สัมภาษณ์กับรายการ Bg2 โดยช่วงหนึ่งเขาเล่าถึงทีม xAI บริษัทปัญญาประดิษฐ์ของ Elon Musk ในการติดตั้งจีพียู H200 จำนวน 100,000 ตัว ว่านี่เป็นทีมยอดมนุษย์ เพราะสามารถก่อสร้างและติดตั้งอุปกรณ์ทั้งหมดในศูนย์ข้อมูล พร้อมกับเริ่มรันโมเดลแรกได้ภายในเวลา 19 วันเท่านั้น
Huang บอกว่าโดยเฉลี่ยแล้วการสร้างศูนย์ข้อมูลให้ได้ในระดับนี้ต้องใช้เวลาประมาณ 4 ปี โดย 3 ปีแรก เป็นการวางแผนออกแบบก่อสร้าง และอีก 1 ปี สำหรับการจัดส่งอุปกรณ์ ติดตั้ง ทดสอบ และเริ่มรันโมเดล
Dell Technologies ขยายโซลูชัน Dell AI Factory โดยเพิ่มตัวเลือกชุดประมวลผลงานด้านปัญญาประดิษฐ์ของ AMD สำหรับลูกค้าองค์กร และเป็นตัวเลือกที่มีต้นทุนคุ้มค่ากับประสิทธิภาพ มีรายละเอียดดังนี้
Supermicro เปิดตัวเซิร์ฟเวอร์, ระบบเร่งการประมวลผลจีพียู และสตอเรจเซิร์ฟเวอร์ชุดใหม่ ที่ใช้ซีพียู EPYC ตระกูล 9005 และจีพียู Instinct MI325X ล่าสุดของ AMD
กลุ่มสินค้า H14 ชุดใหม่ ประกอบด้วย Hyper เซิร์ฟเวอร์องค์กรสองซีพียู EPYC 9005 ช่องในหน่วยความจำ 24 สลอต มีทั้งขนาด 1U และ 2U, GrandTwin แพลตฟอร์มประมวลผลแบบ 4 โนด ขนาด 2U สำหรับคลัสเตอร์ที่ต้องการเซิร์ฟเวอร์จำนวนมาก และ FlexTwin เซิร์ฟเวอร์ 2U 4 โนด มีซีพียู EPYC 9005 สองตัวต่อโนด สำหรับงาน HPC, EDA หรืองานที่ต้องการเวิร์กโหลดสูง
Supermicro ยังเปิดตัวชุดเร่งการประมวลจีพียูทั้งแบบ 5U, 4U และ 8U เป็นการทำงานร่วมกันทั้ง EPYC 9005 และ Instinct MI325X
Hewlett Packard Enterprise หรือ HPE เปิดตัวเซิร์ฟเวอร์สองรุ่นใหม่ ที่ใช้ซีพียูประมวลผล EPYC Gen 5 ของ AMD ซึ่งเพิ่งประกาศรายละเอียดเป็นทางการ มีรายละเอียดดังนี้
ProLiant DL145 Gen11 เริ่มขายแล้วตั้งแต่วันนี้ในบางภูมิภาค ส่วน ProLiant Compute XD685 จะเริ่มส่งมอบในไตรมาสที่ 1 ปี 2025
AMD ประกาศพร้อมขายซีพียูกลุ่มเซิร์ฟเวอร์ EPYC Gen 5 โค้ดเนม Turin อย่างเป็นทางการ ซึ่งเปิดตัวไปเมื่อกลางปีที่ผ่านมา
ซีพียูนี้ใช้สถาปัตยกรรม Zen 5 และ Zen 5c รองรับการดีพลอยบนแพลตฟอร์ม SP5 มีตัวเลือกคอร์เริ่มต้นตั้งแต่ 8 คอร์ ไปจนถึงสูงสุด 192 คอร์ 384 เธรด มี Throughput ดีกว่าคู่แข่ง 2.7 เท่า
Foxconn ประกาศสร้างเครื่องซูเปอร์คอมพิวเตอร์ที่ใหญ่ที่สุดของไต้หวัน โดยจะใช้ชิป NVIDIA Blackwell GB200 รุ่นใหม่ล่าสุดด้วย
ซูเปอร์คอมพิวเตอร์ของ Foxconn จะใช้ระบบเซิร์ฟเวอร์ NVIDIA GB200 NVL72 หนึ่งตู้มี 64 แร็ค ใช้ซีพียู NVIDIA Grace 36 ตัว, จีพียู Blackwell 72 ตัว ถ้านับรวม Tensor Core ทั้งหมดรวมกัน 4,608 คอร์, เชื่อมต่อกันด้วย NVLink แบนด์วิดท์ 130 TB/s
Cloudflare ประกาศอัพเดตเซิร์ฟเวอร์รุ่นที่ 12 หลังจากอัพเดตรุ่นที่ 11 ไปตั้งแต่ปี 2021 โดยรอบนี้ยังคงอยู่กับ AMD EPYC ต่อไป เลือกเป็น AMD EPYC 9684X Genoa-X
ที่น่าสนใจคือ Cloudflare เลือกสเปคคร่าว แล้วกำหนดรุ่นที่คัดตัวเป็น AMD ทั้งหมด ได้แก่ AMD EPYC 9654 Genoa, AMD EPYC 9754 Bergamo, และ AMD EPYC 9684X Genoa-X โดยทุกรุ่นถูกจำกัดสเปคความร้อนไม่เกิน 400W
Amazon เปิดบริการ AWS Parallel Computing Service (PCS) แพลตฟอร์มจัดการคลัสเตอร์คอมพิวเตอร์สมรรถนะสูง ( high performance computing หรือ HPC) ที่เครื่องทั้งหมดอยู่บน AWS EC2
PCS เป็นการนำ AWS ParallelCluster ซอฟต์แวร์จัดการคลัสเตอร์ HPC ที่ Amazon เปิดเป็นโอเพนซอร์สในปี 2018 มาผนวกกับเครื่องมืออื่นๆ แล้วจัดการระบบทั้งหมดโดย Amazon เอง (fully managed) สำหรับลูกค้าที่ไม่อยากดูแลคลัสเตอร์เอง
Wiwynn บริษัทผลิตเซิร์ฟเวอร์ในเครือ Wistron ของไต้หวัน ยื่นฟ้องบริษัท X หรือ Twitter เดิมเนื่องจากเบี้ยวหนี้ค่าชิ้นส่วนเครื่องเซิร์ฟเวอร์ที่เคยสั่งเอาไว้ มูลค่า 120 ล้านดอลลาร์
การเบี้ยวหนี้ของ X เกิดขึ้นหลัง Elon Musk เข้ามาซื้อกิจการในปี 2022 แล้วออกมาตรการตัดค่าใช้จ่าย เจรจาปรับลด-เลื่อนการจ่ายหนี้ออกไป
AMD ประกาศข่าวซื้อกิจการ ZT Systems บริษัทผู้ออกแบบระบบเซิร์ฟเวอร์ให้กับผู้ให้บริการคลาวด์ขนาดใหญ่ ในราคา 4.9 พันล้านดอลลาร์
ชื่อของบริษัท ZT Systems อาจไม่เป็นที่รู้จักในวงกว้างมากนัก แต่บริษัทก่อตั้งมานาน 29 ปีแล้ว (ก่อตั้งปี 1994 โดยเริ่มจากธุรกิจพีซี ภายหลังผันตัวมาทำเซิร์ฟเวอร์ในปี 2004) ปัจจุบันธุรกิจทั้งหมดของบริษัทเป็น B2B คือรับวางระบบเซิร์ฟเวอร์ให้กับคลาวด์และบริษัทโทรคมนาคมยักษ์ใหญ่ โดย ZT Systems สามารถ "ผลิต" เครื่องเซิร์ฟเวอร์ได้เอง มีโรงงานของตัวเองในหลายประเทศ
อินเทลเปิดตัวและวางขายซีพียูเซิร์ฟเวอร์ Xeon 6 รุ่น E-core ล้วน โค้ดเนม Sierra Forest อย่างเป็นทางการ โดยเป็นแบรนดิ้งใหม่ของ Xeon ที่ใช้ตัวเลขรุ่นต่อท้ายตรงๆ ไม่ต้องเรียก Gen แบบเดิม
Sierra Forest ยังเป็น Xeon ตัวแรกที่ใช้ E-core (Efficient-cores) ล้วนๆ เน้นการอัดจำนวนคอร์เยอะๆ มีพลังงานต่อวัตต์สูงกว่า
Xeon 6 ชุดแรกที่ออกขายมี 2 ซีรีส์ย่อยคือ 6700 (สูงสุด 144 คอร์) และ 6900 (สูงสุด 288 คอร์) โดยจะใช้เลขรุ่นลงท้ายด้วย E เพื่อให้รู้ว่าเป็นรุ่น E-core ซีพียูทั้งสองซีรีส์ผลิตด้วยกระบวนการ Intel 3 และรองรับบัส CXL 2.0 สำหรับเชื่อมต่อระหว่างซีพียูกับตัวเร่งการประมวลผล
AMD เปิดตัวซีพียูกลุ่มเซิร์ฟเวอร์ EPYC Gen 5 "Turin" โดยเริ่มขายตั้งแต่ครึ่งหลังปี 2024 เป็นต้นไป เทคโนโลยีการผลิต 3 นาโนเมตร เป็นซีพียูสถาปัตยกรรม Zen 5 สำหรับสินค้าศูนย์ข้อมูลตัวแรก ทำงานได้เร็วกว่า Xeon รุ่นปัจจุบันของอินเทล 5.4 เท่า สำหรับงานเวิร์กโหลด AI
ซีพียู EPYC Turin นี้ มีจำนวนคอร์สูงสุด 192 คอร์ และ 384 เธรด นอกจากนี้ยังมีอีกรุ่นที่ออปติไมซ์การทำงาน ให้ใช้พลังงานน้อยลงเมื่อมีเวิร์กโหลดต่ำสถาปัตยกรรม Zen 5c
ที่มา: Tom's Hardware
AMD เปิดตัวซีพียูเซิร์ฟเวอร์ตระกูล Epyc รุ่นเล็ก ซีรีส์ 4004 ซึ่งเล็กกว่า Epyc รุ่นก่อนๆ ทั้งหมด (รุ่นปัจจุบันมีซีรีส์ 9004 Genoa, 97X4 Bergamo และ 8004 Sienna)
Eypc ซีรีส์ 4004 เน้นใช้กับเซิร์ฟเวอร์ขนาดเล็ก (ทรงทาวเวอร์ และแร็คขนาด 1-2U) ซีพียูตัวเดียว ออกมาชนกับคู่แข่งคือ Xeon E-2400 ของอินเทล โดย AMD ชูว่าประสิทธิภาพของ Epyc 4564P (16 คอร์) มีประสิทธิภาพต่อราคาเหนือกว่า Xeon E-2488 1.8 เท่า
Jensen Huang ซีอีโอ NVIDIA นำเซิร์ฟเวอร์ H200 ไปส่งให้ OpenAI ด้วยตัวเอง หลังจากที่เคยไปส่งเครื่อง DGX-1 ด้วยตัวเองตั้งแต่เมื่อตอนก่อตั้ง OpenAI เมื่อปี 2016
เซิร์ฟเวอร์ H200 เปิดตัวตั้งแต่ปลายปี 2023 และมีกำหนดส่งมอบไตรมาสที่สองของปี 2024 ซึ่ง Greg Brockman ระบุว่านี่เป็นเครื่องแรกของโลก
ที่มา - @gdb
ซัมซุงเปิดตัว "กล่องแรม" Memory Module Box ที่สามารถใส่แรมความเร็วสูง HBM3E ได้สูงสุด 2TB ต่อกล่อง แบนด์วิดท์รวม 60 GBps มีความหน่วงต่ำ 596 nanosecond เหมาะสำหรับงานประมวลผลที่ต้องใช้แรมมากๆ เช่น AI, ฐานข้อมูลในหน่วยความจำ (in-memory database) และงานวิเคราะห์ข้อมูล
กล่องแรมของซัมซุงจะเชื่อมต่อกับหน่วยประมวลผลหลักของเซิร์ฟเวอร์ผ่านบัสแบบใหม่ Compute Express Link (CXL) ที่อินเทลและกลุ่มบริษัทไอทีจำนวนหนึ่งเริ่มผลักดันมาได้สักระยะ โดยบัส CXL ออกแบบมาเพื่อแข่งกับ NVLink ของ NVIDIA และ CCIX ของฝั่ง AMD
NVIDIA โชว์เซิร์ฟเวอร์ของตัวเอง NVIDIA GB200 NVL72 โดยเน้นว่ามันมีพลังประมวลผลและแรมเพียงพอที่จะฝึกปัญญาประดิษฐ์ขนาด 1.8T ได้ในตัว
เซิร์ฟเวอร์นี้ขายเป็นตู้สำเร็จ โดยแต่จะโหนดในตู้ คือ GB200 compute tray ที่มีชิปซีพียู Grace สองชุด คู่กับ จีพียู Blackwell อีก 4 ตัว เชื่อมระบบระบายความร้อนด้วยน้ำ แต่ละโหนดมีพลังประมวลผล 80 petaflops และแรมอีก 1.7TB ในตัว การคอนฟิกตู้ ใส่ NVLink Switch System สำหรับเชื่อมแต่ละโหนดเข้าด้วยกัน โดยหนึ่งตู้ติดตั้ง compute tray 18 ชุด รวมเป็น GPU ทั้งหมด 72 ตัว
Andy Jassy ซีอีโอ Amazon ระบุในงานแถลงผลประกอบการปีนี้ ว่า AWS กำลังยืดอายุเซิร์ฟเวอร์เป็น 6 ปี หลังจากเมื่อปี 2022 เคยยืดอายุจาก 4 ปีเป็น 5 ปีมาแล้ว เฉพาะการยืดอายุเซิร์ฟเวอร์รายการเดียวจะทำให้กำไรสุทธิของ AWS เพิ่มขึ้น 900 ล้านดอลลาร์ในไตรมาสแรกของปีนี้
แม้ว่าเซิร์ฟเวอร์จะใช้ได้นานขึ้น แต่ Jassy ก็ยังระบุว่าเงินลงทุนของ AWS ยังเพิ่มขึ้นเนื่องจากต้องลงทุนกับโครงสร้างสำหรับ generative AI ไปพร้อมๆ กับการขยายศูนย์ข้อมูลไปยังภูมิภาคต่างๆ โดยคาดว่ารายได้จาก AI จะเพิ่มขึ้นอย่างรวดเร็วจนไปถึงระดับหมื่นล้านดอลลาร์ในไม่กี่ปีข้างหน้า แต่ก็ยอมรับว่าตอนนี้รายได้จาก AI ยังไม่ได้มากมายนัก
พบกันทุกสามปี ไมโครซอฟท์ประกาศว่า Windows Server เวอร์ชันหน้าจะเรียกว่า Windows Server 2025 ถือเป็นการนับเลขต่อจาก Windows Server 2022 ที่ออกในปี 2021
ช่วงหลังไมโครซอฟท์ใช้วิธีออก Windows Server Insider รุ่นทดสอบอยู่เรื่อยๆ อยู่แล้ว เพียงแต่ก่อนหน้านี้ใช้ชื่อกลางๆ ว่า Windows Server vNext ไม่ได้ระบุเลขปีชัดเจน ตอนนี้ไมโครซอฟท์เปลี่ยนชื่อ Insider ตัวล่าสุดเป็น 2025 เรียบร้อยแล้ว
AMD วางขายชิปเร่งความเร็วปัญญาประดิษฐ์ MI300X และ MI300A อย่างเป็นทางการ ชิปทั้งสองรุ่นถือเป็นอาวุธหลักของ AMD ออกมาสู้กับ NVIDIA Hopper (H100/H200) ที่กำลังกวาดลูกค้าทั่วโลกในตอนนี้
ชิปซีรีส์ MI300 เปิดตัวครั้งแรกในเดือนมกราคม แล้วประกาศรายละเอียดอีกครั้งในเดือนมิถุนายน แบ่งออกเป็น 2 รุ่นย่อยที่ต่างกันคือ
NVIDIA เปิดตัวจีพียูศูนย์ข้อมูล Hopper H200 ที่อัพเกรดขึ้นจาก H100 ที่เปิดตัวตั้งแต่ปี 2022
จุดเด่นของ NVIDIA H200 คือใช้แรมแบบใหม่ HBM3e ที่เร็วขึ้นกว่าเดิม สามารถส่งข้อมูลในหน่วยความจำขนาด 141GB ด้วยอัตรา 4.8 TBps แบนด์วิดท์เพิ่มขึ้น 2.4 เท่าเทียบกับแรมใน NVIDIA A100 ของเจนก่อน
จีพียู H200 จะถูกนำไปใช้กับบอร์ด NVIDIA HGX H200 รองรับทั้งการคอนฟิกแบบ 4/8 จีพียู ฮาร์ดแวร์เข้ากันได้กับระบบที่เป็น HGX H100 เดิม ทำให้หน่วยงานที่มีของเดิมอยู่แล้วอัพเกรดได้ง่าย
อินเทลประกาศวางขายซีพียูฝั่งเซิร์ฟเวอร์ 5th Gen Xeon Scalable โค้ดเนม Emerald Rapids ในวันที่ 14 ธันวาคม 2023 (พร้อมกับ Core Ultra ของฝั่งโน้ตบุ๊ก)
การออก Xeon 5th Gen ช่วงปลายปี ทำให้ปีนี้อินเทลออก Xeon ได้ถึง 2 รุ่นคือ 4th Gen Xeon Sapphire Rapids เมื่อเดือนมกราคม หลังจากล่าช้ามานานหลายปี และออก 5th Gen ตามต่อทันทีได้ตอนปลายปี ถือเป็นสัญญาณอันดีว่าอินเทลเริ่มกลับเข้ามาอยู่ในร่องในรอยมากขึ้นแล้ว
บริษัทวิจัยตลาด Bernstein Research ออกรายงานประเมินส่วนแบ่งตลาดเซิร์ฟเวอร์ Arm มีข้อมูลน่าสนใจดังนี้
NVIDIA เปิดตัวโมดูล NVIDIA GH200 Grace Hopper รุ่นต่อไป หลังจากปีนี้วางตลาดรุ่นแรกไปแล้ว ความเปลี่ยนแปลงสำคัญของรุ่นต่อไปคือการใช้แรม HBM3e ทำให้ใส่แรมได้มากขึ้นมาก เครื่องขนาด 2 โมดูล สามารถใส่แรมได้สูงสุด 282GB ซีพียู 144 คอร์ และพลังประมวลผล AI รวม 8 เพตาฟลอบ (ไม่ระบุว่าที่ความละเอียดระดับใด)
HBM3e เป็นหน่วยความจำประสิทธิภาพสูงที่พัฒนาต่อมาจาก HBM3 โดยก่อนหน้านี้อาจจะเรียกว่า HBM3+ หรือ HBM3 Gen 2 ตอนนี้โรงงานที่ผลิต HBM3 หลักๆ ได้แก่ SK hynix, Samsung, และ Micro และน่าจะเตรียมสายการผลิต HBM3e กันอยู่ โดยรวมแล้วแรม HBM3e บน GH200 รุ่นต่อไปรองรับแบนวิดท์ 10TB/s