Elon Musk ประกาศว่าซูเปอร์คอมพิวเตอร์ Memphis Supercluster ของ xAI เริ่มใช้งานแล้ว ซูเปอร์คอมพิวเตอร์เครื่องนี้มีจีพียู NVIDIA H100 จำนวน 1 แสนตัวมาต่อกัน ระบายความร้อนด้วยของเหลว ถือเป็นซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลกสำหรับการเทรน AI
ซูเปอร์คอมพิวเตอร์เครื่องนี้ยังเป็นตัวเดียวกับที่เคยมีข่าวว่า Elon โยกจีพียู H100 ของ Tesla ไปให้ xAI ยืมใช้งานก่อน และบริษัทที่ได้งานผลิตเซิร์ฟเวอร์ให้คือ Dell กับ Super Micro
สำนักข่าว Reuters อ้างแหล่งข่าวที่เกี่ยวข้องถึงสี่ราย ระบุว่า NVIDIA กำลังพัฒนาชิป AI รุ่นใหม่ สำหรับขายในประเทศจีนโดยเฉพาะ ซึ่งยังต้องอยู่ในเงื่อนไขที่สหรัฐกำหนดเอาไว้ในการผลิตชิปเพื่อส่งออก
รายงานบอกว่าชิปรุ่นดังกล่าวจะใช้ชื่อรุ่นว่า "B20" ได้เริ่มหารือกับ Inspur เพื่อให้เป็นหนึ่งในตัวแทนจำหน่ายเซิร์ฟเวอร์ที่มีจีพียูรุ่นนี้ คาดว่าจะเริ่มการผลิตได้ในครึ่งหลังปี 2025
ไม่มีรายละเอียดเพิ่มเติมว่า B20 จะเป็นจีพียูสถาปัตยกรรมใดและรายละเอียดเป็นอย่างไร แต่หากดูจากชื่อรุ่นตามข่าวที่ออกมา ก็น่าจะอยู่ในสถาปัตยกรรม Blackwell ที่มีชิปรุ่นบนสุดคือ B200
เมื่อเดือนพฤษภาคม 2022 NVIDIA เปิดซอร์สไดรเวอร์ GPU ฝั่งเคอร์เนลบนลินุกซ์ โดยใช้สัญญาอนุญาตแบบเปิดกว้าง GPL/MIT ตามนโยบายใหม่ที่จะใช้ไดรเวอร์แบบโอเพนซอร์ส มาทดแทนไดรเวอร์เชิงพาณิชย์ตัวเก่า
เวลาผ่านมา 2 ปีกว่า NVIDIA ประกาศว่าไดรเวอร์ตัวใหม่ที่เป็นโอเพนซอร์ส มีประสิทธิภาพและความสามารถเหนือกว่าไดรเวอร์เชิงพาณิชย์ตัวเก่าเรียบร้อยแล้ว
อย่างไรก็ตาม เนื่องจากไดรเวอร์ตัวใหม่ถูกเขียนขึ้นมาในยุคหลังๆ เพื่อใช้กับจีพียูที่มีชิป GPU System Processor (GSP) ทำให้มันไม่ได้เหมาะกับจีพียูทุกตัวของ NVIDIA โดยบริษัทมีคำแนะนำให้ดังนี้
Spectral Compute บริษัทด้านปัญญาประดิษฐ์จากสหราชอาณาจักรเปิดตัว SCALE ชุดเครื่องมือคอมไพล์โค้ดจากเดิมที่ใช้ CUDA ไปรันบนชิปตัวอื่นๆ โดยตอนนี้รองรับเฉพาะการ์ดจอของ AMD
SCALE ถูกออกแบบให้เป็นชุดเครื่องมือครบชุด เช่น คำสั่งที่ใช้แทน nvcc
ได้ในตัว ทำให้สคริปต์ cmake
ในโครงการต่างๆ สามารถรันได้ทันที ตอนนี้มีโครงการที่ทดสอบผ่านแล้วหลายโครงการ เช่น NVIDIA Thrust, llama-cpp, faiss, xgboost, หรือ hashcat
ทางโครงการ SCALE พยายามอิมพลีเมนต์ API ของ CUDA ให้ครบ โดยบางส่วนทำเอง บางส่วนเป็น wrapper ห่อไลบรารี ROCm ของ AMD ให้มีอินเทอร์เฟซเหมือนกับ CUDA
หลายคนแถวนี้น่าจะเคยเห็น The Sphere อาคารรูปโดมทรงกลมขนาดใหญ่ในเมืองลาสเวกัส ซึ่งมีจอภาพ LED ทั้งด้านนอกและด้านใน กินพื้นที่จอรวมกัน 750,000 ตารางฟุต
NVIDIA มีบล็อกอธิบายเบื้องหลังการแสดงผลภาพบนหน้าจอใหญ่ขนาดนี้ ว่าใช้จีพียู NVIDIA RTX A6000 (เปิดตัวปี 2020 สถาปัตยกรรม Ampere) จำนวน 150 ตัวช่วยกันเรนเดอร์หน้าจอความละเอียด 16x16K ด้านใน และหน้าจอด้านนอกที่มีไฟ LED ทั้งหมด 1.2 ล้านดวง ถือเป็นหน้าจอ LED ที่ใหญ่ที่สุดในโลก
Arm เปิดตัวเทคนิคการอัพสเกลภาพของตัวเองชื่อว่า Accuracy Super Resolution ตัวย่อ Arm ASR โดยพัฒนาต่อมาจาก AMD FSR 2 ที่เปิดเป็นโอเพนซอร์สอยู่แล้ว
Arm บอกว่าเทคนิคอัพสเกลภาพแบ่งได้ 2 วิธีใหญ่ๆ คือ spatial ที่เรียบง่ายกว่า เพราะใช้ภาพจากเฟรมเดียวกันมาคำนวณการอัพสเกล ประหยัดพลังการคำนวณมากกว่า แต่มีข้อเสียคือภาพที่ได้อาจเบลอ แนวทางนี้ใช้ใน FSR 1 ส่วนอีกวิธีคือ temporal ที่ซับซ้อนกว่า ใช้ภาพจากหลายเฟรมมาช่วยคำนวณ เปลืองพลังประมวลผลมากกว่า แต่ได้คุณภาพผลลัพธ์ดีกว่า และหากใช้เทคนิคนี้ร่วมกับข้อมูลจากเอนจินเกม จะช่วยให้ผลลัพธ์ดีขึ้น แนวทางนี้ใช้กับ FSR 2
ช่อง Digital Foundry ที่เชี่ยวชาญเรื่องกราฟิกของวิดีโอเกม วิเคราะห์เหตุผลที่เกมบน PS5 กลับให้ภาพออกมาดีกว่า Xbox Series X แม้ว่าสมรรถนะทางเทคนิคของ Xbox Series X เหนือกว่า โดยใช้ข้อมูลจากการพูดคุยกับนักพัฒนาเกมหลายรายเป็นเวลาหลายปี
Digital Foundry สรุปว่าเหตุผลที่น่าจะเป็นไปได้ มี 2 ข้อประกอบกัน
GreenNode ธุรกิจด้านศูนย์ข้อมูลในเครือ VNG กลุ่มบริษัทไอทียักษ์ใหญ่ของเวียดนาม เปิดตัวคลัสเตอร์ AI ขนาดใหญ่ในศูนย์ข้อมูลที่กรุงเทพ
เครื่องคลัสเตอร์ตัวนี้ใช้จีพียู NVIDIA H100 และระบบเครือข่าย InfiniBand ตั้งอยู่ในศูนย์ข้อมูล STT Bangkok 1 ของบริษัท ST Telemedia จากสิงคโปร์
ธุรกิจของ GreenNode เน้นการให้บริการ GPU cloud โดยแยกเป็น 3 ระดับคือ
อินเทลเปิดราคาของชิปเร่งความเร็วปัญญาประดิษฐ์ Gaudi 3 ที่เปิดตัวเมื่อเดือนเมษายน โดยคิดราคา 125,000 ดอลลาร์ (4.6 ล้านบาท) ต่อบอร์ดหนึ่งตัวที่มีชิป Guadi 3 แรม 128GB จำนวน 8 ตัว (หารมาแล้วก็เหลือตัวละประมาณ 16,000 ดอลลาร์ หรือ 5.8 แสนบาท)
ราคานี้มีผลต่อการแข่งขันไม่น้อย เพราะคู่แข่งที่เป็นเจ้าตลาด NVIDIA H100 รุ่นแรม 80GB ราคาขายบอร์ดอยู่ที่ 30,000 ดอลลาร์ (1 บอร์ด = 1 จีพียู) เทียบราคาต่อชิปแล้วแพงกว่ากันเท่าตัว แถมอินเทลยังโฆษณาว่า Gaudi 3 มีประสิทธิภาพดีกว่า H100 ราว 50%
เป็นไปตามความคาดหมาย หลังมีข่าว NVIDIA เผย Elon โยกจีพียูของ Tesla 12,000 ตัวไปให้ xAI ใช้งานก่อน ตอนนี้มีผู้ถือหุ้น Tesla กลุ่มหนึ่งยื่นฟ้อง Elon Musk, บอร์ดบริหาร และตัวบริษัท Tesla เรียบร้อยแล้ว
ผู้ถือหุ้นกลุ่มนี้ยื่นฟ้องต่อศาลเขต Delaware โดยในคำฟ้องมีข้อความเปรียบเทียบว่า "ถ้าซีอีโอของ Coca-Cola ไปเปิดบริษัทเครื่องดื่มเป็นงานเสริม แล้วโยกส่วนผสมที่หายากของ Coca-Cola ไปให้บริษัทนี้ บอร์ดบริหารควรยอมให้เกิดเรื่องแบบนี้หรือไม่"
Ben Skeggs อดีตหัวหน้าทีมพัฒนาไดรเวอร์โอเพนซอร์ส Nouveau เพิ่งย้ายงานจาก Red Hat ไปอยู่กับ NVIDIA เมื่อเดือนเมษายน 2024 หลังจากเขาเงียบหายมาสักพักใหญ่ๆ ก็ออกมาประกาศว่า NVIDIA จะหาวิธีสนับสนุนไดรเวอร์จีพียูบนลินุกซ์ให้ดีขึ้นกว่าเดิม
ชิ้นส่วนสำคัญของการแก้ปัญหาไดรเวอร์บนลินุกซ์คือ โครงการไดรเวอร์โอเพนซอร์สตัวใหม่ Nova ที่พัฒนาโดยทีมฝั่ง Red Hat เขียนด้วยภาษา Rust แนวคิดของโครงการพัฒนาให้รองรับสถาปัตยกรรม NVIDIA GPU System Processor (GSP) ที่ใช้ในจีพียูรุ่นใหม่ๆ คือ GeForce RTX ซีรีส์ 20 (Turing) เป็นต้นมา
นอกจาก NVIDIA จะกลายเป็นอันดับสองบริษัทที่มีมูลค่ากิจการมากสุดในโลกแซง Apple จากการที่รายได้บริษัทฝั่งเซิร์ฟเวอร์เพิ่มขึ้นอย่างรวดเร็วแล้ว ล่าสุดบริษัทวิจัยตลาด Jon Peddie Research (JPR) ยังรายงานถึงตลาดชิปกราฟิกแบบเดสก์ทอป (desktop discrete GPU) โดย NVIDIA ได้ส่วนแบ่งตลาดจีพียูเพิ่มขึ้นถึง 8% ในไตรมาสแรกของปีนี้เทียบกับไตรมาสสุดท้ายของปี 2023 ทำให้มีส่วนแบ่งรวมทั้งหมดเป็น 88% และอีก 12% เป็นของ AMD จึงทำให้อินเทลถูกกินส่วนแบ่งจนถูกปัดตัวเลขเป็น 0%
สำนักข่าว CNBC อ้างว่าได้อีเมลภายในของพนักงาน NVIDIA ระบุว่า Elon Musk ตอบคำถามนักลงทุน Tesla เกินจริงไปในเรื่องแผนการจัดซื้อจีพียู ในงานแถลงผลประกอบการเมื่อเดือนเมษายน 2024
ตอนนั้น Elon ระบุว่า Tesla เพิ่มการซื้อจีพียู NVIDIA H100 จากเดิม 35,000 ตัว มาเป็น 85,000 ตัว ภายในสิ้นปี 2024 และตอนนั้น Elon ยังโพสต์ข้อความว่าบริษัทจะลงทุน 1 หมื่นล้านดอลลาร์ด้าน AI เพื่อใช้งานในรถยนต์ ซึ่งไม่มีบริษัทไหนกล้าลงทุนระดับนี้มาก่อน
อินเทลเปิดเผยรายละเอียดทางสถาปัตยกรรมของ Lunar Lake ซีพียูโน้ตบุ๊กรุ่นถัดไป โดยยังไม่ประกาศชื่อแบรนด์อย่างเป็นทางการ (คาดกันว่าจะเรียก Core Ultra ซีรีส์ 200) โดยโน้ตบุ๊ก Lunar Lake จะเริ่มวางขายช่วงไตรมาส 3 ของปี 2024
Lunar Lake เป็นการเปลี่ยนใหญ่นับจาก Meteor Lake (Core Ultra ซีรีส์ 100) โดยเปลี่ยนทุกชิ้นส่วนย่อย
นอกจาก Arm เปิดตัวสถาปัตยกรรมซีพียูใหม่ของปี 2024 ยังมีจีพียูใหม่ของปี 2024 มาพร้อมกัน
จีพียูตระกูล Immortalis และ Mali ที่เปิดตัวรอบนี้มีด้วยกัน 3 รุ่นย่อย
NVIDIA จับมือกับผู้ผลิตการ์ดจอและผู้ผลิตเคส ประกาศมาตรฐานการ์ดจอ "SFF-Ready Enthusiast GeForce Cards" คู่กับมาตรฐานเคส "Commpatible with SFF-Ready Enthusiast GeForce Cards" เพื่อให้ผู้ซื้อเคสขนาดเล็ก (Small Form Factor) มั่นใจได้ว่าจะติดตั้งการ์ดจอลงไปได้
มาตรฐานระบุขนาดของการ์ดเอาไว้ดังนี้
ตอนนี้ในตลาดมีการ์ดที่เข้ากันได้กับมาตรฐานนี้อยู่แล้ว 36 รุ่น ขณะที่ตัวเคสนั้น จะเพิ่มความยาวเป็น 312 มิลลิเมตร และความสูงเพิ่มเป็น 154.5 มิลลิเมตร เพื่อให้มีพื้นที่เหลือเพียงพอ ตอนนี้มีเคสที่ทำได้ตามมาตรฐานนี้แล้ว 23 รุ่น
AMD เปิดตัวแผนการออกจีพียูสำหรับศูนย์ข้อมูลแบรนด์ Instinct โดยซีอีโอ Dr. Lisa Su บอกว่ารอบการออกจีพียูใหม่จะปรับมาเป็นทุกปี เพื่อรองรับความต้องการทั้งจากตลาด AI และ HPC ที่ต้องการหน่วยความจำและแบนด์วิธที่มากขึ้น
โดยแผนการออกจีพียู Instinct ใหม่ เริ่มด้วย MI325X กำหนดออกในไตรมาส 4 ปีนี้ ตามด้วยซีรีส์ MI350 ซึ่งจะปรับปรุงมาใช้สถาปัตยกรรม CDNA4 กำหนดขายในปี 2025 และซีรีส์ MI400 ในปี 2026
สเป็กของ Instinct MI325X จะมีหน่วยความจำ HBM3E ถึง 288GB แบนด์วิธ 6 TB/s ประสิทธิภาพงาน inference และ token generation ดีกว่า H100 ของ NVIDIA 1.3 เท่า บนการทำงานผ่านซอฟต์แวร์ AMD ROCm 6
Jensen Huang ซีอีโอ NVIDIA ขึ้นพูดในงาน Computex ที่ไต้หวัน ประกาศข่าวว่า NVIDIA จะเปลี่ยนมาออกจีพียูใหม่ปีละครั้ง แทนธรรมเนียมเดิมที่ออกของใหม่ทุก 2 ปี
จีพียูของปี 2024 ใช้ชื่อว่า Blackwell ตามที่แถลงข่าวไปแล้วเมื่อต้นปี จากนั้นปีหน้า 2025 จะเป็น Blackwell Ultra รุ่นอัพเกรด (นี่มัน Tick-Tock รึเปล่านะ) แล้วปี 2026 จะเป็นจีพียูใหม่โค้ดเนม Rubin และสุดท้ายในแผนคือปี 2027 มากับ Rubin Ultra
กลุ่มบริษัทไอทียักษ์ใหญ่หลายราย นำโดยผู้ผลิตซีพียูรายใหญ่ทั้ง AMD, Intel รวมถึงบริษัทอื่นๆ ได้แก่ Broadcom, Cisco, Google, HPE, Meta, Microsoft ประกาศตั้งกลุ่ม Ultra Accelerator Link (UALink) วางมาตรฐานการเชื่อมต่อระหว่างจีพียูกับจีพียูในศูนย์ข้อมูล
ถ้าหากชื่อมันคุ้นๆ ก็ไม่ต้องแปลกใจ เพราะ UALink ออกมาเพื่อปลดแอก NVLink ระบบการส่งข้อมูลระหว่างจีพียูของบริษัทแห่งหนึ่งที่ครองตลาดจีพียูศูนย์ข้อมูลอยู่แทบทั้งหมดนั่นเอง
ไมโครซอฟท์เปิดให้ใช้งาน DirectSR API กลางของ OS สำหรับการอัพสเกลภาพ Super Resolution (SR) ที่ใช้กับจีพียูได้ทุกค่าย ทั้ง AMD FidelityFX Super Resolution (FSR), Intel XeSS, and NVIDIA DLSS Super Resolution
การมาถึงของ DirectSR ทำให้นักพัฒนาเกมสาย DirectX ทำงานง่ายขึ้น เพราะเขียนเกมให้รองรับ DirectSR อย่างเดียวพอ แล้ว DirectSR จะไปคุยกับจีพียูแต่ละค่ายให้เอง ผลลัพธ์ที่ได้คือเราคงได้เห็นเกมที่รองรับการทำอัพสเกลภาพกันเยอะขึ้น เพราะทำได้ง่ายขึ้นมาก
ในเบื้องต้น DirectSR รองรับ AMD FidelityFX Super Resolution (FSR) 2.2 มาพร้อมในตัว ส่วนอีก 2 ค่ายรองรับที่ระดับไดรเวอร์แล้วเช่นกัน
สำนักข่าว Reuters อ้างแหล่งข้อมูลที่เกี่ยวข้องเปิดเผยว่า NVIDIA ได้ลดราคาชิปสำหรับงานปัญญาประดิษฐ์หรือ AI ที่ขายในจีนลง เนื่องจากคู่แข่ง Huawei ได้พัฒนาชิปสำหรับงาน AI มาขายเช่นกันในราคาที่ถูกกว่า
จีนถือเป็นหนึ่งในตลาดที่สำคัญสำหรับ NVIDIA บริษัทประเมินว่ายอดขายส่วนนี้จะคิดเป็น 17% ของรายได้ทั้งหมดในปีนี้ จึงจำเป็นต้องรักษาส่วนแบ่งการตลาดในประเทศให้ได้ แต่ด้วยข้อจำกัดที่สหรัฐสั่งแบน ห้ามบริษัทจีนซื้อชิป AI รุ่นล่าสุด ทำให้ NVIDIA ขายชิป H20 สถาปัตยกรรม Hopper ที่ปรับปรุงให้ขายในจีนได้โดยเฉพาะ ซึ่งต้องแข่งขันกับ Huawei ที่มีชิป AI เทคโนโลยีล่าสุดคือ Ascend 910B เป็นตัวเลือก ซึ่งมีรายงานว่าผลทดสอบบางด้านแซง H20 ด้วย
Microsoft Azure ประกาศตัวเป็นผู้ให้บริการคลาวด์รายแรกที่เปิดเครื่อง VM ให้เช่า AMD Instinct MI300X ชิปเร่งความเร็ว AI รุ่นล่าสุดของ AMD ที่เปิดตัวเมื่อปลายปี 2023
AMD Instinct MI300X เป็นการ์ดเร่งความเร็วที่มีแต่จีพียู CDNA 3 ล้วนๆ (ยังมีรุ่น MI300A ที่มีซีพียู+จีพียู) จุดเด่นข้อหนึ่งของมันคือการใช้แรมความเร็วสูง HBM3 ทำให้แบนด์วิดท์ส่งข้อมูลเพิ่มขึ้นจากการ์ดรุ่นก่อนมาก
ตัว VM ของไมโครซอฟท์ใช้ชื่อว่า ND MI300X v5 โดย VM หนึ่งตัวมีการ์ด MI300X จำนวน 8 ตัว มีแรมขนาดใหญ่ 1.5TB แบนด์วิดท์แรม 5.3 TB/s เหมาะสำหรับงานประมวลผล AI ขนาดใหญ่ ระบบเครือข่ายใช้ InfiniBand ความเร็ว 400 Gb/s ต่อจีพียู รวมกันแล้วเป็น 3.2 Tb/s ต่อ VM
Amazon Web Services (AWS) ออกมาปฏิเสธข่าวจากรายงานของ Financial Times ที่บอกว่าตอนนี้ AWS ได้เข้าสู่การเปลี่ยนผ่านจีพียูในศูนย์ข้อมูลทั้งหมด โดยระงับคำสั่งซื้อจีพียู Hopper ทั้งหมด เพื่อรอเปลี่ยนเป็น Blackwell จีพียูรุ่นล่าสุดที่ NVIDIA เพิ่งเปิดตัวเมื่อเดือนมีนาคม ด้วยเหตุผลว่าส่วนต่างราคาไม่มาก จึงเลือกรอรุ่นที่ใหม่กว่า
Jensen Huang ซีอีโอ NVIDIA นำเซิร์ฟเวอร์ H200 ไปส่งให้ OpenAI ด้วยตัวเอง หลังจากที่เคยไปส่งเครื่อง DGX-1 ด้วยตัวเองตั้งแต่เมื่อตอนก่อตั้ง OpenAI เมื่อปี 2016
เซิร์ฟเวอร์ H200 เปิดตัวตั้งแต่ปลายปี 2023 และมีกำหนดส่งมอบไตรมาสที่สองของปี 2024 ซึ่ง Greg Brockman ระบุว่านี่เป็นเครื่องแรกของโลก
ที่มา - @gdb
กลุ่มบริษัทไอทีที่ประกอบด้วย Intel, Arm, Google, Samsung, Qualcomm, Fujitsu, Imagination, VMware ร่วมกับ Linux Foundation ก่อตั้งกลุ่ม Unified Acceleration (UXL) Foundation พยายามสร้างมาตรฐานเปิดสำหรับชิปเร่งการประมวลผล (accelerator) ที่มีหลากหลายยี่ห้อในท้องตลาด
งานของ UXL จะอิงกับสเปก oneAPI ที่ Intel บุกเบิกมาหลายปีแล้ว เพื่อมาถ่วงดุลกับ CUDA ของ NVIDIA ที่เป็นเจ้าตลาดนี้มายาวนาน และกลายเป็นตัวช่วยรักษาส่วนแบ่งตลาดจีพียูของ NVIDIA เนื่องจากซอฟต์แวร์จำนวนมากในวงการนั้นอิงกับ CUDA (เหมือน Intel ไปเรียกพวกมาช่วยสนับสนุน oneAPI)