ไมโครซอฟท์ประกาศรองรับการรันโมเดล DeepSeek-R1 แบบกลั่นแล้ว (distilled) เหลือขนาดพารามิเตอร์ 1.5B, 7B และ 14B บนชิป NPU ของพีซีกลุ่ม Copilot+ PC ตามที่เคยประกาศไว้
ไมโครซอฟท์บอกว่าใช้เทคนิคหลายอย่าง เช่น 4-bit block wise quantization, QuaRot, ONNX QdQ เพื่อลดขนาดของโมเดลให้เล็กลง ซึ่งเป็นเทคนิคที่เริ่มใช้งานจากโมเดล Phi Silica ของตัวเอง
ข้อดีของการรันโมเดลบน NPU คือประหยัดต้นทุนค่าเช่าคลาวด์ เพราะพีซีรุ่นใหม่ๆ ล้วนมี NPU มาให้ในตัวแล้ว สามารถประมวลผลโมเดลได้ดีกว่าซีพียู-จีพียูแบบดั้งเดิม
พีซีที่รองรับจะเริ่มด้วยกลุ่ม Snapdragon X ก่อน แล้วกลุ่ม Intel Core Ultra 200V และ AMD Ryzen จะตามมาในลำดับถัดไป สเปกขั้นต่ำจำเป็นต้องมีแรม 16GB ขึ้นไป เริ่มใช้งานได้ผ่าน AI Toolkit for Visual Studio Code
ที่มา - Microsoft
Comments
NPU จะได้มีที่อยู่เป็นหลักเป็นแหล่งเสียที
CPU 100% อยู่ดีนี่
จะได้มีอะไรที่ใช้ npu แบบจริงจังแล้ว
ไร้ประโยชน์เหมือนเดิม ซอฟต์แวร์มีแค่ค่าย M$ ทำให้ (แถมคนส่วนใหญ่ไม่ใช้กัน) แถมพวก บ. CPU อย่าง A กับ I และ S ที่มีชิป NPU เหมือนพยายามกั๊กให้แค่ Windows ใช้ได้ ส่วน Linux ไม่มาสนใจ หรือ ทำแต่ช้า ๆ อย่าง llama.cpp ยังไม่สนับสนุน NPU เลย ทำให้ ollama / LLM studio ที่คนส่วนใหญ่ใช้กัน ไม่รองรับ
บล็อก: wannaphong.com และ Python 3
ต่อให้รองรับผมก็สงสัยอยู่ดีว่า NPU นี่มันเวิร์คแค่ไหน เจอ quantized 4 bit เข้าไปถ้าไม่ใช่งานเฉพาะทาง คุณภาพมันแย่มาก
lewcpe.com, @wasonliw
ดีมาก ให้โลคอลเยอะขึ้นจะได้รู้สึกแจ่มขึ้นหน่อย รอเกี่ยวกับเกมอยู่ด้วย
สนใจแค่ technical เอาไปใช้ที่อื่นบ้าง
มือใหม่!! ใหม่จริงๆนะ