NVIDIA เปิดตัวโมเดล Llama Nemotron Reasoning ชุดโมเดล LLM แบบคิดก่อนตอบที่ช่วยเพิ่มความแม่นยำของคำตอบขึ้น 20% โดยฝึกต่อจาก Llama ด้วยชุดข้อมูลแสดงวิธีคิด
ทาง NVIDIA สร้างชุดข้อมูลคิดก่อนตอบขนาด 60,000 ล้านโทเค็น โดยใช้คนมาช่วยดูข้อมูลอีกครั้ง รวมใช้เวลาตรวจข้อมูล 45,000 ชั่วโมง ใช้เวลารันโมเดลด้วย H100 รวม 360,000 ชั่วโมง
โมเดลมี 3 ขนาด ได้แก่ Nano ขนาดเล็กมาก, Super สำหรับการรันบน GPU สำหรับเซิร์ฟเวอร์ตัวเดียว, และ Ultra สำหรับการรันในเซิร์ฟเวอร์หลาย GPU โดยทาง NVIDIA ไม่ได้ฝึกเพิ่มอย่างเดียว แต่ยังตัดแต่ง (prune) โมเดลเพื่อให้โมเดลรันได้เร็วขึ้น ตัวโมเดลยังถูกฝึกให้หยุดคิดได้ในกรณีที่ผู้ใช้ต้องการคำตอบเร็วๆ จึงสามารถใช้งานได้ทั้งแบบปกติและแบบคิดก่อนตอบคล้าย Claude 3.7
ทาง NVIDIA เปิดให้ดาวน์โหลดโมเดลผ่านทาง NIM Micro Services ตอนนี้ยังมีเฉพาะรุ่น Nano และ Super ส่วนรุ่น Ultra จะปล่อยออกมาภายหลัง และจะเปิดชุดข้อมูลแสดงวิธีคิดออกมาด้วย การใช้งานเพื่อการทดสอบ, วิจัย, และพัฒนานั้นใช้งานได้ฟรี
ที่มา - NVIDIA