Meta ปล่อยโมเดล Llama 3.2 รุ่นเล็ก ขนาดพารามิเตอร์ 1B และ 3B แบบลดขนาดโมเดลลงจากปกติ (quantized) ตั้งใจทำมาให้เล็กจนรันในอุปกรณ์พกพาได้ และเพิ่มความเร็วในการตอบคำถาม
ก่อนหน้านี้ Meta มี Llama 3.2 ขนาดพารามิเตอร์ 1B/3B อยู่แล้ว รอบนี้เป็นเวอร์ชันลดขนาดโมเดลลงได้อีก 56% (โมเดลรุ่น 1B ลดเหลือประมาณ GB จากขนาดเดิม 2.3GB) โดยยังคงคุณภาพและความปลอดภัยในระดับใกล้เคียงโมเดลต้นฉบับ ขนาดโมเดลที่ลดลงทำให้ลดหน่วยความจำที่ต้องใช้ลงได้ 41% และเพิ่มความเร็วได้ 2-4 เท่า
Meta จับมือกับผู้ผลิตชิปมือถือรายใหญ่ทั้ง MediaTek และ Qualcomm ให้รองรับโมเดลรุ่นนี้บนซีพียู Arm แล้ว และกำลังพัฒนาให้รองรับการใช้งานบน NPU ต่อไป
เทคนิคการลดขนาดโมเดลของ Meta มีให้เลือกสองวิธีคือ Quantization-Aware Training with LoRA adaptors (QLoRA) เน้นความแม่นยำของผลลัพธ์ และ SpinQuant เน้นที่ขนาดของโมเดล ผู้ใช้งานเลือกได้ว่าต้องการแบบไหน อ่านรายละเอียดเรื่องเทคนิคลดขนาดได้จากที่มา
ตอนนี้ Llama มีโมเดลให้เลือกทั้งหมด 3 กลุ่มคือ
ที่มา - Meta AI
Comments
ตัว 3.2 ก็คือ multi-modal ที่ออกมาแล้วป่าวครับ เพราะ 3.2 คือ ความสามารถด้าน text ของ 3.1 แล้วเพิ่มความสามารถด้านรูปภาพเข้าไป
ตามหน้าเว็บเลยนะครับ
เพิ่มแรมมือถือมันเข้าไปอีกเยอะๆ จะแซงคอมบ้านๆ กันอยู่แล้ว
จากตาราง ขนาดไฟล์น่าจะผิดหน่วยนะครับ
iPAtS
แก้ละครับ ขอบคุณครับ