ในงาน Build 2024 เมื่อคืนนี้ ไมโครซอฟท์เปิดตัวโมเดลขนาดเล็ก Phi 3 ครบชุด หลังจากเปิดตัว Phi-3-mini มาตั้งแต่เดือนเมษายน
โมเดลในชุด Phi 3 มีด้วยกันทั้งหมด 4 ตัว เป็นโมเดลภาษา (small language model หรือ SML) จำนวน 3 ขนาด พ่วงด้วยของใหม่คือโมเดลภาพ (multimodal) ตัวแรกของไมโครซอฟท์ที่เปิดซอร์สออกมาคือ Phi-3-vision
Phi-3-vision เป็นโมเดลที่รองรับทั้งภาพและข้อความ ขนาดพารามิเตอร์ 4.2B ปรับแต่งมาให้อ่านชาร์ทและแผนภาพได้ดี ตอบคำถามได้ลงลึก และเบนช์มาร์คของไมโครซอฟท์เองพบว่าเอาชนะโมเดลที่ใหญ่กว่าอย่าง Claude-3 Haiku และ Gemini 1.0 Pro V ได้ในหลายชุดทดสอบ
ผู้ที่สนใจลองเล่น Phi-3-vision สามารถทดสอบผ่านหน้าเว็บได้จาก Azure AI Studio
ตัวอย่าง Phi-3-vision อ่านชาร์ทแล้วอธิบาย
ฝั่งของโมเดลภาษา Phi 3 ยังเน้นความเป็นโมเดลขนาดเล็ก ใช้ทรัพยากรในการรันต่ำ แต่ได้ประสิทธิภาพสูง โมเดลที่เปิดตัวมี 3 ขนาดคือ
ตัวอย่างของไมโครซอฟท์โชว์ว่าโมเดลระดับกลาง Phi-3-small ขนาด 7B สามารถเอาชนะ GPT-3.5T ที่ขนาดใหญ่กว่ามากได้ ส่วนโมเดลตัวบนสุด Phi-3-medium ขนาด 14B เอาชนะ Gemini 1.0 Pro ได้
อีกประเด็นที่น่าสนใจคือ ไมโครซอฟท์บอกว่าโมเดลตระกูล Phi ปรับแต่งมาให้รันบนฮาร์ดแวร์ที่หลากหลาย ไม่ใช่แค่ฝั่ง NVIDIA แต่ยังจับมือกับอินเทลพัฒนาให้ใช้กับฮาร์ดแวร์ค่ายอินเทล (ทั้ง Xeon, Gaudi, Arc, Core Ultra) ได้ด้วย (แล้ว AMD ล่ะ!) รองรับเฟรมเวิร์คยอดนิยมทั้ง ONNX Runtime และ DirectML ให้สามารถนำไปใช้งานได้หลากหลาย ทั้งอุปกรณ์พกพาและการรันบนเว็บ
ตอนนี้โมเดลชุด Phi-3 เปิดให้บริการแล้วผ่าน Azure AI และ Hugging Face
ที่มา - Microsoft
Comments
3B กลายเป็น small language model ไปแล้ว แต่ปัจจุบัน คอมพิวเตอร์ทั่วไป และ มือถือยังรันโมเดล LLM 3B แบบ float16 ยากเลย ไม่เหมือนสมัย BERT ที่ small language model เป็นโมเดลที่เล็ก ๆ รันได้ในคอมพิวเตอร์ทั่วไป
บล็อก: wannaphong.com และ Python 3
ลองเข้าไปใช้ใน Azure AI Studio มันเอ๋อมาก output ข้อมูลซ้ำๆ ต่อเนื่องไม่มีสิ้นสุด 555