ไมโครซอฟท์ปล่อยโมเดลปัญญาประดิษฐ์ LLM Phi-4 รุ่นล่าสุด ออกมาสามรุ่นย่อย ได้แก่ Phi-4, Phi-4-multimodal, และ Phi-4-mini ชูจุดเด่นความสามารถเทียบเท่ากับโมเดลที่ขายเป็น API ในตลาด ขณะที่โมเดลมีขนาดเล็กสามารถรันได้เองในบ้านได้
ตัว Phi-4 พื้นฐานนั้นมีขนาด 14B ใกล้เคียงกับ Qwen2.5-14B แต่คะแนนทดสอบนั้นขึ้นไปถึงระดับ Qwen2.5-72B แถมยังเก่งกับปัญหาคณิตศาสตร์เป็นพิเศษ แซงหน้า Gemini 1.5 Pro ไปเล็กน้อย แต่โมเดลรองรับอินพุตเพียง 16,000 token
Phi-4-multimodal เป็นรุ่นแยกออกมา มีขนาดเพียง 5.6B แต่รองรับอินพุตทั้งเสียง, ภาพ, และข้อความ ผลทดสอบการอ่านภาพนั้นแซงโมเดลอย่าง Gemini 2.0 Flash คุณภาพการทำ OCR ระดับเดียวกับ Gemini 2.0 Flash Lite/Claude 3.5 Sonnet รวมถึงการแปลงเสียงเป็นข้อความก็ทำได้แม่นยำ
Phi-3.8-mini เป็นรุ่นเล็กที่สุดขนาด 3.8B รับและตอบเป็นข้อความอย่างเดียว แต่รองรับอินพุตถึง 128,000 token เน้นประสิทธิภาพการทำตามคำสั่ง, การเรียกใช้เครื่องมือ ทำให้สามารถฝังเข้าไปในโปรแกรมต่างๆ เพื่อเป็นผู้ช่วยได้
โมเดลทั้งหมดเปิดให้ดาวน์โหลดด้วยไลเซนส์ MIT สามารถใช้งานได้อิสระ