Tags:
Node Thumbnail

ไมโครซอฟท์ปล่อยโมเดลปัญญาประดิษฐ์ LLM Phi-4 รุ่นล่าสุด ออกมาสามรุ่นย่อย ได้แก่ Phi-4, Phi-4-multimodal, และ Phi-4-mini ชูจุดเด่นความสามารถเทียบเท่ากับโมเดลที่ขายเป็น API ในตลาด ขณะที่โมเดลมีขนาดเล็กสามารถรันได้เองในบ้านได้

ตัว Phi-4 พื้นฐานนั้นมีขนาด 14B ใกล้เคียงกับ Qwen2.5-14B แต่คะแนนทดสอบนั้นขึ้นไปถึงระดับ Qwen2.5-72B แถมยังเก่งกับปัญหาคณิตศาสตร์เป็นพิเศษ แซงหน้า Gemini 1.5 Pro ไปเล็กน้อย แต่โมเดลรองรับอินพุตเพียง 16,000 token

Tags:
Node Thumbnail

ไมโครซอฟท์โอเพนซอร์สโมเดลปัญญาประดิษฐ์ Phi-4 ผ่าน Hugging Face แล้ว ตามที่เคยประกาศไว้ ภายใต้สัญญาอนุญาตแบบ MIT

ไมโครซอฟท์เปิดตัว Phi-4 ที่เป็นโมเดลภาษาขนาดเล็ก (Small Language Model) 14B พารามิเตอร์ เมื่อเดือนที่แล้ว โดยจำกัดให้ใช้งานผ่าน Azure AI Foundry การโอเพนซอร์สโมเดลนี้พร้อมสัญญาอนุญาตแบบ MIT ที่สามารถนำไปใช้งานต่อในเชิงพาณิชย์ได้ น่าจะเพิ่มทางเลือกให้กับพัฒนาได้

Phi-4 มีผลทดสอบที่โดดเด่น โดยเฉพาะการแก้ปัญหาคณิตศาสตร์ หรือหัวข้อเฉพาะทาง รวมทั้งมีคะแนนที่สูงกว่าโมเดลขนาดใหญ่กว่าอย่าง Gemini Pro 1.5 ในบางหัวข้อด้วย

Tags:
Node Thumbnail

ไมโครซอฟท์เปิดตัว Phi-4 โมเดลปัญญาประดิษฐ์ LLM ขนาดเล็ก 14B พารามิเตอร์ รุ่นใหม่ล่าสุดในตระกูล Phi ซึ่งระบุว่ามีความสามารถที่ดีขึ้นจากรุ่นก่อนหน้า โดยเฉพาะการคำนวณทางคณิตศาสตร์

ผลการเปรียบเทียบในการทำข้อสอบคณิตศาสตร์แข่งขัน AMC ของสหรัฐอเมริกา พบว่า Phi-4 มีคะแนนสูงสุด และดีกว่าแม้เทียบกับโมเดลขนาดใหญ่อย่าง Gemini Pro 1.5 ส่วนโมเดลขนาดเล็กนั้นมีคะแนนนำโดดเด่นไม่ว่าจะเป็น Gemini Flash 1.5, GPT 4o-mini หรือ Qwen 2.5

Phi-4 เปิดให้ใช้งานแล้วผ่าน Azure AI Foundry ภายใต้ข้อตกลง Microsoft Research License (MSRLA) และจะเผยแพร่ทาง Hugging Face ภายในสัปดาห์หน้า

Tags:
Node Thumbnail

ไมโครซอฟท์เปิดเผยรายละเอียดเบื้องหลัง Copilot+ PC ที่เป็นการนำพีซีพลัง NPU มารันโมเดลปัญญาประดิษฐ์แบบ on-device ภายในเครื่อง ตกลงแล้วโมเดลตัวที่ว่านี้ชื่อว่า Phi Silica (อ่านว่า "ไฟ ซิลิกา") ถือเป็นหนึ่งในเวอร์ชันย่อยของชุดโมเดล Phi 3 โดยปรับแต่งมาเพื่อการรันบน NPU โดยเฉพาะ

Phi Silica พัฒนาต่อมาจาก Phi-3-mini โมเดลรุ่นเล็กสุดของซีรีส์ Phi-3 แล้วปรับขนาดให้เล็กลงอีกหน่อย (ขนาดพารามิเตอร์ลดลงจาก 3.8B เหลือ 3.3B) เพื่อให้รันใน NPU ได้พอดี ศักยภาพของ Phi Silica รองรับอินพุต 650 token ต่อวินาที ใช้พลังงานเพียง 1.5 วัตต์เท่านั้น

Tags:
Node Thumbnail

ในงาน Build 2024 เมื่อคืนนี้ ไมโครซอฟท์เปิดตัวโมเดลขนาดเล็ก Phi 3 ครบชุด หลังจากเปิดตัว Phi-3-mini มาตั้งแต่เดือนเมษายน

โมเดลในชุด Phi 3 มีด้วยกันทั้งหมด 4 ตัว เป็นโมเดลภาษา (small language model หรือ SML) จำนวน 3 ขนาด พ่วงด้วยของใหม่คือโมเดลภาพ (multimodal) ตัวแรกของไมโครซอฟท์ที่เปิดซอร์สออกมาคือ Phi-3-vision

Tags:
Node Thumbnail

ไมโครซอฟท์ปล่อยโมเดลปัญญาประดิษฐ์แบบ LLM ขนาดเล็ก phi-3-mini ที่มีขนาดเพียง 3.8 พันล้านพารามิเตอร์ แต่สามารถทำคะแนน MMLU ได้ 69% และคะแนน MT-Bench 8.38 นับว่าใกล้เคียง GPT-3.5 อย่างมาก (MMLU 70.0%, MT-Bench 7.94) ชนะ Llama 3 ขนาด 8B ที่เพิ่งออกมาอีกด้วย

โมเดลตระกูล Phi-3 ยังมีอีกสองรุ่น คือ phi-3-small ขนาด 7B, และ phi-3-medium ขนาด 14B ขณะที่รุ่น phi-3-mini นั้นเมื่อใช้งานแบบ quantized 4 bit จะใช้แรมเพียง 1.8GB สามารถรันบน iPhone 14 ด้้วยอัตรา 12 โทเค็นต่อวินาที

ในแง่ความปลอดภัย phi-3 ยังตอบสนองต่อเนื้อหาอันตรายน้อยลงกว่า phi-2 มาก เหลือเพียง 0.75% เทียบกับ phi-2 ที่ตอบ 2.93%

Tags:
Node Thumbnail

ไมโครซอฟท์ปล่อยโมเดลภาษาขนาดเล็ก (small language model หรือ SLM) ชื่อ Phi-2 ขนาด 2.7 พันล้านพารามิเตอร์ ให้ลูกค้าใช้งานบน Azure AI Studio

Phi-2 เป็นผลงานพัฒนาของทีม Machine Learning Foundations ภายใต้ Microsoft Research ตัวมันเองเป็นโมเดลแบบ Transformer เทรนบนข้อมูลขนาด 1.4T token บนเครื่อง NVIDIA A100 GPU จำนวน 96 ตัว ใช้เวลาเทรน 14 วัน ถือเป็นโมเดลที่สร้างโดยคนของไมโครซอฟท์เอง ไม่ต้องพึ่งพาฝั่ง OpenAI

ไมโครซอฟท์เปิดตัว Phi-2 ครั้งแรกในงาน Ignite เมื่อเดือนที่แล้ว จุดเด่นของมันคือเป็นโมเดลขนาด 2.7B ที่มีประสิทธิภาพใกล้เคียงหรือเหนือกว่าโมเดลขนาดที่ใหญ่กว่ามัน 25 เท่า

Tags:
Node Thumbnail

อินเทลเดินหน้าบุกตลาดซุปเปอร์คอมพิวเตอร์ต่อเนื่องจากการ์ด Xeon Phi ในงาน SC14 อินเทลก็เปิดตัวการ์ดรุ่นต่อไปชื่อรหัสว่า Knight Hill ที่ยังไม่มีรายละเอียดอย่างอื่นนอกจากมันจะผลิตด้วยเทคโนโลยี 10 นาโนเมตร และรองรับการเชื่อมต่อภายนอก Omni-Path

Omni-Path เป็นการเชื่อมต่อแบบใหม่ที่รองรับแบนวิดท์ได้สูงสุด 100 Gbps และทำ latency ต่ำกว่า Infiniband ลง 56% ตัวสวิตช์ของ Omni-Path จะมีพอร์ตถึง 48 พอร์ตต่อสวิตช์ทำให้เครื่องมีความหนาแน่นกว่าเดิม

ความได้เปรียบสำคัญอีกอย่างหนึ่งของ Omni-Path คือการที่ Xeon Phi จะมีอินเทอร์เฟซโดยตรง ทำให้หน่วยประมวลผลสามารถสื่อสารข้ามเครื่องกันได้โดยตรง

Tags:
Node Thumbnail

การ์ด Intel Phi เป็นการ์ดคำนวณประสิทธิภาพสูง กระบวนการทำงานออกแบบสำหรับการคำนวณกับข้อมูลขนาดใหญ่ๆ ที่มีกระบวนการคำนวณเป็นแบบเดียวกันเป็นชุดๆ ตัว Intel Phi เองแม้จะราคาไม่แพงเกินไป (ต่ำกว่าแสน) แต่ก็ไม่ใช่ของที่เราจะเห็นกันได้ทั่วไปเหมือนการ์ดกราฟิก แนวทางของอินเทลจึงเป็นอาศัยการตั้งศูนย์ทดสอบเพื่อให้นักพัฒนาเข้าไปลองใช้งานการ์ดนี้กัน และตอนนี้การ์ดใบนี้ก็มาตั้งเป็นศูนย์ทดสอบในเมืองไทยแล้วที่มหาวิทยาลัยเกษตรศาสตร์

ศูนย์ทดสอบนี้เพิ่งจัดสัมมนาไปเมื่อสัปดาห์ที่ผ่านมา โดยส่วนมากผู้เข้าร่วมจะเป็นอาจารย์มหาวิทยาลัยต่างๆ แต่ศูนย์นี้ก็เปิดให้คนภายนอกเข้าไปทดลองใช้งานได้โดยเขียนข้อเสนอโครงการคร่าวๆ ว่าจะใช้ Phi เพื่อทำอะไรแล้วอีเมลเข้าไปยังโครงการ

Tags:
Node Thumbnail

การ์ด Phi เพิ่งทำให้เครื่อง Tianhe-2 ขึ้นที่หนึ่งซุปเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกไป อินเทลก็อาศัยโอกาสนี้เปิดตัวการ์ด Phi รุ่นใหม่อีกส่ามรุ่น คือ 7120, 3120, และ 5120D

Phi 7120 จะเป็นรุ่นใหญ่สุดในบรรดการ์ด Phi ที่อินเทลขายอยู่ตอนนี้ จุดเด่นของมันคือการเพิ่มแรมบนการ์ดเป็น 16GB ทำให้มีแรมสำหรับแต่ละคอร์เพิ่มขึ้นมาก ความเร็วในการคำนวณเพิ่มขึ้นเล็กน้อยเป็น 1.2 TFLOP สำหรับการคำนวณตัวเลข double precision (DP) แต่ในการใช้งานจริงก็จะใช้งานง่ายขึ้นมาก แยกสองรุ่นคือรุ่น P จะมีพัดลมระบายความร้อนมาด้วย ส่วนรุ่น X ไม่มีให้

Tags:
Node Thumbnail

Intel Xeon Phi เปิดตัวมานาน แม้เราจะรู้ว่ามันเป็นชิปในตระกูล MIC แต่ก็ไม่เคยมีรายละเอียดออกมาจริงจังว่าสถาปัตยกรรมภายในเป็นอย่างไร แต่หลังจากงาน Hotchips ปีนี้อินเทลก็เริ่มเปิดเผยรายละเอียดภายในของ Phi แล้ว

George Chrysos หัวหน้าฝ่ายสถาปัตยกรรมของ Phi ระบุว่าการออกแบบทำเพื่อจุดมุ่งหมายสามประการ คือ