Alibaba เผยแพร่โมเดลปัญญาประดิษฐ์ Qwen2.5-Max ซึ่งเป็นโมเดลภาษาขนาดใหญ่แบบ MoE (Mixture-of-Expert) เหมือนกับ DeepSeek V3 ถูก Pre-train มากกว่า 20 ล้านล้านโทเค็น และทำ Post-Train ด้วยวิธี SFT (Supervised Fine-Tuning) และ RLHF (Reinforcement Learning from Human Feedback)
ผลทดสอบความสามารถของ Qwen2.5-Max ได้คะแนนเหนือกว่า DeepSeek-V3, GPT-4o และ Claude-3.5-Sonnet ในหัวข้อเช่น Arena-Hard, LiveBench ส่วนหัวข้ออย่าง MMLU-Pro กับ LiveCodeBench คะแนนสูงกว่า DeepSeek-V3 แต่น้อยกว่า Claude-3.5-Sonnet
Qwen2.5-Max เปิดให้ใช้งานแล้ววันนี้ผ่าน API ของ Alibaba Cloud และผ่านบริการ Qwen Chat
Alibaba เปิดตัวโมเดลปัญญาประดิษฐ์ใหม่ในตระกูล Qwen2.5 ชื่อว่า Qwen2.5-VL โดย VL ย่อมาจาก Vision Language เป็นรุ่นถัดจาก Qwen2-VL มีความสามารถเข้าใจวิดีโอ รูปภาพ ข้อความ และเป็น Agentic ที่ทำงานแทนได้ด้วย
ตัวอย่างความสามารถที่พิเศษขึ้นของ Qwen2.5-VL เช่น การรู้จักภาพสถานที่ ฉากภาพยนตร์ รายการทีวี สินค้า, สามารถระบุลักษณะวัตถุในภาพตามเงื่อนไข และส่งออกเป็นไฟล์ JSON ได้, ระบุตัวอักษรที่หลากหลายแบบในภาพเดียวได้, สามารถส่งออกไฟล์เอกสารออกมาเป็นฟอร์แมตที่ต้องการได้, สามารถดึงข้อมูลจากวิดีโอออกมาได้ และทำหน้าที่เป็น Agent รันบนคอมพิวเตอร์หรือสมาร์ทโฟนได้
Alibaba Cloud เปิดบริการ Qwen Chat แบบเดียวกับ ChatGPT ให้ลูกค้าบุคคลทั่วไปใช้งาน จากเดิม Qwen เปิดให้บริการ API บน Alibaba Cloud สำหรับลูกค้าองค์กรเป็นหลัก
Qwen Chat ให้บริการทั้งโมเดล Qwen เวอร์ชั่นโอเพนซอร์สและเวอร์ชั่นปิดที่เคยต้องเรียกผ่าน API เท่านั้น รวมถึงโมเดลแบบคิดก่อนตอบอย่าง QwQ และ QVQ ด้วย
หน้าจอใช้ OpenWebUI แบบเดียวกับที่จุฬาลงกรณ์มหาวิทยาลัยใช้งาน ทำให้มีฟีเจอร์ตามมาหลายตัว เช่น การเปรียบเทียบโมเดลรุ่นต่างๆ ตอนนี้ยังไม่มีเงื่อนไขค่าบริการแต่อย่างใด
ที่มา - @Alibaba_Qwen
Alibaba Cloud ประกาศลดราคาค่าใช้งานโมเดลปัญญาประดิษฐ์ที่รับอินพุทเป็นรูปภาพและวิดีโอ Qwen-vl-max ลง 85% โดยราคาอยู่ที่ 0.003 หยวนต่อ 1,000 อินพุทโทเค็น
การลดราคานี้เพื่อให้โมเดลทำความเข้าใจรูปภาพของ Alibaba Cloud สามารถแข่งขันด้านราคากับโมเดลประเภทเดียวกันของ ByteDance ได้ ซึ่งคิดราคาที่ 0.003 หยวน เท่ากัน
ประกาศนี้สะท้อนว่าการแข่งขันเรื่องโมเดลปัญญาประดิษฐ์ของผู้ให้บริการในจีนมีเพิ่มมากขึ้น ปัจจุบันการให้บริการโมเดลปัญญาประดิษฐ์ในจีน ต้องได้รับการอนุมัติจากหน่วยงานก่อน ซึ่งตอนนี้มีโมเดล Generative AI ที่ถูกอนุมัติแล้ว 252 โมเดล ผู้ให้บริการจึงเริ่มใช้การลดราคา มาดึงดูดให้เกิดการเลือกใช้งาน
ทีม Qwen ของ Alibaba Cloud เปิดโมเดล QvQ-72B-Preview ที่พัฒนาต่อจาก Qwen-VL-72B แต่ฝึกให้คิดเป็นขั้นเป็นตอนเพื่อเพิ่มความแม่นยำมากขึ้น
ผลทดสอบที่ทีม Qwen ใช้ทดสอบมี 4 ชุด ได้แก่ MMMU, MathVista, MathVision, และ OlympiadBench คะแนนที่ได้ขึ้นไปถึงระดับ Claude 3.5 Sonnet เข้าใกล้ OpenAI o1 มากขึ้น โดยพฤติกรรมของโมเดลจะคิดไปเรื่อยๆ และตอบคำถามสุดท้าย
โมเดลเปิดให้ทดสอบผ่าน HuggingFace ไฟล์โมเดลเปิดให้ดาวน์โหลดในไลเซนส์แบบ Qwen License โดยตอนนี้ยังส่งคำสั่งได้รอบเดียว ไม่สามารถคุยต่อเนื่องได้
ที่มา - QwenLM
ทีม Qwen ของ Alibaba Cloud เปิดโตัวโมเดลปัญญาประดิษฐ์ QwQ (อ่านว่า ควิว/quil) เป็นโมเดลเพื่อการทดลองที่จะไม่มุ่งตอบคำถามทันที แต่พยายามคิดทบทวนก่อน ทำให้คำตอบที่ได้แม่นยำขึ้น
ความโดดเด่นของ QwQ-32B คือคะแนนทดสอบหลายชุดทดสอบ เช่น GPQA, AIME, MATH-500, หรือ LiveCodeBench นั้นสูงขึ้นมาก เทียบชั้นกับ OpenAI o1-preview เลยทีเดียว อย่างไรก็ดีทีมงานพบปัญหาการคิดของโมเดลมักสลับภาษาไปมา (ผมทดลองถามภาษาไทยก็คิดเป็นภาษาจีน) บางครั้งคิดวนไปวนมาไม่ได้คำตอบ นอกจากนี้ยังต้องเพิ่มความระมัดระวังความปลอดภัยในการใช้งาน และคะแนนทดสอบก็อาจจะมีข้อจำกัดไม่สามารถทดสอบความสามารถบางด้าน
Alibaba เปิดโมเดล Qwen2.5-Turbo โมเดลปัญญาประดิษฐ์ที่ปรับปรุงขึ้นจากรุ่นโอเพนซอร์ส เน้นขนาดข้อมูลที่รองรับได้ จากเดิม 128,000 โทเค็นเป็น 1 ล้านโทเค็น ทำให้รองรับข้อมูลระดับหนังสือทั้งเล่มได้ คิดเป็นขนาดข้อมูลประมาณ 1 ล้านคำหรืออักษรจีน 1.5 ล้านตัวอักษร
ผลทดสอบของ Qwen2.5-Turbo ค่อนข้างดีมากการถามตอบจากข้อมูลขนาดใหญ่ Passkey Retrieval ได้เต็ม 100 คะแนน ขณะที่ชุดทดสอบ RULER ก็ได้คะแนนสูงกว่า GPT-4 เมื่อใส่ข้อมูลเต็ม 1 ล้านโทเค็นจะเริ่มตอบใน 68 วินาที ราคาต่อ 1 ล้านโทเค็นอยู่ที่ 0.3 หยวน ถูกกว่า GPT-4o-mini อยู่ 4.6 เท่าตัว
ทีมวิจัย Qwen ของ Aliababa เปิดตัวโมเดล Qwen2.5-Coder โมเดล LLM ช่วยเขียนโค้ดที่ปรับปรุงกระบวนการฝึกจนได้ประสิทธิภาพสูงสุดในหมู่โมเดลโอเพนซอร์ส คะแนนทดสอบรวมพอๆ กับ GPT-4o ในการทดสอบหลายตัว
กระบวนการฝึก Qwen2.5-Coder นั้นอาศัยการฝึกเป็นขั้น เริ่มตั้งแต่การฝึกโค้ดแบบไฟล์เดี่ยว (file-level pretrain) แล้วขยับมาเป็นการฝึกแบบหลายไฟล์ (repo-level pretrain) สุดท้ายจึงฝึกการเขียนโค้ดตามคำสั่ง โดยอาศัยชุดข้อมูลโค้ดที่พบในอินเทอร์เน็ต นำมาสร้างคำสั่งเพื่อให้ได้โค้ดนั้น แล้วจึงนำชุดข้อมูลไปฝึก
จุดเด่นสำคัญของ Qwen2.5-Coder คือมันสามารถสร้างโค้ดได้หลายภาษาในคุณภาพค่อนข้างสูง เนื่องจากทีมงานสร้างชุดข้อมูลภาษาโปรแกรมอื่นๆ ที่มีชุดข้อมูลน้อยเพิ่มเข้ามา
Alibaba Cloud เปิดบริการ LLM ของตัวเองในตระกูล Qwen แต่เป็นเวอร์ชั่นไม่เปิดให้ดาวน์โหลดโมเดล ได้แก่ Qwen-Max, Qwen-Plus, และ Qwen-Turbo โดยชูความสามารถของ Qwen-Max ว่าใกล้เคียง Llama3.1-405B และ GPT-4o แล้ว โดยเอาชนะได้บางขุดทดสอบ เช่น MATH หรือ LiveCodeBenach
ราคาค่าใช้งาน Qwen-Max อยู่ที่ 10 ดอลลาร์ต่อล้านโทเค็นสำหรับอินพุต และ 30 ดอลลาร์ต่อล้านโทเค็นสำหรับเอาท์พุต แพงกว่า GPT-4o ประมาณเท่าตัว
สำหรับโมเดลอื่นๆ ที่เปิดตัวมาพร้อมกัน เช่น Tongyi Wanxiang โมเดลสร้างภาพและวิดีโอจากข้อความ, Qwen2-VL โมเดลที่รับภาพและวิดีโอ, AI Developer ตัวช่วยเขียนโปรแกรม
Alibaba Cloud เปิดตัวโมเดลปัญญาประดิษฐ์ Qwen เวอร์ชั่น 2.5 จุดเด่นของโมเดลเวอร์ชั่นนี้คือฝึกด้วยข้อมูลขนาดถึง 18 ล้านล้านโทเค็น รองรับ 29 ภาษารวมภาษาไทย โดยเปิดให้ใช้งานได้อิสระแทบทุกรุ่น
ตัวโมเดลรองรับอินพุต 128K token และตอบข้อมูลได้ 8K token ยกเว้นรุ่น 3B ลงไปจะรองรับอินพุต 32K token เท่านั้น
รุ่นใหญ่สุด Qwen2.5-72B ได้ผลทดสอบชนะ Llama3.1-70B แทบทุกการทดสอบขึ้นไปใกล้เคียง Llama3.1-405B แต่เวอร์ชั่น 72B แจกแบบ Qwen License ซึ่งจำกัดการใช้งานกับบริการที่ผู้ใช้เกิน 100 ล้านคนต่อเดือน
Alibaba Cloud ปล่อยโมเดล LLM ตระกูล Qwen 2 รุ่นล่าสุด Qwen2-VL โดย VL ย่อมาจาก Vision Language ที่พัฒนาบนพื้นฐานของ Qwen2
Qwen2-VL มีจุดเด่นคือความสามารถในการทำความเข้าใจรูปภาพ ที่มีความละเอียดและอัตราส่วนภาพหลากหลาย ผลการทดสอบทำงานได้ดีกว่าโมเดลประเภทเดียวกัน ซึ่งสามารถนำไปประยุกต์ใช้ได้กับอุปกรณ์ที่ต้องใช้การทำความเข้าใจภาพที่เห็น เช่น สมาร์ทโฟน, หุุ่นยนต์ หรือระบบอัตโนมัติอื่นที่ต้องอาศัยภาพในการตัดสินใจ
ความสามารถของ Qwen2-VL ยังสามารถสรุปเนื้อหาวิดีโอได้ที่ความยาวถึง 20 นาที โดยสามารถตอบคำถามเนื้อหาจากวิดีโอ หรือสรุปบทสนทนาได้ด้วย ภาษาที่รองรับได้แก่ ภาษาเกือบทั้งหมดที่ใช้ในทวีปยุโรป, ภาษาญี่ปุ่น, ภาษาเกาหลี, ภาษาอาหรับ, ภาษาเวียดนาม และอื่น ๆ
Alibaba Cloud ปล่อยโมเดล LLM แบบโอเพนซอร์สตระกูล Qwen 2 เพิ่มอีกสองรุ่น ได้แก่ Qwen2-Math และ Qwen2-Audio
Qwen2-Math เป็นโมเดลที่ฝึกต่อจก Qwen2 โดยสร้างชุดข้อมูลคุณภาพสูงด้านคณิตศาสตร์เฉพาะ ทั้งหนังสือ, โค้ดต่างๆ, ชุดข้อสอบต่างๆ, จนถึงข้อมูลที่สังเคราะห์ออกมาจาก Qwen2 เอง จุดเด่นของโมเดลนี้คือทำคะแนนทดสอบด้านคณิตศาสตร์ เช่น GSM8K, MATH หรือ MMLU-STEM ได้สูงกว่าโมเดลปิดอย่าง GPT-4o หรือ Gemini เสียอีก
Qwen2-Math ยังใช้งานได้เฉพาะภาษาอังกฤษเท่านั้น และมี 3 ขนาด คือ 1.5B, 7B, 72B เปิดให้ใช้งานแบบสัญญาอนุญาต Apache 2.0 ทีมงานระบุว่าจะเปิดเวอร์ชั่นภาษาจีนเร็วๆ นี้
ทีมวิจัย Qwen ของ Alibaba Cloud เปิดตัวโมเดล LLM ในชื่อ Qwen2 มี 5 ขนาดให้เลือกตั้งแต่ 0.5B, 1.5B, 7B, 14B, และ 72B โดยชูจุดเด่นรองรับภาษาอื่นๆ นอกจากภาษาอังกฤษ เช่นแถบเอเชียตะวันออกเฉียงใต้นั้นรองรับทั้ง ไทย, เวียดนาม, อินโดนีเซีย, เมียนมาร์, ลาว, กัมพูชา และยังรองรับ context window ถึง 128K
ผลทดสอบยอดนิยมเช่น MMLU หรือ HumanEval นั้น Qwen2-72B ทำได้เหนือกว่า Llama3-70B ไปเล็กน้อย ขณะที่ Qwen2-7B ก็เอาชนะ Llama3-7B ได้หลายชุดทดสอบโดยเฉพาะชุดทดสอบ HumanEval ที่คะแนนนำค่อนข้างมาก
Qwen2 ปล่อยให้ใช้งานแบบ Apache 2.0 ยกเว้นเฉพาะ Qwen2-72B เท่านั้นที่ยังจำกัดการใช้งานแบบ Qianwen License ทำให้โมเดลขนาด 7B สามารถใช้งานได้แทบไม่มีข้อจำกัด