ทีม Qwen ของ Alibaba Cloud เปิดตัวโมเดลปัญญาประดิษฐ์เพิ่มสองรุ่น คือ Qwen2.5 Omni โมเดลแบบ multimodal อ่านภาพ, ฟังเสียง, และดูวิดีโอได้ พร้อมกับสามารถตอบเป็นเสียงหรือข้อความได้ อีกโมเดลคือ QVQ-Max โมเดลคิดก่อนตอบแบบอ่านภาพได้ ทำให้สามารถอ่านเอกสารซับซ้อนสูงได้
Qwen2.5 Omni เป็นโมเดล multimodal ที่รับได้ทั้งข้อความ, เสียง, และภาพ โดยภายในมันสามารถดูภาพตามเวลา (time aligned multimodal) ทำให้เข้าใจวิดีโอได้ด้วย ขณะที่ฝั่งเอาท์พุตนั้นสามารถสร้างเสียงตอบกลับได้ ตัวสถาปัตยกรรมรองรับการ "ฟังไป ตอบไป" โดยสามารถรับอินพุตยังไม่จบแต่ตอบไปก่อนได้
Qwen2.5 Omni มีโมเดลขนาด 7B ให้ดาวน์โหลดไปใช้ได้ฟรี ด้วยสัญญาอนุญาตแบบ Apache 2.0
Alibaba Cloud ออกโมเดลปัญญาประดิษฐ์ใหม่ Qwen2.5-VL-32B
ซึ่งเป็นโมเดลขนาดใหญ่ 32B แบบโอเพนซอร์สภายใต้สัญญาอนุญาต Apache 2.0 สามารถดาวน์โหลดได้ที่ Hugging Face และ GitHub
Qwen2.5-VL-32B
เป็นโมเดลในตระกูล Qwen2.5-VL ที่ Alibaba Cloud เปิดตัวเมื่อเดือนมกราคม โดยเวอร์ชันนี้ระบุว่าฉลาดกว่าและไม่ต้องใช้ทรัพยากรประมวลผลสูง มีจุดขายคือ การให้คำตอบที่สอดคล้องกับที่มนุษย์ต้องการมากขึ้น, มีความสามารถให้เหตุผลทางคณิตศาสตร์ที่ดีขึ้น และวิเคราะห์รูปภาพได้ละเอียดยิ่งขึ้น
Alibaba Cloud เปิดตัวโมเดลปัญญาประดิษฐ์ LLM ในชื่อ QwQ-32B (อ่านว่า ควิว) โมเดลคิดก่อนตอบ ที่เคยเปิดรุ่นพรีวิวไปก่อนหน้านี้เมื่อปลายปี 2024 แต่ตอนนี้ออกเป็นตัวจริง โดยผลที่ได้มีคะแนนทดสอบหลายชุดดีขึ้นอย่างชัดเจน จนขึ้นมาใกล้เคียงกับ DeepSeek-R1 ที่มีขนาดใหญ่กว่า 20 เท่า
Alibaba Cloud เปิดตัวชุดโมเดลปัญญาประดิษฐ์สร้างวิดีโอ Wan 2.1 สำหรับการสร้างวิดีโอในรูปแบบต่างๆ ได้แก่ ข้อความเป็นวิดีโอ, ภาพเป็นวิดีโอ, แก้ไขวิดีโอเดิม, ข้อความเป็นภาพ, และสร้างเสียงจากวิดีโอ
โมเดลรุ่นเล็กสุดของกลุ่มนี้คือ T2V-1.3B สามารถรันในการ์ด NVIDIA 4090 และยังได้ความละเอียดวิดีโอถึง 720P แต่โมเดลรุ่นหลักนั้นมีขนาด 14B ที่ต้องใช้การ์ดขนาดใหญ่ เช่น H100/H800 หรือหลายการ์ดทำงานร่วมกัน
ทีมงานใช้ผู้ประเมินเทียบวิดีโอกับปัญญาประดิษฐ์คู่แข่ง โดยไม่ได้เปิดเผยว่าเทียบกับใครบ้าง แต่พบว่าเอาชนะได้ 3 ใน 4 โมเดลที่นำมาเทียบ ความเด่นของ Wan คือ วิดีโอมีความต่อเนื่อง, ความเคลื่อนไหวถูกหลักฟิสิกส์ คะแนนทดสอบรวมเหนือกว่า Sora ของ OpenAI
Alibaba โอเพนซอร์ส Wan2.1 โมเดลปัญญาประดิษฐ์ที่สามารถสร้างวิดีโอได้รุ่นล่าสุด โดยมี 4 โมเดลย่อย ซึ่งถูกพัฒนาบนพื้นฐานของโมเดลสร้างรูปภาพ Tongyi Wanxiang
ทั้ง 4 โมเดลแตกต่างกันที่จำนวนพารามิเตอร์ได้แก่ Wan2.1-T2V-14B, Wan2.1-I2V-14B-720P, Wan2.1-I2V-14B-480P และโมเดลเล็กที่สุด Wan2.1-T2V-1.3B ที่สามารถรันได้บนจีพียูเกรด Consumer เช่น RTX 4090
Wan2.1 รองรับการทำงานในหลายรูปแบบอินพุททั้ง Text-to-Video, Image-to-Video, การตัดต่อวิดีโอ, Text-to-Image ไปจนถึง Video-to-Audio นอกจากนี้ยังสามารถสร้างเอาท์พุทเป็นข้อความ Visual Text รองรับทั้งภาษาจีนและภาษาอังกฤษ
Alibaba ประกาศแผนลงทุนด้านคลาวด์และโครงสร้างพื้นฐานสำหรับ AI ด้วยวงเงินอย่างน้อย 3.8 แสนล้านหยวน (1.75 ล้านล้านบาท หรือ 5.3 หมื่นล้านดอลลาร์) ในอีก 3 ปีข้างหน้า เพื่อส่งเสริมนวัตกรรมทางเทคโนโลยีในระยะยาว
Alibaba บอกว่าวงเงินที่ลงทุนนี้มากกว่าเงินที่ Alibaba ลงทุนด้านคลาวด์และ AI ในช่วงสิบปีที่ผ่านมา สะท้อนว่าบริษัทจริงจังและมุ่งมั่นสร้างการเติบโตด้วยการเป็นผู้ให้บริการคลาวด์ชั้นนำของโลก
Eddie Wu ซีอีโอกลุ่ม Alibaba บอกกับนักลงทุนในการแถลงผลประกอบการไตรมาสที่ผ่านมาว่า AI คือโอกาสสำคัญระดับมีครั้งเดียวในช่วงอายุคน เพราะสามารถทดแทนการทำงานของคน เปลี่ยนโฉมอุตสาหกรรม และมีผลกระทบต่อเศรษฐกิจหลายมิติ
Alibaba รายงานผลประกอบการของไตรมาสเดือนธันวาคม 2024 ภาพรวมรายได้เพิ่มขึ้น 8% จากช่วงเดียวกันในปีก่อนเป็น 280,154 ล้านหยวน ส่วนกำไรสุทธิเพิ่มขึ้น 333% เป็น 46,434 ล้านหยวน สาเหตุหลักจากทั้งกำไรจากการดำเนินงานที่มากขึ้น และมูลค่าหุ้นของบริษัทที่ Alibaba ไปลงทุนเพิ่มขึ้น
Alibaba Cloud เป็นไฮไลท์ของผลประกอบการในไตรมาส รายได้รวมเพิ่มขึ้น 13% เป็น 31,742 ล้านหยวน เฉพาะส่วนที่เกี่ยวกับ AI เติบโตระดับสามหลักติดต่อกันเป็นไตรมาสที่หก EBITDA เพิ่มขึ้น 33% และยังมีทิศทางการทำกำไรที่ดีขึ้นต่อเนื่อง ทำให้ Alibaba มองว่า AI จะเป็นตัวเร่งสำคัญซึ่งบริษัทจะเพิ่มการลงทุนส่วนนี้มากขึ้น
มีรายงานเพิ่มเติมหลังจาก Alibaba ประกาศว่าบริษัทได้ทำข้อตกลงร่วมมือกับแอปเปิลเพื่อให้บริการโมเดลปัญญาประดิษฐ์สำหรับ Apple Intelligence ในประเทศจีน เพื่อให้เป็นไปตามข้อกำหนดของหน่วยงานกำกับดูแลที่แอปเปิลต้องมีพาร์ตเนอร์เป็นบริษัทท้องถิ่น
Joe Tsai ประธานและผู้ร่วมก่อตั้ง Alibaba เปิดเผยในงานสัมมนา World Governments Summit ที่ดูไบ ว่าบริษัทได้ทำข้อตกลงความร่วมมือกับแอปเปิล เพื่อนำโมเดลปัญญาประดิษฐ์ Qwen มาใช้กับบริการ Apple Intelligence ที่เป็น AI ในอุปกรณ์ของแอปเปิลสำหรับขายในประเทศจีน
ประกาศของ Tsai นี้ เป็นการให้ข้อมูลอย่างเป็นทางการครั้งแรก หลังจากมีรายงานเมื่อต้นสัปดาห์ว่าแอปเปิลเลือก Alibaba เป็นบริษัทพาร์ตเนอร์ด้าน AI ในจีน
Alibaba Cloud เปิดตัวดาต้าเซ็นเตอร์แห่งที่สองในประเทศไทย เพื่อตอบสนองความต้องการบริการคลาวด์ที่เพิ่มขึ้น โดยเฉพาะสำหรับแอปพลิเคชัน Generative AI และสนับสนุนการพัฒนาดิจิทัลตามนโยบายของรัฐบาลไทย
ดาต้าเซ็นเตอร์แห่งใหม่จะช่วยให้ธุรกิจไทยเข้าถึงโซลูชันคลาวด์ ด้วยบริการที่ครอบคลุมการประมวลผลแบบยืดหยุ่น (elastic computing), สตอเรจ, ฐานข้อมูล, ความปลอดภัย, เครือข่าย, การวิเคราะห์ข้อมูล และ AI ผ่านโซลูชันดังนี้:
Alibaba เผยแพร่โมเดลปัญญาประดิษฐ์ Qwen2.5-Max ซึ่งเป็นโมเดลภาษาขนาดใหญ่แบบ MoE (Mixture-of-Expert) เหมือนกับ DeepSeek V3 ถูก Pre-train มากกว่า 20 ล้านล้านโทเค็น และทำ Post-Train ด้วยวิธี SFT (Supervised Fine-Tuning) และ RLHF (Reinforcement Learning from Human Feedback)
ผลทดสอบความสามารถของ Qwen2.5-Max ได้คะแนนเหนือกว่า DeepSeek-V3, GPT-4o และ Claude-3.5-Sonnet ในหัวข้อเช่น Arena-Hard, LiveBench ส่วนหัวข้ออย่าง MMLU-Pro กับ LiveCodeBench คะแนนสูงกว่า DeepSeek-V3 แต่น้อยกว่า Claude-3.5-Sonnet
Qwen2.5-Max เปิดให้ใช้งานแล้ววันนี้ผ่าน API ของ Alibaba Cloud และผ่านบริการ Qwen Chat
Alibaba เปิดตัวโมเดลปัญญาประดิษฐ์ใหม่ในตระกูล Qwen2.5 ชื่อว่า Qwen2.5-VL โดย VL ย่อมาจาก Vision Language เป็นรุ่นถัดจาก Qwen2-VL มีความสามารถเข้าใจวิดีโอ รูปภาพ ข้อความ และเป็น Agentic ที่ทำงานแทนได้ด้วย
ตัวอย่างความสามารถที่พิเศษขึ้นของ Qwen2.5-VL เช่น การรู้จักภาพสถานที่ ฉากภาพยนตร์ รายการทีวี สินค้า, สามารถระบุลักษณะวัตถุในภาพตามเงื่อนไข และส่งออกเป็นไฟล์ JSON ได้, ระบุตัวอักษรที่หลากหลายแบบในภาพเดียวได้, สามารถส่งออกไฟล์เอกสารออกมาเป็นฟอร์แมตที่ต้องการได้, สามารถดึงข้อมูลจากวิดีโอออกมาได้ และทำหน้าที่เป็น Agent รันบนคอมพิวเตอร์หรือสมาร์ทโฟนได้
กลุ่ม Ultra Accelerator Link หรือ UALink ที่ร่วมกำหนดมาตรฐานการเชื่อมต่อระหว่างจีพียูในศูนย์ข้อมูล ประกาศรายชื่อบริษัทที่เข้าร่วมกลุ่มเพิ่มเติมได้แก่ Apple, Alibaba Cloud และ Synopsys ซึ่งจะมาร่วมผลักดันมาตรฐานเทคโนโลยี UALink ทำให้ตอนนี้กลุ่มมีสมาชิกแล้ว 65 บริษัท
UALink ก่อตั้งเมื่อปีที่แล้วโดยบริษัทผู้ผลิตซีพียูรายใหญ่ทั้ง AMD, Intel ร่วมด้วยบริษัทเทคโนโลยีหลายแห่ง เหตุผลหนึ่งก็เพื่อคานอำนาจกับมาตรฐานรับส่งข้อมูล NVLink ของ NVIDIA ที่เป็นผู้ผลิตจีพียูรายใหญ่ในโลกตอนนี้
Alibaba Cloud เปิดบริการ Qwen Chat แบบเดียวกับ ChatGPT ให้ลูกค้าบุคคลทั่วไปใช้งาน จากเดิม Qwen เปิดให้บริการ API บน Alibaba Cloud สำหรับลูกค้าองค์กรเป็นหลัก
Qwen Chat ให้บริการทั้งโมเดล Qwen เวอร์ชั่นโอเพนซอร์สและเวอร์ชั่นปิดที่เคยต้องเรียกผ่าน API เท่านั้น รวมถึงโมเดลแบบคิดก่อนตอบอย่าง QwQ และ QVQ ด้วย
หน้าจอใช้ OpenWebUI แบบเดียวกับที่จุฬาลงกรณ์มหาวิทยาลัยใช้งาน ทำให้มีฟีเจอร์ตามมาหลายตัว เช่น การเปรียบเทียบโมเดลรุ่นต่างๆ ตอนนี้ยังไม่มีเงื่อนไขค่าบริการแต่อย่างใด
ที่มา - @Alibaba_Qwen
Alibaba Cloud ประกาศลดราคาค่าใช้งานโมเดลปัญญาประดิษฐ์ที่รับอินพุทเป็นรูปภาพและวิดีโอ Qwen-vl-max ลง 85% โดยราคาอยู่ที่ 0.003 หยวนต่อ 1,000 อินพุทโทเค็น
การลดราคานี้เพื่อให้โมเดลทำความเข้าใจรูปภาพของ Alibaba Cloud สามารถแข่งขันด้านราคากับโมเดลประเภทเดียวกันของ ByteDance ได้ ซึ่งคิดราคาที่ 0.003 หยวน เท่ากัน
ประกาศนี้สะท้อนว่าการแข่งขันเรื่องโมเดลปัญญาประดิษฐ์ของผู้ให้บริการในจีนมีเพิ่มมากขึ้น ปัจจุบันการให้บริการโมเดลปัญญาประดิษฐ์ในจีน ต้องได้รับการอนุมัติจากหน่วยงานก่อน ซึ่งตอนนี้มีโมเดล Generative AI ที่ถูกอนุมัติแล้ว 252 โมเดล ผู้ให้บริการจึงเริ่มใช้การลดราคา มาดึงดูดให้เกิดการเลือกใช้งาน
ทีม Qwen ของ Alibaba Cloud เปิดโมเดล QvQ-72B-Preview ที่พัฒนาต่อจาก Qwen-VL-72B แต่ฝึกให้คิดเป็นขั้นเป็นตอนเพื่อเพิ่มความแม่นยำมากขึ้น
ผลทดสอบที่ทีม Qwen ใช้ทดสอบมี 4 ชุด ได้แก่ MMMU, MathVista, MathVision, และ OlympiadBench คะแนนที่ได้ขึ้นไปถึงระดับ Claude 3.5 Sonnet เข้าใกล้ OpenAI o1 มากขึ้น โดยพฤติกรรมของโมเดลจะคิดไปเรื่อยๆ และตอบคำถามสุดท้าย
โมเดลเปิดให้ทดสอบผ่าน HuggingFace ไฟล์โมเดลเปิดให้ดาวน์โหลดในไลเซนส์แบบ Qwen License โดยตอนนี้ยังส่งคำสั่งได้รอบเดียว ไม่สามารถคุยต่อเนื่องได้
ที่มา - QwenLM
ทีม Qwen ของ Alibaba Cloud เปิดโตัวโมเดลปัญญาประดิษฐ์ QwQ (อ่านว่า ควิว/quil) เป็นโมเดลเพื่อการทดลองที่จะไม่มุ่งตอบคำถามทันที แต่พยายามคิดทบทวนก่อน ทำให้คำตอบที่ได้แม่นยำขึ้น
ความโดดเด่นของ QwQ-32B คือคะแนนทดสอบหลายชุดทดสอบ เช่น GPQA, AIME, MATH-500, หรือ LiveCodeBench นั้นสูงขึ้นมาก เทียบชั้นกับ OpenAI o1-preview เลยทีเดียว อย่างไรก็ดีทีมงานพบปัญหาการคิดของโมเดลมักสลับภาษาไปมา (ผมทดลองถามภาษาไทยก็คิดเป็นภาษาจีน) บางครั้งคิดวนไปวนมาไม่ได้คำตอบ นอกจากนี้ยังต้องเพิ่มความระมัดระวังความปลอดภัยในการใช้งาน และคะแนนทดสอบก็อาจจะมีข้อจำกัดไม่สามารถทดสอบความสามารถบางด้าน
Alibaba เปิดโมเดล Qwen2.5-Turbo โมเดลปัญญาประดิษฐ์ที่ปรับปรุงขึ้นจากรุ่นโอเพนซอร์ส เน้นขนาดข้อมูลที่รองรับได้ จากเดิม 128,000 โทเค็นเป็น 1 ล้านโทเค็น ทำให้รองรับข้อมูลระดับหนังสือทั้งเล่มได้ คิดเป็นขนาดข้อมูลประมาณ 1 ล้านคำหรืออักษรจีน 1.5 ล้านตัวอักษร
ผลทดสอบของ Qwen2.5-Turbo ค่อนข้างดีมากการถามตอบจากข้อมูลขนาดใหญ่ Passkey Retrieval ได้เต็ม 100 คะแนน ขณะที่ชุดทดสอบ RULER ก็ได้คะแนนสูงกว่า GPT-4 เมื่อใส่ข้อมูลเต็ม 1 ล้านโทเค็นจะเริ่มตอบใน 68 วินาที ราคาต่อ 1 ล้านโทเค็นอยู่ที่ 0.3 หยวน ถูกกว่า GPT-4o-mini อยู่ 4.6 เท่าตัว
Alibaba รายงานผลประกอบการของไตรมาสเดือนกันยายน 2024 รายได้รวมเพิ่มขึ้น 5% จากช่วงเดียวกันในปีก่อนเป็น 236,503 ล้านหยวน กำไรสุทธิอยู่ที่ 43,547 ล้านหยวน เพิ่มขึ้น 63% ซึ่ง Alibaba เป็นผลจากการบันทึกกำไรของการลงทุนในบริษัทอื่นที่เพิ่มขึ้นมาก
กลุ่มอีคอมเมิร์ซในจีน (Taobao และ Tmall) มีรายได้เพิ่มขึ้น 1% เป็น 98,994 ล้านหยวน โดย Alibaba บอกว่ายอดขายสุทธิหรือ GMV ยังคงเติบโตดี และเทศกาล 11.11 ที่ผ่านมาก็ทำสถิติสูงสุดอีกปี ส่วนกลุ่มคลาวด์มีรายได้ 29,610 ล้านหยวน เพิ่มขึ้น 7% โดยบอกว่าบริการที่เกี่ยวกับ AI มีการเติบโตระดับเลขสามหลักต่อเนื่องกันเป็นไตรมาสที่ห้าแล้ว
สถาบัน DAMO ของ Alibaba รายงานความสำเร็จในการพัฒนาโมเดลปัญญาประดิษฐ์ "ปากวน" สำหรับทำนายสภาพอากาศอย่างละเอียดระดับชั่วโมงไปได้ถึงสิบวันข้างหน้า ในแง่พื้นที่สามารถทำนายได้ละเอียด 1 ตารางกิโลเมตร
ทีมงานอาศัยชุดข้อมูล ERA5 ที่เก็บบันทึกสภาพอากาศตั้งแต่ปี 1979 ร่วมกับข้อมูลท้องถิ่น เช่น อุณหภูมิ, แรงลม, และระดับแสงแดด
ทาง Aliababa นำ Baguan ไปสาธิตในการจัดการพลังงาน โดยโมเดลสามารถทำนายเหตุการณ์อุณหภูมิลดลงอย่างรวดเร็วในจีนได้อย่างแม่นยำ ทำให้การไฟฟ้าสามารถทำนายได้ว่าการใช้พลังงานจะลดลงอย่างรวดเร็วเหมือนกัน โดยรวมการใช้สภาพอากาศเข้ามาร่วมทำให้สามารถทำนายความต้องการไฟฟ้าได้แม่นยำ 98.1%
ทีมวิจัย Qwen ของ Aliababa เปิดตัวโมเดล Qwen2.5-Coder โมเดล LLM ช่วยเขียนโค้ดที่ปรับปรุงกระบวนการฝึกจนได้ประสิทธิภาพสูงสุดในหมู่โมเดลโอเพนซอร์ส คะแนนทดสอบรวมพอๆ กับ GPT-4o ในการทดสอบหลายตัว
กระบวนการฝึก Qwen2.5-Coder นั้นอาศัยการฝึกเป็นขั้น เริ่มตั้งแต่การฝึกโค้ดแบบไฟล์เดี่ยว (file-level pretrain) แล้วขยับมาเป็นการฝึกแบบหลายไฟล์ (repo-level pretrain) สุดท้ายจึงฝึกการเขียนโค้ดตามคำสั่ง โดยอาศัยชุดข้อมูลโค้ดที่พบในอินเทอร์เน็ต นำมาสร้างคำสั่งเพื่อให้ได้โค้ดนั้น แล้วจึงนำชุดข้อมูลไปฝึก
จุดเด่นสำคัญของ Qwen2.5-Coder คือมันสามารถสร้างโค้ดได้หลายภาษาในคุณภาพค่อนข้างสูง เนื่องจากทีมงานสร้างชุดข้อมูลภาษาโปรแกรมอื่นๆ ที่มีชุดข้อมูลน้อยเพิ่มเข้ามา
Alibaba Cloud เปิดบริการ LLM ของตัวเองในตระกูล Qwen แต่เป็นเวอร์ชั่นไม่เปิดให้ดาวน์โหลดโมเดล ได้แก่ Qwen-Max, Qwen-Plus, และ Qwen-Turbo โดยชูความสามารถของ Qwen-Max ว่าใกล้เคียง Llama3.1-405B และ GPT-4o แล้ว โดยเอาชนะได้บางขุดทดสอบ เช่น MATH หรือ LiveCodeBenach
ราคาค่าใช้งาน Qwen-Max อยู่ที่ 10 ดอลลาร์ต่อล้านโทเค็นสำหรับอินพุต และ 30 ดอลลาร์ต่อล้านโทเค็นสำหรับเอาท์พุต แพงกว่า GPT-4o ประมาณเท่าตัว
สำหรับโมเดลอื่นๆ ที่เปิดตัวมาพร้อมกัน เช่น Tongyi Wanxiang โมเดลสร้างภาพและวิดีโอจากข้อความ, Qwen2-VL โมเดลที่รับภาพและวิดีโอ, AI Developer ตัวช่วยเขียนโปรแกรม
Alibaba Cloud เปิดตัวโมเดลปัญญาประดิษฐ์ Qwen เวอร์ชั่น 2.5 จุดเด่นของโมเดลเวอร์ชั่นนี้คือฝึกด้วยข้อมูลขนาดถึง 18 ล้านล้านโทเค็น รองรับ 29 ภาษารวมภาษาไทย โดยเปิดให้ใช้งานได้อิสระแทบทุกรุ่น
ตัวโมเดลรองรับอินพุต 128K token และตอบข้อมูลได้ 8K token ยกเว้นรุ่น 3B ลงไปจะรองรับอินพุต 32K token เท่านั้น
รุ่นใหญ่สุด Qwen2.5-72B ได้ผลทดสอบชนะ Llama3.1-70B แทบทุกการทดสอบขึ้นไปใกล้เคียง Llama3.1-405B แต่เวอร์ชั่น 72B แจกแบบ Qwen License ซึ่งจำกัดการใช้งานกับบริการที่ผู้ใช้เกิน 100 ล้านคนต่อเดือน
เมื่อวานนี้เกิดเหตุไฟไหม้ศูนย์ข้อมูล Alibaba Cloud Zone C ในสิงคโปร์ กระทบบริการจำนวนมาก โดยต้นเพลิงเกิดจากแบตเตอรีลิเธียมในศูนย์ข้อมูล
กระบวนการดับเพลิงกินเวลา 4 ชั่วโมง ตั้งแต่ 10:20-14:40 ตามเวลาปักกิ่ง แต่หลังจากควบคุมเพลิงได้แล้วก็ยังมีความร้อนอยู่ ทำให้ทีมงานไม่สามารถเข้าพื้นที่ได้ และอุปกรณ์เน็ตเวิร์คทำงานผิดปกติ ตลอดจนมีน้ำดับเพลิงเข้าไปในห้องเซิร์ฟเวอร์ ทำให้กระบวนการกู้คืนระบบใช้เวลา
ทาง Alibaba Cloud ระบุว่าระบบที่เปิด high availability เอาไว้สามารถย้ายระบบออกไปโดยอัตโนมัติได้ตามที่คาดหวัง เช่น Redis, MongoDB, MySQL แต่บริการที่เปิดใช้แบบ single availability zone เช่น object storage หรือฐานข้อมูลต่างๆ หากอยู่ใน Zone C ก็จะดับไป
Alibaba Cloud ปล่อยโมเดล LLM ตระกูล Qwen 2 รุ่นล่าสุด Qwen2-VL โดย VL ย่อมาจาก Vision Language ที่พัฒนาบนพื้นฐานของ Qwen2
Qwen2-VL มีจุดเด่นคือความสามารถในการทำความเข้าใจรูปภาพ ที่มีความละเอียดและอัตราส่วนภาพหลากหลาย ผลการทดสอบทำงานได้ดีกว่าโมเดลประเภทเดียวกัน ซึ่งสามารถนำไปประยุกต์ใช้ได้กับอุปกรณ์ที่ต้องใช้การทำความเข้าใจภาพที่เห็น เช่น สมาร์ทโฟน, หุุ่นยนต์ หรือระบบอัตโนมัติอื่นที่ต้องอาศัยภาพในการตัดสินใจ
ความสามารถของ Qwen2-VL ยังสามารถสรุปเนื้อหาวิดีโอได้ที่ความยาวถึง 20 นาที โดยสามารถตอบคำถามเนื้อหาจากวิดีโอ หรือสรุปบทสนทนาได้ด้วย ภาษาที่รองรับได้แก่ ภาษาเกือบทั้งหมดที่ใช้ในทวีปยุโรป, ภาษาญี่ปุ่น, ภาษาเกาหลี, ภาษาอาหรับ, ภาษาเวียดนาม และอื่น ๆ