Mistral AI ประกาศเพิ่มความสามารถให้แพลตฟอร์มแชทบอต le Chat โดยสามารถค้นหาข้อมูลเว็บได้, เพิ่ม Canvas สำหรับปรับแต่งผลลัพธ์ได้สะดวกขึ้น เป็นฟีเจอร์แบบเดียวกับ ChatGPT, วิเคราะห์รูปภาพ-เอกสาร, สร้างรูปภาพ ด้วยโมเดล FLUX และปรับปรุงความเร็วในการตอบสนอง
เนื่องจากฟีเจอร์ที่ประกาศนี้จัดมาเป็นชุดใหญ่ Mistral จึงทำตารางเปรียบเทียบให้ดูว่าฟีเจอร์เหล่านี้ มีในบริการปัญญาประดิษฐ์คู่แข่งรายอื่นเช่นกัน แต่บางฟีเจอร์จำกัดเฉพาะลูกค้าเสียเงิน หรือจำกัดปริมาณการใช้งาน ขณะที่ Mistral เปิดให้ใช้ฟีเจอร์ทั้งหมดนี้ฟรีในสถานะเบต้า
Mistral ผู้พัฒนาปัญญาประดิษฐ์ LLM จากฝรั่งเศสประกาศปรับราคาค่าใช้งาน API ผ่าน Le Plateforme ลง พร้อมกับเพิ่มแพ็กเกจใช้งานฟรีเข้ามา
โมเดลที่ลดราคามากที่สุด คือ Mistral Small และ Codestral ที่ลดราคาลงถึง 80% เหลือเพียง 0.2 ดอลลาร์ต่อล้านโทเค็นสำหรับอินพุตและ 0.6 ดอลลาร์ต่อล้านโทเค็นสำหรับเอาท์พุต แม้จะลดราคาแล้วก็ยังแพงกว่า Gemini Flash อยู่ประมาณ 1 เท่าตัวแม้ความสามารถใกล้เคียงกัน อย่างไรก็ดี Mistral Small มีตัวเลือกให้ดาวน์โหลดมาใช้งานในองค์กรได้
สำหรับการใช้งานแพ็กเกจฟรีนั้นยังจำกัดปริมาณการใช้งานที่ 1 request per second ทำให้เหมาะกับการทดสอบแอปพลิเคชั่นมากกว่าการใช้งานจริงจัง
Mistral AI เปิดตัวโมเดล Pixtral 12B ซึ่งเป็นโมเดลข้อมูลผสมผสานตัวแรกของบริษัท พัฒนาต่อยอดจากโมเดลตัวหนังสือ Nemo 12B เป็นโมเดลขนาดพารามิเตอร์ 12B ขนาดของไฟล์ประมาณ 24GB
Pixtral 12B สามารถทำงานได้เหมือนโมเดลข้อมูลผสมผสานอื่น เช่น การจำแนกรายละเอียดในภาพ หรือการนับวัตถุในภาพ เป็นต้น
ดูรายละเอียดเพิ่มเติมได้ที่ GitHub หรือ Hugging Face ภายใต้สัญญา Apache 2.0
NVIDIA โชว์การปรับปรุงโมเดลภาษา Mistral NeMo 12B ที่เปิดตัวในเดือนกรกฎาคม ให้มีขนาดพารามิเตอร์ลดลงเหลือ 8B แต่ไม่สูญเสียประสิทธิภาพมากนัก ผลคือโมเดล Mistral-NeMo-Minitron 8B ที่ปรับขนาดลดลงแล้ว เอาชนะโมเดลคู่แข่งระดับใกล้เคียงกันอย่าง Llama 3.1 8B และ Gemma 7B ในเบนช์มาร์ค AI ทุกตัวได้
เทคนิคการปรับลดขนาดโมเดลที่ NVIDIA ใช้งานมี 2 อย่าง ได้แก่
คล้อยหลังการเปิดตัวโมเดล Mistral NeMo 12B รุ่นเล็กเพียงไม่กี่วัน ทาง Mistral AI ก็เปิดตัวโมเดลขนาดใหญ่ระดับเรือธง Mistral Large 2 ขนาดพารามิเตอร์ 123B เป็นเวอร์ชันอัพเกรดของ Mistral Large 1 ที่ออกเมื่อต้นปี 2024
สิ่งที่เพิ่มเข้ามาคือการขยายขนาด context window จาก 32K เป็น 128K, รองรับภาษาอื่นๆ ที่ไม่ใช่ภาษาตระกูลละติน ได้แก่ อารบิก ฮินดี จีน ญี่ปุ่น เกาหลี, รองรับภาษาโปรแกรมมิ่งอีกกว่า 80 ภาษา
Mistral AI บริษัทปัญญาประดิษฐ์จากฝรั่งเศส เปิดตัวโมเดลภาษาเวอร์ชันใหม่ Mistral NeMo 12B ขนาด 12 พันล้านพารามิเตอร์ รองรับ context window ขนาดใหญ่ถึง 128K (โมเดลระดับเดียวกันรองรับ 8k) และสามารถนำมาใช้แทน Mistral 7B ตัวเดิมได้เลย (drop-in replacement)
Mistral NeMo 12B ออกแบบมาให้รองรับหลายภาษาตั้งแต่แรก โดยทำผลงานได้ดีในภาษาอังกฤษ ฝรั่งเศส เยอรมัน สเปน อิตาลี โปรตุเกส จีน ญี่ปุ่น เกาหลี อารบิก ฮินดี ผลการรันสามารถเอาชนะได้ทั้ง Llama 3 8B และ Gemma 2 9B ในเกือบทุกชุดทดสอบ
Mistral AI บริษัทปัญญาประดิษฐ์จากฝรั่งเศสเผยแพร่โมเดล LLM แบบโอเพนซอร์สสองโมเดลใหม่ สำหรับการแก้ปัญหาทางคณิตศาสตร์และการเขียนโค้ดโดยเฉพาะ
โมเดลแรกคือ Codestral Mamba ขนาด 7B พารามิเตอร์ ทำงานได้ดีสำหรับงานการเขียนโค้ด มีจุดเด่นรองรับการประมวลผลที่รวดเร็วสำหรับงานโค้ดที่รันบน local ผลทดสอบทำงานได้ดีกว่า LLM ทั่วไปเท่าตัว และดีกว่าโมเดลที่ออกแบบมาสำหรับงานเขียนโค้ดขนาดเท่ากันอย่าง CodeLlama 7B, CodeGemma-1.17B หรือ DeepSeek v1.5 7B
Mistral บริษัทปัญญาประดิษฐ์จากฝรั่งเศส เปิดตัวโมเดล AI ใหม่ ที่ผู้ใช้งานสามารถปรับแต่งรายละเอียด ให้เหมาะสมกับงานที่ต้องการนำไปใช้เพิ่มเติมได้
โดย Mistral ได้ออก SDK ชื่อว่า Mistral-Finetune ทำให้สามารถปรับแต่งโมเดลได้ รองรับทั้งการรันบนเวิร์กสเตชัน, เซิร์ฟเวอร์ หรือโนดในศูนย์ข้อมูลขนาดเล็ก และมีอีกทางเลือกคือปรับแต่งโมเดลผ่าน API ก็ทำได้เช่นกัน
การปรับแต่งโมเดล AI ตอนนี้รองรับสองโมเดลคือ Mistral Small และ Mistral 7B ก่อน ส่วนโมเดลอื่นจะรองรับเพิ่มเติมในอนาคต
ที่มา: Mistral
Mistral บริษัทปัญญาประดิษฐ์จากฝรั่งเศสที่มีไมโครซอฟท์ถือหุ้นอยู่ด้วย เปิดตัวโมเดล Generative AI ขนาด 22B สำหรับการเขียนโค้ดตัวแรกของบริษัท มีชื่อว่า Codestral
Codestral ถูกเทรนด้วยโค้ดมากกว่า 80 ภาษา ซึ่งรวมทั้งภาษาเขียนโปรแกรมยอดนิยมอย่าง Python, Java, C, C++, JavaScript, และ Bash ไปจนถึงภาษาอย่าง Swift และ Fortran จึงรองรับการทำงานของนักพัฒนาในหลายรูปแบบสถานการณ์ มีความสามารถทั้ง ช่วยเขียนโค้ด เขียนเทสต์ หรือช่วยเติมส่วนที่ขาดหายในโค้ดได้ จึงช่วยลดเวลาและเพิ่มประสิทธิภาพให้กับนักพัฒนาได้
Mistral สตาร์ทอัปด้าน AI จากฝรั่งเศส เปิดตัวโมเดลภาษาขนาดใหญ่ (LLM) Mixtral 8x22B ขนาดโมเดล 176 พันล้านพารามิเตอร์ ซึ่งเป็นรุ่นถัดจากโมเดลก่อนหน้า Mixtral 8x7B
การทำงานของ Mixtral 8x22B ยังคงใช้วิธี MoE (mixture of experts) ที่ทุกเลเยอร์ของแต่ละโทเค็น จะเลือกโมเดลที่เหมาะสม 2 ตัว (เรียกว่า experts) มาใช้ในการประมวลผล ทำให้ไม่ต้องใช้พารามิเตอร์ทั้งหมดมารัน ตอนนี้ Mistral ยังไม่ได้เปิดเผยรายละเอียดทั้งหมดของโมเดล แต่คาดการณ์ว่าโมเดลที่ถูกใช้จริงตอนรันมีประมาณ 38 พันล้านพารามิเตอร์
ไมโครซอฟท์รายงานจำนวนเงินที่ลงทุนใน Mistral สตาร์ทอัพด้าน AI จากฝรั่งเศส ซึ่งเป็นส่วนหนึ่งของความร่วมมือให้บริการโมเดล Mistal Large บน Azure โดยไมโครซอฟท์ลงทุนเป็นเงิน 15 ล้านยูโร และเงินลงทุนนี้สามารถแปลงเป็นหุ้นของ Mistral ได้ เมื่อบริษัทเปิดระดมทุนซีรีส์ใหม่
ผลจากดีลดังกล่าวจึงทำให้มูลค่ากิจการของ Mistral ยังไม่เปลี่ยนแปลง จนกว่าจะมีการแปลงเงินลงทุนนี้เป็นหุ้น ทั้งนี้ Mistral ได้รับเงินลงทุนรอบล่าสุด 385 ล้านยูโร จากนักลงทุนนำโดยกองทุน Andreessen Horowitz และทำให้บริษัทมีมูลค่ากิจการล่าสุดประมาณ 2 พันล้านดอลลาร์
ไมโครซอฟท์ประกาศความร่วมมือเป็นระยะเวลาต่อเนื่องหลายปีกับ Mistral สตาร์ทอัพด้าน AI จากฝรั่งเศส ที่เพิ่งเปิดตัวโมเดล Mistral Large ซึ่งรองรับภาษาที่ใช้ในยุโรป โดยโมเดลของ Mistral สามารถใช้งานได้บน Azure
ประกาศความร่วมมือที่เป็นทางการมีเท่านี้ แต่ Financial Times ก็มีข้อมูลเพิ่มเติมว่าไมโครซอฟท์นั้นได้ตกลงที่จะลงทุนเป็นหุ้นอัตราส่วนเล็กน้อยใน Mistral ด้วย ซึ่งบริษัทมีมูลค่ากิจการล่าสุดประมาณ 2.1 พันล้านดอลลาร์ (2 พันล้านยูโร) จึงเป็นประเด็นน่าสนใจเพราะผู้อ่านก็ทราบกันดีว่าไมโครซอฟท์นั้นเดิมพันสูง ตกลงที่จะลงทุนมากกว่า 1 หมื่นล้านดอลลาร์ ใน OpenAI อยู่แล้ว
Mistral บริษัทปัญญาประดิษฐ์ LLM จากฝรั่งเศสเปิดตัวโมเดลใหม่สองโมเดล โดยไม่ได้เปิดเผยโครงสร้างภายในให้คนภายนอกใช้งานผ่านคลาวด์ สองโมเดล ได้แก่
ทั้งสองโมเดลถูกปรับให้รองรับการสร้าง output เป็น JSON และสามารถเรียก API ภายนอกได้
AWS ประกาศเพิ่มโมเดล Mistral 7B และ Mixtral 8x7B ให้ใช้งานบน AWS Bedrock เร็วๆ นี้ โดยระบุว่าทั้งสองโมเดลมีจุดเด่นเรื่องของความเร็วและค่าใช้จ่ายที่ถูกกว่า นอกจากนี้องค์กรบางส่วนยังอาจต้องการโมเดลที่ตรวจสอบได้ การใช้โมเดลโอเพนซอร์สจึงเป็นทางเลือกสำคัญ
Mixtral 8x7B นั้นมีคะแนนทดสอบค่อนข้างใกล้เคียงกับ GPT-3.5 แต่มีจุดเด่นที่รันได้เร็วมาก โดยตอนนี้ผู้ให้บริการที่เน้นความเร็วอย่าง Groq นั้นโชว์ว่าสามารถรันได้ที่ระดับ 500 token/s เลยทีเดียว
SCB 10X เปิดตัว Typhoon-7b เป็นโมเดลสร้างข้อความ หรือ LLM ภาษาไทยที่เอาชนะโมเดลทุกตัวในภาษาไทยตอนนี้ และมีประสิทธิภาพเทียบเท่ากับ GPT-3.5 ในภาษาไทย
การวัดผลประสิทธิภาพของโมเดลในภาษาไทย ทาง SCB 10X ได้พัฒนาชุดทดสอบวัดผลประสิทธิภาพโมเดล LLM ภาษาไทยชื่อ ThaiExam โดยวัดด้วยข้อสอบสำหรับเด็กมัธยมศึกษาตอนปลายและข้อมูลด้านการลงทุนจากผู้เชี่ยวชาญด้านการลงทุนในประเทศไทย พบว่าประสิทธิภาพโมเดล Typhoon-7b เหนือกว่าทุกโมเดลที่ปล่อยฟรีในภาษาไทยและมีคะแนนเทียบเท่ากับ GPT-3.5
Mistral AI บริษัทปัญญาประดิษฐ์จากฝรั่งเศสเปิดตัวโมเดลรุ่นใหม่ในชื่อ Mixtral 8x7B เป็นโมเดลที่อาศัยสถาปัตยกรรม mixture-of-experts (MoE) ผสมเอาท์พุตระหว่างโมเดลย่อยๆ ภายใน
ขนาดโมเดลรวม 46.7 พันล้านพารามิเตอร์ แต่ระหว่างรันจริง โมเดลจะเรียกใช้โมเดลที่เหมาะสมเพียง 2 ตัวจาก 8 ตัว จากนั้นจะเลือกเอาท์พุตแต่ละโทเค็นจากสอง 2 ตัวนั้นมาใช้งาน ทำให้เวลารันจริงจะใช้พลังประมวลผลเครื่องเท่ากับโมเดลขนาด 12.9 พันล้านพารามิเตอร์เท่านั้น
แนวทาง MoE ทำให้ Mixtral มีคะแนนทดสอบชุดทดสอบต่างๆ ใกล้เคียง GPT-3.5 แม้ขนาดโมเดลและพลังประมวลผลที่ใช้รันจะน้อยกว่ามาก คะแนนทดสอบหลายชุดดีกว่า LLaMA 2 มากแม้จะเทียบกับโมเดลขนาด 70B ก็ตาม