Large Language Model
Bloomberg รายงานสงคราม AI ฝั่งจีนที่กำลังร้อนแรงในช่วงสัปดาห์ที่ผ่านมา หลังค่าย Alibaba เปิดสงครามราคา หั่นค่าใช้บริการ AI ของตัวเองที่ชื่อ Qwen (ชื่อเต็มคือ Tongyi Qianwen) ลงมากถึง 97% บีบให้คู่แข่งต้องเล่นสงครามราคาตาม
หลังจากนั้นไม่กี่ชั่วโมง ค่าย Baidu ประกาศว่าบริการ Ernie AI บางโมเดลย่อยเปลี่ยนมาให้บริการฟรี และฝั่งค่าย ByteDance ก็ต้องลดราคาโมเดล Doubao 99% ตามมาด้วยเช่นกัน
เมื่อต้นเดือนนี้ Alibaba เพิ่งออก Qwen เวอร์ชัน 2.5 ที่มีความสามารถมากขึ้น อย่างไรก็ตาม การใช้งานโมเดล AI จากฝั่งจีนยังจำกัดเฉพาะบริษัทจีนซะมาก ตัวอย่างลูกค้าที่ Alibaba นำมาโชว์ยังมีเฉพาะบริษัทจีนด้วยกันเอง เช่น Xiaomi และ Perfect World Games
หน่วยงานวิจัย Cyberspace Research Institute ของจีน เปิดเผยว่ากำลังพัฒนาโมเดล LLM และตัว AI แบบตอบโต้ โดยอิงจากปัญหาและวิธีคิดของผู้นำ Xi Jinping
โมเดลถูกเทรนด้วยเอกสารของรัฐบาลและหนังสือ "Xi Jinping Thought on Socialism with Chinese Characteristics for a New Era (习近平新时代中国特色社会主义思想学习问答) ซึ่งเป็นหนังสือปรัชญาการเมืองและอุดมการณ์ของเลขาธิการพรรคคอมมิวนิสต์ โดยตอนนี้ ตัวปัญญาประดิษฐ์หรือแชทบอตยังไม่มีการให้บริการ แต่เปิดทดสอบภายในอยู่
กูเกิลทดสอบฟีเจอร์ใช้ Generative AI ช่วยตอบคำถามของผู้ใช้งานผ่านหน้าผลการค้นหามาตั้งแต่ปีที่แล้ว ซึ่งปัจจุบันเรียกชื่อฟีเจอร์นี้ว่า AI Overviews และมีแผนขยายบริการนี้ไปยังผู้ใช้งานทุกคน โดยเริ่มที่สหรัฐอเมริกาในสัปดาห์ที่ผ่านมา จึงทำให้มีรายงานการตอบคำถามของกูเกิลที่ดูไม่ค่อยดีเท่าใดนักออกมา
ผู้ใช้งานคนหนึ่งแชร์คำตอบของคำถามว่า ทำพิซซ่าอย่างไรให้ชีสไม่ไหลหลุดจากแป้ง ซึ่ง AI Overviews ตอบว่าให้ผสมกาวไป 1/8 ถ้วย จะช่วยได้ คำตอบนี้ย่อมไม่ถูกต้องและทำจริงไม่ได้ ที่น่าสนใจคือใน Reddit มีคนค้นพบว่า เคยมีคนตอบแบบนี้เมื่อ 11 ปีที่แล้ว ซึ่งน่าจะเป็นแหล่งข้อมูลที่กูเกิลนำมาใช้ตอบนั่นเอง
Khan Academy เว็บไซต์คอร์สออนไลน์ชื่อดัง ประกาศความร่วมมือกับไมโครซอฟท์ เปิดบริการผู้ช่วย AI สำหรับช่วยสอนวิชาการให้นักเรียน ชื่อว่า Khanmigo และเปิดให้บริการฟรี
รูปแบบการทำงานของ Khanmigo ไม่ต่างอะไรจากแชทบอท AI อื่นๆ มากนัก แต่ปรับความเชี่ยวชาญของบอทให้เป็นเหมือนติวเตอร์สอนวิชา มีความรู้ความเชี่ยวชาญในสาขาวิชานั้นๆ เหมือนกับครูคนหนึ่ง เหมือนเป็นผู้ช่วยสอน (TA) ประจำตัวของนักเรียนแต่ละคน สามารถตอบคำถาม ช่วยแนะนำวิธีการทำโจทย์ได้ (ดูคลิปประกอบ)
ไมโครซอฟท์เปิดเผยรายละเอียดเบื้องหลัง Copilot+ PC ที่เป็นการนำพีซีพลัง NPU มารันโมเดลปัญญาประดิษฐ์แบบ on-device ภายในเครื่อง ตกลงแล้วโมเดลตัวที่ว่านี้ชื่อว่า Phi Silica (อ่านว่า "ไฟ ซิลิกา") ถือเป็นหนึ่งในเวอร์ชันย่อยของชุดโมเดล Phi 3 โดยปรับแต่งมาเพื่อการรันบน NPU โดยเฉพาะ
Phi Silica พัฒนาต่อมาจาก Phi-3-mini โมเดลรุ่นเล็กสุดของซีรีส์ Phi-3 แล้วปรับขนาดให้เล็กลงอีกหน่อย (ขนาดพารามิเตอร์ลดลงจาก 3.8B เหลือ 3.3B) เพื่อให้รันใน NPU ได้พอดี ศักยภาพของ Phi Silica รองรับอินพุต 650 token ต่อวินาที ใช้พลังงานเพียง 1.5 วัตต์เท่านั้น
ในงาน Build 2024 เมื่อคืนนี้ ไมโครซอฟท์เปิดตัวโมเดลขนาดเล็ก Phi 3 ครบชุด หลังจากเปิดตัว Phi-3-mini มาตั้งแต่เดือนเมษายน
โมเดลในชุด Phi 3 มีด้วยกันทั้งหมด 4 ตัว เป็นโมเดลภาษา (small language model หรือ SML) จำนวน 3 ขนาด พ่วงด้วยของใหม่คือโมเดลภาพ (multimodal) ตัวแรกของไมโครซอฟท์ที่เปิดซอร์สออกมาคือ Phi-3-vision
IBM ประกาศขยายบริการปัญญาประดิษฐ์ Watsonx ที่เปิดตัวในปี 2023 จากเดิมมีเฉพาะ Watsonx Code Assistant for Z ตัวช่วยแปลงโค้ดภาษา COBOL บนเมนเฟรม และ Red Hat Ansible Lightspeed มาสู่บริการข้างเคียงอื่นๆ
IBM ประกาศโอเพนซอร์สโมเดลช่วยเขียนโค้ดของตัวเองชื่อ Granite โดยบอกว่ามีประสิทธิภาพเหนือกว่าโมเดลโอเพนซอร์สคู่แข่งในขนาดใกล้เคียงกัน (7B-8B) เช่น Google Gemma หรือ Meta CodeLlama
Granite เป็นโมเดลที่อยู่เบื้องหลังบริการ Watsonx Code Assistant (WCA) ที่เปิดตัวเมื่อปีที่แล้ว และนำไปใช้งานกับโค้ด COBOL ในเมนเฟรม Z หรือ Ansible Lightspeed ของฝั่ง Red Hat
ประเด็นที่ OpenAI ประกาศหยุดให้บริการเสียงพูด Sky ใน ChatGPT ชั่วคราว เนื่องจากถูกตั้งข้อสงสัยว่าเสียงเหมือนกับนักแสดง Scarlett Johansson แม้ทาง OpenAI ยืนยันว่าใช้เสียงนักพากย์มืออาชีพ ที่อาจจะออกมาเหมือน แต่ยืนยันว่าไม่ได้ตั้งใจเลียนแบบ ดูเหมือนจะมีอะไรที่ซับซ้อนมากกว่านั้น
OpenAI มีฟังก์ชัน Voice Mode ใน ChatGPT ให้ใช้งานตั้งแต่กันยายนปีที่แล้ว ซึ่ง ChatGPT สามารถโต้ตอบเป็นเสียงพูดได้ โดยระบุว่าเสียงที่ออกมานั้นใช้นักพากย์มืออาชีพ
อย่างไรก็ตามในตัวเลือก 5 เสียงที่มีให้ใช้งานได้แก่ Breeze, Cove, Ember, Juniper และ Sky ตัวเลือกเสียงอันหลังสุด Sky กลายเป็นประเด็นเมื่อมีคนตั้งข้อสงสัยว่าน้ำเสียงนั้นคล้ายกับนักแสดง Scarlett Johansson (Natasha Romanoff ใน Black Widow)
OpenAI ยืนยันว่าเสียงของ Sky เป็นของนักพากย์มืออาชีพหญิงคนหนึ่ง ที่พูดแบบธรรมชาติ และไม่ใช่ Scarlett Johansson แต่จะไม่เปิดเผยตัวตนเพื่อความเป็นส่วนตัว โดย OpenAI จะเริ่มปิดการใช้งานเสียง Sky ชั่วคราวเพื่อตรวจสอบเรื่องนี้เพิ่มเติม
ในงาน Google I/O 2024 ของใหม่อย่างหนึ่งที่เรียกเสียงฮือฮาในงานคือการโชว์โมเดล Gemini Nano รันในมือถือแอนดรอยด์โดยตรง ทำงานออฟไลน์ แล้วสามารถตรวจสอบการสนทนาที่เป็น scam หลอกหลวงได้ เป็นการโชว์ประโยชน์ของการรันโมเดลในมือถือให้เห็นชัดๆ ว่าทำอะไรได้บ้าง
หลังจากนั้นกูเกิลยังได้ออกวิดีโอเซสชัน Android on-device AI under the hood มาอธิบายรายละเอียดของการรันโมเดลในมือถือแอนดรอยด์เพิ่มเติม มีรายละเอียดดังนี้
OpenAI ประกาศเพิ่มปรับปรุงเครื่องมือวิเคราะห์ข้อมูลใน ChatGPT โดยรองรับการเพิ่มไฟล์โดยตรงจาก Google Drive และ Microsoft OneDrive แล้ว (ได้ทั้งคู่นะ ไม่เหมือนแอปเดสก์ท็อป)
ฟังก์ชันเพิ่มไฟล์โดยตรงจาก Google Drive หรือ Microsoft OneDrive รองรับไฟล์ในหลายฟอร์แมตทั้งเอกสาร, สเปรดซีต หรือสไลด์นำเสนอข้อมูล สามารถขยายพื้นที่ของไฟล์ในหน้า ChatGPT เพื่อดูข้อมูลประกอบได้ รองรับข้อมูลที่ถูกปรับปรุงเรียลไทม์ในระหว่างการสนทนาวิเคราะห์ข้อมูล
กูเกิลเปิดโครงการทดลอง Built-in AI เตรียมนำ Gemini Nano มารันใน Chrome โดยตรง เปิดทางให้เบราว์เซอร์มี API ในกลุ่ม LLM เพิ่มเติม
ฟีเจอร์ที่เว็บไซต์จะสามารถใช้งาน LLM บนเว็บได้ เช่น การช่วยสรุป หรือถามตอบคำถามในเนื้อหาบนเว็บเอง ไปจนถึงการเป็นตัวช่วยผู้ใช้เขียนเนื้อหา หรือตรวจคำผิด
ทุกวันนี้เว็บไซต์หลายแห่งรันโมเดลปัญญาประดิษฐ์บนเว็บอยู่แล้ว แต่การใช้งานแบบทุกวันนี้ทำให้ผู้ใช้ต้องดาวน์โหลดไฟล์ขนาดนับร้อยเมกะไบต์ทุกเว็บ และอาจใช้งานฟีเจอร์ต่างๆ ของเครื่องเช่น GPU หรือ NPU ได้จำกัด การที่เบราว์เซอร์มี API โดยตรงให้เลยจะทำให้ออปติไมซ์ได้ดีขึ้น
กูเกิลโชว์ Gemini Nano โมเดลปัญญาประดิษฐ์สำหรับโทรศัพท์รุ่นใหม่รองรับอินพุตหลายรูปแบบทั้งภาพ, เสียง, และข้อความ พร้อมกับความสามารถของแอป Gemini ที่ผูกเข้ากับระบบของแอนดรอยด์เต็มตัว
Gemini Nano อ่านภาพได้ ทำให้สามารถบรรยายภาพได้โดยไม่ต้องมีข้อมูลล่วงหน้า กูเกิลใส่ความสามารถนี้ในฟีเจอร์ TalkBack ที่ช่วยผู้มองเห็นได้จำกัด ทำให้สามารถบรรยายภาพได้อย่างละเอียด นอกจากนี้ยังสามารถฟังเสียงได้ ทำให้สามารถฟังเสียงการสนทนาตลอดเวลาและแจ้งเตือนทันทีเมื่อพบว่าบทสนนนาน่าจะเป็นการหลอกลวง ฟีเจอร์นี้จะเป็นแบบ opt-in ต้องเปิดใช้งานเอง และจะเปิดให้ใช้ภายในปีนี้ (ไม่ระบุประเทศที่รองรับ)
กูเกิลอัพเดต Gemini Advanced เวอร์ชั่นผู้ใช้ทั่วไป เป็น Gemini 1.5 Pro ทำให้รองรับ context window ขนาด 1 ล้านโทเค็นแบบเดียวกับการใช้งานแบบเดียวกับการใช้งานผ่าน API รองรับการอัพโหลดข้อมูลขนาดใหญ่เข้าไปยังแชตได้โดยตรง โดยมีฟีเจอร์ใหม่หลักๆ ได้แก่
กูเกิลอัพเดตโมเดล Gemini 1.5 Pro โดยขยาย context window เป็น 2 ล้านโทเค็น ทำให้สามารถรองรับข้อมูลขนาดใหญ่มาก และเชื่อฟังคำสั่งมากขึ้น โดยเฉพาะคำสั่งฟอร์แมต์เอาท์พุต หรือพฤติกรรมของ AI และการวางแผนการทำงานได้ดีขึ้นทำให้สามารถเรียกฟังก์ชั่นภายนอกได้มากขึ้น
นอกจากนี้กูเกิลยังเปิดตัว Gemini 1.5 Flash ที่ราคาประหยัดลงแต่ประสิทธิภาพยังใกล้เคียง Gemini 1.5 Pro โดยอาศัยเทคนิค distillation ที่ดึงความสามารถจากโมเดลขนาดใหญ่ และรองรับ context window ขนาด 1 ล้านโทเค็นเท่ากับรุ่นใหญ่ ราคาค่าใช้งาน 0.35 ดอลลาร์ต่อล้านโทเค็น
Gemini 1.5 Pro และ 1.5 Flash เปิดให้ใช้งานได้ทั้งทาง Google AI Studio และ Vertex AI ส่วนเวอร์ชั่น 2 ล้านโทเค็นยังทดสอบวงปิดต้องขอใช้งาน
เมื่อคืนที่ผ่านมา OpenAI เปิดตัว GPT-4o พร้อมกับประกาศเปลี่ยน tokenizer ใหม่โดยอาศัย 20 ภาษาต้นแบบในการบีบอัดข้อมูล ทำให้ภาษาต่างๆ ประหยัดโทเค็นยิ่งขึ้น แม้ภาษาไทยจะไม่อยู่ในรายชื่อ 20 ภาษา แต่ผลการทดลองก็พบว่าภาษาไทยนั้นประหยัดโทเค็นลงเท่าตัว
tokenizer ของ GPT-4o สามารถจับคำหรือส่วนของคำในภาษาไทยได้ชัดเจน คำสามัญเช่น "ของ" หรือ "จำนวน" ก็สามารถมองเป็นโทเค็นเดียวได้ทันที เทียบกับ tokenizer ของ GPT-4 ที่ไม่สามารถรวบตัวอักษรหลายตัวในภาษาไทยเข้าด้วยกันได้เลย ทำให้จำนวนโทเค็นกับจำนวนตัวอักษรใกล้เคียงกัน
ในงานแถลงข่าวเปิดตัว GPT-4o เมื่อคืนนี้ OpenAI ยังประกาศว่าฟีเจอร์หลายอย่างที่เคยจำกัดให้เฉพาะลูกค้าเสียเงินเท่านั้น ตอนนี้ขยายมารองรับผู้ใช้งานแบบฟรีทุกคนด้วย มีรายละเอียดดังนี้
update: เวอร์ชั่นแรกขอข่าวนี้พาดหัวว่ายังไม่รองรับภาษาไทย แต่เมื่อทดสอบแล้วจำนวนโทเค็นในภาษาไทยลดลงกว่าเท่าตัว
ในงานเปิดตัว GPT-4o ของ OpenAI นอกจากประเด็นโมเดลมีประสิทธิภาพสูงขึ้นแล้ว ยังมีประเด็นการออปติไมซ์ tokenizer เพื่อให้ใช้งานภาษาอื่นๆ นอกจากภาษาอังกฤษได้ดีขึ้น โดยทีมงาน OpenAI เลือกมา 20 ภาษารวมถึงภาษาอังกฤษแต่ยังไม่มีภาษาไทย ทำให้ภาษาเหล่านี้ใช้งานได้มีประสิทธิภาพมากขึ้นเพราะคำในภาษาเหล่านี้มีจำนวนโทเค็นน้อยลง
OpenAI เปิดตัว GPT-4 รุ่นใหม่ในชื่อ GPT-4o (โฟร์-โอ) ความสามารถใกล้เคียง GPT-4 แต่ความเร็วสูงกว่า ขณะที่ยังมีความสามารถรองรับอินพุตหลายแบบ (multimodal) สามารถฟังเสียงและอ่านภาพได้โดยไม่ต้องการโมเดลปัญญาประดิษฐ์ speech-to-text แยก
เนื่องจากประสิทธิภาพ GPT-4o สูงกว่าทำให้ OpenAI สามารถเปิดให้ผู้ใช้ทุกคนใช้งานได้ฟรีโดยมีโควต้ามากขึ้น สำหรับการใช้งานฝั่ง API ราคาของ GPT-4o จะถูกกว่า GPT-4 Turbo ลงครึ่งหนึ่ง ความเร็วโดยรวมเพิ่มขึ้นเท่าตัว และโควต้าการใช้งานเพิ่มขึ้นถึง 5 เท่า
Wikimedia Foundation ผู้ให้บริการ Wikipedia ทดสอบปลั๊กอินเบราว์เซอร์ Citation Needed เป็นการตรวจสอบข้อมูลในเว็บด้วยการค้นหาข้อมูลในวิกิมาอ้างอิง โดยใช้ ChatGPT มาอ่านข้อความและหน้าเว็บอ้างอิงว่าเนื้อหาสนับสนุนกันหรือไม่
ปลั๊กอินเบราว์เซอร์ตัวนี้รับอินพุตโดยให้ผู้ใช้เลือกข้อความในเว็บใดๆ จากนั้นจะอาศัย ChatGPT ในการสร้างคำค้นหา และค้นหาหน้าวิกิด้วย API ของ Wikipedia เอง สุดท้ายจะใช้ ChatGPT ในการแยกประโยคที่เกี่ยวข้องและสรุปออกมาว่าเป็นเนื้อหาที่ผู้ใช้เลือกมานั้นสอดคล้องกับข้อความในหน้าวิกิหรือไม่
01.AI บริษัทปัญญาประดิษฐ์ที่ก่อตั้งโดย Kai-Fu Lee เปิดตัวโมเดล Yi เวอร์ชั่น 1.5 โดยชูประเด็นว่าโมเดลขนาด 9B นั้นสามารถทำคะแนนทดสอบชนะโมเดลโอเพนซอร์สขนาดใกล้เคียงกันได้ทั้งหมด (แม้่ว่านับจริงๆ Yi 9B จะใหญ่กว่าคนอื่นพอสมควรก็ตาม)
ทีมงาน 01.AI ระบุว่า Yi ฝึกด้วยชุดข้อมูลคุณภาพสูงขนาดใหญ่มากถึงห้าแสนล้านโทเค็น แล้วฝึกต่อด้วยตัวอย่างอีกสามล้านชุด
Kai-Fu Lee ให้สัมภาษณ์กับ The Japan Times ว่าที่ผ่านมาตลาดแชตบอตในจีนยังไม่ดีพอใช้งาน ต่างจาก ChatGPT ที่เปิดตัวมาก็มีประโยชน์ใช้งานได้เลย และทาง 01.AI ก็เปิดตัว Wanzhi ผู้ช่วยปัญญาประดิษฐ์ที่ช่วยผู้ใช้ได้แบบเดียวกับ Microsoft Copilot แล้ว
Mayo Clinic รายงานถึงการพัฒนา RadOnc-GPT ผู้ช่วยวิเคราะห์โรคมะเร็งที่อาศัยข้อมูลการรักษามะเร็งในโรงพยาบาล Mayo Clinic เอง นำมา finetune โมเดล Llama 2 ของ Meta กระบวนการฝึกและการใช้งานทั้งหมดอยู่ในเน็ตเวิร์คของโรงพยาบาลเอง
IBM ปล่อยโมเดลปัญญาประดิษฐ์ Granite ที่ฝึกจากฐานข้อมูลโค้ด 116 ภาษา โดยโมเดลมี 4 ขนาดได้แก่ 3B, 8B, 20B, และ 34B แยกรุ่นพื้นฐานและรุ่นรับคำสั่ง (instruct) โดยเฉพาะรุ่น 8B นั้นความสามารถในการเขียนโปรแกรมเหนือกว่าโมเดลขนาดเดียวกันค่อนข้างมาก
กระบวนการฝึกโมเดลเวอร์ชั่น 34B นั้นพิเศษกว่าเวอร์ชั่นอื่นๆ เพราะอาศัยการ upscaling โดยนำโมเดล 20B ที่มี 52 ชั้นสองเวอร์ชั่น มาถอดฝั่ง output 8 ชั้น และ input ของอีกโมเดลหนึ่ง 8 ชั้น แล้วนำมาต่อกันเป็น 34B ข้อมูลที่ใช้ฝึกนั้นมีตั้งแต่ GitHub Code Clean, StarCoderData, และโค้ดอื่นๆ รวมถึง
Alibaba Cloud ประกาศว่า Tongyi Qianwen หรือ Qwen โมเดลปัญญาประดิษฐ์ภาษาขนาดใหญ่หรือ LLM มีหน่วยงานนำไปติดตั้งใช้งานแล้วมากกว่า 90,000 แห่ง สะท้อนความต้องการใช้งานที่เพิ่มต่อเนื่องจาก ทั้งจากกลุ่มอุตสาหกรรมอิเล็กทรอนิกส์, ยานยนต์ จนถึงเกม
โดย Alibaba Cloud ได้อัปเดตโมเดล Qwen นี้ในเวอร์ชันล่าสุด Qwen2.5 โดยมีจุดเด่นคือการให้เหตุผล ประเมินโค้ด และทำความเข้าใจภาษาได้ดีกว่าเวอร์ชันก่อนหน้า Qwen2.0