Lamini บริษัทแพลตฟอร์มปัญญาประดิษฐ์แบบ LLM นำเสนอเทคนิคการปรับแต่งโมเดลปัญญาประดิษฐ์ที่ชื่อว่า Lamini Memory Tuning (LMT) โดยระบุว่าลดอาการหลอน (hallucinate) ของปัญญาประดิษฐ์แบบ LLM ได้ถึง 95%
ก่อนหน้านี้การลดอาการหลอนของ LLM นั้นอาศัยการวางข้อมูลอ้างอิงจากแหล่งที่น่าเชื่อถือต่างๆ เช่น องค์กรอาจจะมีชุดข้อมูลของตัวเองก็สามารถนำข้อมูลที่เกี่ยวข้องกับคำถามมาวางในพรอมพ์ เรียกว่า Retrieval Augmented Generation (RAG) เทคนิคนี้เพิ่มความแม่นยำได้จริง แต่ก็มีข้อจำกัดเพราะกระบวนการดึงข้อมูลไม่สมบูรณ์
แนวทาง LMT เสนอให้ใส่ความรู้เข้าไปยัง LLM ด้วยการ finetune โมเดลแบบ LoRA ซึ่งไม่ใช่เรื่องใหม่ แต่ที่พิเศษคือ LMT จะฝึกโมเดลจำนวนมหาศาลนับล้านโมเดลที่มีความเชี่ยวชาญและความรู้เฉพาะแต่ละเรื่อง เรียกว่า memory expert และเมื่อผู้ใช้ถามคำถามจริงก็จะดึง expert ที่เกี่ยวข้องกับคำถามมาสร้างคำตอบสุดท้าย เรียกสถาปัตยกรรมนี้ว่า Mixture of Memory Experts (MoME)
รายงานของ Lamini ไม่ได้เปิดเผยวิธีการทดสอบชัดเจนนัก โดยรายงาน 3 ตัวอย่างที่ทำให้กับลูกค้า ได้แก่
แม้ผลของ Lamini จะน่าตื่นเต้นแต่บริษัทก็ยังไม่ได้เปิดเผยโค้ดทดลองให้ภายนอกสามารถทำซ้ำว่าสถาปัตยกรรม MoME นั้นได้ผลดีเช่นนั้นจริงหรือไม่ อาจจะต้องรอการอิมพลีเมนต์จากภายนอกว่าแนวทางเช่นนี้ทำงานนอกเหนือจากรูปแบบการใช้งานที่ Lamini เสนอมาได้กว้างเพียงใด
ที่มา - Lamini
Comments
แบบนี้มันก็คล้ายๆของ gpt4o ไหมนะ