Tags:
Node Thumbnail

Lamini บริษัทแพลตฟอร์มปัญญาประดิษฐ์แบบ LLM นำเสนอเทคนิคการปรับแต่งโมเดลปัญญาประดิษฐ์ที่ชื่อว่า Lamini Memory Tuning (LMT) โดยระบุว่าลดอาการหลอน (hallucinate) ของปัญญาประดิษฐ์แบบ LLM ได้ถึง 95%

ก่อนหน้านี้การลดอาการหลอนของ LLM นั้นอาศัยการวางข้อมูลอ้างอิงจากแหล่งที่น่าเชื่อถือต่างๆ เช่น องค์กรอาจจะมีชุดข้อมูลของตัวเองก็สามารถนำข้อมูลที่เกี่ยวข้องกับคำถามมาวางในพรอมพ์ เรียกว่า Retrieval Augmented Generation (RAG) เทคนิคนี้เพิ่มความแม่นยำได้จริง แต่ก็มีข้อจำกัดเพราะกระบวนการดึงข้อมูลไม่สมบูรณ์

แนวทาง LMT เสนอให้ใส่ความรู้เข้าไปยัง LLM ด้วยการ finetune โมเดลแบบ LoRA ซึ่งไม่ใช่เรื่องใหม่ แต่ที่พิเศษคือ LMT จะฝึกโมเดลจำนวนมหาศาลนับล้านโมเดลที่มีความเชี่ยวชาญและความรู้เฉพาะแต่ละเรื่อง เรียกว่า memory expert และเมื่อผู้ใช้ถามคำถามจริงก็จะดึง expert ที่เกี่ยวข้องกับคำถามมาสร้างคำตอบสุดท้าย เรียกสถาปัตยกรรมนี้ว่า Mixture of Memory Experts (MoME)

รายงานของ Lamini ไม่ได้เปิดเผยวิธีการทดสอบชัดเจนนัก โดยรายงาน 3 ตัวอย่างที่ทำให้กับลูกค้า ได้แก่

  1. ตัวแปลงข้อความเป็น SQL: ลูกค้ามีฐานข้อมูลภายในจำนวนมาก มีชื่อเฉพาะแต่ละระบบ สามารถฝึกโมเดลจนตอบได้ 95% จากเดิมใช้ RAG ทำได้สูงสุด 50%
  2. ระบบจัดหมวดหมู่เอกสาร: จัดหมวดหมู่เอกสารจำนวนมากเข้าหมวดประมาณ 900 หมวด ทำได้เต็ม 100%
  3. ระบบแนะนำสินค้า: ระบบที่ต้องแนะนำตามสินค้าในฐานข้อมูลจริง ระบบสามารถแนะนำได้ถูกต้อง 88% จากสินค้า 50,000 รายการ

แม้ผลของ Lamini จะน่าตื่นเต้นแต่บริษัทก็ยังไม่ได้เปิดเผยโค้ดทดลองให้ภายนอกสามารถทำซ้ำว่าสถาปัตยกรรม MoME นั้นได้ผลดีเช่นนั้นจริงหรือไม่ อาจจะต้องรอการอิมพลีเมนต์จากภายนอกว่าแนวทางเช่นนี้ทำงานนอกเหนือจากรูปแบบการใช้งานที่ Lamini เสนอมาได้กว้างเพียงใด

ที่มา - Lamini

No Description

Get latest news from Blognone

Comments

By: bladeworks on 18 June 2024 - 09:36 #1314839

แบบนี้มันก็คล้ายๆของ gpt4o ไหมนะ