ทีมวิจัยจาก Zoom Communications รายงานถึงเทคนิค Chain of Draft (CoD) ที่ล้อมาจาก Chain of Thought (CoT) หรือกระบวนการคิดก่อนตอบ ที่มักทำให้ผลการทดสอบต่างๆ ของปัญญาประดิษฐ์กลุ่ม LLM ดีขึ้น โดยพบว่ากระบวนการ CoD ได้ผลใกล้เคียงหรือดีกว่า CoT แต่กลับประหยัดค่า token อย่างมาก
หลักการของ CoD นั้นเรียบง่าย คือการใส่ system prompt ระบุว่าให้คิดเป็นขั้นเป็นตอนก่อนตอบ (เหมือน CoT) แต่ระบุว่าให้คิดให้สั้นที่สุดเท่าที่เป็นไปได้ แต่ละขั้นตอนก็คิดสั้นๆ พอ
ความน่าสนใจของแนวทางนี้คือเมื่อรันกับชุดทดสอบต่างๆ แล้วพบว่า CoD ทำคะแนนได้ดีกว่าโมเดลพื้นฐานอย่างมาก ขึ้นไประดับเดียวกับ CoT แต่กลับใช้โทเค็นรวมเพียง 7.6% ของ CoT เท่านั้น
โมเดล LLM ที่คิดก่อนตอบมีค่าใช้จ่ายในการรันที่แพงมาก เพราะหลายโมเดลคิดยาวส่งผลให้ค่ารันสูงขึ้นอย่างมาก แถมการตอบสนองกับผู้ใช้ก็ไม่ดีในงานที่ต้องการคำตอบทันที เช่น call center, หรือการเติมโค้ด
ข้อเสนอ CoD นี้ทำให้เป็นไปได้ว่า ในอนาคตเราจะเห็นโมเดลคิดก่อนตอบประสิทธิภาพสูง แต่ค่าใช้จ่ายไม่ต่างจากโมเดลธรรมดานัก
ที่มา - ArXiV
Comments
แนวทางนี้คือ
เราจะเห็นโมเดลคิดก่อนตอบ
ตั้ง default ไปเลย
คุ้มนะ จ่ายเพิ่มไม่ถึง 1 ใน 10 แต่ได้ผลลัพธ์เทียบเท่า
แข่งกันแบบนี้ดี
ก็จริง
AI ยุคนี้พอถามย้ำๆให้คิดเยอะมันก็วนอยู่ในอ่าง สุดท้ายตอบออกมาไม่ต่างกับเดิม
ผมถาม QwQ 32B มีคน 5 คนในห้อง ออกจากห้อง 3 เข้ามาใหม่ 2 เหลือกี่คน คือคิดนานมากกกก 10 กว่า statement แต่ก็ตอบถูกนะ 5555
lewcpe.com, @wasonliw
ผมเคยคุยกับ DeepSeek Distill ประโยคง่าย ๆ เลย แบบ สวัสดี สบายดีไหม ฯลฯ
ผมถามภาษาไทยไป คำถามแรกมันตอบกลับมาเป็นภาษาจีน ผมก็พูดไทยกลับไปอีกที มันคิดใหญ่เลย ตูจะตอบภาษาจีนอีกดีมั้ยนะ หรือว่าจะตอบภาษาอังกฤษดี แต่เอ๊ะคนถามเค้าถามเป็นภาษาไทยนะเราก็ควรจะตอบภาษาไทยสิ แต่ว่า ฯลฯ คิดวนไปวนมา วนไปวนมา วนไปวนมา นานมาก แล้วมันก็ได้ข้อสรุปว่าเอาล่ะฉันจะตอบเป็นภาษาไทย !
...แล้วมันก็ตอบมาเป็นภาษาจีน ...
เพื่อ!!
ผมลองให้มันแปลข้อความจีนเป็นไทยดู
มันคิดว่ามันกำลังตอบเป็นไทย
แต่ที่ตอบออกมาเป็นจีนหมด งงเลย 😅
ทำไมนึกถึงตอนไปเที่ยว แล้วคุย Eng กับคนจีนแล้วตอบกลับมาเป็นจีน
ที่จริงก็เหมือนสมองมนุษย์อยู่นะ คิดมาก เหตุผลร้อยแปด สุดท้ายก็เลือกเอาตามอารมณ์อยู่ดี แต่ถึงแม้ AI อาจจะเก่งกว่ามนุษย์ ในเรื่องความเร็วในการคำนวณ หรือพวกที่ต้องใช้ logic แต่ปฏิสัมพันธ์ ความเป็นธรรมขาติ คงอีกนาน เพราะจุดเด่นของสมองมนุษย์เรา เราใช้อารมณ์ในการตัดสินใจแทนการใช้ตรรกะ จะใช้อารมณ์มากน้อยแล้วแต่คน แต่สมองส่วนควบคุมอารมณ์เก่าแก่และเป็นใหญ่กว่าสมองส่วนเป็นเหตุผลเสมอ เคยฟังคลิปของหมอกลาง คนที่สมองส่วนอารมณ์พัง แทบจะใช้ชีวิตแบบปกติไม่ได้เลย เพราะสมองส่วนเหตุผลทำงานชนะ แล้วคิดวนไปวนมาแบบอยู่ในอ่าง เทียบ วิเคราะห์เหตุผลต่าง ๆ นาๆ หาข้อสรุปแทบไม่ได้ เหมือนพวก ai เลย