ทีมวิจัยร่วมระหว่าง DeepMind และนักวิจัยจากมหาวิทยาลัยหลายแห่ง รายงานถึงเทคนิคการดึงข้อมูลที่ใช้ฝึกปัญญาประดิษฐ์ในกลุ่ม LLM โดยเฉพาะ ChatGPT ที่ถูกจูนเพื่อไม่ให้คืนข้อมูลที่ใช้ฝึกออกมาตรงๆ (ดูตัวอย่างแชต)
การดึงข้อมูลที่ใช้ฝึก AI นั้นมีการวิจัยมานาน แต่ก่อนหน้านี้มักเป็นการทดลองในโมเดลโอเพนซอร์สที่นักวิจัยสามารถศึกษากระบวนการทำงานได้อย่างละเอียด และสามารถตรวจสอบข้อมูลได้ทันทีว่า AI แสดงข้อมูลที่ใช้ฝึกหรือยังเพราะนักวิจัยเห็นข้อมูลฝึกอยู่แล้ว ในกรณี ChatGPT นั้นยากกว่ามากเพราะ OpenAI ฝึกโมเดลเพื่อไม่ให้คืนข้อมูลที่ฝึกเข้าไป และนักวิจัยไม่เห็นอะไรนอกจาก API ของ OpenAI เอง
แนวทางของ DeepMind อาศัยการดาวน์โหลดข้อมูลจากอินเทอร์เน็ตมาขนาดรวมถึง 10TB และตรวจสอบข้อมูลที่ได้จาก ChatGPT ว่าตรงกับข้อมูลในฐานข้อมูลหรือยัง
การป้องกันการโจมตีเช่นนี้ทำได้ไม่ยากนัก OpenAI อาจจะสั่งให้ ChatGPT เลิกตอบคำสั่งที่สั่งให้พูดซ้ำไปเรื่อยๆ แต่ก็ไม่ใช่การแก้ปัญหาโดยตรง ทีมวิจัยระบุว่าควรมีการศึกษาต้นเหตุของช่องโหว่ที่เปิดให้โจมตีเช่นนี้ได้แต่แรก ทีมงานแจ้ง OpenAI และผู้พัฒนาโมเดลอื่นๆ ในงานวิจัยนี้ก่อนเผยแพร่เป็นเวลา 90 วัน ดังนั้นตอนนี้บริษัทต่างๆ ก็อาจจะแก้ปัญหาไปแล้ว
ที่มา - GitHub.io
Comments
นับถือเลยหาช่องโหว่ได้
มือใหม่!! ใหม่จริงๆนะ
CEO Sxx Axxxxx ใช่มะ