ปีที่แล้วเรามีข่าว ทีมนักวิจัยจาก University of Chicago ออกแอพชื่อ Glaze ป้องกันไม่ให้ AI นำภาพไปลอกสไตล์งานวาด ปีนี้ทีมนักวิจัยชุดเดิมออกเครื่องมือตัวใหม่ชื่อ Nightshade เปรียบเสมือน "การวางยาพิษ" ให้โมเดล AI ทำงานเพี้ยนไปแทน (ตั้งชื่อตามดอกไม้พิษ Nightshade)
ทีมนักวิจัยเปรียบเทียบ Glaze ว่าเป็นมาตรการ "ป้องกัน" ส่วน Nightshade เป็นมาตรการ "โจมตี" โดยเทคนิคของ Nightshade คือการแทรกโค้ดที่มนุษย์มองไม่เห็นลงไปในภาพ แต่ AI จะมองเห็นภาพนั้นผิดเพี้ยนไปจากเดิม เมื่อนำภาพที่ฝัง Nightshade ไปเทรนโมเดล จะทำให้ผลลัพธ์ออกมาไม่เสถียรเหมือนเดิม
ในเปเปอร์วิจัยที่ตีพิมพ์ในเดือนตุลาคม 2023 โชว์ตัวอย่างโมเดลที่ถูก "วางยา" ว่าโมเดลที่สั่งสร้างภาพหมา หากรับภาพอินพุตที่ถูกวางยาไปครบ 1,000 ตัวอย่าง จะได้ภาพออกมาเป็นแมวแทน จะเห็นว่าโมเดลยังทำงานไม่ผิดเพี้ยนมากนักเมื่อรับอินพุตที่ถูกวางยาไป 500 ตัวอย่าง แต่เมื่อโดนวางยาไปครบ 1,000 ตัวอย่างแล้วจะเริ่มออกอาการ
ทีมวิจัยบอกว่า Nightshade ออกแบบให้เป็นอาวุธโต้กลับฝ่ายนักเทรนโมเดล ที่ไม่เคารพทรัพย์สินทางปัญญา หรือไม่ปฏิบัติตามข้อกำหนดต่างๆ (เช่น ที่ระบุไว้ใน robots.txt ว่าห้ามดูดภาพไปเทรน) โดยทีมวิจัยแนะนำว่าควรใช้ Glaze ป้องกันภาพทุกภาพที่เรามี ส่วนจะใช้ Nightshade ต่อสู้กลับด้วยหรือไม่ก็เป็นทางเลือกของศิลปินแต่ละคน และทีมวิจัยกำลังสร้างเครื่องมือที่ใส่ทั้ง Glaze/Nightshade ได้พร้อมกันทีเดียว
ที่มา - Nightshade
Comments
แมวไล่จับหนูอีกหนึ่งวงการ
เก่งนะ แต่จะอยู่รอดได้แค่ไหน
ฝั่งคนทำ AI จะสู้กลับยังไง?
ถ้าหมายถึงคนเอา AI ไปใช้ คงรอครับ
ส่วนคนที่ทำตัว AI ออกมาไว้ไปใช้ต่อ ผมว่าเทรนเข้าไปเดี๋ยวมันก็รู้ 🥲 แต่สู้กันไปเรื่อยๆ โมเดลอาจจะโตขึ้นเรื่อยๆ จนทุนสูงแหละ ทั้งตอนเทรนตอนรัน
เขาเจอทริกหลบเลี่ยงได้แล้วครับ ยาพิษไม่ได้ผล
WE ARE THE 99%