OpenAI ออกมาเขียนบล็อกชี้แจงกรณี The New York Times (NYT) ยื่นฟ้องละเมิดลิขสิทธิ์ โดยระบุว่าเป็นบั๊กที่เกิดได้ยากแล้ว และกำลังแก้ไขให้ไม่มีเหตุการณ์แบบนี้อีก พร้อมกับยืนยันว่าต้องการเป็นพันธมิตรกับสำนักข่าวต่างๆ
คำชี้แจงของ OpenAI ยืนยันว่าการใช้เนื้อหาในงานมีลิขสิทธิ์เช่นข่าวต่างๆ มาฝึกปัญญาประดิษฐ์นั้นเป็นการใช้งานอย่างเป็นธรรม (fair use - ข้อยกเว้นการใช้งานมีลิขสิทธิ์ในบางกรณี ซึ่งได้รับรองสิทธิ์ไว้ในกฎหมายทรัพย์สินทางปัญญาของสหรัฐฯ) แม้ว่าประเด็นนี้ยังมีการถกเถียงกันอยู่บ้าง แต่ OpenAI ก็ออกมาชี้ว่ามีกลุ่มต่างๆ สนับสนุนให้ตีความว่าการใช้ข้อมูลเพื่อฝึกปัญญาประดิษฐ์นั้นเป็นการใช้งานอย่างเป็นธรรม พร้อมกับระบุว่าทาง OpenAI เองเปิดทางให้สำนักข่าวปฎิเสธไม่ให้นำข้อมูลมาฝึกได้ทั้งที่ไม่ได้ถูกบังคับตามกฎหมาย
สำหรับกรณีที่ ChatGPT ตอบกลับบทความทั้งชุด (Regurgitation) นั้นทาง OpenAI มองว่าเป็นบั๊กและกำลังเพิ่มมาตรการเพื่อไม่ให้มีเอาท์พุตแบบนี้อยู่ ส่วนตัวอย่างที่ NYT ใช้ฟ้องนั้น OpenAI ระบุว่า NYT แจ้งเพียงว่าพบเหตุ ChatGPT ตอบกลับบทความแต่ไม่ยอมบอกตัวอย่างให้ตรวจสอบ และตัวบทความที่ยกอย่างมาก็เป็นบทความเก่าที่มีการทำสำเนาไปยังเว็บอื่นๆ นอก NYT จำนวนมาก ทาง OpenAI ยังเชื่อว่า prompt ที่ใช้น่าจะจงใจอย่างมากที่จะให้ ChatGPT ตอบกลับทั้งบทความออกมา หลายครั้งอาจจะใส่ตัวอย่างเนื้อหาในบทความเข้าไปใน prompt แต่แรก
ที่มา - OpenAI
Comments
ผลงานที่สร้างโดยมนุษย์ ตรวจ Plagiarism ไล่บี้กันแทบตาย แต่พอเป็น AI ดันบอกว่าให้ Fair Use เนี่ยนะ....
I need healing.
บางเว็บเอาบทความจากเว็บต้นทางต่างประเทศมาแปลเป็นไทยยังเอามาแปลหมดไม่ได้เลย แปลได้แค่บางส่วน มีสิบย่อหน้าเอามาได้แค่ย่อหน้าเดียวแต่ AI บอกเอามาหมดได้ คนเขียนบทความแปลจากเว็บต่างประเทศมีมองบนล่ะ
สมมุติว่าตัวละครโดเรม่อนกับ AI 2 ตัว
ตัวที่ 1 AI รู้จักโดเรมอน ปฏิเสธการสร้างรูปโดเรมอนได้
ตัวที่ 2 AI ไม่รู้จักโดเรมอน แต่สร้างรุปโดเรมอนได้
คำถามคือมันรู้จักโดเรมอนได้อย่างไร แล้วตัวไหนที่ผู้พัฒนาควรรับผิด
ตราบใดที่ยังเป็น LLM และเป็นสิ่งที่ต้องรับข้อมูลไปประมวลผลในตัว การจะรู้ผิดรู้ถูก ก็เกิดการกระทำผิดในความหมายของมนุษย์แล้ว
เข้าใจว่าเรื่องพวกนี้ผิดหรือไม่เป็นเรื่องของเจตนา แต่ไม่ว่าอย่างไรเบื้องต้นคือไม่ว่าเคสไหนผู้ให้บริการจะต้องถูกสอบสวนก่อนเสมอครับ จากนั้นผู้ให้บริการก็ต้องไปพิสูจน์เจตนาตัวเองให้ได้ว่าไม่ได้ละเมิดลิขสิทธิ์และอธิบายให้ได้ว่ามันเกิดขึ้นได้อย่างไรถึงจะพ้นผิดได้
แต่ถึงจะพ้นผิดก็ไม่ใช่ว่าไม่ต้องทำอะไรหรือไม่ต้องชดใช้ความเสียหายนะ ผู้ให้บริการก็ต้องดำเนินการจัดการและมีมาตรการในการรับมือด้วย (เช่น ลบเนื้อหาออกและเพิ่มมาตรการป้องกันต่างๆ) รวมถึงชดใช้ความเสียหายก็เป็นเคสๆไปด้วย
ซึ่งเอาจริงๆมันก็ทำนองเดียวกับผู้ให้บริการ cloud ที่มีการอัพโหลดคอนเทนต์ละเมิดลิขสิทธิ์หรือคอนเทนต์ผิดกฎหมายนั่นแหละครับ แค่มันพิสูจน์ยากกว่านิดนึงเพราะพวกนั้นมันเห็นกันโต้งๆเลย
เรื่องนั้นน่ะเข้าใจครับ แต่อาจจะต่างกับกรณี cloud ตรงที่ว่าปัญหาที่เกิดไม่ใช่เพียงแค่ข้อสงสัยหรือข้อกล่าวหาเพียงเท่านั้น แต่มีเรื่องแฝงการโจมตีที่ตัวองค์กรอย่างจงใจอยู่ด้วย มันไม่ใช่เรื่องใสซื่อที่เป็นความรับผิดชอบของผู้ให้บริการอย่าง OpenAI เท่าน้้น มันกลายเป็นการใช้ Ethic AI ที่ไร้จริยธรรมไปแล้ว ก่อนบทความนี้ออก เราเคยได้ยินสื่อที่ไหนพูดถึงการยกฟ้องคดีเหล่านั้นบ้าง ผมเองตรวจสอบข่าวสารและรายงานพฤติกรรมที่แปลกประหลาดกับสิ่งที่เกิดขี้นจนเป็นสิ่งที่สันนิษฐานว่าเป็นการนำเอา OpenAI มาเป็นคอนเทนต์ Ethic AI เพราะองค์กรไม่เคยที่จะดำเนินการกับการเผยแพร่เนื้อหาที่ละเมิด คุณคิดว่า AI 10 อันดับแรกมีคนใช้งานกี่คนแต่ทำไมมี AI เพียงตัวเดียวที่มีปัญหานี้ ตั้งแต่การนำผลการใช้งานที่ AI สร้างมาอ้างฟ้องร้อง การนำไปใช้ทำคอนเทนต์ชี้ช่องละเมิดกฏหมายโดยลงรายละเอียดที่นำไปใช้ได้เลย การนำไปเขียนรวมกับข่าวดีฟเฟคก็ยังมี เรื่องการปิดเบือนข่าวกันเป็นทอด หรือข่าวผลการวิจัยที่บิดเบือน วันนี้ผมยังเจอการสร้างคอนเทนต์ที่ไร้เหตุผลและเอาข่าวเก่าขึ้นมาเขียน จนถึงการใช้เทคนิคการนำเสนอทางจิตวิทยาให้คนเข้าใจผิดเป็นสำนักข่าวใหญ่ในประเทศไทยนี่แหละ
เคยมีคนบอกคุณไหมว่า OpenAI มีระบบตรวจสอบข้อมูลตั้งแต่ยังไม่ส่งเป็นระบบความปลอดภัยในขณะที่ AI อื่นไม่มี และปัจจุบัน OpenAI เลือกที่จะไม่ใช้ข้อมูลจากภายนอกในการฝึกฝน แต่ทำไมเรายังได้ยินแต่ข่าวเสียหายจาก OpenAI ลองคิดดู