หลังจากผู้ใช้ Reddit ที่ใช้ชื่อ deepfakes เริ่มเผยแพร่วิดีโอโป๊ปลอมที่เริ่มสมจริงจากการใช้ deep learning วางภาพใบหน้าดาราลงไปบนวิดีโอโป๊ จนกระทั่งมีคนทำแอปให้คนอื่นๆ ไปทำวิดีโอปลอมเองได้ แม้เว็บจำนวนมากทั้งเว็บโป๊และเว็บทั่วไปที่ยอมรับเนื้อหาสำหรับผู้ใหญ่จะออกมาประกาศแบนวิดีโอปลอมเหล่านี้ แต่การระบาดก็ดูจะหนักขึ้นเรื่อยๆ
เว็บ The Register ทดลองหาคำว่า "Deepfake" บน Pornhub ที่เคยประกาศแบนวิดีโอเหล่านี้แต่ก็พบว่ายังหาวิดีโอปลอมได้ทั่วไป เพราะกระบวนการของ Pornhub คือการรอคนรายงานก่อน เช่นเดียวกับกระบวนการลบเนื้อหาอื่นๆ
เว็บโป๊บางเว็บก็แสดงท่าทีว่าวิดีโอโป๊ปลอมเหล่านี้เป็นเรื่องยอมรับได้ โดยเว็บ EroMe ระบุว่าวิดีโอโป๊ปลอมเหล่านี้เป็นการล้อเลียน (parody) และไม่มีเหตุผลที่จะต่อต้านมัน แต่หากมีใครไม่พอใจวิดีโอเหล่านี้ก็สามารถยื่นคำร้องให้ลบได้
ในแง่การแบ่งปันวิดีโอ เนื่องจาก Reddit ได้ประกาศแบนเนื้อหาเหล่านี้ไปแล้วพร้อมกับลบห้อง r/deepfakes ไป ทำให้มีเว็บบอร์ดภายนอกเริ่มปรากฎตัว เช่นเว็บ deepfakes.cc มีการโพสแยกห้องตั้งแต่การแจกวิดีโอทำสำเร็จ, ไฟล์สำหรับฝึกโมเดล deepfake ที่เป็นใบหน้าของดาราทั่วไปและดาราโป๊, ไปจนถึงห้องสอบถามปัญหาเทคนิค
ด้วยแนวโน้มเช่นนี้ ในระยะสั้นๆ วิดีโอโป๊ปลอมคงมากขึ้นเรื่อยๆ
ที่มา - The Register
Comments
ถ้าระบาดมาถึงไทยเมื่อไหร่ น้องๆกลุ่ม BNK ที่มีสิทธิ์จะโดนสูง
หวังว่าจะไม่เกิดขึ้นครับ
"When I walk around I probably look like a street dog" - Daido Moriyama
ใจเย็นๆ นะฮะ
ผมว่าท่านผู้นำน่าจะมาแรงแซงทางโค้งครับ คุกๆๆๆ...
อาจจะมีคนคิดทำ ก็ไอเดียจากเม้นนี้แหละ
พอดีผมเห็นคนเม้นแบบนี้ใน facebook blognone มาอีกที :D
หึม ขอเข้าไปดูแนวทางการพัฒนาหน่อยนะ
มันหลอกผมไม่ได้หรอก แค่ดูนมกับจิ๋มก็รู้แล้วว่าใครเป็นใคร
ข้างบนนั่นเหมือนมีคนเปิดวาร์ป