ทวิตเตอร์ออกกฎใหม่สำหรับจัดการกับสื่อประเภท deepfake อย่างเป็นทางการ โดยนโยบายใหม่นี้จะจำกัดไม่ให้แชร์ข้อมูลปลอมที่อาจสร้างผลกระทบหรือความเสียหายได้
ทวิตเตอร์มีปัจจัยในการพิจารณาทวีตอยู่ 3 ข้อ ว่าจะทำเครื่องหมาย, แสดงข้อความเตือนหรือลบทวีตเหล่านั้นหรือไม่ ดังนี้
Jigsaw หน่วยบ่มเพาะเทคโนโลยีในเครือ Alphabet กำลังพัฒนาเครื่องมือใหม่ Assembler ที่ช่วยตรวจจับรูปภาพที่ผ่านการดัดแปลง ปลอมแปลง หรือใช้เทคโนโลยี deepfake เป้าหมายคือให้นักข่าวสามารถนำเครื่องมือไปใช้ตรวจสอบเนื้อหาได้ เพื่อสู้กับข่าวปลอม
ในขณะที่รูปภาพถ้าผ่านการดัดแปลงผ่าน Photoshop ตามนุษย์ยังพอสังเกตความผิดปกติในรูปภาพได้ แต่ก็ยัง
มีการดัดแปลงรูปภาพอีกหลายอย่างที่คอมพิวเตอร์สามารถมองออก เช่น แพทเทิร์นซ้ำๆ กันในรูปภาพ และภาพที่ดัดแปลงจาก deepfake ซึ่งมีความแนบเนียนมากขึ้นทุกที
Facebook ออกนโยบายแบนคลิป deepfake อย่างเป็นทางการ โดยระบุว่า ทางแพลตฟอร์มจะแบนวิดีโอและเนื้อหาที่ผ่านการแก้ไข สังเคราะห์ (ไม่รวมการปรับแต่งให้คมชัดขึ้น) และผลลัพธ์คือทำให้เกิดความเข้าใจผิด หรือวิดีโอที่ปรับแต่งโดย AI แต่ไม่รวมวิดีโอที่ทำขึ้นเชิงตลก ล้อเลียน
Reuters เปิดตัวคอร์สออนไลน์สำหรับนักข่าวคือ Identifying and Tackling Manipulated Media ให้เข้ามาเรียนรู้วิธี และการทำงานของข่าวปลอม กรณีศึกษา รวมถึง deepfake ความยาว 45 นาที โดยมีเฟซบุ๊กร่วมมือด้วย
ในเนื้อหาจะอธิบายสื่อต่างๆ ที่สามารถถูกควบคุมได้ (manipulated media) ไม่ได้มีแค่ deepfake แต่รวมถึงคลิปที่ถูกปรับแต่งเพื่อจุดประสงค์ให้เกิดความเข้าใจผิด พร้อมตัวอย่างสื่อที่เป็น manipulated media ของจริงมาให้ศึกษากันด้วย
ทวิตเตอร์เสนอแนวทางจัดการกับสื่อสังเคราะห์และสื่อที่ถูกดัดแปลง ซึ่งอาจจะหมายถึงภาพ, เสียง, และวิดีโอที่ถูดตัดต่อหรือสร้างขึ้นใหม่ทั้งหมด เช่นวิดีโอ Deepfake โดยข้อเสนอก่อนการลบจะมีมาตรการ ได้แก่
มาตรการสุดท้ายคือหากสื่อนั้นทำให้บุคคลในโลกความเป็นจริงมีอันตราย ทางทวิตเตอร์จะลบสื่อเหล่านั้นออก
มาตรการนี้ยังเป็นเพียงข้อเสนอ โดยทวิตเตอร์ประกาศรับฟังความเห็นถึงวันที่ 27 พฤศจิกายนนี้ และระบุว่าหากมีการใช้กฎเหล่านี้จริงจะประกาศล่วงหน้า 30 วัน
ใกล้วันเลือกตั้งประธานาธิบดีสหรัฐฯ เข้าไปทุกที บรรดาบริษัทไอทีอย่าง ทวิตเตอร์, Amazon, เฟซบุ๊ก ก็เตรียมหามาตรการรับมือ DeepFake หรือคลิปปลอมใช้ AI ตัดต่อใบหน้าคนดังเข้าไป
DeepFake ครั้งหนึ่งเป็นภัยคุกคามดาราคนดัง เพราะถูกนำใบหน้าไปตัดต่อใส่หนังโป๊ได้อย่างเนียนสนิท แต่ DeepFake ตอนนี้ได้ถูกนำมาใช้กับนักการเมือง ซึ่งมีความเสี่ยงจะทำให้สังคมเข้าใจผิด และถือเป็นอีกหนึ่งภัยข่าวปลอมที่ระบาดบนโซเชียลมีเดีย สร้างความเข้าใจผิดในช่วงเลือกตั้งปี 2016
กูเกิลและโครงการ Jigsaw ของกูเกิลสร้างชุดข้อมูล Deep Fake Detection โดยลงทุนจ้างนักแสดง 28 คนที่ยินยอมให้ใช้ใบหน้าเพื่อการวิจัย ถ่ายวิดีโอในท่าทางต่างๆ รวม 363 รายการ และสร้างวิดีโอปลอมผ่านทาง Deepfake เทคนิคต่างๆ อีก 3,068 วิดีโอ เพื่อพัฒนาการตรวจจับวิดีโอ Deepfake
ชุดข้อมูลนี้จะถูกรวมเข้าไว้ในข้อมูล FaceForensics ที่ดูแลโดย Technical University of Munich และ University Federico II of Naples ที่เคยสร้างชุดข้อมูลจากวิดีโอ YouTube มาก่อนหน้านี้ โดยข้อมูลชุดใหม่จะดาวน์โหลดได้ต่อเมื่อกรอกแบบฟอร์มยอมรับข้อตกลงก่อน แล้วทีมงานจะส่งลิงก์ดาวน์โหลดมาให้ภายหลัง
Hao Li ผู้ช่วยศาสตราจารย์ด้านคอมพิวเตอร์กราฟิกจาก University of Southern California และผู้อำนวยการห้องวิจัยกราฟิกและการมองเห็นให้สัมภาษณ์กับช่อง CNBC ว่าเขาเชื่อว่าเทคโนโลยี Deepfake ที่ใช้แปลงใบหน้าคนลงบนวิดีโออื่นนั้นจะไปสู่จุดที่คนทั่วไปสามารถสร้างวิดีโอที่สมจริงได้ภายในระยะเวลา 6 เดือนถึง 1 ปีข้างหน้า
Hao ระบุว่าด้วยเทคโนโลยีปัจจุบันก็เพียงพอที่จะสร้างวิดีโอที่น่าเชื่อถือได้อยู่แล้ว แต่สำหรับโปรแกรม Deepfake ที่แจกออกมานั้น คนทั่วไปยังคงสามารถมองออกได้โดยง่ายว่าเป็นวิดีโอปลอม
จากประเด็น ZAO แอพจีน สลับหน้าให้เราเป็นดาราในโปสเตอร์หนัง สร้างความกังวลให้ชาวเน็ตว่าอาจจะมีการเก็บข้อมูลส่วนตัวเยอะเกินความจำเป็น ล่าสุด WeChat ออกมาประกาศว่าปิดไม่ให้ดาวน์โหลดแอพ ZAO แล้ว
คลิป deepfake จากเดิมทีระบาดในหนังโป๊ โดยการตัดต่อใบหน้าคนดังเข้าไปแทนดาราหนังโป๊ เดือดร้อนให้เว็บไซต์หนังโป๊ต้องออกมาแก้ไข และรีบแบนคลิปออก ล่าสุด deepfake ไม่ได้จำกัดอยู่แค่วงการหนังโป๊แต่ลามมาวงการข่าวสารด้วย