Guy Rosen ผู้จัดการผลิตภัณฑ์ Facebook เขียนบล็อกเรื่อง AI กับการจัดการเนื้อหาไม่ดี ระบุว่าใช้ AI เข้ามามีบทบาทมากในการจัดการสแปม hate speech บัญชีปลอม คนฆ่าตัวตาย อยู่แล้ว พร้อมกับชี้ว่า ความสามารถ AI ยังอีกห่างไกลที่จะจัดการเนื้อหาไม่ดีในทุกรูปแบบอย่างรวดเร็ว
Rosen กล่าวเพิ่มเติมว่า ผู้คนมักจะสงสัยว่าทำไมถึงไม่ทำเทคโนโลยีนี้ให้ก้าวหน้ารวดเร็วกว่านี้ นั่นเป็นเพราะ AI ยังมีข้อจำกัดเรื่องการเข้าใจภาษาเกลียดชังและบริบทที่ใช้ การจัดการจึงยังต้องใช้คนอยู่ นอกจากนี้ AI ยังต้องการการฝึกเทรนนิ่งอีกเยอะมาก เพื่อจะเข้าใจรูปแบบพฤติกรรม และความหมายที่ส่งออกมา ในขณะที่ตอนนี้ Facebook ยังขาดการฝึก AI ในหลายภาษา มีเพียงภาษาอังกฤษเนื่องจากเป็นชุดข้อมูลใหญ่ที่ Facebook มี
Rosen บอกว่าตอนนี้ Facebook กำลังลงทุนในด้านเทคโนโลยีเพื่อเพิ่มความแม่นยำในภาษาใหม่ๆ ยกตัวอย่างเช่น Facebook AI Research (FAIR) ทำให้บางคนเห็นโพสต์และมีคำถามที่ Facebook แนบมาด้วยว่าเนื้อหาในโพสต์นี้เป็น hate speech หรือไม่ ซึ่งการที่ผู้ใช้ให้ความร่วมมือตอบคำถาม Facebook จะช่วยได้
ภาพจาก Shuttertock โดย focal point
ปัญหาเนื้อหาไม่ดีหรือ bad content เป็นอีกหนึ่งความคาราคาซังของ Facebook และโซเชียลมีเดียรายอื่น แต่ hate speech ดูจะเห็นได้ชัดจากกรณีประเทศเมียนมาร์ ศรีลังกา ที่ส่งผลต่อโลกจริง และมีการร้องเรียนไปยัง Facebook หลายครั้ง แม้แต่ UN ก็ออกมาวิจารณ์ว่า Facebook มีส่วนสำคัญที่ทำให้ปัญหาในเมียนมาร์บานปลาย
อีกประเด็นคือ การใช้คนระบุความรุนแรงของเนื้อหากำลังเป็นงานที่ยากลำบากของคนที่ทำงานใน facebook เพราะต้องดูรูปและคลิปรุนแรงตลอดเวลา
ที่มา - Facebook
Comments
แล้วพวกชอบปั่นก็เปลี่ยนวิธี เขียนข้อความไปบนไฟล์รูปแทน
หรือไม่ก็ใช้ kara-o-ke แทน
นี่ก็โดนถามทุกอันเลยว่าเป็น hate speech หรือเปล่า
สงสารคนที่มาตรวจเรื่องตรงนี้เหมือนกัน วันๆ เจอแต่เรื่องแย่ๆ ชีวิตจะหดหู่ขนาดไหน