Activision เปิดเผยว่าเกม Call of Duty: Modern Warfare III เริ่มนำเทคโนโลยีดักจับเสียง เพื่อแก้ปัญหาพฤติกรรมแย่ๆ (toxic) ของผู้เล่นมัลติเพลเยอร์ ซึ่งเป็นปัญหาเรื้อรังของซีรีส์ Call of Duty มายาวนาน (จริงๆ ก็เกิดขึ้นกับเกมยิงทุกค่าย) และ Activision ตั้งทีมชื่อ Disruptive Behavior มาเพื่อแก้ปัญหาเหล่านี้โดยเฉพาะ
Xbox แก้ปัญหาเกมเมอร์ toxic เป็นพิษเป็นภัยต่อชุมชน โดยเพิ่มมาตรการใหม่เรียกว่า Enforcement Strike System ออกใบเตือน (strike) ให้ผู้เล่นที่ทำตัวไม่เหมาะสม และมีมาตรการแบนชั่วคราวที่รุนแรงขึ้นเรื่อยๆ ตามจำนวนการเตือน ต่ำสุดโดน 1 วันในการเตือน 2 ครั้งแรก แต่ถ้าหากสะสมใบเตือนครบ 8 ใบจะโดนแบนนาน 1 ปี (365 วัน)
พฤติกรรมที่ไม่เหมาะสมแต่ละอย่างมีโทษไม่เท่ากัน เช่น คำหยาบ (profanity) หรือโกงเกม (cheating) โดนแบน 1 strike, พฤติกรรมไม่เหมาะสมทางเพศ หรือการกลั่นแกล้ง (harrasment) โดน 2 strikes, ถ้อยคำสร้างความเกลียดชัง (hate speech) โดน 3 strikes โดยโทษแต่ละครั้งมีอายุนาน 6 เดือน ถ้าพ้นระยะเวลานี้ไปแล้ว คะแนนแต้มบุญของเราจะกลับคืนมาเอง
ไมโครซอฟท์เพิ่มฟีเจอร์ใหม่ Voice Reporting ให้คอนโซล Xbox สามารถรายงานการสนทนา "สิ่งที่ไม่เหมาะสม" ของผู้เล่นรายอื่นระหว่างเล่นเกมร่วมกัน เพื่อให้แก้ปัญหา toxic ของเกมเมอร์ เช่น การกลั่นแกล้ง ด่าทอ เหยียด ได้ง่ายขึ้น
หลังจากโลกเกมมิ่งมีฟีเจอร์สนทนาด้วยเสียง ทำให้ปัญหา toxic ของเกมเมอร์เพิ่มขึ้นตามมา เพราะการคุยด้วยเสียงทำให้ด่ากันง่ายขึ้น แถมตรวจจับได้ยากกว่าเดิมด้วย ปัญหานี้ทำให้บริษัทเกมออนไลน์หลายๆ ราย เช่น Riot Games หรือ Unity ต้องพยายามพัฒนาระบบหรือเทคโนโลยีเพื่อมาช่วยตรวจจับเสียงสนทนาที่สร้างความเกลียดชัง ดูหมิ่น ให้แม่นยำขึ้นกว่าเดิม
Twitter ประกาศว่าจะแปะป้ายเตือนและจำกัดการมองเห็นข้อความทวีตที่ผิดกฎการใช้งาน เช่น มีเนื้อหาแสดงความเกลียดชัง แทนแนวทางเดิมที่เลือกแบนบัญชี
Elon Musk เคยประกาศไว้ชัดเจนว่าไม่เห็นด้วยกับการแบน Donald Trump และคืนบัญชีกลับมาให้ Trump
ในประกาศของ Twitter ระบุว่าแนวทางนี้จะรักษา Freedom of Speech, not Freedom of Reach นั่นคือตัวข้อความไม่ถูกลบหรือแบน แต่การมองเห็นจะลดน้อยลงแทน (visibility filtering) และรอบนี้จะเพิ่มป้ายเตือนว่าข้อความนี้ทำผิดกฎ จึงถูกจำกัดการมองเห็น เพื่อให้เกิดความโปร่งใสของแพลตฟอร์มมากขึ้น
Twitter มีคณะที่ปรึกษาภายนอกในประเด็นเรื่องความปลอดภัยของแพลตฟอร์ม Trust and Safety Council มีสมาชิกเป็นหน่วยงานด้านสิทธิมนุษยชนราว 100 ราย ก่อตั้งเมื่อปี 2016 ทำหน้าที่ให้คำปรึกษา คำแนะนำต่อแพลตฟอร์มในประเด็นเรื่องสังคม เช่น การละเมิดเด็ก การสร้างความเกลียดชัง การฆ่าตัวตาย ฯลฯ
ล่าสุด Twitter ในยุค Elon Musk สั่งยุบ Trust and Safety Council ไปเรียบร้อยแล้ว ตัวแทนของบริษัทให้เหตุผลว่าต้องการหาโครงสร้างที่เหมาะสมกว่าเดิมในการดึงผู้เชี่ยวชาญภายนอกมาเข้าร่วม
Twitch ออกเครื่องมือความปลอดภัยตัวใหม่ Shield Mode ให้บรรดาสตรีมเมอร์สามารถเปิดโหมดป้องกันภัยได้ทันทีระหว่างไลฟ์ (หรือจะให้แอดมินช่องช่วยกดเปิดให้แทนก็ได้) หากพบสถานการณ์ที่ถูกคุกคาม (harassment) จากผู้ชม
Shield Mode สามารถตั้งค่าไว้ล่วงหน้าได้ว่าจะควบคุมช่องของเราอย่างไร เช่น อนุญาตให้แชทได้เฉพาะคนที่ติดตามหรือเป็นสมาชิกเท่านั้น, ต้องยืนยันตัวตนก่อนแชทหรือไม่, สามารถสั่งแบนแชทโดยอิงตามข้อความที่ระบุได้ ฯลฯ เมื่อสถานการณ์กลับสู่ภาวะปกติ ก็สามารถออกจาก Shield Mode ได้ทันที
Meta มีบริการโซเชียลแบบ VR ชื่อ Horizon Worlds ที่เปิดตัวมาได้สักพักใหญ่ๆ รูปแบบคือให้เราสร้างอวตารของตัวเองแล้วเข้าไปทำกิจกรรมต่างๆ ในโลก VR
อย่างไรก็ตาม เมื่อขึ้นชื่อว่าเป็นบริการโซเชียล ปัญหาเรื่องภัยคุกคาม กลั่นแกล้ง การเหยียดด้วยคำพูดหรือ hate speech ย่อมตามมาเสมอ แถมรูปแบบการเหยียดในโลก VR ก็ซับซ้อนขึ้น เพราะเปลี่ยนจากการโพสต์ด่ากันเป็นข้อความในคอมเมนต์ กลายมาเป็นการนำอวตารเดินเข้ามาในรัศมีใกล้ๆ แล้วด่าด้วยเสียงพูดแทน ซึ่งตรวจจับและตรวจสอบได้ยากกว่ากันมาก
สำนักข่าว Reuters รายงานว่า นายกรัฐมนตรีออสเตรเลีย Scott Morrison มีแผนเตรียมจะเสนอกฎใหม่ ให้โซเชียลมีเดียอย่าง Facebook และ Twitter เปิดเผยตัวตนของคนคอมเม้นท์หมิ่นประมาท โดยให้ผู้ใช้งานสามารถร้องเรียนแพลตฟอร์มให้ลบคอมเม้นท์หมิ่นประมาทที่ส่งผลกระทบต่อตัวเอง และถ้าแพลตฟอร์มไม่ทำตาม กระบวนการศาลจะสามารถบังคับให้แพลตฟอร์มระบุตัวตนของผู้หมิ่นประมาทในโซเชียลได้
Scott Morrison บอกว่า บนโลกออนไลน์ไม่ควรเป็นพื้นที่ให้พวกหัวรุนแรง ทำร้ายผู้คนโดยไม่เปิดเผยตัวตนได้ นั่นไม่ใช่สิ่งที่จะเกิดขึ้นในโลกจริง และไม่ใช่สิ่งที่จะเกิดขึ้นบนโลกดิจิทัลเช่นกัน
Wall Street Journal ออกรายงานแฉ Facebook อีกครั้ง บอกว่าจริงๆ แล้ว Facebook ประสบความสำเร็จน้อยมากในการจัดการเนื้อหาที่มีความเกลียดชัง รูปภาพที่มีความรุนแรง ตลอดจนเนื้อหาอันตรายอื่นๆ ล่าสุด Facebook นำโดย Guy Rosen รองประธานฝ่าย Integrity ของ Facebook เขียนบล็อกคัดค้านว่า เนื้อหาแสดงความเกลียดชังหรือ Hate Speech ลดลงเกือบ 50% ในช่วงสามไตรมาสที่ผ่านมา
ก่อนหน้านี้เราเห็นข่าว Frances Haugen อดีตพนักงาน Facebook ที่ออกมาแฉบริษัท โดยไปให้การกับสภาคองเกรส จนเป็นข่าวใหญ่กันมาแล้ว
ล่าสุดมีอดีตพนักงานอีกคนคือ Sophie Zhang อดีตนักวิทยาศาสตร์ข้อมูลที่เคยทำงานกับ Facebook มานาน 3 ปี และถูกบริษัทไล่ออกเมื่อปีที่แล้ว เพราะเธอเขียนบันทึกภายในวิจารณ์บริษัทว่าไม่พยายามแก้ปัญหาข่าวปลอมและความเกลียดชังเท่าที่ควร โดยเฉพาะในประเทศกำลังพัฒนา ปัจจุบัน Facebook มีผู้ใช้ในสหรัฐและแคนาดาเพียง 10% แต่กลับได้ความสนใจของ Facebook มากที่สุด
Zhang บอกว่ามอบข้อมูลให้กับหน่วยงานภาครัฐแห่งหนึ่งแล้ว (ไม่ระบุชื่อหน่วยงาน) และยินดีไปให้การกับสภาคองเกรส
Mark Zuckerberg โพสต์ข้อความตอบโต้ Frances Haugen อดีตผู้จัดการผลิตภัณฑ์ของ Facebook ที่ออกมาแฉบริษัทว่าสนใจกำไรมากกว่าแก้ปัญหาความเกลียดชัง-ความปลอดภัย
Zuckerberg บอกว่าบริษัทสนใจประเด็นเรื่องความปลอดภัย สุขภาพจิต ความเป็นอยู่ของผู้ใช้อย่างมาก (เขาใช้คำว่า care deeply) และผิดหวังที่เห็นสื่อมองข้ามความพยายามของ Facebook ในการแก้ปัญหาเหล่านี้
เขาตอบโต้คำกล่าวหาต่างๆ ว่าไม่เป็นความจริง บริษัทไม่ได้มีเจตนาปิดบังผลการวิจัยต่อสาธารณะ เพราะถ้าบริษัทอยากปิดบังเรื่องนี้จริงๆ คงไม่จ้างทำวิจัยตั้งแต่แรก และถ้าบริษัทไม่สนใจเรื่องเนื้อหาที่เป็นภัย ก็คงไม่จ้างคนจำนวนมากกว่าบริษัทโซเชียลอื่นๆ มาคอยตรวจสอบเนื้อหาเหล่านี้
ดราม่าสดๆ ร้อนๆ จาก Facebook มาอีกแล้ว โดย Frances Haugen อดีตผู้จัดการผลิตภัณฑ์ใน Facebook ทำงานมาได้สองปีและเพิ่งลาออกมาเมื่อเดือนพฤษภาคมที่ผ่านมา ออกมาแฉ Facebook ในรายการข่าว 60 Minutes เปิดเผยทั้งหน้าและชื่อ
Haugen ระบุว่า Facebook รู้อยู่เต็มอกว่าแพลตฟอร์มสร้างปัญหาในสังคม ทั้งข้อความแสดงความเกลียดชัง ส่งผลกระทบต่อสุขภาพจิตในเด็ก แต่ Facebook ไม่ยอมจัดการเรื่องนี้อย่างเต็มที่ เพราะเกรงว่ายอด Engagement จะหดตัว หรือเลือกผลประโยชน์มากกว่าความปลอดภัยในการใช้งาน
แคนาดาเสนอกฎหมายปรับโทษข้อความเกลียดชังบนอินเทอร์เน็ตหรือ Hate Speech หากทำผิดครั้งแรกโดนปรับ 20,000 ดอลลาร์แคนาดา ครั้งที่สองโดนปรับ 50,000 ดอลลาร์แคนาดา โดย Hate Speech ในที่นี้เน้นไปที่การแสดงความเกลียดชังต่อกลุ่มคน เชื้อชาติ
ข่าวนี้เกิดขึ้นตามหลังข่าว ชายวัย 20 ปี ขับรถบรรทุกเข้าชนในบ้านที่มีสมาชิก 5 คนในออนแทรีโอ ซึ่งทำให้ทุกคนเสียชีวิต ยกเว้นเด็กหญิงอายุ 9 ขวบ ตำรวจระบุคดีนี้ว่าเป็นการแสดงความเกลียดชังชาวมุสลิม
การคุยด้วยเสียงขณะเล่นเกมมัลติเพลเยอร์ (voice chat) กลายเป็นมาตรฐานไปแล้วในยุคสมัยนี้ สิ่งที่ตามมาคือปัญหาเรื่องด่าทอ กลั่นแกล้ง เกลียดชัง หรือเหยียดเพศ/เชื้อชาติ ซึ่งแก้ไขได้ยากกว่าบริการโซเชียลที่เน้นข้อความ (แบบ Facebook) เพราะไม่สามารถใช้ระบบอัตโนมัติเข้ามาดักจับคำพูดที่เป็นเสียงได้ง่ายนัก อีกทั้งเป็นการสนทนาสดๆ ไม่ได้มีบันทึกเสียงไว้ย้อนฟังภายหลัง
ล่าสุด Riot Games เจ้าของเกมยิง Valorant ประกาศแก้ปัญหานี้ด้วยการบันทึกเสียงพูดขณะเล่นเกม เพื่อใช้วิเคราะห์ว่าเกิดปัญหาอะไรขึ้น หากมีผู้เล่นรายงานปัญหาเข้ามา
TikTok เพิ่มความสามารถใหม่แก่ครีเอเตอร์ เป็นฟีเจอร์กรองทุกคอมเม้นท์ได้ ก่อนที่จะนำมันไปแสดงใต้คลิปของตัวเอง เมื่อเปิดโหมดการใช้งานกรองคอมเม้นท์ ระบบจะไม่แสดงคอมเม้นท์ใดๆ ใต้คลิป และจะแสดงต่อเมื่อผู้ใช้งานกดดูและอนุมัติคอมเม้นท์นั้นๆ แล้ว และถ้าไม่ต้องการให้แสดงคอมเม้นท์ใดๆที่เป็นทางลบ ก็สามารถกดไม่อนุมัติได้
YouTube เพิ่มฟังก์ชั่นลดข้อความแสดงความเกลียดชัง จะแสดงป้ายเตือนระบุว่า ให้คอมเม้นท์กันอย่างเคารพซึ่งกันและกัน หากมีคอมเม้นท์ที่อาจสุ่มเสี่ยง โดยจะแจ้งเตือนก่อนผู้ใช้งานจะกดโพสต์คอมเม้นท์ใต้คลิป เร่ิมต้นใช้งานในอุปกรณ์แอนดรอยด์ก่อนขยายไปยังอุปกรณ์อื่นต่อไป
ต้นสัปดาห์ที่ผ่านมา Facebook ประกาศแบนโพสต์ที่ต่อต้านชาวยิวและสนับสนุนแนวคิดว่าเหตุการณ์ฆ่าล้างเผ่าพันธุ์ชาวยิวไม่มีจริง ล่าสุด Twitter ประกาศในลักษณะเดียวกันแล้วว่าจะลบทวีตในลักษณะดังกล่าว
แม้นโยบาย Twitter ไม่ได้ระบุตรง ๆ ว่าการปฏิเสธเหตุการณ์ความรุนแรงจะผิดกฎ แต่โฆษก Twitter ก็ยืนยันว่าความพยายามที่จะปฏิเสธ (ว่าไม่มี ไม่เกิดขึ้นจริง) หรือลดทอนเหตุการณ์ความรุนแรงอย่างเหตุการฆ่าล้างเผ่าพันธุ์ชาวยิว (Holocaust) ทาง Twitter จะตีความว่าเข้าข่ายสนับสนุนความรุนแรงและยกย่องเหตุการณ์ความรุนแรงในประวัติศาสตร์ ซึ่งผิดกฎแพลตฟอร์ม
Facebook ประกาศแบนและจะลบเนื้อหาใดๆ ที่สนับสนุนแนวคิดที่ว่าการฆ่าล้างเผ่าพันธุ์ไม่มีอยู่จริง จากเดิมที่ Facebook พยายามวางตัวไม่แทรกแซงกับเนื้อหาเพราะไม่อยากกระทบเสรีภาพทางการแสดงความคิดเห็น ทำให้เนื้อหาจำพวกนี้ยังคงอยู่ในโซเชียลมีเดียที่มีคนใช้งานทั่วโลกได้
ที่ Facebook เพิ่งจะออกมาแบนเนื้อหาประเภทนี้ Monika Bickert รองประธานฝ่ายนโยบายเนื้อหาของ Facebook ให้เหตุผลว่าจากการสำรวจล่าสุดของผู้ใหญ่ในสหรัฐอเมริกาที่มีอายุระหว่าง 18-39 ปีเกือบ 1 ใน 4 กล่าวว่าพวกเขาเชื่อว่าการฆ่าล้างเผ่าพันธุ์ชาวยิวเป็นตำนานที่กล่าวเกินจริง หรือไม่แน่ใจว่ามีอยู่จริงหรือไม่ ซึ่งเป็นระดับความไม่รู้ (ignorance) ที่น่าตกใจ
รายใหญ่ขยับเมื่อ Wall Street Journal รายงานโดยอ้างอิงบุคคลผู้อยู่ใกล้ชิดกับสถานการณ์ว่า ดิสนีย์เข้าร่วมขบวนการบอยคอต ไม่ซื้อโฆษณาลง Facebook จากปัญหา Hate Speech
ข้อมูลจากสำนักวิจัย Pathmatics Inc. ระบุว่า ดิสนีย์เป็นบริษัทที่ลงทุนซื้อโฆษณาใน Facebook เป็นอันดับต้นๆ ในสหรัฐฯ โดยครึ่งปีแรกของปีนี้ ดิสนีย์ใช้เงินทุ่มโฆษณาโปรโมท Disney+บน Facebook ไป 210 ล้านดอลลาร์ และในปี 2019 ดิสนีย์เป็นผู้ลงทุนโฆษณาบน Facebook มากเป็นอันดับ 2 ในสหรัฐฯ รองจาก Home Depot Inc.
เมื่อวันที่ 8 ก.ค. ที่ผ่านมา Facebook ออกรายงาน Civil Rights Audit หรือผลการตรวจสอบจากหน่วยงานภายนอกครอบคลุมนโยบายสำคัญของ Facebook เช่น สิทธิพลเมือง, ความเป็นส่วนตัว, ความโน้มเอียงของอัลกอริทึม, Free Speech & Hate Speech
Laura W. Murphy อดีตผู้อำนวยการ ACLU และเป็นผู้นำการสืบสวนทำรายงานชิ้นนี้ร่วมกับ Megan Cacace ทนายความด้านสิทธิพลเมืองสรุปได้ว่า Facebook มีความคืบหน้าที่จะแก้ปัญหาต่างๆ เปรียบเทียบการทำงานของ Facebook กับการปีนเขาเอเวอเรสต์ แต่ก็ไม่ได้ลงทุนมากพอในการหาวิธีรับมือกับความท้าทายทางด้านสิทธิพลเมือง
เว็บไซต์ Recode สรุปประเด็นสำคัญจากรายงาน Civil Rights Audit ไว้ 5 ข้อ
จนถึงตอนนี้ Facebook ถูกบอยคอตจากแบรนด์สินค้าร่วม 900 แบรนด์ แล้ว จากปัญหา Hate Speech โดยชนวนสำคัญมาจากท่าทีของ Facebook ที่นิ่งเฉยต่อโพสต์สนับสนุนความรุนแรงและคุกคามประชาชนของ โดนัลด์ ทรัมป์
ผู้มีบทบาทสำคัญในการชักชวนแบรนด์ให้บอยคอตคือกลุ่มสิทธิพลเมือง เช่น NAACP, Anti-Defamation League รวมตัวกันสร้างแคมเปญ #StopHateForProfit ล่าสุดผู้บริหารระดับสูงของ Facebook อย่าง มาร์ค ซักเคอร์เบิร์ก, Sheryl Sandberg (COO), Chris Cox (CPO), Nick Clegg (รองประธานฝ่ายการสื่อสาร) ก็ได้เข้าพูดคุยกับกลุ่มผู้สร้างแคมเปญแล้วผ่านการประชุมออนไลน์
ทางกลุ่มสิทธิพลเมืองแถลงการณ์ความคืบหน้าการพูดคุยว่ายังคงผิดหวังต่อท่าทีของ Facebook และยังคงไม่ได้รับความมั่นใจว่า Facebook จะแก้ปัญหาและทำตามข้อเรียกร้องของกลุ่มสิทธิฯ และจากการประชุมนี้ ไม่มีอะไรนอกเหนือจากการแสดงออกในเชิงประชาสัมพันธ์
ความขัดแย้งจากประเด็นเนื้อเรื่องของเกม The Last of Us Part II ยิ่งบานปลาย เมื่อทีมผู้สร้างเกม ทั้งตัวนักพัฒนาและผู้พากย์เสียงตัวละคร ถูกขู่ฆ่าทางทวิตเตอร์
Laura Bailey ผู้พากย์เสียงตัวละครในเกม โพสต์โชว์ข้อความที่เธอได้รับทางโซเชียล จากผู้เล่นที่อาจ "อิน" กับเนื้อเรื่องเกม และไม่พอใจพฤติกรรมที่ตัวละครของเธอทำในเกม
จนถึงตอนนี้ มีธุรกิจแห่บอยคอต Facebook จากปัญหา Hate Speech ร่วมกว่า 400 แบรนด์แล้ว ตัวอย่างแบรนด์ใหญ่ๆ คือ Coca-Cola, Starbucks, Verizon ชนวนสำคัญที่ทำให้เกิดการบอยคอตในวงกว้างคือ Facebook นิ่งเฉยต่อโพสต์คุกคามผู้ประท้วงของ โดนัลด์ ทรัมป์ ประธานาธิบดีสหรัฐฯ ไม่ลบออก และไม่แปะป้ายเตือนว่าเป็นเนื้อหารุนแรง
Starbucks คือแบรนด์ใหญ่ล่าสุดที่ร่วมบอยคอตโซเชียลมีเดียจากปัญหา Hate Speech โดยประกาศหยุดลงโฆษณาบนโซเชียลทุกแพลตฟอร์ม ไม่ใช่แค่ Facebook เท่านั้น
Starbucks เขียนในคำแถลงการณ์ว่า เราต้องทำมากกว่านี้ เพื่อที่จะสร้างชุมชนออนไลน์ที่เป็นมิตร ผู้นำธุรกิจและผู้กำหนดนโยบายต้องร่วมมือกันเพื่อสร้างความเปลี่ยนแปลงให้เกิดขึ้นได้จริง ทางบริษัทจะหยุดการโฆษณาบนแพลตฟอร์มโซเชียลมีเดียทั้งหมดชั่วคราว และจะพูดคุยกับพันธมิตรสื่อ, องค์กรณ์สิทธิต่างๆ เพื่อหาทางหยุดยั้ง Hate Speech
สัปดาห์ที่ผ่านมาเราเห็นข่าว แบรนด์สินค้าหลายราย เช่น North Face, Patagonia, Verizon ระงับการลงโฆษณาใน Facebook ประท้วงที่ไม่สามารถจัดการปัญหา hate speech ได้
รอบวันที่ผ่านมา มีอีก 2 แบรนด์ยักษ์ใหญ่ของโลกคือ Unilever และ Coca-Cola ที่ประกาศหยุดลงโฆษณาในโซเชียลทั้งหมด (ไม่ใช่แค่ Facebook) เพื่อประท้วงเช่นกัน
Unilever ใช้มาตรการแรงคือจะหยุดจ่ายเงินโฆษณาบนโซเชียล (ที่ระบุชื่อคือ Facebook, Instagram, Twitter) ไปจนถึงอย่างน้อยสิ้นปีนี้ (มีผลเฉพาะงบโฆษณาของ Unilever ในสหรัฐ) โดยจะนำงบโฆษณาเหล่านี้ย้ายไปลงสื่อประเภทอื่นแทน