WhatsApp ประกาศเพิ่มฟีเจอร์ใหม่เพื่อลดปัญหาข่าวปลอมอีกครั้ง โดยรอบนี้เป็นฟีเจอร์เกี่ยวกับระบบกลุ่ม คือ WhatsApp จะเพิ่มระบบกำหนดว่าใครสามารถนำผู้ใช้เข้ากลุ่มได้บ้าง
นอกจากฟีเจอร์กำหนดว่าใครที่สามารถนำผู้ใช้เข้ากลุ่มได้แล้ว WhatsApp ก็ได้เพิ่มระบบเชิญเข้ากลุ่มมาด้วย คือถ้าไม่สามารถนำใครเข้ากลุ่มได้ WhatsApp ก็จะระบุว่าสามารถเชิญคนนั้นแทนได้ ซึ่งการเชิญนั้นฝ่ายผู้ที่จะเข้ากลุ่มจะต้องตรวจสอบก่อนว่าจะเข้ากลุ่มหรือไม่ แล้วค่อยตัดสินใจกดเข้ากลุ่มหรือไม่เข้า
WhatsApp เป็นแพลตฟอร์มส่งข้อความที่ประสบปัญหาการเผยแพร่ข่าวปลอมอยู่มากโดยเฉพาะในอินเดีย ที่ผ่านมา WhatsApp ได้หาแนวทางแก้ไข ไม่ว่าจะเป็นการซื้อโฆษณาในหนังสือพิมพ์ให้ความรู้, ร่วมกับหน่วยงานเพื่อบรรจุวิชาการตรวจสอบข่าว ไปจนถึงการจำกัดปริมาณการส่งต่อข้อความ
ในที่สุด Facebook ก็ออกมาตรการจัดการกับข้อมูลปลอมเรื่องการต่อต้านวัคซีน หลังจากมีกลุ่มแพทย์ออกมาวิจารณ์ Facebook ว่านิ่งนอนในในการจัดการปัญหา โดย Facebook ระบุว่าจะลดอันดับของกลุ่มและหน้าเพจที่กระจายข้อมูลที่ผิดเกี่ยวกับการฉีดวัคซีนในฟีดข่าวและการค้นหา โดยเนื้อหาจากกลุ่มและเพจที่ไม่เอาวัคซีนจะไม่อยู่ในคำแนะนำหรือการคาดการณ์เวลาพิมพ์ลงในช่องค้นหา
Facebook ในขณะนี้ถือเป็นเครือข่ายใหญ่ของกลุ่มต่อต้านวัคซีน บางกลุ่มมีสมาชิกเกือบแสนคน ทำให้แพทย์และผู้เชี่ยวชาญต้องออกมาเรียกร้องให้ Facebook แบนกลุ่มเหล่านี้เสีย เพราะเผยแพร่ข้อมูลผิดเรื่องสุขภาพ เป็นอันตรายต่อสุชภาพของสังคม และชี้ว่าทฤษฎีที่กลุ่มต่อต้านวัคซีนยกมานั้นไม่จริง
ล่าสุดกลุ่มต่อต้านวัคซีนสู้กลับ ด้วยการไปคุกคามคนที่เห็นด้วยกับวัคซีนบน Facebook โดย Elias Kass คนทำงานในวงการแพทย์ ได้ไปให้การต่อหน้าคณะกรรมการวุฒิสภาของรัฐวอชิงตัน ในขณะที่กำลังพิจารณาร่างพระราชบัญญัติเพื่อกำจัดข้อยกเว้นสำหรับการฉีดวัคซีนในวัยเด็กและ Kass เป็นหนึ่งในหลายคนที่พูดถึงการสนับสนุนมาตรการดังกล่าว
ในขณะที่ Facebook ถูกกล่าวหาว่าเป็นแหล่งแพร่กระจายข้อมูลสุขภาพผิดๆ โดยเฉพาะกลุ่มต่อต้านวัคซีน อีกฝั่งหนึ่งอย่าง YouTube ก็อาจถูกครหาว่าเป็นแหล่งแพร่ความเชื่อว่าโลกแบน โดยในช่วง 5 ปีที่ผ่านมา มีการค้นหาคำว่าโลกแบนบน Google มากขึ้นทั้งๆ ทฤษฎีโลกกลมหรือแบนไม่ควรจะกลับมาเป็นที่ถกเถียงกันแล้ว
Asheley Landrum ผู้ช่วยศาสตราจารย์ด้านการสื่อสารวิทยาศาสตร์ที่ Texas Tech University คอยจับตาดูกระแสโลกแบนที่เพิ่งเกิดขึ้นมาในระยะหลัง โดยเธอไปสัมภาษณ์คน 30 คนที่เข้าร่วมการประชุม Flat Earth และพบว่าแทบทุกคนเชื่อว่าโลกแบนหลังจากดูวิดีโอบน YouTube
Facebook มีข่าวปลอมแพร่กระจายเยอะอาจเป็นเรื่องที่คนรู้กันอยู่แล้ว ล่าสุดฝ่ายกฎหมายของสภาอังกฤษออกรายงานอย่างเป็นทางการระบุชัดเจนว่า Facebook คือแหล่งแพร่กระขายข่าวปลอม ไม่ปฏิบัติตามกฎคุ้มครองข้อมูลส่วนตัว ถือเป็นนักเลงบนดิจิทัลหรือ digital ganster เลยก็ว่าได้
คณะกรรมการดิจิทัล, วัฒนธรรม, สื่อและการกีฬาของรัฐบาลอังกฤษ ออกรายงานที่ใช้เวลา 18 เดือนในการสืบสวนสถานการณ์ข่าวปลอมบน Facebook รวมทั้งติดตามความเคลื่อนไหวในการแก้ปัญหา พบว่า Facebook ล้มเหลวอย่างสิ้นเชิง และระบุด้วยว่าการบิดเบือนข้อมูลที่ไม่รู้ว่าคนทำเป็นใครและยังเจาะกลุ่มเป้าหมายชัดเจนนั้น เป็นอันตรายต่อประชาธิปไตย
Facebook ประกาศขยายแผนงานเพื่อรับมือการเลือกตั้ง เพิ่มศูนย์ดูแลข้อมูลข่าวสารในสิงคโปร์และดับลิน โดย Facebook ระบุว่าการทำงานของศูนย์จะช่วยให้ทีมงานสามารถทำงานจัดการปัญหาข่าวปลอมในภูมิภาคได้ดีขึ้น
ในบทความประกาศ Facebook ระบุว่าจะทำงานดูแลเรื่องข่าวปลอม บัญชีปลอม การแทรกแซงการเลือกตั้งจากภายนอก (ดังที่เคยเกิดขึ้นในกรณีเลือกตั้งสหรัฐปี 2016) และทำตามกฎแพลตฟอร์ม ลบเนื้อหาผิดกฎ และทำงานร่วมกับบริษัทภายนอกเพื่อตรวจสอบข้อเท็จจริง
ไทยเองก็กำลังจะมีเลือกตั้งเกิดขึ้นในเดือนมีนาคมนี้ แม้ Facebook จะไม่ได้ระบุถึงไทยโดยตรง แต่ก็น่าจับตามองว่าไทยจะมีปัญหาข่าวปลอม บัญชีปลอมแทรกแซงการเลือกตั้งหรือไม่ และถ้ามีปัญหาเกิดขึ้น Facebook จะแก้ปัญหาอย่างไร
ระบบ recommendation ตอนท้ายวิดีโอ YouTube ถูกวิจารณ์มานานว่ามักแนะนำวิดีโอที่เป็นข่าวปลอม (เช่น การรักษาโรคร้ายให้หายอย่างมหัศจรรย์, ทฤษฎีโลกแบน, ทฤษฎีว่าเหตุการณ์ 9/11 ไม่ได้เกิดขึ้นจริง) เนื่องจากอัลกอริทึมที่แนะนำวิดีโอพิจารณาจากความนิยมของคลิปเพียงอย่างเดียว ไม่ได้สนใจเนื้อหาของคลิปว่าเป็นความจริงหรือไม่
ล่าสุด YouTube ประกาศว่าปรับปรุงระบบแนะนำ โดยลดโอกาสแสดงคลิปวิดีโอเหล่านี้ลงไปอีก ซึ่งเป็นผลจากการใช้ทั้งอัลกอริทึม machine learning และใช้คนช่วยกันคัดกรอง
อย่างไรก็ตาม วิดีโอที่เนื้อหาหมิ่นเหม่เหล่านี้ยังสามารถดูได้จากการค้นหาชื่อวิดีโอโดยตรง หรือการสมัครสมาชิกช่องนั้นๆ โดย YouTube ให้เหตุผลว่าเป็นเรื่องเสรีภาพในการแสดงความเห็น
Facebook ประกาศเพิ่มแท็บชื่อ Page Quality ให้เจ้าของ/แอดมินเพจมองเห็นเพิ่มเติม แท็บนี้จะแสดงข้อมูลว่าเพจนี้ถูก Facebook ลบโพสต์ใดที่ทำผิดกฎไปบ้าง เช่น โพสต์ที่มีเนื้อหาโป๊เปลือย สร้างความเกลียดชัง หรือโพสต์ที่เป็นข่าวปลอม
Facebook ระบุว่าการแสดงข้อมูลเหล่านี้ให้แอดมินเพจรับทราบ จะช่วยให้แอดมินเพจเข้าใจว่าเนื้อหาแบบไหนที่ไม่เหมาะสม และเปิดโอกาสให้ร้องเรียนได้ตรงประเด็นมากขึ้น หากดุลพินิจของ Facebook ผิดพลาด
ที่มา - Facebook
Microsoft Edge บนมือถือ (iOS/Android) เพิ่มฟีเจอร์แจ้งเตือนว่าเว็บไซต์นั้นน่าเชื่อถือหรือไม่ เพื่อแก้ปัญหา Fake News
ไมโครซอฟท์ร่วมมือกับ NewsGuard สตาร์ตอัพที่ทำระบบให้คะแนนความเชื่อถือต่อเว็บไซต์ และตรวจสอบโดยทีมงานสายสื่อมวลชน โดยความร่วมมือนี้เกิดขึ้นตั้งแต่กลางปี 2018 และพัฒนาจนมาเป็นฟีเจอร์ใน Microsoft Edge เวอร์ชันมือถือ
ในการใช้งาน เราต้องเปิดใช้ฟีเจอร์นี้จาก Settings ของ Edge Mobile จากนั้นจะมีไอคอนรูปโล่ปรากฏขึ้นมาในช่อง URL (ลักษณะคล้ายกับไอคอนกุญแจของ SSL) เพื่อบอกว่าเว็บไซต์น่าเชื่อถือเพียงใด หากไอคอนเป็นสีเขียวแปลว่าเป็นเว็บไซต์ที่น่าเชื่อถือ และผู้ใช้สามารถกดดูรายละเอียดของเว็บไซต์นั้นบน NewsGuard ได้
หลังจากวิกฤตข่าวปลอม Facebook ก็ทำงานร่วมกับหน่วยงานข่าวราว 40 แห่งเพื่อตรวจสอบข้อเท็จจริงของเนื้อหาบนแพลตฟอร์ม ไม่ว่าจะเป็น Associated Press, PolitiFact และ Facebook ก็เผยอยู่เรื่อยๆ ว่าการทำแบบนี้นั้นได้ผลและช่วยลดข่าวปลอมได้จริง
ล่าสุด The Guardian สัมภาษณ์บุคคลที่ทำหน้าที่ตรวจสอบข่าวบน Facebook พวกเขาต่างบอกว่า Facebook ไม่ได้ใส่ใจเรื่องนี้เท่าไร บางครั้งก็ให้ตรวจสอบข้อมูลที่อาจกระทบลูกค้าของ Facebook เอง และมันทำให้พวกเขาที่ทำงานด้วยนั้นสูญเสียศรัทธาใน Facebook
นักวิจัย Indiana University เผยผลการวิจัยพบว่าบรรดาข่าวปลอมที่แชร์กันในทวิตเตอร์ช่วงเลือกตั้งสหรัฐฯปี 2016 สัดส่วน 31% นั้นมาจากบ็อทในทวิตเตอร์เพียง 6 บัญชี แสดงให้รู้ว่าบ็อทสามารถเผยแพร่ข้อมูลปลอมได้เร็วมากในเวลาไม่กี่วินาที
โซเชียลมีเดียโดยเฉพาะ Facebook กำลังแก้ปัญหาข่าวปลอม และยิ่งต้องแก้กันอย่างเข้มข้นเพราะการเลือกตั้งกลางเทอมของสหรัฐฯกำลังจะมาถึงในเดือนพฤศจิกายน
ข้ามมาที่ฝั่งจีนบ้าง Wechat คือโซเชียลมีเดียที่คนจีนใช้มากที่สุด นอกจากคุยกับเพื่อนแล้วยังเป็นแหล่งหาข้อมูลด้วย และเช่นกันกับโซเชียลอื่นที่ต้องเจอปัญหาข่าวปลอม สแปม และหนึ่งในวิธีที่ Wechat แก้ปัญหาคือ ใช้บัญชี Wechat ที่เป็นออฟฟิเชียล โพสต์ 10 อันดับข่าวปลอมยอดนิยมเองเสียเลย โดยทำเป็นประจำทุกเดือน เพื่อให้คนรู้โดยทั่วกันว่าเนื้อหาดังกล่าวเป็นเรื่องแต่ง
ตัวอย่างข่าวปลอมที่แพร่ใน Wechat คือ ห้ามใช้ไมโครเวฟเพราะทำให้เป็นมะเร็ง, ใช้แอพ QQ สแกนเงินจีนได้เพื่อดูว่าเป็นเงินปลอมหรือไม่, ห้ามโพสต์โจมตีพรรคคอมมิวนิสต์ และประเด็นการเมืองบน Wechat (แต่รัฐบาลก็เซนเซอร์เนื้อหาทำนองนี้จริงๆ)
จากเหตุการณ์ศาลเตี้ยทำการฆาตกรรมในอินเดีย เพราะคนเชื่อข่าวปลอมเรื่องลักพาตัวเด็กที่แชร์ใน WhatsApp และเหตุการณ์ทำนองนี้ไม่ใช่เพิ่งเกิดขึ้นในอินเดีย แต่ในระยะ 2-3 ปีให้หลังมานี้ เกิดเหตุแบบนี้อยู่เรื่อยๆ
ล่าสุด Facebook ได้ซื้อหน้าสื่อหนังสือพิมพ์ในอินเดีย 1 หน้าเต็มๆ เผยแพร่วิธีการเช็คข่าวปลอมที่แชร์กันใน WhatsApp พร้อมระบุด้วยว่า ภายในสัปดาห์นี้ WhatsApp จะมีฟีเจอร์ตรวจสอบข้อมูลว่าเป็นข้อมูลที่ได้รับการแชร์ต่อๆ กันมาหรือไม่ ในกรณีที่ผู้ใช้อยากหาต้นตอว่าแชร์มาจากใคร
การขโมยตัวตนคนดังในโซเชียลมีเดีย ไม่ว่าจะทำไปเพื่อจุดประสงค์หลอกเอาเงินหรืออะไรก็ตาม ถือเป็นเรื่องผิด แต่ก็ยังมีปรากฏการณ์ทำนองนี้เกิดขึ้นเรื่อยๆ และยากที่จะปราบหมด
Social Impostor ซึ่งเป็น บริษัทที่ปกป้องชื่อเสียงของผู้มีชื่อเสียงออนไลน์ได้ทำการสำรวจคนดังที่มีคนติดตามบนโซเชียลมากที่สุด 10 อันดับต้นๆ พบว่ามี 9,000 บัญชีทั่ว Facebook, Instagram และ Twitter ที่ขโมยตัวตนของ 10 คนดังดังกล่าว
นักฟุตบอลบราซิล Neymar มีบัญชีปลอมมากที่สุด 1,676 บัญชี รองลงมาเป็น Selena Gomez มี 1,389 บัญชี Beyoncé มี 714 บัญชี ส่วน Taylor Swift มี 223 บัญชี
เมื่อวันอาทิตย์ที่ 1 ก.ค. ที่ผ่านมา มีผู้เคราะห์ร้าย 5 รายถูกทำร้ายจนเสียชีวิต เพราะคนทำร้ายเชื่อว่า 5 คนนั้นเป็นคนลักพาตัวเด็กตามข้อมูลที่แชร์ผ่าน WhatsApp
ในอินเดียมีคนใช้ WhatsApp ประมาณ 200 ล้านราย ถือเป็นตลาดที่ใหญ่มากๆ ของ WhatsApp เลยทีเดียว ในขณะที่ Facebook ถูกวิจารณ์ว่ามีแต่ข่าวปลอมจนส่งผลกระทบต่อผลการเลือกตั้ง WhatsApp ในอินเดียก็เช่นกัน แต่ผลกระทบที่เกิดขึ้นในโลกจริงนั้นเลวร้ายกว่ามาก เพราะมีคนเสียชีวิตจริงจากการที่คนเชื่อข่าวปลอมที่แชร์กันใน WhatsApp
รัฐบาลในนามหน่วยงานกระทรวงไอที ระบุว่านอกจากจะใช้มาตรการทางกฎหมายต่อผู้ก่อเหตุแล้ว ยังแสดงความกังวลเรื่องข้อมูลปลอมที่แชร์กันซ้ำๆ บน WhatsApp และระบุด้วยว่า WhatsApp ควรรับผิดชอบส่วนหนึ่งด้วยการยุติการเผยแพร่ข้อมูลปลอมเสีย
ผลสำรวจจาก Gallup/Knight เผยคนสหรัฐฯมองว่า 40% ของข่าวสารทุกวันนี้ ทั้งข่าวบนทีวี หนังสือพิมพ์ วิทยุ ออนไลน์นั้นเชื่อถือไม่ได้ หรือมีการให้ข้อมูลอย่างผิดๆ
ในการสำรวจได้สอบถามคนอเมริกัน 1,440 แบบแรนดอมโดยไม่ระบุเพศ วัย อาชีพการงาน และแนวคิดทางการเมือง พวกเขามีแนวโน้มจะสงสัยกับข่าวสารที่ได้รับมามากขึ้น ผู้ตอบแบบสำรวจบอกว่า 2ใน3 ของข่าวที่พวกเขาเจอบนโซเชียลมีเดียอาจเป็นข่าวปลอม ซึ่งเป็นผลกระทบจากวิกฤตข่าวปลอมบน Facebook อย่างไม่ต้องสงสัย แม้โซเชียลมีเดียแก้ปัญหาข่าวปลอมอย่างจริงจัง แต่ดูเหมือนความคิดคนรับข่าวสารก็ไม่เชื่อถือไปแล้ว
โซเชียลมีเดียตอนนี้ถูกคาดหวังสูงขึ้นเช่นกัน 76% ของผู้ให้การสำรวจบอกว่า บริษัทอินเทอร์เน็ตรายใหญ่ๆ มีหน้าที่สำคัญระบุข่าวปลอมที่ปรากฏบนแพลตฟอร์มของตน
Facebook ออกรายงานการจัดการบัญชีปลอม สแปม เป็นครั้งแรก โดยในไตรมาสแรกของปี 2018 Facebook เผยว่าได้ลบไป 583 ล้านบัญชีปลอม นำสแปมออก 837 ล้านชิ้น
Facebook ยังเผยรายละเอียดการจัดการเนื้อหาไม่ดีอื่นๆ ดังนี้
รายงานจาก Morgan Stanley เผยมูลค่าตลาดสินค้าออนไลน์ในอินเดียจะพุ่งสูง 2 แสนล้านดอลลาร์ภายในปี 2026 แต่สินค้าที่คนอินเดียได้ไปนั้นมีไม่น้อยเลยที่เป็นของปลอม
Velocity MR บริษัทวิจัยการตลาดในมุมไบของอินเดียเผย 1 ใน 3 ของคนอินเดียที่ซื้อของออนไลน์ซื้อของปลอมไปใช้ โดยมีผู้ตอบแบบสอบถาม 3,000 คนจากเมืองต่างๆ ในอินเดิย ตั้งแต่เดือนเมษายนที่ผ่านมา และพบว่าสินค้าปลอมที่ลูกค้าได้ไปส่วนใหญ่คือ โทรศัพท์มือถือ, คอมพิวเตอร์ รองลงมาเป็นสินค้าแฟชั่น
ส่วนเว็บไซต์ที่ผู้ตอบแบบสอมถามระบุว่าเจอของปลอมมีหลายเว็บ ไม่ว่าจะเป็น Amazon, Flipkart, Paytm, Myntra, และ Shopclues
Facebook ประกาศเริ่มโปรแกรมตรวจสอบข้อเท็จจริงของข่าวในอินเดียแล้ว โดยจับมือกับองค์กรตรวจสอบข่าวในอินเดีย โดยอินเดียถือเป็นตลาดที่ใหญ่ที่สุดของ Facebook
จากข้อวิจารณ์เรื่องเลือกตั้งสหรัฐฯ ในปี 2016 ที่ Facebook ไม่พยายามหยุดการระบาดของข่าวปลอม Facebook ก็พยายามแก้ไขตัวเองเรื่อยมา และครั้งนี้จะเป้นการพิสูจน์ว่าเครื่องไม้เครื่องมือต่างๆ ที่พัฒนามาเพื่อหยุดข่าวปลอมโดยเฉพาะระหว่างการเลือกตั้งจะใช้ได้ผลหรือไม่
ด้านองค์กรที่ Facebook จะเข้าไปจับมือคือ Boom หน่วยงานตรวจสอบข่าวซึ่งได้รับการรับรองจาก International Fact-Checking Network ทำการทดลองระบบในเมือง Karnataka ของอินเดียที่จะมีการเลือกตั้งของรัฐเกิดขึ้นใน 12 พฤษภาคม โดย Boom จะตรวจสอบเนื้อหาข่าวภาษาอังกฤษที่แชร์บนแพลตฟอร์ม
ปัจจุบัน Facebook ร่วมมือกับ VERA Files และ Rappler IQ เปิดแพลตฟอร์มตรวจสอบความจริงเพื่อป้องกันการแพร่กระจายข่าวปลอมบนโซเชียลมีเดียของฟิลิปปินส์ตามนโยบายแก้ปัญหาข่าวปลอมของ Facebook แต่ล่าสุดรัฐบาลของฟิลิปปินส์ได้ออกมากล่าวว่าบริษัทที่ Facebook เลือกให้เป็นผู้ตรวจสอบความจริงนี้มีความลำเอียงต่อต้านประธานาธิบดี Rodrigo Duterte
Duterte กล่าวหาว่า Rappler เป็นบริษัทที่พยายามจะทำลายรัฐบาลของเขา และอาจเป็นไปได้ว่าบริษัทนี้จะมีส่วนช่วยสหรัฐฯ ในการสอดแนม โดยตอนนี้ ก.ล.ต.ของฟิลิปปินส์ก็ได้เพิกถอนใบอนุญาตดำเนินงานของบริษัทนี้แล้วเนื่องจากละเมิดกฎความเป็นเจ้าของต่างชาติของฟิลิปปินส์ (ปัจจุบัน Rappler ยังอยู่ระหว่างการอุทธรณ์และยังคงดำเนินธุรกิจต่อไป)
กลุ่มเคลื่อนไหวในเมียนมาร์ ประกอบด้วย Phandeeyar ซึ่งเป็นศูนย์กลางด้านเทคโนโลยีชั้นนำของประเทศ เขียนจดหมายเปิด วิจารณ์ Facebook ว่าปล่อยให้ข่าวปลอมใส่ร้ายชาวโรฮิงญาในพม่าอยู่บน Facebook โดยไม่แก้ปัญหาเท่าที่ควร
เพียงวันเดียวหลังกลุ่มเคลื่อนไหวเขียนจดหมายเผยแพร่ Mark Zuckerberg ก็เขียนอีเมลตอบกลับ โดยขอโทษที่ไม่ได้แสดงออกอย่างชัดเจนว่าองค์กรของกลุ่มเคลื่อนไหวช่วยให้ Facebook เข้าใจสถานการณ์ในเมียนมาร์อย่างไร และยังบอกอีกว่านอกจากพัฒนาเทคโนโลยีแก้ปัญหาแล้วยังใช้คนมากขึ้นเพื่อดูแลปัญหานี้
ทางกลุ่มเคลื่อนไหวตอบกลับอีเมลของ Zuckerberg ระบุว่าขอบคุณที่ตอบกลับด้วยตัวเอง มันมีความหมายมากจริงๆ และยังถามข้อมูลเชิงลึกว่า Facebook มีการรายงานโพสต์ที่เป็นเท็จในเมียนมาร์กี่โพสต์, มีบัญชีผู้ใช้กี่รายที่ถูกรายงาน และมีกี่รายที่เป็นบัญชีปลอม, ในองค์กรมีผู้ที่เข้าใจภาษาเมียนมาร์กี่ราย และมีคนที่ทำหน้าที่ดูแลปัญหาในเมียนมาร์แบบเต็มเวลากี่ราย เป็นต้น
สภานิติบัญญัติมาเลเซียผ่านกฎหมายใหม่เรื่องการกระจายข่าวปลอมแล้ว โดยมีโทษคือปรับ 5 แสนริงกิตหรือประมาณ 4 ล้านบาท และจำคุกสูงสุด 6 ปี ซึ่งโทษจำคุกสูงสุดนั้นลดลงจาก 10 ปีในตอนเสนอกฎหมาย
กฎหมายของมาเลเซียนี้ กำหนดว่าข่าวปลอมคือ “ข่าว, สารสนเทศ, ข้อมูล และรายงานที่ทั้งหมดหรือส่วนหนึ่งเป็นความเท็จ” ซึ่งข่าวนี้จะรวมถึงเรื่องราว, วิดีโอ และเสียง โดยการตัดสินคดีเป็นอำนาจของศาลที่เป็นอิสระในการจัดการ ส่วนผู้กระทำผิดนั้นจะอยู่ในหรือนอกมาเลเซียก็ได้หากมีการเขียนถึงประชาชนหรือประเทศในแบบที่เข้าข่ายข่าวปลอม
Tumblr เครือข่ายสังคมแบบบล็อกขนาดสั้นได้ออกรายงานยืนยันว่า เมื่อช่วงปีที่ผ่านมา ทางบริษัทพบบัญชี 84 บัญชีที่มีความเชื่อมโยงกับรัฐบาลรัสเซีย ผ่าน Internet Research Agency หรือ IRA โดยบัญชีเหล่านี้ถูกใช้เพื่อทำแคมเปญข่าวปลอมในช่วงการเลือกตั้งประธานาธิบดี 2016 ซึ่งเมื่อตรวจสอบพบแล้ว Tumblr ได้ลบโพสต์และสั่งปิดบัญชีเหล่านี้พร้อมกับทำการสอบสวน และตอนนี้กระบวนการสอบสวนเสร็จสิ้นแล้ว Tumblr จึงนำข้อมูลมาเปิดเผยให้ผู้ใช้ทราบ
ในเหตุการณ์กราดยิงที่โรงเรียนในฟลอริดา มีวิดีโอใน YouTube ตัวหนึ่งแสดงทฤษฎีว่า David Hogg ผู้รอดชีวิตจากเหตุการณ์นั้น จริงๆ แล้วเป็นการแสดง ทั้งที่ความจริงไม่ใช่ Hogg เป็นผู้รอดชีวิตจริง และหลังจากนั้นเขาก็กลายเป็นนักเคลื่อนไหวต่อต้านความรุนแรงจากปืนในสหรัฐฯ แต่วิดีโอตัวนั้นก็มีคนดูไปแล้วกว่า 2 แสนครั้ง ก่อนจะถูกลบ
อัลกอริทึมบน YouTube มีหลายครั้งที่แนะนำวิดีโอสร้างทฤษฎีปลอม ข่าวปลอมมาให้ ล่าสุดซีอีโอ Susan Wojcicki เผยว่า YouTube มีฟีเจอร์ใหม่เพื่อแก้ปัญหานี้คือ แสดงลิงก์ไปยังวิกิพีเดียควบคู่ไปกับวิดีโอแสดงทฤษฎีสมคบคิดนั้น เพื่อแสดงให้เห็นว่าเนื้อหาในวิดีโอผิดจากความจริง
ตัวอย่างเช่นวิดีโอที่ตั้งคำถามว่ามนุษย์ไปดวงจันทร์เมื่อไร ก็จะปรากฏลิงก์ข้อมูลที่ยานอพอลโลไปเหยียบดวงจันทร์ในปี 1969