ทีมวิจัย Stanford Internet Observatory ระบุพบโพสต์เกี่ยวกับการล่วงละเมิดเด็ก (CSAM) จำนวนมากใน Mastodon แพลตฟอร์มโซเชียลมีเดียกระจายศูนย์
ในการศึกษาครั้งนี้ ทีมวิจัยพบ 112 เซิร์ฟเวอร์ (instance) ที่มีเนื้อหาเกี่ยวกับ CSAM จาก 325,000 โพสต์บน Mastodon ในเวลาเพียง 2 วัน และพบเนื้อหาจำนวน 554 โพสต์ที่มีแฮชแท็กหรือคีย์เวิร์ดที่กลุ่มผู้ล่วงละเมิดทางเพศมักใช้ทางออนไลน์ อ้างอิงจาก Google SafeSearch
ทีมวิจัยกล่าวว่า ปัญหาการแพร่หลายของโพสต์เกี่ยวกับ CSAM นั้นเป็นปัญหาใหญ่สำหรับโซเชียลมีเดียกระจายศูนย์มากกว่าโซเชียลมีเดียแบบรวมศูนย์ เช่น Twitter, Instagram หรือ YouTube เนื่องจาก โซเชียลมีเดียกระจายศูนย์ยังขาดเครื่องมือสำหรับจัดการกับปัญหาด้านความปลอดภัยของเด็ก รวมถึงไม่มีกลไกรายงาน CSAM ไปยังองค์กรด้านความปลอดภัยของเด็กที่เกี่ยวข้อง
ที่มา : The Verge
Comments
ควบคุมไมได้เหรอ
ไม่ได้ครับ
มันก็เหมือน webboad สมัยก่อน แต่ละคนเปิด server ของตัวเอง สิ่งที่ต่างคือ เราไปกด like/follow รวมถึงเห็น feed ของ server อื่นได้
ซึ่งในแง่การควบคุมมันยากกว่าแบบรวมศูนย์ที่บอกคนๆ เดียว ทีเดียว แล้วเค้าก็คอยดูให้
อันนี้คุณต้องไปนั่งไล่ฟ้องคนที่เปิด server เหล่านั้นแทน ก็ยากกว่า แต่ไม่ใช่ทำไม่ได้
อิสระไร้การควบคุมแบบบิทคอยน์
ผมขอตินิดหนึ่งนะครับ
หัวข้อ-->นักวิจัย
เนื้อหา -->ทีมวิจัย
สำหรับผมที่เข้าใจ นักวิจัยคือคนเดียวที่หาเจอ
ทีมวิยจัยคือหลายๆคนช่วยกันหา