Tags:
Node Thumbnail

หนึ่งในปัญหาช่วงที่ผ่านมาและมักจะเป็นข่าวร้อนคือกรณีความไม่เป็นกลางของอัลกอริทึมในตัวโปรแกรมหรือแอพที่ใช้งาน (เช่น กรณี Facebook โดนกล่าวหาว่าควบคุมเนื้อหาส่วน Trending หรือ ซอฟต์แวร์ประเมินประวัติอาชญากรรมมีความลำเอียง) ซึ่งทำให้เกิดความกังวลใจในแวดวงทั้งวิชาการและเทคโนโลยีว่า เรื่องเหล่านี้จะส่งผลอย่างไรบ้าง ทางออกอันหนึ่งที่เสนอกันคือเรื่องของการ open source โปรแกรม (เอาไว้ดูได้ว่าทำงานอย่างไร) แต่ในหลายกรณีที่ตัวโปรแกรมไม่เปิดสู่สาธารณะ ก็ย่อมมีปัญหา ซึ่งทีมนักวิจัยจาก CMU (Carnegie Mellon University) ได้นำเสนอทางออกไว้ผ่านงานวิจัยที่นำเสนอบนเวที IEEE Symposium on Security and Privacy ประจำปีนี้ ผ่านระบบการทดสอบอัลกอริทึม

ระบบดังกล่าวมีชื่อว่า Quantitative Input Influence (QII) ซึ่งจะทดสอบอัลกอริทึมของโปรแกรมด้วยข้อมูลที่หลากหลาย และสามารถคาดการณ์ได้ว่าข้อมูลที่ป้อนไปจะมีผลอย่างไรบ้าง ตัวอย่างเช่นระบบอาจจะบอกได้ว่า คะแนนเครดิต (credit score) ที่ได้มาของคนๆ หนึ่ง อาจมาจากบิลที่ยังไม่ชำระกว่า 80% เป็นต้น ซึ่งระบบนี้สามารถใช้ทดสอบหาการเลือกปฏิบัติ (bias) ในตัวอัลกอริทึมได้ ในกรณีที่มีการเลือกปฏิบัติกับคนกลุ่มใดกลุ่มหนึ่ง

ปัญหาการเลือกปฏิบัติของอัลกอริทึมเป็นสิ่งที่สร้างความกังวลมานานทั้งจากฝั่งวิชาการและองค์กรภาคเอกชนด้านไอทีที่เรียกร้องความโปร่งใสของตัวอัลกอริทึม และในหลายกรณีก็สร้างปัญหาในกระบวนการยุติธรรม อย่างเช่นกรณีระบบประเมินความเสี่ยงอาชญากรรมที่ศาลในสหรัฐฯ ใช้งานกัน และตกเป็นข่าวเมื่อไม่กี่วันที่ผ่านมา

ที่มา - งานวิจัย ผ่าน The Verge

Get latest news from Blognone

Comments

By: panurat2000
ContributorSymbianUbuntuIn Love
on 26 May 2016 - 11:55 #914731
panurat2000's picture

หาการเลือกปฏิบัติ (bias) ในตัวอักริทึมได้

อักริทึม => อัลกอริทึม