ProPublica เว็บไซต์ข่าวเชิงลึกของสหรัฐอเมริกา ตีพิมพ์รายงานชิ้นใหม่ที่เป็นการวิเคราะห์อัลกอริทึมของซอฟต์แวร์ประเมินความเสี่ยงด้านอาชญากรรมจากสถิติ ซึ่งผู้พิพากษาศาลต่างๆ มักจะนำข้อมูลเหล่านี้ (ที่จะออกมาเป็นคะแนนเรียกว่า risk assessment score) มาพิจารณาร่วมกับโทษที่ได้รับทำให้กำหนดโทษที่เหมาะสม โดย ProPublica ระบุว่าตัวซอฟต์แวร์มีความลำเอียงหรืออคติ (bias) ในการประเมินและให้คะแนน
ซอฟต์แวร์ดังกล่าวออกแบบและสร้างโดยบริษัทที่ชื่อว่า Northpointe โดย ProPublica ระบุในรายงานว่า ตัวซอฟต์แวร์ดังกล่าวมักจะประเมินความเสี่ยงของผู้กระทำความผิดที่เป็นผิวดำสูงกว่าผู้กระทำผิดที่เป็นผิวสีอื่นๆ ในบางกรณีมากกว่าถึงสองเท่าหากเทียบกับผู้กระทำความผิดที่เป็นคนผิวขาว ส่วนผู้กระทำผิดที่เป็นคนผิวขาวมักจะได้รับการประเมินความเสี่ยงที่ต่ำกว่า นอกจากนั้นแล้วตัวเลขของผู้กระทำผิดที่กลับไปกระทำความผิดซ้ำก็มีเพียง 20% เท่านั้น ทำให้รายงานระบุว่าความแม่นยำของซอฟต์แวร์ มีเท่ากับการออกหัวก้อยของเหรียญเท่านั้น
ด้าน Northpointe ออกมาระบุว่าไม่เห็นด้วยกับรายงานฉบับนี้ และการประเมินความเสี่ยงก็ไม่ได้กระทำอยู่บนหลักการของสีผิว อย่างไรก็ตาม Engadget ระบุว่าข้อมูลทางสังคมบางอย่าง เช่น การศึกษา สถานะการจ้างงาน หรือสภาพทางสังคม สามารถบ่งบอกได้ว่าคนๆ นั้นมีสีผิวอะไรอยู่ดี ใครสนใจสามารถอ่านรายงานฉบับเต็มได้จากที่มาครับ
ใครว่าอัลกอริทึมไม่มีการเลือกปฏิบัติ?
ที่มา - ProPublica ผ่าน Engadget
Comments
ซอฟต์แวร์มี bias หรือคนตีความผลประเมินมี bias กันแน่???
Happiness only real when shared.
ถ้ายึดตาม Lessig's Code is Law ตัวซอฟต์แวร์ย่อมมีโอกาสเกิด bias ที่ได้รับ (inherit) มาจากคนเขียนหรือนักพัฒนาครับ ส่วนจะรู้หรือไม่อันนี้ก็อีกเรื่องหนึ่งครับ ยังไม่นับเรื่องของ input อีกด้วย ลองจินตนาการว่าให้ machine learning เรียนรู้แบบมีอคติจากข้อมูลที่เรากำหนดให้ ผลก็ย่อมเบี้ยวไปตาม input ด้วย
I'm ordinary man; who desires nothing more than just an ordinary chance to live exactly what he likes and do precisely what he wants.
ผมว่า software ไม่ bias หรอก มันก็เรียนรู้จากข้อมูลที่ถูกป้อนเข้ามา
แค่เรายอมรับการ racist ไม่ได้แค่นั้นเอง
เอาจริงๆแล้ว พวก Machine learning มันก็คือการ biased จากกลุ่มตัวอย่างที่มี properties ใกล้เคียงกัน ไม่ใช่เหรอครับ
คือมันเป็นการทำนายเฉยๆจากความน่าจะเป็นนั่นแหละ แต่เรื่องทางกฎหมายแบบนี้ ไม่น่าจะเอาความน่าจะเป็นมาตัดสินกันได้นี่นา.......