เฟซบุ๊กส่งแถลงขออภัยหลังระบบแนะนำวิดีโอขึ้นข้อความถามผู้ใช้ว่า "ต้องการชมวิดีโอเกี่ยวกับลิงอีกหรือไม่" ("keep seeing videos about primates") ทั้งที่วิดีโอเป็นภาพชายผิวดำ
ตอนนี้เฟซบุ๊กปิดการแนะนำวิดีโอในหมวดลิงออกไปแล้ว และกำลังหาสาเหตุของความผิดพลาดเพื่อป้องกันไม่ให้เกิดขึ้นอีก และยอมรับว่าปัญญาประดิษฐ์นั้นยังไม่สมบูรณ์
เมื่อปี 2015 บริการ Google Photos เองก็เคยผิดพลาดแบบเดียวกัน โดยแท็กภาพหญิงผิวดำและระบุว่าเป็นกอริลล่า
ปัญญาประดิษฐ์ในกลุ่มจัดหมวดหมู่ภาพนับเป็นกลุ่มที่มีการวิจัยพัฒนามาต่อเนื่องยาวนาน ทุกวันนี้ปัญญาประดิษฐ์ในกลุ่มนี้มีประสิทธิภาพค่อนข้างสูงสามารถจัดหมวดหมู่ภาพได้อย่างละเอียดและแม่นยำ แต่ในบางครั้งก็เกิดเหตุจัดหมวดหมู่ผิดโดยที่อธิบายได้ยากว่าทำไมปัญญาประดิษฐ์จึงมองภาพเป็นอย่างอื่น งานวิจัยปัญญาประดิษฐ์ในช่วงหลังจึงมีความพยายามพัฒนาปัญญาประดิษฐ์ที่อธิบายได้ (explainable AI) เพื่อให้ปัญญาประดิษฐ์บอกเหตุผลในการตัดสินใจออกมาด้วย
ที่มา - BBC
ภาพบริการ Facebook Watch จากเฟซบุ๊ก
Comments
FB ยังพลาด แล้วแอปเปิลทำไมจะพลาดไม่ได้ รูปทั่วไป อาจกลายเป็นรูปโป๊เด็กก็ได้