Tags:
Node Thumbnail

เฟซบุ๊กส่งแถลงขออภัยหลังระบบแนะนำวิดีโอขึ้นข้อความถามผู้ใช้ว่า "ต้องการชมวิดีโอเกี่ยวกับลิงอีกหรือไม่" ("keep seeing videos about primates") ทั้งที่วิดีโอเป็นภาพชายผิวดำ

ตอนนี้เฟซบุ๊กปิดการแนะนำวิดีโอในหมวดลิงออกไปแล้ว และกำลังหาสาเหตุของความผิดพลาดเพื่อป้องกันไม่ให้เกิดขึ้นอีก และยอมรับว่าปัญญาประดิษฐ์นั้นยังไม่สมบูรณ์

เมื่อปี 2015 บริการ Google Photos เองก็เคยผิดพลาดแบบเดียวกัน โดยแท็กภาพหญิงผิวดำและระบุว่าเป็นกอริลล่า

ปัญญาประดิษฐ์ในกลุ่มจัดหมวดหมู่ภาพนับเป็นกลุ่มที่มีการวิจัยพัฒนามาต่อเนื่องยาวนาน ทุกวันนี้ปัญญาประดิษฐ์ในกลุ่มนี้มีประสิทธิภาพค่อนข้างสูงสามารถจัดหมวดหมู่ภาพได้อย่างละเอียดและแม่นยำ แต่ในบางครั้งก็เกิดเหตุจัดหมวดหมู่ผิดโดยที่อธิบายได้ยากว่าทำไมปัญญาประดิษฐ์จึงมองภาพเป็นอย่างอื่น งานวิจัยปัญญาประดิษฐ์ในช่วงหลังจึงมีความพยายามพัฒนาปัญญาประดิษฐ์ที่อธิบายได้ (explainable AI) เพื่อให้ปัญญาประดิษฐ์บอกเหตุผลในการตัดสินใจออกมาด้วย

ที่มา - BBC

No Description

ภาพบริการ Facebook Watch จากเฟซบุ๊ก

Get latest news from Blognone

Comments

By: schanon
Android
on 8 September 2021 - 08:45 #1222738
schanon's picture

FB ยังพลาด แล้วแอปเปิลทำไมจะพลาดไม่ได้ รูปทั่วไป อาจกลายเป็นรูปโป๊เด็กก็ได้