Tags:
Node Thumbnail

AI นั้นบกพร่องและโน้มเอียงได้ และในช่วง 2-3 สัปดาห์ที่ผ่านมา บรรดาบริษัทผู้สร้าง AI ก็ออกประกาศสำคัญแก้ไขปัญหานี้ รวมถึงออกแนวปฏิบัติทางจริยธรรม AI เช่น

No Description
ภาพประกอบจาก Google AI

ยากที่จะบอกเหตุผลว่าทำไมจึงเป็น "ตอนนี้" ที่บรรดาบริษัทไอทีถึงลุกขึ้นมาประกาศแก้ไขปัญหา ส่วนหนึ่งอาจเป็นเพราะ AI มีความสำคัญในทุกผลิตภัณฑ์ และนับวันยิ่งมีความสามารถขึ้นเรื่อยๆ เช่น Google Duplex คุยโทรศัพท์แทนคนได้ หรือช่วยให้ร้านค้าไม่ต้องมีแคชเชียร์ได้อย่าง Amazon Go และถ้าพูดถึงเทคโนโลยีจดจำใบหน้าก็ยังเป็นปัญหาใหญ่ ความน่ากังวลคือ รัฐบาล หน่วยงานความมั่นคงก็ใช้เทคโนโลยีนี้ในการทำงานด้วย และคงไม่ดีแน่ถ้าเทคโนโลยีนี้ยังไม่เป็นกลาง เพราะเสี่ยงที่จะถูกนำไปใช้ในทางที่ผิดและละเมิดสิทธิ

ที่มา - QUARTZ

Get latest news from Blognone

Comments

By: vanadiros on 2 July 2018 - 09:41 #1058330

Ai(NN) ปรับโครงสร้างตามสถิติ จริงๆนั้นอคติของคนก็เกิดจากสถิติ ของตัวเองเช่นกัน
ยากมากที่จะไม่ให้มันโน้มเอียงไปทางใดทางหนึ่ง
เพราะตัวมัน เกิดจาก สถิติ สุมมติ Aiไปเอารูปคนร้ายในคุก มาเป็นinput ของคนร้าย
แล้วพบว่า คนผิวสีมีเป็นจำนวนเยอะมาก เมื่อเทียบกับคนผิวขาว พอAiจะ เดาความน่าจะเป็นคนร้าย
จากหน้าตา ยังไง ก็ต้องเอนไปทางคนผิวสี

By: Hadakung
iPhoneWindows PhoneAndroidWindows
on 2 July 2018 - 13:05 #1058377 Reply to:1058330

แสดงว่าโน้มเอียงตั้งแต่คนทำแล้วครับเพราะใบหน้ามันมีมิติที่น้อยมากที่จะทำนายว่าใครเป็นคนร้ายได้ครับ

By: vanadiros on 2 July 2018 - 18:16 #1058448 Reply to:1058377

จริงๆแล้วอาจจะไม่ครับ ถึงจะเฉลี่ย ทั้งสหรัฐ นักโทษผิวสีก็อาจจะเยอะกว่า
เพราะมันมีเรื่องฐานะมาตั้งแต่สมัยเหยียดสีผิว แต่ผมก็ไม่มีข้อมูล ตรงนี้ แค่ยกตัวอย่างผมอาจจะผิดก็ได้
แต่ประเด็นคือ Ai มันตัดสินด้วยสถิติครับ
ลองนึกภาพ เวลาคนเราจะไม่ใช้อคติดูครับ สมมุติเรามีปัญหากับคนจีนบ่อยมาก
แต่เวลาเราเจอคนจีนครั้งต่อไป หากเราจะไม่เป็นคนอคติ
เราต้อง "ไม่ตัดสิน" ถูกไหมครับแม้เราจะมีข้อมูลทาง สถิติของเรา
แต่เราก็ไม่ควรไปตัดสิน คนที่เราพึ่งเจอ(อุดมคติ นะครับ)
แต่Ai เขา base on "ตัดสิน" จากสถิติครับ
ถ้าหมื่นครั้งเจอคนจีน มีปัญหามาก ก็ต้องบอกว่ามาก และเอาเป็นตัวตัดสินใจ
ดังนั้น การที่บอก ให้ ไม่อคติ มัน ย้อนแยงมาก

ประเด็นที่อยากให้คิดคือ จริงๆ แล้วจะมองว่าAi มันแค่ทำตามหน้าที่มันตาม สถิติ
แต่พอมันดันไปตัดสินประเด็นที่ละเอียดอ่อน มันก็จะมีปัญหาแบบนี้ครับ
จะเรียกว่าคนไม่ยอมหรับ สถิติก็ได้ อีกแง่ก็คือ สถิต(หรือAIจากสถิติ) อาจไม่เหมาะสมกับทุกเรื่องเสมอไป
เช่นเรื่องแบบ AI หาคนร้ายแบบที่ยกตัวอย่าง อาจจะ กันคนร้ายได้จริงในบางครั้ง
แต่แลกกับคนดีๆเสียความรู้สึก จากการโดนAI ประเมิน มันคุ้มหรือไม่

By: nidlittle
iPhoneWindows
on 2 July 2018 - 14:34 #1058397

หรือนี่จะเป็นสัญญาณของความล่มสลาย
ไวจุง เทรนด์จะเปลี่ยนอีกแล้วเหรอ