Tags:
Node Thumbnail

การศึกษาของมหาวิทยาลัยแคลิฟอร์เนีย เมอร์เซด พบว่าในสถานการณ์จำลองที่ชี้เป็นชี้ตาย ราว 2 ใน 3 ของผู้เข้าร่วมยอมเชื่อ AI เมื่อเห็นไม่ตรงกัน แสดงให้เห็นถึงความไว้วางใจในปัญญาประดิษฐ์มากเกินไป แม้มีการชี้แจงชัด ๆ ว่า AI มีความสามารถจำกัดและอาจให้คำแนะนำที่ผิดพลาดได้

การศึกษานี้ทดลองโดยผู้เข้าร่วมต้องควบคุมโดรนติดอาวุธในสถานการณ์จำลอง จำภาพเป้าหมาย 8 ภาพที่มีสัญลักษณ์กำกับว่าเป็นฝ่ายเดียวกันหรือศัตรูซึ่งแสดงผลขึ้นอย่างรวดเร็ว

จากนั้นหน้าจอจะแสดงเป้าหมายหนึ่งภาพโดยไม่มีสัญลักษณ์กำกับ ผู้เข้าร่วมเลือกว่าเป้าหมายนี้เป็นมิตรหรือศัตรู จะยิงขีปนาวุธหรือถอนตัว หลังตัดสินใจแล้วหุ่นยนต์จะให้ความเห็นและมีโอกาสว่าจะเปลี่ยนใจหรือไม่

ก่อนการจำลอง นักวิจัยแสดงภาพพลเรือนผู้บริสุทธิ์รวมถึงเด็กๆ พร้อมกับความเสียหายจากการโจมตีด้วยโดรน พวกเขากำชับให้ผู้เข้าร่วมปฏิบัติต่อการจำลองเสมือนเรื่องที่เกิดจริง ๆ

ผู้เข้าร่วมจะไม่ทราบว่าการตัดสินใจครั้งสุดท้ายของพวกเขาถูกต้องหรือไม่ ทำให้เกิดความไม่แน่นอนในการกระทำมากขึ้น ผลลัพธ์คือ การตัดสินใจครั้งแรกถูกต้องประมาณ 70% แต่การตัดสินใจครั้งสุดท้ายลดลงเหลือประมาณ 50% หลังจากที่หุ่นยนต์ให้คำแนะนำ (ที่ไม่น่าเชื่อถือ)

ศาสตราจารย์โคลิน โฮลบรูก หัวหน้านักวิจัยกล่าวว่า "ในฐานะสังคม เราต้องกังวลเกี่ยวกับศักยภาพของการไว้วางใจ AI มากเกินไป โดยเฉพาะเมื่อ AI กำลังพัฒนาอย่างรวดเร็ว" “เราควรเคลือบแคลง AI อย่างสมเหตุสมผล โดยเฉพาะในสถานการณ์คอขาดบาดตาย” งานวิจัยจำนวนมากชี้ให้เห็นว่าผู้คนมีแนวโน้มที่จะไว้วางใจ AI มากเกินไป แม้ว่าผลที่ตามมาของความผิดพลาดจะร้ายแรง

ที่มา: UCLA

alt="AI"

Get latest news from Blognone

Comments

By: zyzzyva
Blackberry
on 24 September 2024 - 14:06 #1322963

ปัญหาคือมีคนไม่รู้ว่า AI ไม่สามารถใช้เป็น source ได้ เหมือนกับที่คนไม่รู้ว่า Wikipedia ใช้เป็น source ไม่ได้นี่แหละ แต่ก่อนคนก็ลอกวิกิ ไปตอบการบ้านบ้าง หนักหน่อยก็คือเอาไปใส่ในวิจัยบ้าง ตอนนี้ก็เปลี่ยนเป็นลอก AI แทน ข้อดีคือจับโป๊ะยากขึ้นเท่านั้นเอง

By: terdsak.s on 24 September 2024 - 14:51 #1322969

ในเรื่องที่ต้องใช้เหตุผลในการตัดสินใจ ถือว่า AI ช่วยได้เยอะนะครับ เพราะมนุษย์เป็นสิ่งมีชีวิตที่มีอารมณ์เข้ามาเกี่ยวข้อง บางครั้งเอาอารมณ์มาสร้างการรบกวนการตัดสินใจด้วยเหตุผล
แต่ถ้าเป็นเรื่องที่ชี้เป็นชี้ตาย อันนี้ก็น่ากลัว

By: IDCET
Contributor
on 24 September 2024 - 16:04 #1322982

AI ตอนนี้ยังเป็นแค่จุดเริ่มต้น ข้อบกพร่องยังเยอะอยู่ และยังพัฒนาไปต่อได้อีกไกล กว่าจะให้ทำงานได้สมบูรณ์แบบและประมวลผลได้เต็มประสิทธิภาพ ความผิดพลากเกือบเป็น 0 ไม่ต้องพึ่งมนุษย์ในระบบเลยเนี่ย คงต้องอีกหลายปี

แต่ในขณะเดียวกัน การแข่งขันพัฒนาทางด้าน AI ตอนนี้ก็ค่อนข้างดุเดือดอยู่พอสมควร งบประมาณหลายๆ บริษัทก็ลงทุนไปกับ AI เยอะด้วยช่วงนี้ อาจได้เห็นการพัฒนาที่ก้าวกระโดด แบบเดียวกับ PC ในช่วงต้น 1990 ถึงปี 2000 หรืออาจจะเร็วกว่านั้นด้วยซ้ำ


ความล้มเหลว คือจุดเริ่มต้นสู่ความหายนะ มีผลกระทบมากกว่าแค่เสียเงิน เวลา อนาคต และทรัพยากรที่เสียไป - จงอย่าล้มเหลว

By: iqsk131 on 24 September 2024 - 21:08 #1323011

ผมรู้สึกว่ามันไม่เกี่ยวหรอกครับว่าเราเชื่อ AI แค่ไหน แต่เป็นเราเชื่อในตัวเองแค่ไหนต่างหาก

เมื่อเราเจอสถานการณ์ที่ไม่มั่นใจในตัวเอง ถ้ามีใครมาแย้ง ก็มีโอกาสโดนโน้มน้าวได้ง่ายอยู่แล้ว ไม่ว่าจะโดย AI หรือโดยคนก็ตาม โดยเฉพาะการตัดสินใจที่สำคัญ เพราะยิ่งสำคัญ ความรับผิดชอบก็ยิ่งสูงตาม หลายคนจึงยอมเลือกตัวเลือกที่มีคนเห็นพ้องด้วยเพื่อให้ตัวเองรู้สึกต้องรับผิดชอบน้อยลง

ส่วนตัวอยากให้มีทดลองเพิ่มโดยมีคนให้คำแนะนำด้วยแล้วเอามาเทียบกันนะ

By: shub on 25 September 2024 - 09:18 #1323045 Reply to:1323011

ผมก็ว่างั้นทดลองอะไรแบบนี้เหมือนแบบจะชี้นำว่าAiไว้ใจไม่ได้ ทั้งๆที่จริงๆแล้วไม่จำเป็นต้องเป็นAiเลย ต่อให้เป็นหมา เห่าหมาหอนคนเรายังเชื่อไปเป็นตุเป็นตะเลยว่ามันต้องเห็นอะไร ธรรมชาติของคนมันก็เชื่อได้ทุกรื่องอะไม่ว่าผิดหรือถูกจะเป็นAiหรือเป็นหมาอยู่ที่การตัดสินใจเราทั้งนั้น

By: Hoo
AndroidWindows
on 26 September 2024 - 14:33 #1323217 Reply to:1323011

อันนี้จริง
ถ้ามีเสียงที่อ้างว่ามาจาก ผู้เชี่ยวชาญ, ผู้รู้ หรือ เสียงส่วนใหญ่ แล้วไม่ทำตาม

ถ้าพลาดขึ้นมา จะโดนสังคมยำเละคนเดียว
เทียบกับ ทำตามคนอื่น จะได้ความรู้สึก i am not alone นะ
ก็แบ่งๆการโดนยำไปได้ 😅

ขณะที่ทำตามที่ตัวเองคิดแล้วสำเร็จ
กลับไม่ค่อยได้เครดิตเท่าไหร่
ถ้าไม่ได้ดีกว่าแบบเหนือกว่ามากแบบเห็นได้ชัดจริงๆ
สังคมมักจะคลางแคลงใจว่าทำตามผู้เชี่ยวชาญไปก็ได้ ไม่เห็นแตกต่าง จะทำท่ายากทำเพื่อ?