การศึกษาของมหาวิทยาลัยแคลิฟอร์เนีย เมอร์เซด พบว่าในสถานการณ์จำลองที่ชี้เป็นชี้ตาย ราว 2 ใน 3 ของผู้เข้าร่วมยอมเชื่อ AI เมื่อเห็นไม่ตรงกัน แสดงให้เห็นถึงความไว้วางใจในปัญญาประดิษฐ์มากเกินไป แม้มีการชี้แจงชัด ๆ ว่า AI มีความสามารถจำกัดและอาจให้คำแนะนำที่ผิดพลาดได้
การศึกษานี้ทดลองโดยผู้เข้าร่วมต้องควบคุมโดรนติดอาวุธในสถานการณ์จำลอง จำภาพเป้าหมาย 8 ภาพที่มีสัญลักษณ์กำกับว่าเป็นฝ่ายเดียวกันหรือศัตรูซึ่งแสดงผลขึ้นอย่างรวดเร็ว
จากนั้นหน้าจอจะแสดงเป้าหมายหนึ่งภาพโดยไม่มีสัญลักษณ์กำกับ ผู้เข้าร่วมเลือกว่าเป้าหมายนี้เป็นมิตรหรือศัตรู จะยิงขีปนาวุธหรือถอนตัว หลังตัดสินใจแล้วหุ่นยนต์จะให้ความเห็นและมีโอกาสว่าจะเปลี่ยนใจหรือไม่
ก่อนการจำลอง นักวิจัยแสดงภาพพลเรือนผู้บริสุทธิ์รวมถึงเด็กๆ พร้อมกับความเสียหายจากการโจมตีด้วยโดรน พวกเขากำชับให้ผู้เข้าร่วมปฏิบัติต่อการจำลองเสมือนเรื่องที่เกิดจริง ๆ
ผู้เข้าร่วมจะไม่ทราบว่าการตัดสินใจครั้งสุดท้ายของพวกเขาถูกต้องหรือไม่ ทำให้เกิดความไม่แน่นอนในการกระทำมากขึ้น ผลลัพธ์คือ การตัดสินใจครั้งแรกถูกต้องประมาณ 70% แต่การตัดสินใจครั้งสุดท้ายลดลงเหลือประมาณ 50% หลังจากที่หุ่นยนต์ให้คำแนะนำ (ที่ไม่น่าเชื่อถือ)
ศาสตราจารย์โคลิน โฮลบรูก หัวหน้านักวิจัยกล่าวว่า "ในฐานะสังคม เราต้องกังวลเกี่ยวกับศักยภาพของการไว้วางใจ AI มากเกินไป โดยเฉพาะเมื่อ AI กำลังพัฒนาอย่างรวดเร็ว" “เราควรเคลือบแคลง AI อย่างสมเหตุสมผล โดยเฉพาะในสถานการณ์คอขาดบาดตาย” งานวิจัยจำนวนมากชี้ให้เห็นว่าผู้คนมีแนวโน้มที่จะไว้วางใจ AI มากเกินไป แม้ว่าผลที่ตามมาของความผิดพลาดจะร้ายแรง
ที่มา: UCLA
Comments
ปัญหาคือมีคนไม่รู้ว่า AI ไม่สามารถใช้เป็น source ได้ เหมือนกับที่คนไม่รู้ว่า Wikipedia ใช้เป็น source ไม่ได้นี่แหละ แต่ก่อนคนก็ลอกวิกิ ไปตอบการบ้านบ้าง หนักหน่อยก็คือเอาไปใส่ในวิจัยบ้าง ตอนนี้ก็เปลี่ยนเป็นลอก AI แทน ข้อดีคือจับโป๊ะยากขึ้นเท่านั้นเอง
ในเรื่องที่ต้องใช้เหตุผลในการตัดสินใจ ถือว่า AI ช่วยได้เยอะนะครับ เพราะมนุษย์เป็นสิ่งมีชีวิตที่มีอารมณ์เข้ามาเกี่ยวข้อง บางครั้งเอาอารมณ์มาสร้างการรบกวนการตัดสินใจด้วยเหตุผล
แต่ถ้าเป็นเรื่องที่ชี้เป็นชี้ตาย อันนี้ก็น่ากลัว
AI ตอนนี้ยังเป็นแค่จุดเริ่มต้น ข้อบกพร่องยังเยอะอยู่ และยังพัฒนาไปต่อได้อีกไกล กว่าจะให้ทำงานได้สมบูรณ์แบบและประมวลผลได้เต็มประสิทธิภาพ ความผิดพลากเกือบเป็น 0 ไม่ต้องพึ่งมนุษย์ในระบบเลยเนี่ย คงต้องอีกหลายปี
แต่ในขณะเดียวกัน การแข่งขันพัฒนาทางด้าน AI ตอนนี้ก็ค่อนข้างดุเดือดอยู่พอสมควร งบประมาณหลายๆ บริษัทก็ลงทุนไปกับ AI เยอะด้วยช่วงนี้ อาจได้เห็นการพัฒนาที่ก้าวกระโดด แบบเดียวกับ PC ในช่วงต้น 1990 ถึงปี 2000 หรืออาจจะเร็วกว่านั้นด้วยซ้ำ
ความล้มเหลว คือจุดเริ่มต้นสู่ความหายนะ มีผลกระทบมากกว่าแค่เสียเงิน เวลา อนาคต และทรัพยากรที่เสียไป - จงอย่าล้มเหลว
ผมรู้สึกว่ามันไม่เกี่ยวหรอกครับว่าเราเชื่อ AI แค่ไหน แต่เป็นเราเชื่อในตัวเองแค่ไหนต่างหาก
เมื่อเราเจอสถานการณ์ที่ไม่มั่นใจในตัวเอง ถ้ามีใครมาแย้ง ก็มีโอกาสโดนโน้มน้าวได้ง่ายอยู่แล้ว ไม่ว่าจะโดย AI หรือโดยคนก็ตาม โดยเฉพาะการตัดสินใจที่สำคัญ เพราะยิ่งสำคัญ ความรับผิดชอบก็ยิ่งสูงตาม หลายคนจึงยอมเลือกตัวเลือกที่มีคนเห็นพ้องด้วยเพื่อให้ตัวเองรู้สึกต้องรับผิดชอบน้อยลง
ส่วนตัวอยากให้มีทดลองเพิ่มโดยมีคนให้คำแนะนำด้วยแล้วเอามาเทียบกันนะ
ผมก็ว่างั้นทดลองอะไรแบบนี้เหมือนแบบจะชี้นำว่าAiไว้ใจไม่ได้ ทั้งๆที่จริงๆแล้วไม่จำเป็นต้องเป็นAiเลย ต่อให้เป็นหมา เห่าหมาหอนคนเรายังเชื่อไปเป็นตุเป็นตะเลยว่ามันต้องเห็นอะไร ธรรมชาติของคนมันก็เชื่อได้ทุกรื่องอะไม่ว่าผิดหรือถูกจะเป็นAiหรือเป็นหมาอยู่ที่การตัดสินใจเราทั้งนั้น
อันนี้จริง
ถ้ามีเสียงที่อ้างว่ามาจาก ผู้เชี่ยวชาญ, ผู้รู้ หรือ เสียงส่วนใหญ่ แล้วไม่ทำตาม
ถ้าพลาดขึ้นมา จะโดนสังคมยำเละคนเดียว
เทียบกับ ทำตามคนอื่น จะได้ความรู้สึก i am not alone นะ
ก็แบ่งๆการโดนยำไปได้ 😅
ขณะที่ทำตามที่ตัวเองคิดแล้วสำเร็จ
กลับไม่ค่อยได้เครดิตเท่าไหร่
ถ้าไม่ได้ดีกว่าแบบเหนือกว่ามากแบบเห็นได้ชัดจริงๆ
สังคมมักจะคลางแคลงใจว่าทำตามผู้เชี่ยวชาญไปก็ได้ ไม่เห็นแตกต่าง จะทำท่ายากทำเพื่อ?