อัยการแคลิฟอร์เนียร์ตั้งข้อหากับ Kevin George Aziz Riad ผู้ขับรถ Tesla Model S ฐานฆ่าคนตายโดยไม่เจตนา (manslaughter) หลังรถที่ Riad ขับนั้นฝ่าไฟแดงไปชนรถคันอื่นจนมีผู้เสียชีวิตสองรายเมื่อปี 2019 โดยขณะที่ Tesla Model S พุ่งชนนั้น Riad เปิดระบบ Autopilot เอาไว้
เหตุการณ์คนขับปล่อยให้ Autopilot ควบคุมรถจนเกิดอุบัติเหตุนั้นเกิดขึ้นเนืองๆ แต่หลายครั้งคนขับที่ใช้ Autopilot เป็นผู้เสียชีวิตเอง เช่น เมื่อปี 2016, 2019 หรือบางครั้งก็เป็นอุบัติเหตุที่ไม่ถึงชีวิต โดย Tesla ยืนยันว่า Autopilot ปลอดภัยกว่าการขับขี่ที่ไม่มีระบบช่วยเหลือ ขณะที่หลายฝ่ายระบุว่าการใช้ชื่อ Autopilot นั้นสร้างความเข้าใจผิดให้กับคนขับว่าไม่ต้องสนใจรถ ทุกวันนี้ระบบ Autopilot นั้นยังอยู่นับเป็นระบบอัตโนมัติระดับ 2 ที่คนขับต้องพร้อมควบคุมรถตลอดเวลา
เหตุการณ์ผู้ควบคุมรถขณะใช้ระบบอัตโนมัติจนเกิดอุบัติเหตุ และกลายเป็นคดีแก่คนขับนั้นเคยเกิดมาก่อนแล้ว คือ เหตุการณ์รถอัตโนมัติของ Uber ชนคนเดินเท้าจนเสียชีวิต แต่ระบบ Autopilot ของ Tesla นั้นมีการใช้งานเป็นวงกว้างกว่ามาก
ที่มา - The Guardian
Comments
จริงๆน่าจะมีนิยามของปรากฏการณ์ Autopilot effect นะ เพราะน่าสนใจทีเดียวว่าเกิดขึ้นได้อย่างไร
กล่าวคือ Autopilot ดั้งเดิมใช้กับเครื่องบิน ไม่มีใครเข้าใจผิดว่าเครื่องบินที่ใช้ระบบนี้จะขับเคลื่อนอัตโนมัติ ทุกคนเข้าใจตรงกันว่าเครื่องบินต้องการนักบินอยู่ และทุกคนเข้าใจตรงกันว่านักบินต้องมอนิเตอร์การบินตลอดเวลาตั้งแต่ต้นจนจบการเดินทาง
แต่พอ Tesla เอาไปใช้กับรถยนต์ ผู้คนกลับเข้าใจผิดคิดว่าเป็นระบบขับเคลื่อนอัตโนมัติ หรือเป็นระบบที่ไม่จำเป็นต้องมอนิเตอร์ตลอดการเดินทาง
Autopilot บนเครื่องบินนี่นักบินต้อง train, ต้องอ่านรายละเอียดวิธีใช้
และ traffic ของเครื่องบินก็น้อยกว่ารถยนต์มาก รวมถึงมี radar, มี alerts ช่วยเตือนภัยให้รีบแก้ไข
Autopilot ของ Tesla มี Hype เยอะมาก คนซื้อไปขับก็ไม่ต้อง train อะไร ยังสงสัยอยู่ว่าไม่มีระบบ autobrake แยกต่างหากจาก Autopilot ไว้คอย validate กันเองเหรอ
Auto Brake ถ้าใครดู Top Gear UK จะรู้ว่า ...
S Class ตอนเปิดตัว ให้สื่อขับลุยไปกลางควัน มองไม่เห็นข้างหน้า .. ชนเลยครับ ตูมม (ลืมเปิดระบบ)
Volvo ตอนเปิดตัว ให้สื่อดู ... ชนเลยครับ ตูมม ท้ายรถบรรทุก
Mazda ขับๆ อยู่จะพุ่งชนพุ่มไม้ มันเบรคให้ .. ก็ อ้าว งง ๆ อยุ่นิดนึง มีเบรค Auto นี่ สนุกเลย ลองชนนู่น ชนนี่ สุดท้ายก็ ตูมม อยู่ดี ไม่ work กับท้ายรถสีขาว ...
จะระบบอะไรก็แล้วแต่ .. ไม่มีอะไรปลอดภัย 100 % นะครับ
เคส Top gear นี่แอบสงสัยหน่อยนึงนะครับ เพราะยุคสามหนุ่มนั่นดูจะแอนตี้เรื่องพวกนี้พอตัวอยู่ แต่เรื่องประสิทธิภาพนี่ผมไม่ค่อยเกี่ยงนะ ยังต้องพัฒนาอีกเยอะ
บล็อกส่วนตัวที่อัพเดตตามอารมณ์และความขยัน :P
จริง ๆ Autopilot ในเครื่องบินคนทั่วไปเข้าใจว่ามัน auto นะครับ
เวลาหลับใน ก็ชอบแซวกันว่า Autopilot มานานแล้ว
แต่ก่อนหน้านี้มันไกลตัว เพราะไม่ใช่ใครก็สามารถไปขับเครื่องบินได้
แต่ทีนี้พอมาอยู่ในรถยนต์ มันสภาพนี้แหละ
ถ้ายิ่งรถราคาถูกเข้าถึง Autopilot นะ
บอกเลยว่า หนักกว่านี้เยอะมากกกกก
ผมว่าเครื่องบินมันต่างจากรถมากอยู่นะ
สมมติว่าระบบตรวจจับอะไรที่ผิดปกติได้
แจ้งเตือนนักบินมีเวลาหลายนาทีให้นักบิน
ยกเลิกระบบแล้วไปควบคุมเองแต่บนถนน
อุบัติเหตุมันแค่เสี้ยววินาทีไม่ทันได้ยินเสียงเตือนก็ชนแล้ว
ส่วนตัวมองว่า full-autopilot ไม่สามารถเกิดขึ้นได้จริงเลย ถ้าไม่มีมาตรฐานกลาง
รถแต่ละคันต้องแบ่งปันข้อมูล สื่อสารถึงกันได้ว่าชั้นกำลังจะทำอะไร รวมถึงพวกระบบสัญญาณไปแดงด้วย
แล้วแทบจะต้องเป็นรถส่วนใหญ่บนถนนเลย
แต่มนุษย์ก็ขับรถกันได้โดยไม่ต้องสื่อสารช่องทางเฉพาะนะครับ
lewcpe.com, @wasonliw
จากสถิติบนเว็ป ThaiRSC ปี 64 มีคนเสียชีวิตจากอุบัติเหตุทางถนน 13,500รายโดยประมาณเลยนะครับ
ดูจากการใช้งานบนถนนประเทศเรา น่าจะยังมีแต่มนุษย์ขับนะครับ
FSD ก็อาจจะไม่ได้ปลอดภัย 100% แต่ถ้าตามสถิติ ปลอดภัยกว่าคนขับเอง ก็น่าจะเกิดได้นะครับ
เพราะมนุษย์ขับ ก็ยังเกิดอุบัติเหตุ ก็เห็นว่าไม่ได้เลิกให้ขับรถกัน
ครับ การสื่อสารระหว่างรถเลยไม่น่าจะเป็นเงื่อนไขที่จำเป็นสำหรับรถไร้คนขับ เราน่าจะพัฒนาให้มันปลอดภัย ได้ด้วยเซ็นเซอร์แยกรายคันเหมือนทุกวันนี้
lewcpe.com, @wasonliw
จริงๆ ถ้าเป็น two-way communication ได้ก็จะดีขึ้นครับ
อย่างเครื่องบินที่จะป้องกันการชนกันเอง สุดท้ายก็เป็นระบบที่เป็น 2-way comm คุยกันเองระหว่างเครื่องว่าลำไหนจะไต่ หรือ ลดระดับครับ
สุดท้ายพัฒนาถึงขั้น autopilot สามารถบินตามที่ระบบนี้คุยกันได้อีกครับ จากเดิมที่นักบินจะต้องปลด autopilot แล้วบินตามคำสั่งจากที่เครื่องคุยกันเอง
มันก็สองทางอยู่แล้วนะครับ ดูความเร็วดูท่าทีดูสัญญาณไฟ
เอาจริงเครื่องบินเป็นการสื่อสารแบบ one way นะครับ ประกาศออกไปอย่างเดียว ฝั่งรับสัญญาณก็เอาไปคำนวณกับข้อมูลตัวเองแล้ว take action เอง ไม่ได้มีการส่งกลับไปบอกต้นทาง
ลองอ่านเรื่อง TCAS ดูนะครับ ยุคปัจจุบันมันเป็น coordinated manner ครับ
มนุษย์ใช้สัญญาณไฟหรือสัญญาณมือ (ใครรู้ว่าต้องทำท่าอะไรเพื่อบอกว่าจะทำอะไรนี่แก่แล้วนะ :)) ในการสื่อสารครับ
เห็นใจน้อง GE ผมบ้างครับ
สรุปคือผิดที่ Tesla ประชาสัมพันธ์ให้คนเข้าใจผิดสินะครับ?
ไม่ได้ผิดเพราะเป็นผู้พัฒนา Autopilot ที่ทำคนตาย
จะผิดตรงไหนมันก็ต้องดูให้ละเอียดลงไป
การ"ประชาสัมพันธ์" ก็แค่การเสนอข้อดีเพื่อการโฆษณา ในกรณีนี้ เราต้องไปดูกันที่ "คู่มือการใช้งาน" ด้วยครับ
การพัฒนาออกแบบระบบ AutoPilot ก็แค่การออกแบบ ซึ่งมันมีขอบเขตมีข้อกำหนดของการออกแบบอยู่แล้ว ไม่มีใครคนไหนออกแบบสิ่งใดให้มีความสามารถครอบจักรวาล หรือตั้งใจออกแบบให้มาฆ่าคนตายหรอก
เมื่อฟังค์ชั่นนั้นเป็นไปตามขอบเขตการออกแบบแล้ว มันต้องสะท้อนอยู่ใน "คู่มือการใช้งาน" ว่าการใช้งานมีขอบเขตแค่ไหน มันเหมือนเป็นสัญญาร่วมกันระหว่างผู้ขายกับผู้ซื้อ เพื่อเป็นหลักประกันให้ผู้ขาย ผู้ขับจะใช้งานตามแต่แค่ที่โฆษณาอย่างเดียวก็ไม่ถูก เช่น โทรศัพท์เราซื้อมา เค้าโฆษณาว่ามันชาร์ตเร็วได้ เราก็ชาร์ตตะบี้ตะบันไป แต่ในคู่มือการใช้งานเค้าเขียนไว้ว่า เมื่อชาร์ตด้วยอุปกรณ์ของยี่ห้อเค้าเท่านั้น เป็นแบบนี้ถ้าตอนชาร์ตมันระเบิด ผู้ขายก็อ้างได้ว่า มีการระบุในคู่มือเรียบร้อยแล้ว แต่เราละเลยเอง
ทีนี้ในกรณีนี้ ต้องถามว่า
คนขับ ขับตามที่ระบุในคู่มือการใช้งานของฟังค์ชันนี้ไหม ถ้าขับตามนั้น บริษัทผิด แต่ถ้าไม่ขับตามนั้น บริษัทรอด จะบอกว่าขับตามที่ประชาสัมพันธ์ แต่ถ้าการประชาสัมพันธ์ไม่ขัดกับข้อกำหนดการใช้งาน (วิธีนี้ก็ง่ายๆ เวลาโฆษณา ส่วนที่เป็นข้อดีทำตัวหนังสือโตๆ แล้วดอกจันข้อกำหนดเงื่อนไข เล็กๆไว้ตรงมุม) เท่านี้บริษัทก็รอด
พวกนี้มันไม่ใช่แค่ใครคนหนึ่งผิดน่ะครับ รายงานอุบัติเหตุของ NTSB แต่ละครั้งก็บอกต้นตอหลายอย่าง (เช่นตัว bumper ยุบเพราะการชนครั้งก่อนหน้าแล้วไม่ได้ซ่อม ก็ทำให้มีอุบัติเหตุ Autopilot จนมีคนเสียชีวิต)
แต่ถ้าคนมีแนวโน้มใช้ Autopilot แบบไม่สนใจควบคุม (mind-off) กันเยอะๆ เข้าก็ต้องตั้งคำถามว่า Tesla ย้ำเพียงพอไหม หรือแม้แต่ควรปล่อยฟีเจอร์ในภาวะที่ไม่พร้อมให้คนชินกับการไม่ต้องควบคุมโดยไม่รู้ว่ารถจะตัดสินใจผิดเมื่อไหร่แบบนี้ไหม
lewcpe.com, @wasonliw
Autopilot มีวัตถุประสงค์ไว้ทำอะไรกันแน่
ผมเดาว่า คงเชื่อกันว่ามนุษย์เป็นปัจจัยหลักที่ทำให้เกิดอุบัติเหตุมั้งครับ
ไม่แปลกใจที่คนขับจะโดน เพราะต่อให้คนขับไม่ได้ควบคุมรถโดยตรงแต่ก็เป็นผู้ควบคุมยานพาหนะด้วย แถมถ้าเป็นเรื่องงี้ในไทยโดน 437 assume ว่าเป็นฝ่ายผิดไปซะก่อนอีก งานหยาบแหง
บล็อกส่วนตัวที่อัพเดตตามอารมณ์และความขยัน :P
เอา AI มาเรียนรู้การจราจรที่ กทม ซิ มีทั้งรถย้อนศร, รถออกจากซอยไม่หยุดมองขวา, เปลี่ยนเลนไม่เปิดไฟเลี้ยว, รถเมล์ปาดสามเลน, ฝ่าไฟแดง
โลกเรามีสิ่งที่เรียกว่า "กฎแห่งฟิสิกส์" อยู่นะครับ :)
ข่าวพูดเหมือน เยอะมากเลยคนตาย auto pilot
ลองถ้าเทียบกับคนที่ขับอยู่ทุกๆวันนี้ เอาแค่บ้านเรา วันหนึ่ง 1 ศพต้องมีบนถนน
แล้วเอาไปเทียลกับ ai จะเห็นความต่างชัดเจน
ต้องเทียบกับอัตราคนใช้รถประเภทเดียวกันครับ ไม่ใช่ข้ามไปเทียบกับรถที่มีคนขับ
เค้าก็ปฎิบัติกับคนขับเหมือนรถที่ไม่มี autopilot ไงครับ
ดู log ทีรถมีไหมนะ ไม่เห็นสิ่งกีดขวางหรือยังไงถึงบวกไปหมด