ไล่เลี่ยกันกับข่าวการขอลาพักงานของรองประธานอาวุโสฝ่ายวิศวกรรมของ Tesla ซึ่งก็มีบางคนมองว่าอาจเป็นผลจากความไม่ลงรอยกับนายใหญ่ Elon Musk เรื่องปัญหาการผลิตรถไม่ได้เร็วตามเป้าหมาย
ตอนนี้ Tesla ก็เสียเจ้าหน้าที่สำคัญไปในช่วงที่ชวนหัวหมุนอีกราย เมื่อ Matthew Schwall ผู้อำนวยการด้านวิศวกรรมประสิทธิภาพภาคสนามของ Tesla (director of field performance engineering) ขอลาออกจากบริษัทไปทำงานกับ Waymo
หน้าที่สำคัญประการหนึ่งของ Schwall คือการติดต่อประสานงานกับหน่วยงานรัฐที่ดูแลเรื่องความปลอดภัย เช่น NTSB (คณะกรรมการความปลอดภัยการคมนาคมแห่งชาติของสหรัฐฯ) และ NHTSA (สำนักงานด้านความปลอดภัยการจราจรทางหลวงแห่งชาติ) ซึ่งอาจเรียกได้ว่าช่วงนี้เป็นช่วงที่งานชุกไม่ใช่น้อย เพราะ Tesla มีข่าวเกี่ยวพันกับอุบัติเหตุหลายครั้งในช่วงไม่กี่เดือนมานี้
แหล่งข่าวไม่เปิดเผยชื่อระบุว่าการลาออกของ Schwall นี้ไม่ได้มีสาเหตุจากปัญหาเกี่ยวกับอุบัติเหตุของรถ Tesla แต่อย่างใด หากทว่าการตัดสินใจเปลี่ยนที่ทำงานของ Schwall ในตอนนี้ก็ถือได้ว่าไม่ค่อยจะเป็นเรื่องดีสำหรับ Tesla นัก เพราะอยู่ในช่วงที่หน่วยงานรัฐกำลังสืบสวนอุบัติเหตุที่เกี่ยวข้องกับรถของ Tesla อยู่หลายเหตุการณ์
ไล่มาตั้งแต่อุบัติเหตุเมื่อเดือนมีนาคมใน California เกิดเหตุรถ Tesla X ชนกำแพงจนส่งผลให้มีผู้เสียชีวิตในขณะเปิดใช้งานระบบ Autopilot ซึ่งก่อให้เกิดการตั้งคำถามกับความน่าเชื่อถือของระบบช่วยขับ Autopilot รวมทั้งการออกแบบระบบวงจรไฟฟ้าและแบตเตอรี่ ซึ่งจากเหตุการณ์นี้ไม่เพียงแต่จะมีเหตุเพลิงไหม้รถยนต์หลังการชน แต่เจ้าหน้าที่ดับเพลิงระบุว่าแบตเตอรี่ของ Tesla ได้เกิดลุกไหม้ซ้ำอีกหลายครั้ง แม้แต่ตอนที่ซากรถถูกนำไปกองไว้ที่ลานจัดเก็บ โดยลุกไหม้ซ้ำในวันเดียวกัน และอีกครั้งในอีก 6 วันให้หลัง ทั้งนี้ NTSB ได้เข้าสืบสวนอุบัติเหตุในครั้งนี้ แต่ก็เกิดไม่ลงรอยกับ Tesla จนทำให้ฝ่ายหลังขอถอนตัวออกจาการร่วมสืบสวนอุบัติเหตุ
ต่อมาเมื่อวันอังคารที่แล้วใน Florida เกิดอุบัติเหตุรถ Tesla S วิ่งด้วยความเร็วจนวิ่งชนขอบทางและเกิดเพลิงลุกไหม้ เป็นเหตุให้คนขับและผู้โดยสารที่นั่งเบาะหน้าเสียชีวิตในที่เกิดเหตุ 2 ราย ส่วนผู้โดยสารอีกรายที่นั่งเบาะหลังกระเด็นออกจากตัวรถในขณะเกิดการชน โดยงานนี้มีทั้ง NTSB และ NHTSA ต่างก็เข้าสืบสวนหาสาเหตุของการเกิดอุบัติเหตุในครั้งนี้ โดยในเบื้องต้นทาง NTSB เผยว่าระบบ Autopilot ไม่น่าจะถูกเปิดใช้งานในตอนเกิดอุบัติเหตุ
ส่วนอุบัติเหตุรถ Tesla ล่าสุดเมื่อวันศุกร์ที่ผ่านมาใน Utah มีคนขับรถ Tesla S ชนท้ายรถดับเพลิงที่กำลังจอดติดไฟแดง การชนจะเกิดขึ้นในขณะที่รถวิ่งด้วยความเร็ว 97 กิโลเมตรต่อชั่วโมง โดยพยานที่เห็นเหตุการณ์ยืนยันว่าไม่มีการเบรก เคราะห์ดีที่ไม่มีผู้เสียชีวิตจากเหตุการณ์ โดยในขณะนี้ยังไม่มีการสรุปสาเหตุของการเกิดอุบัติเหตุ ยังไม่มีการระบุว่าระบบ Autopilot ของรถถูกเปิดใช้งานในขณะเกิดเหตุหรือไม่ ทราบเพียงแค่ว่าการตรวจร่างกายของคนขับนั้นไม่พบการใช้ยาหรือดื่มเครื่องดื่มมึนเมา ทั้งนี้ทาง NTSB ยังไม่ได้เข้าร่วมสืบสวนอุบัติเหตุในครั้งนี้
การขาดหายไปของ Schwall ในช่วงเวลานี้จึงน่าจะสร้างปัญหาให้กับคนที่มารับช่วงต่อจากเขาไม่น้อย เพราะจะต้องทำหน้าที่ประสานงานกับหน่วยงานรัฐ โดยจะต้องอาศัยข้อมูลความรู้ทางด้านงานวิศวกรรมการออกแบบของรถเข้ามาช่วยสนับสนุนการทำงานเป็นอย่างมาก
ทางด้านตัว Schwall ได้ย้ายไปเริ่มทำงานกับ Waymo ตั้งแต่วันจันทร์ที่แล้ว (ก่อนอุบัติเหตุที่ Florida และ Utah) โดยทำหน้าที่หลักเน้นไปที่ความปลอดภัยของระบบรถยนต์ไร้คนขับที่ Waymo พัฒนาขึ้น
ที่มา - Engadget, Wall Street Journal, Fox News
Comments
เคส Tesla X ที่ไปชนกำแพง เห็นมีคนเอา Tesla เปิด autopilot ไปวิ่งทดสอบตรงที่เกิดเหตุหลังเกิดเหตุการณ์ ก็พบว่ามันออกอาการเบี่ยงเข้ากำแพงแบบกรณีที่เกิดเหตุเลยจริงๆ ซึ่งไม่ใช่เหตุผลซับซ้อนอะไร แต่ก็เพราะมันเป็นที่เส้นจราจรไม่ชัดเจน ซึ่งความจริงต้องเป็นแถบเกาะสี (เขตปลอดภัย) เพราะมันไม่ใช่เลนวิ่ง แต่แทบไม่เห็นแถบแต่กลับดูเหมือนเป็นอีกเลนนึง ตัวรถเลยเข้าใจว่าเป็นอีกเลนเลยวิ่งไปแล้วก็ชนกำแพงกั้นเลน เหมือนสอดคล้องกับที่ผู้ประสบเหตุเคยเล่าว่ารถก็เคยเบี่ยงตัวเองตรงนี้มาแล้ว
ถ้าพอสรุปคร่าวๆ ความผิดก็ต้องโทษไปที่หน่วยงานรับผิดชอบทางถนนด้วยที่ตีเส้นจราจรผิดพลาดจนทำให้ระบบ autopilot เข้าใจผิด น่าจะเป็นจำเลยที่ 1 เลย ส่วน Tesla อันนี้เค้าเคลมไว้แต่แรกแล้วว่าให้คนขับใส่ใจกับการขับโดยตลอด ก็คงต้องว่าไปในศาล แต่ที่แน่ๆ เป็นการบ้านให้ Tesla แล้วว่าถ้าเจอเส้นจราจรที่มันผิดพลาดจนพาไปชนกำแพงแบบนี้จะต้องปรับปรุงระบบยังไงให้ฉลาดขึ้น
วิเคราะห์ได้ดีมากเลยครับ ผมเพิ่งรู้สาเหตุที่แต่จริงจากท่านเลย
+1 ให้กับข้อ 3.
ผมให้ล้านนึงเลย ขับข้ามจังหวัดบ่อยๆ ปวดตับเป็นอย่างยิ่ง
เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!
เหลือบมองเส้นถนนบ้านเราแล้ว เดินส่ายหัวเบาๆจากไป
มันถึงเป็นเหตุผลว่าทำไมระบบขับขี่แบบไร้คนมันถึงยังไม่เหมาะสมไง จะมาคาดหวังให้โลกอยู่ในสถานะที่เป็นอุดมคติเพื่อที่จะให้คอมพิวเตอร์ทำงานง่ายๆเหมือนเขียนโปรแกรมรันอยู่ในระบบที่มี input ที่ไม่มี error ได้ยังไง
ประเด็นหลักเลยคือระบบของ Tesla ตั้งใจบอกว่าตัวเองเป็นแค่ระบบช่วยคนขับและจะลดอุบัติเหตุลงจากปกติครับ เทียบกับระบบคนขับเอง 100% อุบัติเหตุมันจะมากกว่านี้
แต่ก็นั่นแหละ พอมีระบบมาช่วยคนขับเองก็ผ่อนกันเกินไป
นั่นสิครับสู้ใช้คนขับก็ไม่ได้อุบัติห่งอุบัติเหตุอะไรไม่มี้ไม่มี....
อันนี้ผมไม่แน่ใจนะ ว่ามันมีหนังสือข้อตกลงอะไรสำหรับการใช้งานมั้ย เช่น รถจะทำงานได้สมบูรณ์ที่สุด ก็ต่อเมื่ออยู่ในสภาพแวดล้อมการจราจรเยี่ยงอุดมคติเท่านั้น
เส้นถนนต้องครบ สัญลักษณ์ทางจราจรต้องครบ สัญญาณจราจรไม่บกพร่อง ฯลฯ