หลังมีข่าวอุบัติเหตุรถ Tesla ชนต้นไม้จนเกิดไฟไหม้ และมีผู้เสียชีวิตสองราย ซึ่งเจ้าหน้าที่ระบุว่าไม่มีคนนั่งอยู่ที่ตำแหน่งคนขับ มีการถกเถียงเรื่องนี้กันพอสมควรบนทวิตเตอร์ โดยผู้ใช้ Ahmad A Dalhat ตั้งข้อสงสัยในทวิตข่าวนี้ของ The Wall Street Journal ว่าระบบ Autopilot จะมีระบบป้องกันที่คนขับต้องนั่งอยู่บนเบาะ และจับพวงมาลัยทุกๆ 10 วิ ไม่งั้นระบบจะปิดตัวเอง ทำให้ไม่น่าจะเป็นสาเหตุของอุบัติเหตุนี้ได้
หลังจากนั้นไม่นาน Elon Musk ก็ตามมาตอบทวิตนี้ด้วยตนเอง พร้อมจิกกัด WSJ เล็กน้อยว่าไม่ทำการบ้าน รวมถึงบอกว่าจากบันทึกข้อมูลของรถที่ Tesla เก็บได้ ตัวรถไม่ได้ทำงานอยู่ในระบบ Autopilot ตอนเกิดอุบัติเหตุ และผู้ใช้รถรายนี้ ไม่ได้ซื้อแพ็คเกจ Full Self-Driving (ที่ต้องซื้อเพิ่มในราคาราว 10,000 ดอลลาร์) รวมถึงบอกว่าระบบ Autopilot แบบสแตนดาร์ด (ไม่ใช่ FSD) จะใช้งานได้บนถนนที่มีเส้นแบ่งเลนเท่านั้น ซึ่งถนนที่เกิดอุบัติเหตุนี้ไม่มี
จากทวิตนี้ ดูเหมือน Elon Musk จะระบุกลายๆ ว่าอุบัติเหตุครั้งนี้อาจเกิดจากความผิดพลาดของผู้ใช้มากกว่าความผิดพลาดของระบบ Autopilot อย่างไรก็ตาม การเกิดไฟไหม้จากแบตเตอรี่ ก็ยังเป็นอีกปัจจัยสำคัญที่เพิ่มความเสี่ยงจากอุบัติเหตุของรถยนต์ที่ใช้ไฟฟ้าอยู่ ซึ่งคงต้องปรับปรุงและแก้ไขต่อไป
ที่มา - Elon Musk via Engadget
Your research as a private individual is better than professionals @WSJ! Data logs recovered so far show Autopilot was not enabled & this car did not purchase FSD.Moreover, standard Autopilot would require lane lines to turn on, which this street did not have.
— Elon Musk (@elonmusk) April 19, 2021
Comments
ถ้าไม่มีคนนั่งฝั่งขับรถ แล้วรถจะมันวิ่งออกตัวจนไปแหกโค้งได้ไงล่ะ?
ส่วนพวกขับแบบนี้ก็อันตรายจริงๆ
https://youtu.be/jdPIdNS2LUk
ยังไม่รู้ครับ ต้องรอข้อมูลจากกล่องดำเพิ่มเติม ที่เดาๆกันเช่นอาจจะชนแรงแล้วคนขับกระเด็นไปอยู่เบาะหลังเพราะไม่ได้คาดเข็มขัด หรืออาจจะมีคนที่สามที่หนีจากที่เกิดเหตุ ตัวพยานที่เป็นน้อง/พี่เขย ก็บอกว่าคนขับ "อาจจะ" ขับรถออกไปแล้วปีนไปเบาะหลัง
+1 ผมคิดว่าน่าจะมีอะไรนอกเหนือจากข่าวที่แล้ว
ไม่น่าใช่ Autopilot ทำนะผมว่า
ข่าวนี้ สัมภาษณ์หัวหน้านักดับเพลิง บอกว่าไม่ได้ใช้เวลา 4 ชั่วโมงในการดับเพลิงอย่างที่ข่าวบอก แต่ใช้แค 2-3 นาทีในการดับเพลิง ส่วนที่เหลือคือแค่ฉีดน้ำคุมไว้ไม่ให้ไฟลุกกลับมาใหม่เท่านั้น
https://www.houstonchronicle.com/neighborhood/woodlands/article/Woodlands-fire-chief-says-Tesla-fire-example-of-16113029.php
อย่างที่บอกครับ รอข้อมูลจริงๆดีกว่า ตอนนี้นักข่าวสนแค่ "TESLA" "DRIVERLESS CRASH" "4 HOURS FIRE" 555555555555
Hack ระบบเปิดเองหรือเปล่า ?
Rooted tesla !!!
"Those who make peaceful revolution impossible will make violent revolution inevitable." JFK.
สงสัยเหมือนกัน
ผมว่ามันต้องมีอะไรสักอย่างแหละรูปการณ์มันแปลกๆ
The Dream hacker..
ส่งเด็กแว่นไปไขปริศนาดิ๊
อย่าเลยครับตัวซวย ไปที่ไหนมีคนตายที่นั่น
ทีมกฏหมาย คงต้องหาทางทำให้บริษัทไม่ต้องรับผิดชอบให้ได้นี่ละ
ส่วนบริษัทอื่นมีระบบอัตโนมัติแต่ไม่กล้าเปิดขายในอเมริกาก็เพราะกลัวโดนฟ้องนี่ละ
อีกข่าวเรื่องเบรก
https://www.facebook.com/112483977174079/posts/279483963807412/
ชักเริ่มไม่น่าไว้ใจรถเจ้านี้มากขึ้นเรื่อย ๆ ละครับ
ถ้าแค่นี้ ไม่มี context บอกว่าเคยเกิดอะไรขึ้น มีปัญหาตรงไหนยังไงก็บอกอะไรไม่ได้ครับ อย่างน้อยที่ผมรู้มาคือ brake จะ override ทุกอย่าง รวมถึงมีพลังเบรกมากพอให้เบรกเครื่องยนต์ที่ทำงานเต็มที่ได้ด้วย
ที่ผมรู้สึกไม่ไว้ใจ
เพราะสงสัยว่า รถยนต์ไฟฟ้าอาจเน้นพึ่ง generator มากเกินไป และ/หรือ
การใช้เบรกในรถ ฯ อาจไม่ได้ทำงานเร็วมากพอ
เนื่องจาก Software ของรถ ฯ จะสั่งให้ใช้ generator ลดความเร็วชะลอความเร็วก่อนก็ได้
แล้วจึงอาจจะสั่งให้เบรกทำงาน
ความรวดเร็วและความแม่นยำในการตัดสินใจของ Software พิสูจน์ได้อย่างไร?
บันทึกของรถยังไงให้พิสูจน์โปร่งใส?
ไม่เหมือนรถเครื่องยนต์ที่เบรกจะ Override ในทันทีที่เหยียบเบรกไปครับ
ความคิดส่วนตัวผมคิดว่ายังคงต้องรอดูไปก่อนเรื่อย ๆ ครับ
มีด็อกเตอร์ไทยคนนึงบอกว่า ซอฟท์แวร์ที่ดี มันมีข้อผิดพลาดได้ ส่วนซอฟท์แวร์ที่ไม่มีข้อผิดพลาดเลย คือ ซอฟท์แวร์ที่ไม่ทำอะไรซักอย่าง ใช่แมะ?
ไม่อยากรับผิดชอบ ?
ถ้าไฟจะไหม้รถ มันก็ไหม้ได้ทั้งนั้นจะใช้ไฟฟ้าหรือใช้น้ำมันหรือแก๊ส