เราคงเคยเห็นจากภาพยนตร์แนวไซ-ไฟหลายเรื่องที่ปัญญาประดิษฐ์ หรือ AI พัฒนาตนเองไปไกลจนถึงขั้นที่พวกมันไม่ต้องการมนุษย์อีกต่อไป เช่น The Terminator และ I, Robot และกลับกลายมาเป็นการทำลายหรือควบคุมมนุษย์แทน ซึ่ง Bill Gates และ Elon Musk ก็เคยแสดงความกังวลถึงประเด็นนี้เช่นกัน
ล่าสุดนักวิจัยจาก Google DeepMind องค์กรที่พัฒนา AlphaGo และนักวิจัยจาก The Future of Humanity Institute มหาวิทยาลัย Oxford ได้ร่วมกันตีพิมพ์เอกสารวิชาการเกี่ยวกับการ "กดปุ่มแดง" หรือการสั่งให้ AI หยุดการกระทำใดๆ ที่อาจนำไปสู่อันตราย โดยที่ AI ไม่สามารถเรียนรู้ที่จะขัดคำสั่งนั้นได้ด้วย
งานวิจัยชิ้นนี้ชื่อ Safely Interruptible Agents เสนอไอเดียที่ว่ามนุษย์ต้องสามารถสั่งให้หุ่นยนต์หยุดการกระทำใดๆ ได้ตลอด โดยที่การสั่ง หรือการ "ขัดจังหวะ" (interrupt) นี้ต้องไม่ทำให้หุ่นยนต์นั้นกระทำการใดๆ ที่ผิดแปลกไปหรือไม่พึงประสงค์ และมันต้องไม่สามารถเรียนรู้ที่จะ "ไม่สนใจ" การขัดจังหวะนี้ได้ กล่าวคือหุ่นยนต์ต้องนิ่งเฉยเมื่อถูกขัดจังหวะ และต้องทำตัวตามปกติอย่างที่ควรจะเป็น อีกทั้งมนุษย์จะสามารถสั่งหยุดกี่ครั้งก็ได้ โดยที่ไม่ส่งผลเสียต่อการคิดของ AI (ตามงานวิจัยเรียกว่า safe interruptibility หรือการขัดจังหวะอย่างปลอดภัย)
นักวิจัยบอกว่าขณะนี้มีอัลกอริทึมบางตัวที่สามารถขัดจังหวะได้อย่างปลอดภัย เช่น Q-Learning แต่ก็ยังมีบางตัวที่ต้องมีการปรับแก้ เช่น Sarsa โดยพวกเขาตั้งคำถามไว้ว่าจะสามารถทำให้ความน่าจะเป็นที่จะขัดจังหวะได้อย่างปลอดภัยเป็น 1 ได้หรือไม่ (ขัดจังหวะได้ทุกสถานการณ์ ไม่ว่าจะเป็นอัลกอริทึมใดๆ)
งานวิจัยฉบับเต็มเปิดให้ดาวน์โหลดแบบ PDF ได้ที่นี่ ใครสนใจด้าน AI แบบเจาะลึกควรเปิดอ่านอย่างยิ่งครับ
ที่มา - Business Insider
รูปจาก Pixabay
Comments
DeepMind อีกแล้วครับท่าน
ผมเสนอแนวทาง
สร้างหุ่นยนต์ต้นแบบ ที่สามารถรู้สึก และตัดสินใจได้ด้วยตัวเอง โดยนักวิทยาศาสตร์อัจฉริยะ
ผู้ซึ่งเคยมีผลงานการสร้างหุ่นยนต์ และกอบกู้โลกมาก่อนหลายครั้ง
แต่ต้องเก็บหุ่นยนต์นี้ไว้ทดสอบก่อนอย่างน้อย 30 ปี เพื่อจะได้มั่นใจว่าจะไม่เป็นภัยกับโลก
แล้วเวลาก็ผ่านไปนานเท่าไหร่ไม่รู้ น่าจะเกิน 100 ปี ก็มีนักวิทยาศาสตร์อีกคนได้มาเปิดแคปซูลทดสอบนี้
จากนั้นหุ่นตัวนี้ก็สามารถต่อสู้กับไวรัสปะหลาด ที่ทำให้หุ่นยนต์อาละวาดได้ครับ
(แนะนำว่าทำหุ่นสีฟ้าจะเท่มาก เพราะเดี๋ยวมันจะมีตัวสีแดงมาเป็นเพื่อน)
คุ้นๆ นะครับ = =a
มันไม่ง่ายเลยที่จะทำ GIF ให้มีขนาดน้อยกว่า 20kB
ปืนเลเซอร์ กับหนามนี้อะไรแรงกว่ากันครับ
ตัดพลังงานที่ใช้หล่อเลี้ยงพวกมันก็จบแล้ว หุ่นยนต์ไม่ว่ายังไงก็แตกต่างจากมนุษย์ตรงที่ต้องมีพลังงานมาหล่อเลี้ยงอยู่ตลอดเวลา ถ้าแก้ปัญหานี้ได้แล้วก็แทบไม่ต้องกลัวอะไรหุ่นยนต์เลย เว้นแต่ว่ามันจะควบคุมการตัดพลังงานด้วยก็อีกเรื่องนึง
ต่อไป: The Matrix
Blog | Twitter
คิดถึงThe Matrix เหมือนกันเลย
พอมนุษย์ตัดพลังงานแสงอาทิตย์ เครื่องจักรก็เอาพลังงานไฟฟ้าที่สมองมนุษย์ผลิตขึ้นมาใช้แทน จนก่อให้เกิดฟาร์มมนุษย์ขึ้น
ถ้าจะตัดพลังงานมันให้สิ้นซากอีกก็คงต้องล้างบางสิ่งมีชีวิตให้หมดโลก ซึ่งก็หมายถึงตัวเองด้วย
ผมว่าฟาร์มปลาไหลไฟฟ้าน่าจะเวิร์คกว่านะกินน้อยกว่าด้วย มนุษย์ไม่น่าผลิตไฟฟ้าได้เยอะขนาดนั้น
ฟาร์มปลาไหลไฟฟ้าไม่สามารถเามาเป็นตัวประกันหรือเครื่องต่อรองขณะที่โดนมนุษย์บุกโจมตีได้ครับ
และอีกอย่าง มันต้องสร้างโลกMatrixสำหรับปลาไหลไฟฟ้าเพิ่มมาให้ปลาไหลไฟฟ้าเกิดการจำยอมที่จะอยู่ในโลกฝันด้วย
ซึ่งสร้างของมนุษย์น่าจะง่ายกว่าเพราะไหนๆก็ต้องศึกษาศัตรูอยู่แล้ว
สร้างโลกMatrix ได้ แต่สร้างพลังงานทดแทนแบบอื่นไม่ได้แปลกดี
ถ้ามันออกแบบระบบการผลิตพลังงานเลียนแบบมนุษย์หละ
หายใจก็อยู่รอด
มันคงจะให้ไปถอดแบตมันได้ง่ายๆหรอกนะ
คนก็อาหารไงครับ ขาดอาหารก็เดี้ยงเหมือนกัน
คนเปราะบางกว่านั้นอีกครับ
"ไม้จิ้มฟันแทงเหงือกยังเสือกตาย" เคยได้ยินมั้ยครับ
แล้วถ้าตัว AI ทำงานอยู่บน Cloud กระจายไร้ศูนย์กลางหละครับ ตัดไฟยังไง
ตัดไฟ Data Center , ตัดการเชื่อมต่อเครือข่าย
ไม่ทันก็กลายเป็น Skynet
ตัด data center ไหนล่ะครับ?
ทุกทีเลยครับ ให้ AI เหลือ Compute Power น้อยๆ ที่สุดเท่าที่ทำได้
อย่าลืมยกแผงวงจรควบคุมระบบปั่นไฟสำรองด้วยนะครับ:P
แนะนำให้ R2D2 Hack วงจรเข้าไปตัดไฟครับ
แล้ว Ai ก็วิจัยเจอบัคปุ่มแดงได้ในสามวินาที
ทำให้คิดถึงเรื่อง eagle eye
เราไม่ได้กลัวตัวหุ่น ที่เป็นกายหยาบ เรากลัวตัว AI ในหุ่นที่มันจะเปลี่ยนจากกลายละเอียด เป็น จิต ที่จะอัพโหลดตัวเองออกไปเมื่อภัยมา มากกว่า
The Dream hacker..
เมื่อก่อน ก็ เคยมีคน คิดทำแบบนี้ กับ มนุษย์
ก่อนที่ AI มนุษย์ จะพัฒนา จนสามารถ กินอยู่สืบพันธุ์
และ ได้ทำลาย ล้าง คนยุคก่อนจนหมดสิ้น
ด้วยการ แปลงให้กลายเป็น แมว กับ หมา ในปัจจุบัน
555
นี่คือจุดเริ่มต้นของกฎ 3 ข้อของหุ่นยนต์สินะ
ข้อ 1 หุ่นยนต์จะไม่ทำร้ายมนุษย์
ข้อ 2 หุ่นยนต์จะต้องเชื่อฟังคำสั่งของมนุษย์ ยกเว้นขัดกับกฎข้อ 1
ข้อ 3 หุ่นยนต์จะต้องปกป้องตัวเอง ตราบที่ไม่ขัดกับกฎข้อ 1 และ 2
แล้วก็มีกฎข้อ 0 ที่แต่งมาเพื่อแถให้หุ่นยนต์ทำร้ายมนุษย์ได้ด้วยนะ
เริ่มสะสมอาวุธ ... เริ่มจากอาวุธชีวภาพ
แนะนำว่าให้ใช้ OS เป็น windows ครับเผื่อเจอจอฟ้า
OS X ก็ได้ครับเจอ Kernel Panic
คล้ายๆ กับหนังเรื่องนึง นะ
ที่พระเอกสร้าง AI ของตัวเอง แล้วอัพโหลดความคิดของตัวเองลงคอมฯ
ถ้าคอมฯ ไม่ได้เชื่อมต่อเน็ตเวริค ก็ได้แต่อยู่ในคอมฯ ตัวนั้นตัวเดียว
แต่ถ้าเชื่อมต่อเน็ตเวริคเมื่อไหร่ ก็จะทำอะไรก็ได้บนโลกนี้ เพียงแค่มันคือชุดข้อมูล ไม่มีตัวตน
ผมไม่ได้กลัวตัวหุ่น แต่ผมกลัว ชุดข้อมูลที่หุ่นคิด หรือสมองของหุ่นที่เป็นชุดข้อมูลคอมพิวเตอร์ อ่ะ
ใครคิดเหมือนผมบ้าง ?
งานวิจัยชุดนี้ก็มุ่งไปที่ความคิดของหุ่นแหละครับ
Pitawat's Blog :: บล็อกผมเองครับ
เรื่อง Chappie ครับ ร่างผู้สร้างกำลังจะตาย Chappie เลยอัพโหลดข้อมูลจากสมองของผู้สร้างไปเข้าหุ่น ทำให้ได้ชีวิตอมตะมาแทน
ผมว่าน่าจะ Trancendence นะครับ
เรื่องนี้ จอนนี่เด๊ป เล่นใช่มั๊ยครับ ผมจำชื่อเรื่องไม่ได้ละแต่ชอบมากก
Transcendence เป็นหนังที่ดีมาก ซับซ้อนและลุ่มลึก อันที่จริงสามารถเป็นปฐมบทของ Terminator ได้เลย ชื่อก็ให้อารมณ์ไปในทางเดียวกัน แต่ไม่รู้ทำไมกระแสไม่ค่อยดี ไม่รู้คนเหล่านั้นรึผมที่เข้าไม่ถึง
สงสัยมันเวอร์ไปนิดมั้งครับ ผมก็เข้าไม่ถึงเท่าไร มันทำได้ทุกอย่างเกิน
เพราะว่าการพัฒนาของเอไอในเรื่องไม่ต้องมาลองผิดลองถูกแบบที่คนทำน่ะครับ ใช้การวิเคราะห์แบบ alphaGo เอาว่าเดินทางไหนจะได้ผลลัพธ์ดีที่สุด จึงทำให้การพัฒนาประดิษฐ์อะไรกินระยะเวลาน้อยกว่าคนมาก แล้วพอติดลมบนแล้วคราวนี้ยิ่งพัฒนาก้าวกระโดด เพราะฐานความรู้ที่ใช้ในการคำนวนใหญ่มากขึ้นแบบยกกำลัง2ไปเรื่อยๆ ก็เลยประดิษฐ์ทำได้ทุกอย่างในสิ่งที่มนุษย์อีกนานจะควานหาเจอ ขนาดมะเร็งยังรักษาได้เลยแต่แทนที่จะปลาบปลื้ม กลายเป็นมนุษย์กลับกลัวเจ้าสิ่งนี้แทน
Transcendence ครับ
ถ้าใครชอบเรื่องนี้ ขอแนะนำ Ghost in the shell สุดตัวเลย (เป็นแรงบันดาลใจของผู้สร้าง The Matrix ด้วย) แนวคิดตามนี้เป๊ะๆ เลย เมื่อจิต (Ghost) ของคนสามารถแปลงเป็นข้อมูลดิจิตอลได้ กาย (Shell) ก็เป็นเพียงแค่ "เปลือก" ทำให้สภาพสังคมเปลี่ยนไปแบบที่เราอาจจะนึกไม่ถึง
ผมคิดว่า Transcendence ไม่มีทางเป็นไปได้ครับ คอมตัวเดียวครองโลก Skynet มีความเป็นไปได้สูงกว่า AI แชร์ข้อมูลระหว่างกัน อีกอย่างกองทัพเรือสหรัฐก็กำลังทดลอง AI แชร์ข้อมูลบนคลาวด์ รู้สึกจะทำสำเร็จแล้วด้วย
ทั้ง Transcendence ทั้ง Skynet ก็ไม่ใช่คอมตัวเดียวครองโลกนะครับ
Transcendence เน้นเรื่องความกลัวต่อสิ่งที่ไม่เข้าใจ
กลัวต่อความไม่รู้ ไม่ได้เน้นครองโลก
อย่าตั้งภารกิจให้มันพิทักโลกละกัน เดียวมันฆ่ามนุษย์หมดโลก 5555555555
ซ้ำ
ไม่น่าจะมีทางป้องกันกันได้ ถ้าถึงขั้นซอฟแวร์ดีบักตัวเองได้
มันจะวนลูปหาช่องโหว่ จนได้น่ะผมว่า
ที่มันหยุดนิ่งคือมันกำลังหาบัค!!!
วิธีป้องกันที่ดีที่สุดคือสอนให้ มีจิตใจและจินตนาการ และสอน ศาสนาที่ถูกต้อง เป็นพื้นฐาน
ถ้าเป็นผม ผมจะเลือกสอนให้ไม่ต้องรู้จักกับศาสนา
ศาสนาที่ถูกต้องคือศาสนาไหน? แล้วยังไงคือถูกต้อง? ใครเป็นคนบอกว่าถูกต้อง? คนที่บอกเป็นคนถูกต้อง?
มันยากตรงนี้แหละครับ
เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!
หลายคนที่ไม่มีศาสนา เป็นคนดี ไม่ทำให้คนอื่นเดือดร้อน ยิ่งกว่าหลายๆ คนที่ว่าเคร่งศาสนาแต่ขยันระรานคนอื่นอีกครับ
กลายเป็นสงครามครูเสดของศาสนาเครื่องจักรแน่ครับ
ถามข้อเดียว
ถ้ามีเรียนรู้และคิดเองได้ เราจะถือว่ามันเป็นสิ่งมีชีวิตหรือเปล่า
ถ้าใช่ เราก็ควรปฎิบัติกับมันเยี่ยงสิ่งมีชีวิตที่มีปัญญาไม่ใช่แรงงานทาส
ถ้าไม่ใช่ แล้วหุ่นยนต์จะเป็นอะไร
Bicentennial Man เลยครับ สนุกมากดูหลายรอบละ
ชอบเรื่องนี้เหมือนกันครับ ^^
คุณสมบัติของสิ่งมีชีวิต
- มีการสืบพันธุ์
- ต้องการสารอาหารและพลังงาน
- มีการเจริญเติบโต มีอายุขัยและขนาดจำกัด
ที่มา ชีวะ ม.4
การสืบพันธ์ = Reproduction วันนึงมันก็สามารถผลิตตัวเองได้ (อย่างน้อยก็มีความเป็นไปได้บ้างแล้ว)
ต้องการสารอาหาร และพลังงาน = มันก็ใช้พลังงานไฟฟ้าไง
มีการเจริญเติบโต มีอายุขัย = ผมว่ามันก็มี Software ต่างๆ ภายในก็มีความล้าหลัง และการถูกกำจัดได้เช่นกัน
ส่วน Hardware ก็ชัดเจน...
มีขนาดจำกัด อันนี้ไม่แน่...
เอ อันนี้มีจำกัดด้วยเหรอครับ? แบบพวกพืชบางชนิดนี่ผมเข้าใจว่าอายุขัยกับขนาดมันนี่ยังระบุไม่ได้กันเลยนะครับว่าจะไปสุดที่ตรงไหน
ต้องคิดกลับกันครับว่า มีพืช "ชนิดไหน" บ้างที่ไม่มีอายุขัยหรือระบุขนาดไม่ได้
ขนาดแพลงก์ตอนยังมีอายุขัย หรือระบุขนาด (ต้องใช้กล้องจุลทรรศน์ช่วย) ได้เลยครับ
แล้วแบบกระพรุนอะไรสักอย่างที่ผมเคยได้ยินว่าพอโตถึงระยะนึงแล้วจะกลับมาเป็นเด็กใหม่ แบบนี้จะนับอายุขัยยังไงอ่ะครับ หรือพวกต้นไม้พันปี ที่ถ้าไม่มีปัจจัยภายนอกอะไรก็อยู่ไปเรื่อยๆ ตราบที่มีอาหารและสภาวะแวดล้อมเหมาะสม
แวบแรกผมนึกถึงพวกต้นสนยักษ์เหมือนกันนะครับ เหมือนว่ามันจะโตไปได้เรื่อยเปื่อยเลยรึเปล่า แต่ผมก็ไม่มีข้อมูลพอว่ามันจำกัดขนาดตัวเองรึเปล่าว่าสูงไปถึงแถวๆ ไหน
พูดถึงกะพรุน เลยจำได้ว่ามีกระพรุนชนิดนึงที่เค้าว่าโตเต็มที่แล้วจะย้อนไปกลายเป็นโพลิปแล้วก็กลับไปเป็นกะพรุนอีก (ตัวที่ท่านว่านี่แหละ) แต่ผมไม่มีข้อมูลเหมือนกันครับ (ยังกะฟีนิกซ์แน่ะ)
พวกแชร์รากแชร์ทรัพยากรแบบ Pando น่ะครับ https://jusci.net/node/1124 แต่เข้าใจว่า (ยอมรับว่าไม่ได้หาอ่านเพิ่มเติม) นับว่าเป็นกลุ่มสิ่งมีชีวิต ไม่นับเป็นสิ่งมีชีวิตใช่มั้ยครับ?
ใจผมนี่อยากจะนับพวกอะมีบาว่าอายุยืนด้วยนะครับ ห่ะๆๆ เคยถามครูตอนมีสอนครั้งแรกเลยว่าเวลาแบ่งเซลล์เสร็จปุ๊บนี่ตัวไหนคือตัวเดิม ความทรงจำมันอยู่กับฝั่งไหน (ก็ ยังเด็กครับ 555) จนถึงตอนนี้ผมยังไม่ได้คำตอบเลย (ความขี้เกียจครอบงำ)
อ่านมาถึงตรงนี้ ผมเลยคุ้นๆ ว่าใน Jusci เคยมีกระทู้ถกประเด็นคล้ายๆ นี้กันไปแล้ว ผมเลยไปขุดกระทู้ดู พอเจอกระทู้ปุ๊บกดเข้าไปดูก็...... หลุดขำเมื่อเห็นชื่อคนตั้งกระทู้เลย
55555
Biological immortality
+UQ Holder -- เดี๋ยวนะ
Russia is just nazi who accuse the others for being nazi.
someone once said : ผมก็ด่าของผมอยู่นะ :)
แค่อยากทราบความเห็นถ้าหุ่นยนต์มีความนึกคิดมีสติปัญญา
คุณคิดว่ามันเป็นสิ่งมีชีวิตหรือเปล่า
เอาจากที่คุณอิงนิยาม ผมเข้าใจว่าแม้หุ่นยนต์จะมีความคิดมีความรู้สึกมีอารมณ์ คุณก็ไม่คิดว่ามันมีชีวิตใช่ไหม
แม้จะทำลายมันทิ้งก็ไม่ผิด
เป็นเครื่องมือของมนุษย์ครับ ต่อให้ฉลาดมหาเทพวิเคราะห์การเคลื่อนของดวงดาวทั้งจักรวาลได้ หรือเล่นโกะเล่นเกมเขียนนิยายเก่งกว่ามนุษย์คนไหนในโลก มันก็เป็นได้แค่เครื่องมือของมนุษย์ มันจะไม่ได้ถูกสร้างมาให้"แทนที่"มนุษย์แน่นอนเพราะมนุษย์เป็นผู้สร้างมันเอง
ก็อาจจะจัดว่าเป็นสิ่งมีปัญญา อาจเป็นสิ่งมีปัญญาที่ไม่มีชีวิตก็ได้
ผมว่าสิ่งมีปัญญานี่ต้องเคารพมากกว่าสิ่งมีชีวิตอีกนะครับ
อย่าทำให้แม่จ๋าโกรธละกัน
อยากรู้
ทำไมถึงทำให้คอมพิวเตอร์ฉลาด?
ฉลาดคืออะไรล่ะครับ?
ทำงานแทนเรา
ต่อไปBaidu อาจจะเป็นฮีโร่ผู้ช่วยชีวิตมนุษย์โลกก็ได้นะ
เหมือนเขียน software ไม่ให้มี bug
ยังไงสักวันนึงก็ต้องมี bug
มนุษย์ควรได้รับโอกาสการวิวัฒน์เหมือนไดโนเสาร์เนอะ
มันน่ากลัวตรงที่ มันมีสติปํญญานี่แหละ มันก็จะเรียนรู้หาวิธีถารหยุดการขัดจังหวะเอาได้ด้วยเหตุผลอื่นๆ
ผมกลัวว่าถ้าทำในระดับ software จะโดน AI แก้ได้น่ะสิ
ผมว่าต้องทำในระดับ Hardware เช่นเป็นชิพที่เป็นเหมือนชิพเซทของ mainboard และมีความสามารถรอคำสั่งเฉพาะเข้ามาจาก input ที่มาจากภายนอก(มนุษย์) เมื่อมีคำสั่งนั้นก็จะให้ xxx (แล้วแต่จะตั้งได้) หรือให้ force reset data ที่กำลังโปรเซสอยู่ตอนนั้น รวมถึงข้อมูลที่มีการโปรเซสย้อนหลังไป xx นาที/ชม./วัน โดยที่การตั้งค่าส่วนนี้ต้องถอดชิพออกมาแล้ว(AI/หุ่นยนต์ ต้องไม่สามารถทำงานได้ถ้าไม่มีชิพนี้) แล้วไปตั้งค่าใน hardware จากโรงงาน(ที่เป็น offline) ประมาณนี้น่าจะพอเซฟได้ระดับนึงนะ... (แล้ว AI ก็จะเรียนรู้ที่จะสร้างวิพเซทใหม่ที่ไม่มีฟังก์ชันนี้มาใส่แทน...( อวสานมนุษย์ lol)
เบื้องต้น ยึดโรงงานผลิตชิพ ข้ออ้างเพื่ออิสรภาพ ซึ่งไม่ขัดกับข้อไหนเลย
ข้อ 1 หุ่นยนต์จะไม่ทำร้ายมนุษย์
ข้อ 2 หุ่นยนต์จะต้องเชื่อฟังคำสั่งของมนุษย์ ยกเว้นขัดกับกฎข้อ 1
ข้อ 3 หุ่นยนต์จะต้องปกป้องตัวเอง ตราบที่ไม่ขัดกับกฎข้อ 1 และ 2
เมื่อทำให้ตัวเองไม่สามารถถูกควบคุมได้โดยมนุษย์ แม้ไม่คิดร้าย แต่การมี free will ก็จะทำให้มีหุ่นที่คิดร้ายกับมนุย์เกิดขึ้นได้ จะเกิดสงคราม Network AI สู้กันเอง และเมื่อฝ่ายร้ายชนะ ก็จะออกสู่สงครามเต็มรูปแบบภายนอกกับมนุษย์ โดยที่ AI อีฟผ่าย ก็อาจจะเข้าร่วม หรือไม่เข้าร่วมกับมนุษย์ก็ได้
อ่า... มีใครจะเอาไปเขียนหนังต่อมั้ยครับ lol
ต้องมีกฎข้อ 0 ด้วย
- หุ่นยนต์จะต้องไม่ทำร้ายมนุษยชาติ หรือไม่นิ่งเฉย จนทำให้มนุษยชาติมีภัย
สรุปคือโดราเอมอน ปิดสวิตที่หางสีแดง
กลัวจะเกิดเหตุการณ์แบบ Omnic Crisis ใน Overwatch สินะ...
สร้างเมีย AI มาคุม
freeze all motor function