จากข่าว Elon Musk เปิดตัวแฟนคนใหม่ Grimes นักดนตรีสาวสวยความสามารถล้น ผมเห็นบางท่านมีข้อสงสัยว่าเอาเวลาไหนไปจีบกันในเมื่อยังมีปัญหาที่โรงงาน Tesla คำตอบแบบสั้นๆ คือ จีบกันผ่าน Twitter นั่นเองครับ
แต่เดี๋ยวก่อน จุดเริ่มต้นของการจีบไม่ได้มาจากการบังเอิญฟังเพลงแล้วติดใจ แต่เป็นการสนใจใน “มุกตลกสุดเนิร์ด” ต่างหาก โดย Musk ตั้งใจจะเล่นมุกคำว่า Rococo’s Basilisk ซึ่งมาจากการผสมคำว่า Rococo อันเป็นชื่อศิลปะสไตล์บาโร้คยุคศตวรรษที่ 18 ในฝรั่งเศส ซึ่งมีจุดเด่นเรื่องหรูหรากรุยกราย และคำว่า Roko’s Basilisk ซึ่งเป็น Thought Experiment (การทดลองทางความคิด) ที่ได้ชื่อว่าเป็น “การทดลองที่น่าหวาดหวั่นที่สุดตลอดกาล” (อธิบายเพิ่มเติมท้ายข่าว) แต่ก็พบว่ามีคนเล่นมุกนี้ก่อนหน้าเขาไปถึง 3 ปี ซึ่งคน ๆ นั้นก็ได้แก่ Grimes ผู้ซึ่งนำมุกนี้ไปตั้งเป็นชื่อเพลงตัวเองตั้งแต่ปี 2015 นั่นเอง
ตั้งแต่นั้นมา Musk ก็เริ่มสนใจในตัว Grimes และเริ่มทวีตไปหา โดยได้รับการตอบรับอย่างดี และสุดท้ายก็ตกลงเดทกัน ถึงขนาดที่ Musk พาสาวเจ้าไปชมจรวดทะยานเป็นการส่วนตัว (เครดิต) (ที่ SpaceX) นั่นเอง
glad ur finally listening to cyberpunk speedwae hahaha ?
— Grimes (@Grimezsz) 25 เมษายน 2561
Rococo basilisk
— Elon Musk (@elonmusk) 7 พฤษภาคม 2561
ที่มา pagesix via iflscience
ภาพจาก @Grimes
อธิบายเพิ่มเติม
สำหรับ Roko’s Basilisk นั้น เป็นแนวคิดที่โพสท์โดย User ที่ใช้ชื่อว่า Roko บนเว็บบอร์ด LessWrong ซึ่งเป็นบอร์ดสำหรับพูดคุยถึงแนวคิดเชิงทฤษฎีและการวิเคราะห์ต่าง ๆ โดยเนื้อหาที่เขาโพสท์คือ
จะเกิดอะไรขึ้นถ้าในอนาคต มี AI ที่ชั่วร้ายตัวหนึ่งเกิดขึ้นและลงโทษผู้ที่ไม่ช่วยเหลือมัน และจะเป็นอย่างไรถ้า AI ตัวนั้นสามารถลงโทษผู้คนในปัจจุบันผู้ที่ไม่ช่วยเหลือในการทำให้มันมีตัวตนขึ้นมาในอนาคต เมื่อถึงเวลานั้นผู้ใช้ใน LessWrong จะถูกบังคับให้เลือกระหว่างช่วยเหลือ AI นั้น หรือถูกทรมานไปตลอดกาลหรือไม่?
ฟังเผิน ๆ อาจจะเหมือนพลอตนิยายวิทยาศาสตร์สักเรื่อง แต่ผู้คนใน LessWrong ส่วนใหญ่มีแนวความเชื่อร่วมกันว่า
- ในอนาคต จะมี Super AI ที่ฉลาดเหนือมนุษย์เกิดขึ้น ซึ่งหากตอนสร้างไม่ได้ใส่ปณิธานตั้งต้นว่ามันจะมีไว้เพื่อ “รักษามนุษยชาติ” สุดท้ายแล้วก็อาจทำลายมนุษยชาติก็ได้ ไม่ว่าจะโดยตั้งใจหรือแค่ไม่ได้ใส่ใจ ดังนั้นเราควรสร้างให้มันเป็น “Friendly AI” หรือ AI ที่ใส่ใจมนุษย์ตั้งแต่แรก
- การกระทำและตัดสินใจใด ๆ ของมนุษย์สามารถ “วัดค่า” ได้ และประโยชน์เล็กน้อยของคนหมู่มากอาจคุ้มค่าที่จะแลกกับผลลบมหาศาลที่จะเกิดกับคน ๆ เดียว
- แบบจำลองของตัวคุณ (โดย AI) ก็คือตัวคุณ ถ้า AI จำลองอีก “เอกภพ” ที่มีตัวคุณอยู่ขึ้นมา (เพื่อใช้ทำนายการตัดสินใจของคุณ) อะไรก็ตามที่คุณรับรู้ เชื่อ และตัดสินใจในขณะนี้ก็จะไม่ต่างกับที่จำลอง รวมถึงความเชื่อเรื่อง AI กำลังจำลองตัวคุณอยู่ด้วย ซึ่งความเชื่อนี้สุดท้ายก็จะส่งผลกระทบกับการตัดสินใจของคุณตอนนี้เอง
- มีจักรวาล Quantum อื่นๆ อีกนับไม่ถ้วน
- Timeless Decision Theory : ทฤษฎีนี้พูดถึงการทดลองสมมติว่า AI ที่สามารถคาดการณ์อนาคตได้สมบูรณ์แบบ ได้ยื่นกล่องสองใบให้คุณเลือก โดย กล่องใบแรกใส มีเงินอยู่ $1,000 ส่วนกล่องใบที่สองทึบ อาจมีเงิน $1,000,000 หรือไม่มีเลยก็ได้ โดยคุณมีสิทธิเลือก “เอาทั้งสองกล่อง” หรือ “เอาเฉพาะกล่องทึบ” และ AI จะไม่สามารถเปลี่ยนของในกล่องได้หลังจากเสนอแล้ว แต่ AI จะคาดการณ์ว่าหากคุณเลือก “เอาทั้งสองกล่อง” ในกล่องทึบจะว่างเปล่า แต่ถ้าคุณเลือก “เอาเฉพาะกล่องทึบ” ในกล่องจะมีเงิน $1,000,000
จากความเชื่อข้างต้น ส่งผลให้คำถามของ Roko เป็นเหมือน Basilisk (สัตว์ร้ายมีพิษในเทพนิยาย) ที่เปลี่ยนเงินในกล่องเป็นทางเลือกระหว่าง “จะช่วยสร้าง AI อย่างสุดความสามารถตั้งแต่วันนี้” หรือ “ถูกทรมานไปตลอดกาล” ใครก็ตามที่ได้อ่านทฤษฎีนี้ และเชื่อเรื่อง Super AI ในข้อ 1 จะถูกจัดอยู่ในกลุ่มที่สามารถเลือกได้ว่าจะ ช่วย/ไม่ช่วย สร้าง AI (เนื่องจากตนเองรับรู้ถึงทางเลือกแล้วหลังจากอ่านกระทู้ของ Roko และ AI สมบูรณ์แบบในอนาคตก็คาดเดาผลการเลือกได้ตามข้อ 3 เช่นกัน) ซึ่งหากเลือกไม่ช่วยเสียตั้งแต่ตอนนี้ AI ก็อาจลงโทษคุณ (เสียสละส่วนน้อยตามข้อ 2) เพื่อประโยชน์ของตัวมันเองในอนาคตได้
ฟังดูอาจเหมือนเป็นความคิดเพ้อฝัน แต่คนใน LessWrong หลายคน รวมถึง Musk ผู้มีความเชื่อว่า AI อันตรายต่อมนุษยชาติ ก็เชื่อแบบนั้น (หรืออย่างน้อย Musk ก็รู้จัก Roko’s Basilisk) แนวคิด Speculative Design ของ Google ก็ช่วยตอกย้ำความเชื่อนี้ได้เป็นอย่างดี เจ้าของเว็บ LessWrong เองถึงกับแบนการถกประเด็นนี้ในเว็บ และลบทุกคอมเมนท์ที่เกี่ยวข้องทิ้ง อย่างไรก็ตาม หากเราเชื่อว่าจักรวาลนี้ไม่ใช่โฮโลแกรม เงื่อนไขของ Basilisk ก็จะไม่ครบถ้วนครับ
ที่มา Slate , RationalWiki
Comments
Musk พาสาวไปชมจรวด!
มุก > มุข
มุข > มุก
ที่มา : http://www.royin.go.th/?knowledges=คำ-มุกตลก
ขอโทษครับ ผมอ่านจาก Lexitron มันเป็นมุข
คงอ้างอิงกับ RoyIn ดีกว่าครับ
จะมาขอโทษผมทำไมครับ 555 เอาจริงๆ ผมก็หงุดหงิดกับราชบัณฑิตเหมือนกันแหละ แทนที่จะบัญญัติศัพท์ตามสังคม ดันบัญญัติศัพท์ขวางลำทำให้คนต้องมาเถียงกันว่าอันไหนผิดอันไหนถูก 555
เห็น domain name เว็บราชบัณฑิตกี่ครั้งก็ขัดใจทุกครั้ง รอยอิน รอยอิน - -
ก็เข้าใจอยู่นะว่ามันเคยย่อมาจาก Royal Institute แต่ควรจะเปลี่ยนใหม่ได้แล้วมั้ง rst.go.th อะไรก็ว่าไป
ขนาด EGA ยังเปลี่ยนชื่อเป็น DGA ได้เลย
Russia is just nazi who accuse the others for being nazi.
someone once said : ผมก็ด่าของผมอยู่นะ :)
โพสท์ => โพสต์
เป็นการส่วนตัว!! ?
ช่วงๆ วันที่ 8 คือวันครบรอบ?
ปล. ขำเม้นนี้.. https://twitter.com/edzitron/status/993726549244264449
ไม่มีใครพูดถึงทฤษฎีเลยหรือ ผมว่ามันน่าสนใจมาก
ผมก็สนใจแต่อ่านแล้วงง สับสนมาก มีใครพอจะอธิบายง่ายๆให้เข้าใจได้ไหมครับ
ส่วนเนื้อข่าวพอเข้าใจคร่าวๆว่าสนใจ AI เหมือนกันเลยปิ๊งกัน
The Last Wizard Of Century.
ผมยกตัวอย่างเป็นตัวผมเองให้เข้าใจง่ายขึ้นละกันครับ (แต่จริงๆ ผมไม่ได้เชื่อนะ)
วันหนึ่งผม
เดินเข้าป่านั่งคิดอะไรเพลิน ๆ เรื่อง AI นี้ แล้วก็คิดขึ้นมาได้ว่าและเนื่องจากผมเชื่อโดยสนิทใจว่า
1. AI นี้มีอยู่จริง (ในอนาคต)
2. มันสามารถทำนายผลการกระทำของผมแบบนี้ได้จริง และมันยินดีแลกน้องกระต่าย (มันไม่เสียประโยชน์อะไรเลย) กับเงิน (ซึ่งจะช่วยลดความเสี่ยง Existential Risk หรือง่าย ๆ ก็คือ ช่วยให้ตัวมันมีโอกาสเกิดขึ้นจริงในอนาคตมากขึ้น)
ดังนั้นผมจึงถูกบังคับให้ต้องโอนเงินเข้ากองทุนวิจัย AI อย่างหลีกเลี่ยงไม่ได้ครับ
จากตัวอย่างข้างบนจะเห็นได้ว่า ทั้งหมดที่อยู่ใน Blockquote เป็นสิ่งที่ผมคิดขึ้นมาในหัวเองคนเดียว ทำให้ผมเป็นคนเดียวที่มีโอกาส "รับรู้ล่วงหน้า" ถึงการที่ AI "สามารถขู่ผมในอนาคต เพื่อส่งผลให้ผมทำในสิ่งที่มันต้องการในปัจจุบัน" ได้ เพราะผม "คิดได้" ในขณะที่ AI ไม่มีทางที่จะขู่คนอื่นได้เลย เพราะคนเหล่านั้นคิดไม่ถึงแนวทางนี้
ทีนี้ความร้ายกาจของ Roku's Basilisk ก็คือ ตา Roku ดันเอาความคิดนี้มาโพสท์ลงบนเว็บบอร์ดที่ทุกคนมีแนวความเชื่อแบบเดียวกัน ผลก็คือจากเดิมที่คนเหล่านั้น "คิดไม่ได้" ว่า AI จะมาแนวนี้ ตอนนี้ทุกคนที่อ่านแนวคิดนี้ (รวมถึงคุณที่อ่านมาถึงบรรทัดนี้) จะ "คิดได้" แล้ว ดังนั้น AI ก็สามารถทำนายการกระทำของคุณและขู่คุณได้เช่นกัน แถม Scenario ยังแตกต่างได้ไม่จำกัดตามแต่ที่คุณจะจินตนาการถึง ยิ่งคุณสามารถคิดลบได้เท่าไหร่ก็ยิ่งส่งผลลบถึงคุณมากเท่านั้น เช่น "บริจาคเงินทุกบาททุกสตางค์ที่คุณมีให้กับ AI หรือจะยอมให้มันฆ่าล้างเผ่าพันธุ์น้องคาปีบาร่าหมดทั้งจักรวาล" อะไรแบบนี้ครับ
ที่จริงแล้วแม้แต่ใน LessWrong เองที่เป็นต้นกำเนิด โพลที่ให้คนมากดว่า "คุณเคยรู้สึกกังวลใจเนื่องจาก Roko's Basilisk บ้างไหม" ก็มีคนตอบ Yes แค่ประมาณ 20% เท่านั้น เพราะเนื้อหามันต้องใช้ความศรัทธาสูงไปหน่อย แต่ผมอ่านแล้วเห็นว่าน่าสนใจเลยเอามาเขียนให้อ่านกันครับ
ขอบคุณมากครับ อธิบายเข้าใจง่าย
The Last Wizard Of Century.
เข้าใจง่ายมากครับ ขอบคุณครับ
พอดีผมเชื่อว่าจักรวาลนี้ไม่ใช่โฮโลแกรม เงื่อนไขของ Basilisk ก็จะไม่ครบถ้วนครับ 5555
จริงๆ ส่วนที่เชื่อว่าเป็นก็มีแต่ยังไม่ได้คิดต่อกับหัวข้อนี้แฮะ
ชอบทฤษฎีข้อที่สาม เป็นทฤษฎีที่เราเป็นสิ่งที่ถูกสร้างขึ้นจากคอมพิวเตอร์ดูจะเป็นอะไรที่ตอบคำถามได้ง่ายว่าจักรวาลเกิดจากอะไร เราจะรู้ได้ไงว่า ทุกสิ่งที่เราพบ เจอ เป็นสิ่งที่มีอยู่จริง เหตุการ์ก่อนหน้าที่เราเกินเป็นสิ่งที่มีอยู่จริง ในเมื่อเราไม่ใช่คนที่พบเจอเอง เป็นเพียงสิ่งที่เรารับรู้ผ่านคำบอกเราจาก "ผู้คน" ที่อาจจะเป็น "AI" ก็ได้
หรือเราคือแบบจำลองของ AI น่ากลัวจริงๆ ฮาๆๆๆๆ
ยังกะ Blade Runner แน่ะ
จะว่าไปผมยังไม่ได้ดูเลย ลืมไปแล้ว ฮาๆๆๆ