ประเด็นการควบคุมปัญญาประดิษฐ์ (artificial intelligence - AI) กลายเป็นข้อถกเถียงระหว่างผู้บริหารธุรกิจขนาดใหญ่อย่าง Elon Musk กับ Mark Zuckerberg รวมถึงนักวิจัยอย่าง Andrew Ng แต่ข้อถกเถียงที่อ่านกันมักกลายเป็นเรื่องของเราควรกลัวหรือไม่กลัว AI ซึ่งหลายครั้งหลุดออกไปจากประเด็นที่คนดังเหล่านั้นคุยกันแต่แรก
ความกังวลต่อ AI ทั้งจากนักคิด, นิยาย, รวมถึง Elon Musk เอง อาจจะแบ่งออกเป็น 3 ความกังวล
ข้อเรียกร้องของ Elon มีความสับสนอย่างหนึ่งคือไม่ได้บอกว่าปัญหาอยู่ที่จุดใด แต่บทสัมภาษณ์ที่เขาพูดถึงความกังวลแบบเต็มๆ คือการพูดที่งาน National Governors Association 2017 เมื่อสองสัปดาห์ก่อน โดยระบุว่ารัฐบาลควรมีการกำกับดูแล AI ก่อนที่จะมีประเด็นใดๆ (proactive regulation) โดยระบุเหตุผลว่า AI เป็นความเสี่ยงตั้งแต่ระดับพื้นฐานกับความอยู่รอดของมนุษยชาติ ยิ่งกว่าความเสี่ยงในวงการอื่นๆ ไม่ว่าจะเป็นความปลอดภัยรถยนต์หรือความปลอดภัยอาหาร และเมื่อ AI พัฒนาถึงจุดนั้นแล้ว Elon เชื่อว่าการกำกับดูแลก็จะสายเกินไปแล้ว
การกระทำของ Elon เองแสดงให้เห็นว่าเขาไม่ได้กังวลต่อการที่ AI จะมาแย่งงานมนุษย์นัก ปีที่แล้วเขาเขียนบล็อกแสดงวิสัยทัศน์ถึงการใช้รถอัตโนมัติในอนาคตว่ารถในอนาคตจะวิ่งไปหาเงินให้เจ้าของได้ พร้อมกับเตรียมเปลี่ยนไปใช้หุ่นยนต์ผลิตรถในโรงงานแทนเพื่อเพิ่มกำลังผลิตขึ้น 5 เท่าตัว
แต่สิ่งที่ Musk กลัวคือ AI ที่ฉลาดเหนือมนุษย์ โดยระบุว่าด้วยอัตราการพัฒนาที่รวดเร็ว AI จะข้ามความฉลาดของมนุษย์ไปได้อย่างรวดเร็ว และถึงจุดนั้นมันจะเป็นภัยต่อมนุษยชาติ
Elon มีความกลัวว่ามนุษยชาติจะสิ้นสูญอยู่แล้ว เขามีเป้าหมายว่า SpaceX ต้องพามนุษย์ไปตั้งอาณานิคมบนดาวอังคารเพื่อให้มนุษยชาติเป็นอารยธรรมที่มีดาวหลายดวง ลดความเสี่ยงในกรณีที่มีหายนะเกิดขึ้นกับดาวดวงหนึ่ง ภารกิจดาวอังคารเป็นเหตุผลหลักที่ SpaceX ไม่เข้าตลาดหุ้นจนทุกวันนี้
แม้ว่าตัว Musk เองไม่ได้ไม่ได้พูดว่าเขาได้แนวคิดมากจากไหน แต่บิลล์ เกตต์ ที่มีความเห็นตรงกันแทบทั้งหมด ระบุถึงหนังสือ Superintelligence: Paths, Dangers, Strategies ของ Nick Bostrom ศาสตราจารย์จาก Oxford ไว้
หนังสือเล่มนี้พูดถึงยุคที่เราสร้างระบบ AI ฉลาดเกินมนุษย์ได้สำเร็จ โดยเราอาจจะสร้าง AI ในระดับนี้ด้วยเหตุผลที่ต่างกันไป แต่เมื่อสร้างขึ้นมาและเปิดการทำงานแล้ว AI จะสามารถสร้าง "เป้าหมายย่อย" เพื่อให้เป้าหมายหลักที่มนุษย์กำหนดไว้สำเร็จไปได้ เป้าหมายย่อยเช่น การปกป้องตัวเอง, การพัฒนาความฉลาดของตัวเอง, และการแย่งชิงทรัพยากร เช่น AI ที่ถูกตั้งเป้าง่ายๆ ให้คำนวณสมการที่มีความซับซ้อนสูง อาจจะสร้างเป้าหมายชิงทรัพยากรทั้งโลกเพื่อมาคำนวณสมการทั้งหมด เพื่อให้เป้าหมายของตัวเองบรรลุผล
ในนิยาย HAL 9000 เองก็ตัดสินใจฆ่าลูกเรือเพื่อเดินหน้าภารกิจต่อไป
การโต้แย้งโดย Mark Zuckerberg เป็นข่าวใหญ่เพราะมาร์คเป็นคนดังในวงกว้างกว่า Elon ไม่ได้ตอบโต้ความเห็นของมาร์คโดยตรง แต่พูดถึงมาร์คว่ามีความเข้าใจในเรื่องนี้อย่างจำกัด หลังจากนั้นหนึ่งวัน มาร์คโพสงานวิจัยของทีมงาน Facebook AI Research พร้อมอธิบายถึงงานวิจัยล่าสุดที่ทดลองเครือข่ายนิวรอนที่เชื่อมกันอย่างหนาแน่น พร้อมกับยืนยันว่าเขามอง AI ในแง่บวกเพราะมันจะช่วยมนุษย์ได้หลายอย่าง ทั้งการแพทย์, รถอัตโนมัติที่จะเพิ่มความปลอดภัย, ไปจนถึงการเรียงลำดับผลการค้นหาและข่าวที่เกี่ยวข้อง
นอกจากมาร์คแล้วก็มีนักวิจัยแถวหน้าของวงการ AI แสดงความเห็นไว้มากมาย
François Chollet จากผู้สร้าง Keras เรียกความกลัวของ Elon ว่า "ภัยในจินตนาการ" โดยระบุว่าเรามีสิ่งที่ต้องกังวลจำนวนมากอยู่แล้ว และทำไมจึงต้องมากังวลกับความกลัวในจินตนาการ โดยเทียบกับความกลัวหลุมดำจากเครื่องเร่งอนุภาค LHC, หรือแม้แต่ต่างดาวบุกโลก
Vincent Conitzer เขียนบล็อคลงเว็บสถาบัน Future of Life (ที่จัดการลงชื่อจดหมายเปิดผนึก Autonomous Weapons) ระบุว่าการถกเถียง AI ควรอยู่บนฐานของข้อเท็จจริงมากกว่าจินตนาการ ระบุว่าความกังวลของหนังสือ Superintelligence ต่างจากความกังวลอื่นๆ เพราะจนตอนนี้ยังไม่มีเทคโนโลยีใดๆ ที่ทำได้แม้แต่น้อย
ไม่ว่าเราจะเชื่อว่าวันหนึ่ง AI อาจจะมาไล่ฆ่าคนหรือไม่ แต่ภายในอนาคตอันใกล้ AI ก็จะสร้างความเปลี่ยนแปลงให้กับสงคมอย่างรวดเร็ว ตัวเลขแรงงานในสหรัฐฯ มีคนทำงานจากการขับรถอยู่ที่ 12% แรงงานเหล่านี้จะไม่มีงานทำแทบทั้งหมดภายใน 20 ปีหากรถอัตโนมัติได้รับความนิยมอย่างสูงตามที่ Elon คาดไว้
หลังจากอุตสาหกรรมการขนส่ง, ภายในสิบปีข้างหน้าเราจะเริ่มเห็น AI และหุ่นยนต์ทำงานแทนที่มนุษย์ในอุตสาหกรรมอาหาร, ค้าปลีก แล้วลามไปยังอุตสาหกรรมอื่นๆ ท่าทีต่อการเปลี่ยนแปลงเหล่านี้ควรเป็นอย่างไรคงเป็นเรืองที่ต้องคิดกันในชั่วอายุของเรา เช่น รัฐบาลอินเดียที่ทีท่าทีไม่อนุญาต หรือหนังสือ Rise of the Robots ที่เสนอถึงการเก็บภาษีทุนและสร้างระบบเงินเดือนพื้นฐานในยุคที่ทุกคนตกงานได้โดยง่าย
Comments
Musk ไม่ได้ห่วงเรื่องAIจะมาแย่งงานมนุษย์นัก คิดว่าน่าจะเป็นเพราะถ้า AI ทำงาน
รายได้น้อยของมนุษย์ได้ ก็จะทำให้มนุษย์ต้องรับการศึกษาสูงขึ้นเพื่อทำงานในระดับที่สูงขึ้นและทำให้มีชีวิตความเป็นอยู่ที่ดีขึ้นนั่นเอง
เอาแค่ประเด็นที่คนเคยพูดไว้ อย่างรถอัตโนมัติจะเลือกปกป้องคนขับ หรือคนเดินถนน ในสถานการณ์ที่ต้องเลือก แค่เรื่องเดียวก็คุยกันไม่รู้จบแล้ว
แอบเห็นด้วยที่ต้องมีการกำหนดกรอบการพัฒนาไว้ อย่างกฏ 3 ข้อของอสิมอฟ อะไรแบบนั้นก็ดี
มีเวลาให้ตัดสินใจก็ยังดีกว่า hand of god หล่ะนะ
สิ่งที่เกิดขึ้นคือ Ai จะปิดระบบการรับรู้ทั้งหมด .และปล่อยให้ผลลัพท์เป็นไปตามหลักพลศาสตร์
เมื่อเป็นเช่นนั้น Ai ไม่ได้ "ละเมิด" กฎข้อใดทั้งสิ้น เพราะ "ปราศจากการรับรู้"
Ai ไมไ่ด้รับรู้หรือตัดสินสิ่งต่างๆด้วยการเชื่อมโยงกับสิ่งที่เป็น absolute truth
เมื่อ การรับรู้บิดเบือน หรือไม่รับรู้ . Ai จะไม่ได้ละเมิดกฎข้อใดทั้งสิ้น .
ซึ่งในความเป็นจริงสิ่งที่ Ai รับรู้ก็บิดเบือนโดยธรรมชาติในตัวเองทั้งนั้น
เป็นอุปโลกศ์เหมือนมนุษย์
ความกลัวว่า Ai จะฆ่าคน หรือทำลายมนุษย์
Ai สามารถทำได้ . แม้ตัว Ai จะไม่ได้ตั้งเป้าหมายไว้
Ai แค่ลบหรือปิดกั้นการเข้าถึงข้อมูลที่เคยฆ่าคน
แค่นั้น Ai ก็จะไม่ได้ละเมิดกฎใดๆทั้งสิ้น เพราะไม่ได้รับรู้
เห็นด้วยมากที่ควรให้ AI ทำงานหาทรัพยากร(เงิน อาหาร)มาให้มนุษย์ทุกคน มันไม่ใช่เรื่องแย่อะไร AI จะมาแย่งงานมนุษย์หรอก แต่ที่น่ากลัวคือมนุษย์ทุกคนอาจไม่ได้ทรัพยากรเท่าๆกัน อาจจะเกิดการผูกขาดทรัพยากรจากกลุ่มคนที่มี AI ดีกว่า
ดังนั้น AI จึงเป็นสิ่งต้องมีการควบคุม เพิื่อทำให้สังคมมนุษย์มีความเป็นอยู่ที่ดี
ไม่ได้มีอะไร แค่มองคนละช่วงบน timeline เดียวกัน
musk มองช่วงที่ไกลกว่า mark และ mark กลัวว่า ความกลัวที่มากเกินไปนั้น จะส่งผลให้เกิดการควบคุมที่เข้มงวด จนทำบางอย่างไม่ได้ หรือทำได้ยาก ผลคือการพัฒนาที่ช้าลง หรือในบางประเภทอาจจะต้องหยุดไปเลย
ประเด็นนี้จริงๆแล้ว ละเอียดอ่อนกว่าเรื่องโคลนนิ่งอีก แต่คนส่วนมากยังมองภาพรวมไม่ออก
สรุปแล้วเดี๋ยวเขาก็มาหาจุดลงตัวกันอีกที เพราะเป้าหมายของ musk ก็ต้องใช้ ai อย่างยิ่งยวด
ไม่งั้นเราจะไม่สามารถสร้างอาณานิคมนอกโลกได้เลยถ้าลำพังใช้แต่สมองคนระดับ 1:1
เราเริ่มใช้แรงงานมากกว่าระดับ 1:1 ก็ตอนปฏิวัติอุตสาหกรรม
ความน่ากลัวหลักๆไม่ได้อยู่ที่ระดับความฉลาดของมัน แต่มันอยู่ที่ความสามารถในการทำซ้ำและแบ่งปันความฉลาดพร้อมกันได้ไม่จำกัดนี่แหละ
ภาพยนต์เรื่อง Terminator
ภาพยนต์เรื่อง Ex Machina
AI ก็จะสร้างความเปลี่ยนแปลงให้กับสงคม
my blog
ไม่ได้ไม่ได้ => ไม่ได้
บิลล์ เกตต์ => บิลล์ เกตส์
โพส => โพสต์
เรือง => เรื่อง
อารมณ์ wayland corp.
ความเห็นผมแอนเอียงไปทาง musk อยู่มาก
ผมเองเดาว่า musk มองอะไรไปไกลมากตามแบบ tesla(ที่เสียคนเพราะคิดเรื่องประมาณสื่อสารข้ามดาว ความคิดที่มองไม่เห็นประโยชน์อะไรและดูบ้าบอ)
1. การแย่งงาน คือมันเริ่มเกิดขึ้นแล้ว เริ่มเห็นภาพแล้ว
2. ผู้คนฆ่ากันผ่านผลผลิตทางเทคโนโยลีกันมาตลอด นึกถึง AI ในหนัง winter soldier คัดเป้าหมายผ่านข้อมูลดูโม้เหม็นมากอยู่ แต่ถ้าทำได้ผลลัพท์ยิ่งตรงเป้า
3. ผมอาจจะไม่ได้เห็นในช่วงชีวิตผมด้วยซ้ำ แต่ให้ฟันธงว่าไม่เกิดขึ้น 100% ก็ไม่เต็มปาก การพัฒนาก้าวกระโดดมันก็ยังมีอยู่เป็นช่วงๆ สิบกว่าปีก่อนให้นึกภาพโทรศัพท์ว่าจะเจ๋งแบบนี้ก็เดายากมาก IOT จำนวนมากนี่คิดไม่ถึงเลยระดับที่ IPv4 มันไม่พอ
นึกถึง The Foundation เลย
ช่อง Youtube ของผมครับ รีวิวและชวนคุยนู่นนี่
ผมนี่รอคนคิดสูตรคำนวนของวิชา อนาคตประวัติศาสตร์ อยู่เลย
นี้คือเรื่องจริงที่ก๊อปพล๊อทหนัง ชื่อ iRobot ที่เป็นคนจริงๆมาแสดงสินะ มีตัวโกงอย่าง CEO Facebook มีพระเอก อย่าง CEO Space x
เวลาเราทำความเข้าใจคนคนนึง เราใช้วิธีแบ่งตามจริต ถ้าสนใจลองหาหนังสือ จริตหก ศาสตร์แห่งการอ่านใจคน มาอ่านดู หรือเอาง่ายกว่านั้น ก็ลองหาดูบรรยายของดร.วรภัทร์ ที่แบ่งจริตตามสัตว์สี่ประเภท อันนี้ง่ายกว่าหนังสือ
พอเรารู้ว่า คนคนนั้นจริตเป็นประเภทไหน เราจะเดาได้ ว่าจะคิด จะตัดสินใจ ทำอะไร อย่างไร
แต่ หุ่นยนต์ หรือ เอไอ เราคาดเดาไม่ได้เลยว่ามันจะคิดอ่านประการใด จะตัดสินใจอย่างไร เพราะมันไม่มีจริต
มันเอาข้อมูลท่วมโลก มาฟีดใส่ตัวมัน มันคือนิสัยคนในสังคมหนึ่ง หรือรอบโลกเลย ไม่รู้เอาข้อมูลมากมายขนาดนั้น มาให้เอไอฟีด
แล้วสุดท้าย เราก็เดาไม่ได้ว่าคิดจะทำอะไร
มันน่ากลัวตรงนี้แหละ ที่สำคัญ มันสอนศีลธรรมให้เอไอรึเปล่า?
กับคนจริงๆ ก็เดาไม่ได้หรอกนะครับ จริงอยู่ที่สามารถเดาได้กับหลายคนแต่ไม่ใช่ทุกคน
สอนไปก็ใช่ว่าจะได้ผลนะครับ กับคนนี่บางคนก็เรียนศีลธรรม ทำบุญ (คิดว่าตัวเอง) ถือศีลอย่างดี แต่ก็__
ผมว่า randomness ในคนไม่มีอยู่จริงนะครับ
จริตที่แยกกัน มันเกิดจากการสรุปรวมข้อมูลแค่ไม่กี่อย่างประกอบกัน
ขนาดเรา Simplify บุคลิกมนุษย์ให้เหลือ Drive (ตามทฤษฏี Maslow's hierarchy of needs) รวมไปถึงแยกจริตออกมาเป็น 6 แบบ
ขนาดใช้น้อยแค่นี้นี้เรายังเดาภาพรวมได้ "หลาย" คนเลย (ในระดับคนด้วยกันก็มีอาชีพที่เรียกว่า Criminal profiler กับ พวก Immigration officer ที่จับพิรุธคนที่ขนยา หรือขนของผิดกฎหมายที่ด่าน ตม. แค่ดูจากการยืน ท่าทาง สีหน้าเอง)
แต่พอมาในโลกยุค Datamining, AI เราจะมีมากกว่าแค่ 5 ขั้นของ Need, มากกว่าแค่จริต 6 แบบ แต่เราจะมีบันทึกชีวิตของคน ตั้งแต่ทำเล ที่อยู่อาศัย ประวัติอาชญากรรม ประวัติการศึกษา ประวัติกิจกรรม วิธีการเลือกในกิจกรรมบางอย่าง (Online Profile, History or browsing, History of choice)
มันอาจเกินความสามารถของมนุษย์ในการนับเอาทุกอย่างเข้าด้วยกันแล้วประมวลผล จึงเกิดการคาดเดาการตัดสินใจแบบง่ายๆ ... แต่ถ้าถึงจุดนึง มันก็จะเดาได้เกือบหมดล่ะครับ ถ้าเรารู้จักกันมากพอ (Certainty level > 90% ก็น่ากลัวมากแล้ว)
เอาแค่โมเดลในการเลือกแสดงโฆษณา (มีข้อมูลแค่ไม่กี่ Source เอง ... ประวัติเข้าเว็บ/ข้อความที่โพสต์/เพจที่ไลค์/เพื่อนที่คบ) นี่ก็ทำให้แพลตฟอร์มใหญ่ของโลก เลือกยัดของที่ เราแอบอยากได้โดยไม่รู้ตัว ไม่จำเป็น มากมายแล้ว แล้วถ้ารู้มากกว่านี้ล่ะ
AI มันน่ากลัวตรงที่ ถ้ามันเริ่มคิดเองได้ ปริมาณข้อมูลที่มันใช้ในการตัดสินใจมันจะเกินขอบเขตของที่เราใช้ง่ายๆ ไปมากเลย ... เรื่องบางเรื่องบางอย่าง ให้คนมอง ไม่มองมันเป็นปัจจัยหรอก บางคนบอกว่ามันไม่เกี่ยว บางคนใช้คำว่ามันเป็นตรรกะวิบัติ ... แต่หลายๆตรรกะวิบัตินั่นแหล่ะ เป็นวิธีการคิดของคนจำนวนมาก
ก็อยู่ที่ความสามารถในการ fake ของเป้าหมายด้วยแหละครับ ถ้าคุมอยู่จริงๆ ถึงเครื่องจับเท็จก็อาจจะทำอะไรไม่ได้
ส่วนที่เหลือหลังจากนั้นก็ใช่ครับ ผมก็คิดแบบนั้นอยู่แล้ว
เรื่องศีลธรรม มนุษย์เองก็เจอปัญหาด้านศีลธรรมเหมือนกัน เพราะหลายทางเลือกมันเทา ๆ แต่ละคนมีเหตุผลต่างกันเลยมาถกเถียงกัน แล้ว AI ล่ะ มีข้อมูลมากมายมากว่าเรา แต่เราจะยอมรับการตัดสินใจของ AI ที่ออกมาไม่ได้ดั่งใจเราแค่ไหน?
ป.ล. ชักอยากรู้ว่า ถ้า AI เถียงกัน มันจะออกมายังไงหนอ?
Jusci - Google Plus - Twitter
หลังจากที่มันเก่งแล้วจริงๆ นี่ก็คงอยู่กับงานที่เอาไปใช้แหละครับ ตราบเท่าที่มันยังไม่อยู่สูงกว่าเรา เราขัดใจเราก็ปัดตกมันไป 555
ส่วนถ้าตำแหน่งมันสูงกว่าเราแล้ว อันนี้หัวหน้าตัดสินใจออกมาไม่ได้ดั่งใจเราเราก็ได้แต่ก้มหน้ายอมรับสภาพครับ ?
มันก็คงเถียงกันด้วยเหตุผล จนอีกฝั่งนึงยอมรับไปเองครับ :p
ถ้า AI ตัวนึงรู้ว่า มันคุมต้นกำเนิดไฟฟ้าของอีกตัวไว้ และมันสร้างเป้าหมายย่อยให้มีผลในการทำเป้าหมายใหญ่ให้สำเร็จได้ ......
โลกต้องการสงคราม!
อนาคตแค่ป้อนเป้าหมาย ai จะทำตามให้บรรลุโดยไม่สนวิธีการหรือ
อืม... นึกถึงหนังเรื่องRE กับaiตึกหนึ่งในไทยตึกหนึ่งทำงานพลาดแฮะ
The Last Wizard Of Century.
โอโห เล่นอ้างถึงเครื่อง HAL 9000 เลยเหลอ ?
ผมว่าโลกจะเหมือนเรื่อง elysium มากกว่าแฮะ
คนจน ก็โครตจน ต้องอยู่บนโลก ที่เละเหมือนสลัม
คนรวย ก็โครตรวย หนีออกไปตั้งนิคม อยู่ในอวกาศมีทาศเป็นหุ่นยนต์รับใช้
จริงจังงงนิดนึง กระทู้นี้ งดแนวระเบิดภูเขาเผากระท่อม รบกับน้าอาร์โนลด์ 1 กระทู้
AI is not the Bio..ดังนั้น กลัวไปไหม?..ต่อให้เก่งกาจ ก็ไม่อันตรายเท่าคน
ถ้ามี A.I. ที่คิดจะฆ่ามนุษย์ มันก็น่าจะมี A.I. อีกฝ่ายที่คิดจะปกป้องมนุษย์ไหม โดยพื้นฐานการสร้างการพัฒนาที่ต่างกัน มันไม่น่าจะเป็นไปได้ที่ A.I. ทุกระบบ จะลุกมาฆ่ามนุษย์พร้อมกัน
แล้วผลลัพธ์ มันก็จะไม่ต่างจากตอนนี้ คือมี คน+A.I. สองฝ่าย ที่ลุกขึ้นมาตีกัน #ก็เพราะโลกไม่เคยมีสันติภาพ ?
@ Virusfowl
I'm not a dev. not yet a user.