เมื่อสัปดาห์ก่อน Dr. Steve Pinker ซึ่งเป็นอาจารย์อยู่มหาวิทยาลัยฮาร์วาร์ดได้กล่าวในพ็อดแคสท์ของเว็บไซต์ Wired โดยวิจารณ์ AI ด้วยการยกตัวอย่างรถขับอัตโนมัติของ Tesla มาว่าหาก Elon Musk จริงจังกับการคุกคามของ AI จริงๆ เขาควรจะหยุดพัฒนารถขับอัตโนมัติเสีย
Pinker กล่าวเสริมว่า Elon คงไม่มานั่งกังวลว่าจะมีใครเขียนโปรแกรมใส่รถ Tesla ว่าคำสั่ง "พาฉันไปที่สนามบินโดยเร็วที่สุด" แล้วรถจะวิ่งตัดตรง ชนคน และไถต้นไม้ เพราะนั่นเป็นผลจากการที่รถแปลคำสั่ง "พาฉันไปทางที่เร็วที่สุด" สุดท้าย Pinker ระบุว่าแบบนั้นมันดูแย่มาก และ Elon จะถูกฟ้องแน่
จากนั้น Elon ก็ได้ทวีตตอบโต้ว่าถ้าขนาด Pinker ยังไม่เข้าใจความแตกต่างระหว่าง AI ที่มีจุดประสงค์เฉพาะอย่าง (เช่นรถ) และ AI แบบทั่วไป มนุษยชาติก็ตกอยู่ในปัญหาอย่างใหญ่หลวงแล้ว โดย AI แบบทั่วไปนั้นจะมีพลังการประมวลผลที่สูงกว่าเป็นล้านเท่า และไม่มีจุดสิ้นสุดว่าจะมีความสามารถมากแค่ไหน
Wow, if even Pinker doesn’t understand the difference between functional/narrow AI (eg. car) and general AI, when the latter *literally* has a million times more compute power and an open-ended utility function, humanity is in deep trouble
— Elon Musk (@elonmusk) 27 กุมภาพันธ์ 2561
ก่อนหน้านี้ Elon ก็เคยปะทะกับ Mark Zuckerberg ผู้ก่อตั้ง Facebook มาแล้วในประเด็น AI นี้ โดย Elon มีความเห็นว่า AI ต้องถูกควบคุม อีกทั้งเขาเคยเปิดเผยว่าได้เห็น AI ระดับสุดยอดมาแล้ว และผู้คนควรจะกังวลให้มาก
Dr. Steve Pinker ยังเคยสอนที่สแตนฟอร์ดและ MIT นอกจากนี้ยังเขียนหนังสือมาแล้ว 10 เล่ม รวมถึงเป็นสมาชิกของสำนักวิชาการวิทยาศาสตร์แห่งชาติ เคยเป็นผู้เข้ารอบสุดท้ายชิงรางวัล Pulitzer สองครั้ง และนิตยสาร Time เคยยกให้เป็น 1 ใน 100 คนที่มีอิทธิพลมากที่สุดในโลก
จากนี้เราคงเห็นการถกเถียงในประเด็นเรื่อง AI กันอีกเรื่อยๆ เพราะความเห็นชัดเจนว่าแตกเป็นสองทาง ทางหนึ่งคือเราไม่ควรจะกังวลให้มากและผลักดันการพัฒนา AI ให้เร็วเพราะจะช่วยมนุษย์ได้หลายอย่าง แต่อีกทางหนึ่งก็เห็นว่าไม่ควรบุ่มบ่าม และควรมีการกำกับดูแล AI อย่างเหมาะสม เพราะ AI จะฉลาดมากจนเกินควบคุม (อ่านเพิ่มเติมได้ในข่าว: เขาเถียงเรื่องอะไรกัน สรุปความกังวลต่อ AI และจุดยืนของ Elon Musk ที่เปิดประเด็นขึ้นมา)
ทีี่มา - CNBC
Comments
แหม่ AI ของ Tesla เขียนบนพื้นฐานให้คนและรถปลอดภัย มันคงไม่วิ่งบุกป่าฝ่าดงหรอกนะ
สงสัยจะกลัว AI เป็นแบบ Ultron ใน Avengers
ผมว่า AI ณ ตอนนี้มันโง่กว่าที่หลายคนกลัวนะ เพราะมันเก่งและเชี่ยวชาญแค่เรื่องเดียว นอกนั้นคือทำไม่เป็นเลย
"โดย Elon มีความเห็นว่า AI ต้องถูกควบคุม อีกทั้งเขาเคยเปิดเผยว่าได้เห็น AI ระดับสุดยอดมาแล้ว"
AI ที่ฉลาดระดับสุดยอด (และน่าจะไม่ใช่แค่เรื่องเดียว)
ที่ไม่เปิดเผยหรือยังไม่เปิดเผยคงจะมีอยู่ไม่น้อยครับ แล้วคงจะฉลาดขึ้นอีกทุกวัน
เช่น AI ทางการทหาร อะไรพวกนี้ ไม่มีใครเค้าเปิดเผยหรอก
ตามที่ข้างบนบอกล่ะครับ AI ทุกวันนี้เป็น Single Purpose (วัตถุประสงค์เดียว) ไม่ใช่ Generic Purpose ซึ่งอย่างหลังเนี่ยมันลึกถึงขนาดที่ต้องเอานักจิตวิทยาหรือยกมาทั้งคณะมนุษยศาสตร์/สังคมศาสตร์ (คงจะยกทั้งมหาลัยแล้วล่ะ) เข้าไปร่วมพัฒนาด้วย
คือต้องสร้างทั้ง Id, Ego, Superego ถึงจะออกมาเป็นรูปธรรมได้ อย่างหลังมนุษย์ทำได้ แต่สองอย่างแรกนี่สิคือปัญหาใหญ่.... คุณจะใส่อะไรลงไปล่ะ?
นี่ถึงมีข้อถกเถียงนึงที่ว่า "ถ้ามี AI ที่สมบูรณ์แล้ว สาขาวิชามนุษยศาสตร์นั้นไม่จำเป็นอีกต่อไป" ซึ่งไม่จริง เพราะยังไงก็ต้องมีคนที่ต้องเติมเติมสิ่งที่คนคาดหวังให้มีลงไปใน AI นั่นเป็นเหตุผลที่คนที่จบทางคณะมนุษยฯค่าตัวแพงครับ(มาก) ค่าตัวคนจบอักษรสำหรับบริษัทบางแห่งแพงเข้าไปอีก
โอ
โห
ถ้าใส่สองอย่างนั้นไป
ฉิบหาย วาย โลกา
แน่นอน
ครับ
ยกมาทั้งคณะอะไรกัน ก็ส่ง AI ไปเรียนเนื้อหาเดียวกับที่คนเรียน แต่เรียนได้ทุกสาขาวิชาในเทอมเดียว
ถ้าคิดจะสร้าง Generic Purpose AI ก็ควรมาจากสามสิ่งนี้ก่อนครับ แต่ Specific Purpose แบบที่คุณว่ามาผมว่ามันน่าจะเป็น IBM Watson นะครับ มันอ่านและตอบทุกอย่าง แต่มันว่างเปล่าเพราะขาดสามสิ่งนั้น ไม่มีเจตจำนงเป็นของตัวเอง ไม่สามารถคิดได้เองในระดับที่เท่ากับมนุษย์ (IBM เคยคุยไว้เมื่อสิบปีก่อนว่าเคยทำ Neuron มีระดับความคิดเท่ากับสมองของแมว)
อย่างที่ว่าละครับ มีใครทำได้เมื่อไหร่ก็เตรียม**หายได้เลย
ยกตัวอย่างทึ่มๆไม่สมกับเป็นอาจารย์เลย AI ไม่ใช่เรียวมะนา จะได้วิ่งตัดทุ่งโง่ๆแบบนั้น
ผมคิดว่า ความกลัว AI ในปัจจุบัน ลักษณะมันเหมือนคนสมัยก่อนกลัวไฟฟ้า กลัวนิวเคลียร์ กลัวฝนกลัวฟ้า กลัวผีป่า กลัวอะไรที่ยังไม่เข้าใจมัน ยังไม่คุ้นเคยกับมัน ก็กลัวไปหมด
ทำไมรู้สึกแถวๆ นี้ยังเป็นแบบนั้นอยู่เลยครับ
กลัวธูป 36 ดอก
จริงๆ แถวๆ นี้ แม้แต่อะไรที่รู้จักแล้วเข้าใจแล้วก็ยังกลัวนะครับ เช่น กลัว(คนมี)เงิน กลัว(คนมี)อำนาจ .. แล้ว บางท่านก็ยัง "กลัวเมีย" เลยครับ :-)
"เมีย" คือ AI ที่น่ากลัวครับ เพราะสามารถรับรู้เหตุการล่วงหน้า เช่นเมื่อตอนเช้าของวันศุกร์ที่ผ่านมา ผมกำลังออกจากบ้าน เพื่อไปทำงาน มีเสียงตามหลังมาว่า อย่าให้เกิน 21.00 น. นะ!!!! ผมนี้ตกใจเลยครับ
ผมคิดว่าไม่ต้องเป็น AI แบบ Generic Purpose ก็อันตรายได้นะครับ ยกตัวอย่างเช่นถ้ามีกลุ่มก่อการร้ายแฮคระบบขนส่งแล้วเอา AI แบบ Specific Purpose ที่สร้างขึ้นมา โดยกำหนดคำสั่งให้รถยนต์อัตโนมัติทุกคันวิ่งชนคันอื่นล่ะครับ ... จากตัวอย่างนี้ก็จะเห็นเลย ว่ามันอยู่ที่คนสร้างและการนำไปใช้มากกว่า มันไม่เกี่ยวหรอกว่ามันเป็น Generic หรือ Specific
ถ้ากรณีนี้ผมมองว่ามันไม่ใช่ปัญหาของ AI แล้วครับ
มันเป็นเรื่องของ Security เรื่องของ IoT แล้วครับ
ถ้าระบบใดเป็น Digital ที่มี Network แล้วโดนแฮ๊คขึ้นมา ไม่ว่าอะไรก็เสียหายครับ เช่นระบบการบินไม่ต้องมี AI เลยก็ทำเครื่องชนกันได้ ทำเครื่องตกได้ง่ายๆ เลยครับ ระบบธนาคาร ระบบอื่นๆ อีกถ้ามีช่องโหว่ก็สามารถโดนได้ทั้งหมด
+1
Russia is just nazi who accuse the others for being nazi.
someone once said : ผมก็ด่าของผมอยู่นะ :)
ผมสนใจประโยคนี้ครับ
"อีกทั้งเขาเคยเปิดเผยว่าได้เห็น AI ระดับสุดยอดมาแล้ว และผู้คนควรจะกังวลให้มาก"