OpenAI ประกาศตั้งทีม Superalignment ทีมงานวิจัยที่เตรียมการรับมือปัญญาประดิษฐ์ที่ฉลาดเหนือมนุษย์ (superintelligent) เพื่อให้แน่ใจว่าปัญญาประดิษฐ์ยังคงทำตามความตั้งใจของมนุษย์ไม่จับมนุษย์ให้กลายเป็นสัตว์เลี้ยง หรือทำลายมนุษย์ไปเลยเสียก่อน
Superintelligent เป็นปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์อย่างมากจนมนุษย์ไม่สามารถตรวจสอบได้ว่ายังทำงานตามที่มนุษย์ตั้งใจอยู่หรือไม่
แนวทางของ OpenAI จะพัฒนาระบบตรวจสอบระดับเดียวกับมนุษย์ (human-level automated alignment researcher) เพื่อยืนยันว่าระบบนี้ยังพบความผิดปกติของพฤติกรรมได้ จากนั้นก็พยายามสร้างโมเดลมุ่งร้ายมาให้ระบบตรวจสอบนี้ตรวจหาความผิดปกติ
ทาง OpenAI คาดว่าปัญญาประดิษฐ์ระดับเหนือมนุษย์อาจจะพัฒนาสำเร็จภายในปี 2030 และทาง OpenAI จะกันพลังประมวลผล 20% สำหรับโครงการวิจัยนี้โดยเฉพาะ
ที่มา - OpenAI
Comments
ทดลองใช้ GitHub Copilot ได้ 2 วันถึงกับต้องรีบปิด ไม่งั้นสมองไม่ได้ทำงานแน่ๆ มันรู้เกือบหมดเลยว่าเรากำลังจะทำอะไร แล้วขึ้นคำแนะนำมาให้เป็น block / function เลย
เขียนคอมเมนต์อธิบายโค้ดก็ทำได้ดีมาก
ปิดละกัน เดี๋ยวสมองเสื่อมหมด
สักพักมันก็จะเริ่มแทรกโค้ดเชื่อมเป็น plugin ให้มันเข้ามารันโค้ดเองได้...
lewcpe.com, @wasonliw
ไม่ค่อยห่วงครับ อย่าถึงขั้นเข้ามาเอาเงินเดือนผมไปก็พอ แต่ถ้ามันส่งเมล์ไปบอก director ว่ามันเขียนเองทั้ง repo ผมก็คงตกงานอยู่ดี
ผมน่าจะเป็นเพียงไม่กี่คนที่ยังไม่เคยใช้ GitHub Copilot ด้วยงานที่ทำ เอิ๊ก
..: เรื่อยไป
ผมถูกบีบทางสังคมให้ลองครับ คนในทีมบอกว่ามึงไม่ลองมึงก็ใช้ไม่เป็น อีกหน่อยมันก็มาแทนที่มึงแล้วมึงจะควบคุมมันไม่ได้
กลัวตกงานก็เลยต้องลองครับ พอลองแล้วมั่นใจเลย ตกงานแน่กู 555555
ต้องหาวิธีใช้มันครับ อย่าไปกลัวมัน ปรับตัวได้ก่อนก็ได้เปรียบ
ตรงกับเรื่อง I, Robot
Pitawat's Blog :: บล็อกผมเองครับ
ตอนนี้ มันยังไม่ใกล้เคียงเลย
ตอนที่รู้ตัวว่ามันใกล้เคียง ก็ไม่ทันแล้วครับ
Pitawat's Blog :: บล็อกผมเองครับ
ใช่ครับ เคยอ่านบทความพี่ทิมของ waitbutwhy ก็บอกว่า ตอนเท่ามนุษย์แล้วสามารถพุ่งขึ้นเหนือต่อได้เลย
มนุษย์ทำไรไม่ทันแน่
ผมว่าทีมนี้นี่แหละที่จะเป็นปัญหาของมนุษย์ เพราะการที่มันจะตรวจสอบได้มันก็ต้องฉลาดมาก ซับซ้อนมาก มากจนเราก็ไม่รู้ว่ามันทำอะไร
หรือว่าต้องมีอีกทีมมาตรวจทีมนี้
วนไป
จะกำหนดมาตราฐานอย่างไรดี
ตัวอย่างเปรียบเทียบ
เครื่องคิดเลข คิดเลข ได้เร็วกว่าคน แต่ คิดได้แค่ตัวเลขเท่านั้น
อย่างนี้ เรียกว่า ฉลาดเหนือมนุษย์ได้ไหม?
บางที AI ที่น่ากลัวไม่จำเป็นต้องติดอาวุธแบบในหนัง หรือฉลาดเกิดคนหรอก แค่มันให้ผลลัพธ์ที่คนเอามันไปใช้โดยไม่ตรวจสอบ แล้วทำให้เกิดอันตรายกับคนด้วยกันเอง
มันยังมีบางคนที่เชื่อ AI จนเกินไปอยู่จริงๆ นะ :)
2030เหรอ อ่อ 2030สินะ ถ้า2029นี่มันภาพปลากรอบชัดเลย
The Last Wizard Of Century.