Tags:
Node Thumbnail

เมื่อกรกฎาคมปีที่แล้ว OpenAI ประกาศตั้งทีมวิจัยใหม่ชื่อ Superalignment เพื่อเตรียมการรับมือปัญญาประดิษฐ์หรือ AI ที่มีความฉลาดมากเหนือกว่ามนุษย์ กำกับดูแลว่ามนุษย์ยังรู้เท่าทันและสามารถควบคุมได้ ไม่ให้ทำงานผิดปกติไปนอกคำสั่งจนมุ่งร้ายต่อมนุษย์เสียเอง

OpenAI แต่งตั้งให้ Ilya Sutskever หนึ่งในผู้ร่วมก่อตั้ง OpenAI และเป็นหัวหน้าฝ่ายนักวิทยาศาสตร์ เป็นหัวหน้าทีม Superalignment นี้ ร่วมกับ Jan Leike พร้อมตกลงว่าจะกันพลังการประมวลผล 20% ของบริษัทให้กับทีมนี้

สัปดาห์ที่ผ่านมา OpenAI เปิดตัวโมเดล AI ใหม่ GPT-4o พร้อมเปิดโควต้าให้ผู้ใช้งานแบบฟรีเข้าถึงฟีเจอร์ต่าง ๆ มากขึ้น สะท้อนต้นทุนการประมวลผล AI ที่ลดลง แต่หลังจากวันเดียว Ilya Sutskever ก็ประกาศลาออกจากบริษัท ตามด้วย Jan Leike และพนักงานในฝ่าย Superalignment อีกหลายคน เหตุการณ์นี้ไม่ใช่เรื่องปกติแน่

Wired มีรายงานพิเศษถึงสถานการณ์ภายใน OpenAI ตอนนี้ โดยบอกว่าแผนก Superalignment นั้นได้สิ้นสุดไปพร้อมกับการลาออกของพนักงานคนสำคัญ ภารกิจของทีมได้ถูกโอนย้ายไปให้ฝ่ายวิจัยอื่นใน OpenAI ดูแลต่อแล้ว

Jan Leike โพสต์อธิบายสาเหตุของลาออกใน X บอกว่าเขาไม่เห็นด้วยกับทิศทางของผู้บริหาร OpenAI เรื่องภารกิจเร่งด่วนขององค์กรหลายต่อหลายครั้ง ซึ่งตอนนี้มาถึงจุดที่เขาไม่สามารถทนได้อีกแล้ว

เขาเชื่อว่าภารกิจหลัก OpenAI คือการเตรียมความพร้อมด้านความปลอดภัย ผลกระทบทางสังคม ความฉลาดที่อาจควบคุมไม่ได้ และประเด็นอื่นที่เกี่ยวข้อง เมื่อมีการพัฒนาโมเดล AI ใหม่ออกมา เรื่องเหล่านี้เป็นสิ่งที่ยาก และเขากังวลว่าตอนนี้ OpenAI ไม่ได้ดำเนินการไปในทิศทางนั้น เปรียบเทียบว่าภารกิจของฝ่ายเขาตอนนี้นอกจากจะยากแล้ว ยังเหมือนเรือที่ต้องฝ่าคลื่นพายุขนาดใหญ่ การขอพลังประมวลผลที่ตกลงกันไว้หลายครั้งก็ยากขึ้นเรื่อย ๆ

Leike บอกว่า OpenAI ถูกก่อตั้งด้วยภารกิจเพื่อกำกับดูแล AI ที่รับผิดชอบและมีประโยชน์ต่อมนุษยชาติ แต่ช่วงไม่กี่ปีที่ผ่านมา การให้ความสำคัญเรื่องการสร้าง AI ที่ปลอดภัยถูกเก็บไว้ข้างหลัง บริษัทให้ความสำคัญกับการนำเสนอผลิตภัณฑ์ที่ตื่นตาตื่นใจต่อตลาดมากกว่า

Wired ยืนยันข้อมูลว่ามีพนักงานในฝ่าย Superalignment อีกหลายคนที่ลาออกในช่วงที่ผ่านมา บางคนให้เหตุผลที่คล้ายกับ Jan Leike คือขาดความเชื่อมั่นว่า OpenAI ยังดำเนินงานตามภารกิจหลักในการสร้างปัญญาประดิษฐ์ที่ทำงานได้ครอบจักรวาลหรือ Artificial General Intelligence (AGI)

ที่มา: Wired

Get latest news from Blognone

Comments

By: pd2002 on 18 May 2024 - 13:48 #1312200

เชิญออกไปทำองค์กรการกุศลก็ดีนะครับ :)

By: Fasndee
ContributorAndroidWindows
on 19 May 2024 - 10:26 #1312245 Reply to:1312200
Fasndee's picture

ผมว่า 20% คือสิ่งที่เขาสัญญาเอาไว้ และหลายคนทั่วโลกก็เป็นกังวลเรื่องความฉลาดของ AI ที่จะมากเกินไป และอาจจะส่งผลกระทบด้านลบกับมนุษย์ได้ ซึ่งทาง OpenAI เองก็เคยออกมาตอบรับด้วยการยืนยันว่า การวางมาตรการ การป้องกัน ดูแลเรื่องนี้สำคัญ

คนที่ออกเขาให้ข่าวกันว่า เพราะ OpenAI มอบหน้าที่เหล่านี้ให้พวกเขา แต่พวกเขากลับรู้สึกว่ามันทำได้ยาก และยากขึ้นเรื่อย ๆ ซึ่งดูเหมือนจะมาจากทิศทางที่มาจากผู้บริหารเอง (???) ที่ทำให้ทำงานยาก

เขาลาออกเพราะพยายามทำตามหน้าที่ที่ได้รับมอบหมาย แต่เหมือนคนมอบหมายจะไม่ทำให้งานพวกเขาทำได้ราบรื่น ซึ่งผมว่าเป็นคนเก่ง ๆ ที่ไหน มีความสามารถได้รับมอบหมายหน้าที่ที่ตนเองไม่ได้เกลียด แต่ทำงานไม่ได้ ก็ออกทั้งนั้นนะครับ


เพจตัวอย่างผลงานถ่ายภาพ / วีดีโอ

By: juniorlab
Contributor
on 19 May 2024 - 11:15 #1312247 Reply to:1312245
juniorlab's picture

ผมเห็นด้วยครับ หลายคนอาจจะไม่ชอบแนวคิดฝั่ง ilya ตั้งแต่ที่เขากับบอร์ดไล่ sama ออกจากบนริษัทเพราะแนวทางมันจะดูขัดกับ charter ที่ตั้งมั่นไว้ตอนก่อตั้งบริษัทขึ้นมา หลายคนอาจจะมองว่ามันเป็นบริษัทและนักลงทุนต้องการผลกำไร การไปต่อในฐานะ non-profit อาจจะดูลำบาก แต่ผมว่าเป้าหมายของ open ai มันใหญ่มากจนกับบริษัทอื่นๆไม่สามารถเปรียบได้ด้วยซ้ำ ผมว่าคนที่ตระหนักถึงภัยของ ai ที่มันเก่งขึ้นเรื่อยๆก็คงเห็นด้วยแบบเดียวกัน

By: Jirawat
Android
on 19 May 2024 - 11:40 #1312254 Reply to:1312245
Jirawat's picture

เหมือนโดน กั๊กพลังสินะ นู่นก้ทำไม่ได้ นี่ก็ทำไม่ได้ งั้นกรูลาออกเลยละกัน😂 เขาคงมองขาดละ องกรนี้ กลายเป็นองกรสูบกำไรไปซะแล้ว😂 ไม่สมกัชื่อ องกรเพื่ิมนุษยชาติ

By: lingjaidee
ContributoriPhoneAndroid
on 19 May 2024 - 13:38 #1312259 Reply to:1312200
lingjaidee's picture

เมนต์เปรี้ยวโดยเฉพาะ :)


my blog

By: Tasksenger on 19 May 2024 - 11:01 #1312246

ผมว่าน่าจะมีปัญหาลึกๆ กว่านั้นอีก เพียงแต่น่าจะเป็นเรื่องที่เขาพูดไม่ได้ เพราะ xxx - Gemini.