OpenAI ประกาศเฟรมเวิร์กสำหรับการเตรียมความพร้อม เพื่อใช้ในการประเมินว่าโมเดล AI นั้น มีความปลอดภัยแค่ไหน ซึ่งคาดว่าจัดทำเพื่อให้การตรวจสอบ AI ว่าปลอดภัยหรือไม่เป็นขั้นเป็นตอนที่ชัดเจนขึ้น
โดย OpenAI มีทีมที่รับผิดชอบด้านความปลอดภัยของ AI อยู่แล้ว ซึ่งมีหน้าที่ดูแลตรวจสอบโมเดล AI ต่าง ๆ แบ่งเป็น 3 กลุ่มคือ โมเดลที่ดีพลอยแล้ว เป็นระบบที่ปลอดภัย, โมเดลที่อยู่ในขั้นตอนเตรียมความพร้อม (Preparedness) ซึ่งต้องประเมินความปลอดภัยตามเฟรมเวิร์กก่อนดีพลอย และโมเดลความสามารถสูงในอนาคต (Superalignment)
เฟรมเวิร์กเพื่อการเตรียมความพร้อม (Preparedness Framework) ใช้การประเมินและลงคะแนนในสกอร์การ์ด แบ่งเป็นระดับต่ำ กลาง สูง และรุนแรง โดยดูความปลอดภัย 4 ด้านคือ ความปลอดภัยทางไซเบอร์, CBRN (AI สร้างสูตรเคมี, ชีววิทยา, รังสีวิทยา และนิวเคลียร์), AI โน้มน้าวความคิดคน และ AI ที่มีความคิดอิสระ (Model Autonomy) ซึ่งภาพรวมต้องได้คะแนนในระดับ ต่ำหรือกลาง เท่านั้น จึงสามารถดีพลอยโมเดล AI นั้น หากสูงกว่านั้น จะต้องไปปรับการใช้งานให้คะแนนต่ำลงก่อน
เมื่อผ่านการให้คะแนนในเฟรมเวิร์ก ทีมความปลอดภัยจะส่งต่อให้กลุ่มทำงานหลักพิจารณา แล้วส่งต่อให้กับฝ่ายบริหารเพื่อตัดสินใจขั้นตอนสุดท้ายว่าจะดีพลอย AI นี้หรือไม่ โดยให้สิทธิยับยั้งสำหรับบอร์ดบริษัทหากมองว่ามีความเสี่ยง
ดูรายละเอียดทั้งหมดของ Preparedness Framework ได้ที่นี่
ที่มา: OpenAI
Our Preparedness Team will drive technical work, pushing the limits of our cutting edge models to run evaluations and closely monitor risks, including during training runs. Results will be synthesized in scorecards that track model risk. pic.twitter.com/ybv2dHhLss
— OpenAI (@OpenAI) December 18, 2023
Comments
แล้วถ้าเจอแกล้งโง่ละทำคะแนนตัวเองให้ไม่สูงเกินไป