Anthropic ประกาศตั้งโครงการให้เงินสนับสนุนเพื่อการพัฒนาวิธีการและเครื่องมือ ในการทดสอบและประเมินโมเดล AI ในด้านต่าง ๆ โดยบอกเครื่องมือของผู้พัฒนาภายนอกบริษัทด้าน AI เป็นสิ่งที่สำคัญ ในการประเมินความสามารถและความเสี่ยงด้านต่าง ๆ ซึ่งตอนนี้ยังมีอยู่อย่างจำกัด ขณะที่ความต้องการในตลาดมีมากขึ้น และเป็นเรื่องท้าทาย
3 หัวข้อสำคัญที่ Anthropic โฟกัสในการพัฒนาเครื่องมือทดสอบและประเมินโมเดล AI ได้แก่ (1) ระดับความปลอดภัยในการทำงาน (2) ตัววัดผลความสามารถและความปลอดภัยในขั้นสูง เช่น วิทยาศาสตร์งานวิจัย การประเมินข้อมูล ผลกระทบทางสังคม (3) การพัฒนาเครื่องมือและโครงสร้างพื้นฐานรองรับที่มีประสิทธิภาพ สำหรับงานทดสอบโมเดล AI
Anthropic บอกว่าจากประสบการณ์พัฒนาที่ผ่านมา รูปแบบการทดสอบโมเดล AI ที่ดีมีหลายอย่าง เช่น อยู่นอกเหนือชุดข้อมูลที่เทรน, ใช้ทรัพยากรประมวลผลไม่สูง, ทดสอบได้มากครั้ง, มีความเจาะลึกในหัวข้อที่ทดสอบ จึงเป็นที่มาของการประกาศโครงการสนับสนุนดังกล่าว
ที่มา: Anthropic