Meta ปล่อยโมเดล Segment Anything Model (SAM) เวอร์ชั่นที่สองที่สามารถแยกส่วนวัตถุใดๆ ก็ได้ในภาพ โดยมีความสามารถเพิ่มขึ้นระดับที่สามารถจับวัตถุที่ไม่มีในชุดข้อมูลฝึกมาก่อน
แนวทางการใช้งานโมเดล SAM เช่น การจับการเคลื่อนไหววัตถุ, การสร้างเอฟเฟควิดีโอ, ตลอดจนการลบฉากหลังเมื่อประชุม โดยโมเดลต้องการอินพุตเป็น จุด, กล่อง, หรือพื้นที่ ของเฟรมเริ่มต้น ทั้งแบบ positive พื้นที่แสดงวัตถุกที่ต้องการ, และ negative พื้นที่แสดงว่าไม่ใช่วัตถุที่ต้องการ จากนั้นโมเดลสามารถวาดหาพื้นที่ของวัตถุทั้งหมดได้อัตโนมัติ และสามารถจดจำได้ว่ากำลังจับวัตถุอะไรอยู่
นอกจากตัวโมเดลแล้ว ทาง Meta ยังปล่อยชุดข้อมูล SA-V ที่ใช้ฝึก SAM 2 ออกมาด้วย โดยรวมเป็นการแยกวัตถุกว่า 600,000 รายการ บนวิดีโอ 51,000 รายการ ชุดข้อมูลมีความหลากหลายสูงครอบคลุม 47 ประเทศ และวัตถุที่ระบายไว้ในชุดข้อมูลก็มีความหลากหลาย อาจจะหายไประหว่างทาง หรือเข้าออกจากเฟรมได้ด้วย
โดยทั่วไปแล้ว SAM 2 แสดงประสิทธิภาพได้ดีมาก แต่ยังมีข้อจำกัด เช่น การติดตามวัตถุเมื่อมีวัตถุแบบเดียวกันจำนวนมาก (crowded scene) ทำให้มีบางจังหวะจับวัตถุผิดชิ้นได้
โมเดลเปิดให้ใช้งานได้ฟรีในสัญญาอนุญาตแบบ Apache 2.0 ส่วนชุดข้อมูล SA-V เปิดให้ใช้งานแบบ CC BY 4.0
ที่มา - AI at Meta
Comments
meta นี่เอาจริงก็เล่น AI หนักๆเหมือนกันนะ แถม open กว่า openAI ซะอีก
ตอน llama ถูกปล่อยออกมารัวๆ ดีขึ้นเรื่อยๆ ผมก็ยกย่องเหมือนกันนะ
แต่ก็แอบเผื่อใจ มาทีหลัง openai ที่แมสไปก่อนแล้ว ก็ต้องใช้วิธีให้ฟรีไปก่อน (ในตอนนี้) พี่มาร์คบอกเพื่ออยากให้เป็นมาตรฐานอุตสาหกรรม ได้ใช้กันทุกคน พอใช้กันแพร่หลายที่นี้ละก็ .. เหมือนโซเชี่ยลมีเดียที่กินรวบไปแล้ว จะทำยังไงก็ได้ทีหลัง
WE ARE THE 99%
จริงๆ OpenAI นี่จังหวะ GPT-2 ที่เริ่มใช้งานได้ ก็เริ่มไม่ปล่อยแล้วนะครับ (ปล่อยเฉพาะโมเดลเล็ก)
lewcpe.com, @wasonliw
อ๋อ ผมอาจจะเว้นวรรคผิดไป หมายถึง meta นะครับที่ปล่อยฟรี ซึ่งมาทีหลัง openai ที่แมสไปแล้ว จะเก็บเงินก็เป็นแค่ผู้ตาม อีกอย่างได้ภาพทางบวกมากกว่า เพราะอื้อฉาวเรื่องข้อมูลส่วนบุคคลมาหลายครั้ง
WE ARE THE 99%
ต้องยอมรับว่า เขา shift strategy จาก metaverse มาเป็น generative AI ได้เร็วอยู่นะครับ
Coder | Designer | Thinker | Blogger
ความหลากหลาย