ในบรรดาการเปิดตัวด้านปัญญาประดิษฐ์ของกูเกิลในงาน Google I/O ปีนี้ ส่วนที่เกี่ยวข้องกับนักพัฒนาที่สุดคงเป็น ML Kit ที่ช่วยให้การนำโมเดลปัญญาประดิษฐ์ที่พัฒนาขึ้นเองไปรันบนอุปกรณ์โดยตรงทำได้ง่ายขึ้น แต่ปัญหาสำคัญคือโทรศัพท์มักมีหน่วยความจำและพลังประมวลผลไม่สูงนัก การนำโมเดลขนาดใหญ่ไปรันมักจะรันไม่ไหว แต่กูเกิลก็เปิดบริการ Learn2Compress ให้บริการย่อขนาดโมเดลนิวรอนให้เล็กลงโดยคงความแม่นยำให้ใกล้เคียงของเดิม
Learn2Compress อาศัยเทคนิค 3 อย่างหลักในการย่อขนาดโมเดลนิวรอน ได้แก่
กูเกิลได้ใช้ Learn2Compress ย่อโมเดลเช่น NASNet ขนาด 54MB ที่ทำนายการจัดหมวดหมู่ภาพจากชุดข้อมูล CIFAR-10 ได้แม่นยำถึง 97.6% สามารถย่อไปจนเหลือขนาดโมเดลเพียง 0.5MB หรือเพียง 1 ใน 100 แต่ความแม่นยำยังได้ที่ 90.2%
Learn2Compress ยังเปิดให้ใช้งานในวงจำกัด ต้องลงทะเบียนล่วงหน้าและได้รับคำเชิญให้เข้าใช้งานเท่านั้น
ที่มา - Google AI