กูเกิลเปิดไลบรารี MediaPipe Iris ไลบรารีโอเพนซอร์สในชุดเฟรมเวิร์ค MediaPipe สำหรับการจับทิศทางการมองจากดวงตา ทำให้การวิเคราะห์ภาพสามารถแยกจุดของตาตำ (iris) ออกมาได้อย่างชัดเจน เปิดทางให้นักพัฒนาสามารถสร้างภาพแทนตัว (avatar) ที่ส่งสายตาเลียนแบบผู้ใช้ได้
ภาพ avatar เลียนแบบผู้ใช้ที่จับจากใบหน้าอย่างเดียว (กลาง) และภาพที่เลียนแบบมุมมองสายตา (ขวา)
ทีมงานอาศัยภาพดวงตา 50,000 ภาพจาก กระจายไปตามสภาพแสง, ท่าทางของคนในภาพ, และเชื้อชาติของคน จากนั้นวาดพื้นที่ของดวงตา (eyelid) ที่รวมทั้งตาขาวและตาดำ และแยกตาดำ (iris) ออกมาเพื่อใช้ฝึกโมเดลปัญญาประดิษฐ์ โมเดลโดยรวมจะรับภาพพื้นที่รอบๆ ดวงตา แล้วส่วนท้ายของโมเดล deep learning จึงแยกการทำนายดวงตาและตาดำออกจากกัน
นอกจากการใช้ตรวจจับสายตาของคนในภาพแล้ว พื้นที่ตาดำของคนเรานั้นยังมักใกล้เคียงกันมาก อยู่ที่ 11.7 มิลลิเมตร +- 0.5 มิลลิเมตรเท่านั้น ทำให้หากเราวัดขนาดตาดำในภาพได้ และรู้ระยะโฟกัสของเลนส์ถ่ายภาพ ทีมงานพบว่าหากวัดขนาดตาดำในภาพแล้วก็สามารถบอกระยะทางจากใบหน้าถึงหน้าจอได้โดยความผิดพลาดเฉลี่ย 4.3% เท่านั้น
การคำนวณระยะห่างจากใบหน้าถึงหน้าจอด้วยการหาขนาดตาดำ
เฟรมเวิร์ค MediaPipe สามารถใช้งานได้ทั้งบนเดสก์ทอป, อุปกรณ์เคลื่อนที่, และบนเว็บ โดยข้อมูลทั้งหมดประมวลผลอยู่ในอุปกรณ์โดยตรง ไม่ได้ส่งข้อมูลขึ้นคลาวด์ใดๆ
ที่มา - Google AI Blog
Comments
เทคโนโลยีกล้องในอีก 5 ปีน่าสนใจ
ถ้ามีป่านนี้ไม่ต้องมาเถียงเรื่องรถขับในมุมแืยงแล้ววว
น่าเอามาใช้แสดงผลภาพ 3 มิตินะ
มันวัดระยะอย่างอื่นไม่ได้นะครับ วัดตาได้อย่างเดียว
(แต่ถ้าเป็นภาพหมู่แล้วบอกได้ว่าใครอยู่หน้าหลังแบบนี้บอกได้)
lewcpe.com, @wasonliw
เห็นแล้วนึกถึงฟีเจอร์ติดกล้องบน TV ป้องกันไม่ให้เด็กนั่งดู TV ใกล้เกินไป (ตอนเด็ก ๆ โดนมากับตัว)
น่าสนใจเวลาซูมเข้าซูมออกอ่าน text
มือใหม่!! ใหม่จริงๆนะ
แล้วคนตาเขล่ะจะวัดยังไง แต่ละคนเขไม่เท่ากันด้วย หรือมีข้อมูลทางการแพทย์ของภาพตัวอย่าง
เป็นความยากของนักพัฒนาเค้าไปละกัน
คงมีวิธีปรับกันตอน calibrate มั้งครับ