Disney เผยงานวิจัยในการสร้างภาพเสมือนของวัตถุหรือทิวทัศน์ในแบบ 3 มิติได้โดยอาศัยข้อมูลภาพถ่าย 2 มิติของวัตถุหรือทิวทัศน์นั้นๆ ซึ่งจะสามารถนำไปใช้ประโยชน์ในการสร้างวัตถุเสมือนจริงในการผลิตเกมและภาพยนตร์ต่างๆ ได้เป็นอย่างดี
อัลกอริทึมที่ Disney พัฒนานี้ จะพิจารณาภาพถ่ายวัตถุหรือทิวทัศน์ เพื่อทำการวัดความลึกของวัตถุต่างๆ ในภาพนั้น โดยอ้างอิงจากแสงที่ตกกระทบวัตถุดังกล่าว จากนั้นก็ใช้การทำงานด้วยซอฟต์แวร์สร้างภาพเสมือนของวัตถุจากภาพถ่ายในรูปแบบ 3 มิติที่มีความลึกแตกต่างกันตามที่วัดได้ ทั้งนี้สามารถใช้ภาพถ่ายจากมุมมองที่แตกต่างกันเพื่อเสริมข้อมูลพื้นผิวแก่วัตถุที่อยู่ลึกและโดนบดบังโดยวัตถุอื่นได้ด้วย
เทคนิคการสร้างภาพจำลอง 3 มิติจากภาพถ่ายนี้ เป็นการเพิ่มทางเลือกใหม่ในการผลิตงานภาพ 3 มิติ นอกเหนือจากเทคโนโลยีเดิมๆ ที่ใช้การสแกนวัตถุด้วยลำแสงเลเซอร์อย่างที่นิยมใช้กันอยู่ในวงการเกมและภาพยนตร์ต่างๆ ในปัจจุบัน
ที่มา - Polygon, เอกสารงานวิจัย
Comments
Cool MOM!!!!
Google จัดไป :)
หมายความว่า ก..กกก...กอ.ก๊อ..ป?
แรงบันดาลใจ
Good artists copy. Great artists steal.
มันไม่ง่ายเลยที่จะทำ GIF ให้มีขนาดน้อยกว่า 20kB
ต่อไปตากล้องไม่ถ่ายรูปพริตตี้มอเตอร์โชว์แล้วครับ
ถ่ายแต่วิดีโอเดินวนให้ครบ 360°
:P
:D
เสียดายยังไม่สมบูรณ์ตรงที่มีช่องโหว่สีดำ แต่ต่อไปวงการภาพยนตร์ อนิเมชั่น เกม3D คงพัฒนาขึ้นเยอะเลยถ้าโปรแกรมนี้สมบูรณ์ :-)
ช่องโหว่ดำคือส่วนนั้นภาพไม่ได้ถ่ายไว้ครับ ถ้าถ่ายครบ กล้องอยู่บนเครน ถ่ายจากมุมสูงด้วย ภาพที่ได้จะไม่มีจุดดำครับ
ที่เหลือคือกล้องความไวสูง ถ่ายเก็บให้หมด และคอมพิวเตอร์แรงๆ
มันไม่ง่ายเลยที่จะทำ GIF ให้มีขนาดน้อยกว่า 20kB
เอาภาพในเฟรมอื่นตอนที่เห็นมัน ก็เอามาแปะไง
ถ้าประมวลผลได้เร็ว เอามาใช้กับวงการอุตสาหกรรม น่าจะโคตร work
พวก automation ที่จับสิ่งผิดปกติของผลผลิต
ดูแล้ว เหมือน สองมิติครึ่ง นะครับ แต่พอซ้อนเลเย่อไปมากๆ ก็ไกล้เคียงสามมิติ
ไม่น่าใช่ Algorithm ใหม่นะ
สมัยตอนที่เรียน Image processing เมื่อเกือบๆ 10 ปีที่ผ่านมา ก็โดนการบ้านตัวนี้เลย
วางแจกัน วางหลอดไฟในโปรแกรม 3D ..... Capture มาหลายๆมุม แล้วเอาภาพมาสร้างเป็น model 3D อีกรอบ
+1 มานอนยันอีกคนว่าไม่ใหม่ครับ มีอัลกอริทึมในลักษณะนี้เป็นงานวิจัยมาแล้ว ถ้าจำไม่ผิดไมโครซอร์ฟเองก็เคยทำอะไรแบบนี้กับวัถตุโบราณ
แต่ดูจากวิธีเดาว่าใช้ภาพน้อยกว่า ประมวลผลเร็วกว่า
คุณไม่ได้จดสิทธิบัตรไว้ครับ โฮ่ โฮ่ โฮ่
ตอนเรียนอยู่ผมก็ว่าเห็นงานวิจัยแนว ๆ นี้อยู่เยอะเหมือนกันนา เพื่อนผมบางคนยังทำเป็นวิทยานิพนธ์เลย
เป็นความรู้ทางด้านสำรวจครับ ในภาษาไทยจะเรียกการสำรวจด้วยภาพถ่าย ผมเคยเรียนในวิชา Photogrammetry คนที่เรียนโยธาส่วนใหญ่ไม่ได้เรียน image processing หรือโปรแกรมมิ่งจัดๆ โปรแกรมแนวนี้เลยไม่ค่อยได้พัฒนา
Polygon misleading ไปนะครับ
ถ้าทำภาพ 3 มิติจากภาพถ่าย 2 มิติ แต่หลายมุมมอง เราเรียกศาสตร์นี้ว่า Photogrammetry ครับ ซึ่งมีมานานมาก ๆ แล้ว ใช้หลักเลขาคณิตธรรมดาเท่านั้นเอง (พูดอีกแง่คือใช้หลักเดียวกับการที่ตาเรามอกวัตถุเป็นสามมิติได้นั่นแหละ) ขึ้นรูปเป็นโมเดล 3 มิติได้ละเอียดตราบเท่าที่ขยันพลอตจุดว่าจุดไหนในสองรูปนั้น ๆ เป็นจุดเดียวกัน ซึ่งศาสตร์นี้ค่อนข้างมีหลักการตายตัว ดังนั้นการพัฒนาเครื่องมือจึงมุ่งไปที่ทำยังไงให้ซอฟต์แวร์มันสามารถ recognize ได้เองว่าจุดไหนในสองภาพ (หรือหลายภาพ) นั้น ๆ คือจุดเดียวกัน แล้วค่อยขึ้นรูปเป็นโมเดล แล้วก็เอา texture ยัดลงไปอย่างอัตโนมัติ
แต่กรณีนี้ผมเข้าใจว่าคนละศาสตร์เลยครับ คือแทนที่จะใช้ภาพสองภาพ (ขึ้นไป) มาเทียบกัน เอาภาพเดียวนี่แหละ แล้วตั้งสมมติฐานว่า ความเข้มของแสงแต่ละที่ย่อมจะไม่เท่ากัน ถ้าความลึกของภาพไม่เท่ากัน พอใช้อัลกิลิทึ่มพวกนั้นมาแยกชั้นความลึกแล้ว เราก็แค่แยกเลเยอร์ออกมาเป็นชั้น ๆ หลาย ๆ ชั้นที่สุดเท่าที่อัลกอลิทึ่มจะเอื้อ แล้วใส่ texture ลงไป แค่นี้ก็พอจะ pan ซ้ายขวาขึ้นลงได้บ้างแล้ว แต่แน่นอนว่าวิธีนี้ย่อมมีข้อจำกัดไม่เหมือนวิธี Photogrammetry ที่ขึ้นรูปเป็นโมเดลสมบูรณ์เลย (ต้องใช้ภาพหลายภาพและถ่ายครบทุกมุมมอง) คือมัน pan ได้เฉพาะมุมเล็ก ๆ เท่านั้น (บางคนเรียกว่า Semi-3D)
ทีนี้ทุกคนก็พัฒนาอัลกอริทึ่มกันเพลินเลยครับ ดิสนีย์ก็พัฒนาอัลกอที่ว่านี่มาแข่งเท่านั้นเอง แล้วเคลมว่าได้รายละเอียดมากกกว่า ขึ้นรูปได้เนียนกว่า แถมใช้พลังประมวลผลน้อยกว่าครับ มันไม่ใช่ของใหม่แต่อย่างใด
เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!
โอ...ค่อนข้างเคลียร์ทีเดียวคับ ผมว่าที่ต้องการใช้ภาพหลายมุมมอง ก็เพื่ออุด texture ของวัตถุชิ้นหลังที่โดนบังโดยวัตถุชิ้นหน้าเท่านั้น
จะลองเรียบเรียงเนื้อหาข่าวใหม่อีกทีครับ
ช่างไฟสมัครเล่น (- -")
เห็นด้วยว่า Misleading ครับ ด้วยหลักการแล้วมันไม่ได้ใหม่เท่าไหร่อะครับ
หลักการทั่วไปของวิธีนี้ก็คือเหมือนกับการนำภาพหลายๆ ภาพที่ถ่ายจากหลายๆ มุมมาประกอบกันเป็นภาพสามมิตินั่นแหละครับ แต่ที่เราเห็นกันส่วนใหญ่ก็คือใช้ภาพจากกล้องสองตัว แบบที่คุณ -Rookies- อธิบายในคอมเม้นท์บน (#601091) แต่เพราะรูปจากกล้องสองตัวมันยังไม่พอที่จะเก็บภาพของวัตถุทั้งชิ้นได้ ก็เลยมีการพัฒนาต่อไปด้วยการใช้กล้องจำนวนมากมาถ่ายรูปวัตถุจากมุมต่างๆ กลายเป็นหลักการที่เรียกว่า Multi-view Stereo แทน
แล้วที่ดิสนีย์นำเสนอคืออะไร
ดิสนีย์นำเสนอ "วิธีการสร้าง scene ขึ้นมาจากภาพถ่ายความละเอียดสูงจำนวนมากที่ถ่ายจากมุมใกล้ๆ กัน โดยที่กล้องที่ใช้นั้นถูกเลื่อนเป็นเส้นตรง" คือ ใช้ภาพถ่ายความละเอียดสูงจำนวนมากจากมุมใกล้ๆ กันเพื่อให้สามารถสร้าง scene ความละเอียดสูงขึ้นมา แต่วิธีของเก่ามันไม่แม่นยำ แล้วก็ใช้กับภาพความละเอียดสูงได้ไม่มีประสิทธิภาพ ก็เลยพัฒนาอัลกอริทึ่มนี้ขึ้นมาครับ
onedd.net
ความจริงแล้ว 3D TV ทั่วไปในตลาดตอนนี้ก็ทำ 3D จาก 2D แบบง่ายๆได้อยู่แล้ว
ถ้าภาพไม่ได้แย่มากจนจับไม่ได้นะ
ขนาดพวกละครไทยยังทำเป็น3Dได้แบบ near realtime เลยนะ
ยิ่งชัดๆHDยิ่งไม่มีปัญหา
@ Virusfowl
I'm not a dev. not yet a user.