ไมโครซอฟท์ Innovation Lab ของประเทศอียิปต์เปิดตัวระบบ Mobicast ระบบที่สามารถรวมวีดีโอจากกล้องของโทรศัพท์มือถือหลายตัวให้เป็นวีดีโอเดียวกันได้แบบเรียลไทม์
หลักการทำงานนั้น เมื่อโทรศัพท์มือถือสองเครื่องหรือมากกว่าที่อยู่บริเวณเดียวกันถ่ายวีดีโอซีน (scene) เดียวกัน ระบบที่อยู่ในเครื่องแม่ข่ายจะซิงโครนัสเฟรมที่ได้จากกล้องต่างๆ แล้วใช้การรู้จำภาพ (Image Recognition) ในการพิจารณาว่าแต่ละวีดีโอควรจะต่อกันที่ตำแหน่งไหน
มีการทดสอบที่กรุงไคโร พบว่าระบบดังกล่าวสามารถรวมวีดีโอได้สูงสุดจากโทรศัพท์มือถือ 3 เครื่อง เชื่อมต่อผ่านเครือข่าย WiFi นอกจากนั้นผู้ถ่ายวีดีโอก็สามารถปรับตำแหน่งการถ่ายได้เพื่อให้ผลลัพธ์ดียิ่งขึ้น เนื่องจากระบบทำงานได้แบบเรียลไทม์
ดูวีดีโอการทำงานได้ท้ายข่าว
ที่มา: New Scientist ผ่าน Gizmodo
Comments
จำได้ว่ามันคล้ายๆ กับอันที่มีใน The Dark Knight ใช่มะ แต่อันนั้นมันเกือบทั้งเมือง- -
Pitawat's Blog :: บล็อกผมเองครับ
อันนั้นใช้เสียงมาสร้างเป็นภาพรึเปล่า แต่ก็อารมณ์นี้แหละ เจ๋งไปเลย!
@mamuang
อันนั้นล้ำกว่าเยอะครับ ใช้หลักการคล้าย Sonar แล้ว Render ออกมาเป็น 3D เลย เว่อร์มากครับ
เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!
จากภาพนิ่ง สู่ภาพเคลื่อนไหว... อีกหน่อยไปไหนต่อ 3D ?
พอ HVP (slhvp.com) เปนตัวเปนตน ก้อมารวมร่างทำ AR ผ่าน video ยิ่งอีกหน่อยเครื่องแรงเนทเรวจน process+display ได้แบบ realtime ก้อทำแบบ HUD ได้เลย.. อย่างใน ดราก้อนบอล หรือ ฅนเหล็ก
ส่วน 3D view.. ถ้าเอา public technology ของ microsoft จิงๆ photosynth ก้อทำได้แล้ว เพียงแต่รูปมันน้อย ตอน rotate เลยขัดๆ ถ้ามีรูปเยอะๆ หรือถ่ายตามจุดที่กำหนด ก้อเอามาสร้างภาพแบบเรื่อง เดจาวู ได้สบายๆ
ทำ 3D wireframe ก้อยังพอไหว แต่ถ้าถึงขั้น 3D model นี่คงอีกพักใหญ่ๆ
ทำไมมันดูอนาคตจัง่ะ