เมื่อวันพฤหัสบดีที่ผ่านมา IBM โดยแผนก IBM Research และมหาวิทยาลัย Carnegie Mellon ของสหรัฐอเมริกา ประกาศเปิดตัวแพลตฟอร์มและเครื่องมือสนับสนุนอื่นๆ เพื่อให้สามารถสร้างแอพสำหรับช่วยเหลือผู้พิการทางสายตาบนสมาร์ทโฟน ให้นำทางและรับรู้ถึงบรรยากาศรอบตัวได้ดียิ่งขึ้น
นักวิจัยจากทั้งสองสถาบันได้สร้างเครื่องมือดังกล่าวไว้บนระบบคลาวด์ Bluemix ของ IBM และได้พัฒนาแอพต้นแบบที่มีชื่อว่า NavCog ซึ่งใช้ตัวตรวจจับ (sensor) ต่างๆจากสมาร์ทโฟน, iBeacon, และใช้เทคโนโลยีในการรับรู้และจดจำ (cognitive technologies) ในการแจ้งให้กับผู้พิการทางสายตาถึงสภาพแวดล้อมโดยรวม ซึ่งรวมไปถึงตัวบุคคลด้วย (ลองดูวิดีโอท้ายภาพ) ด้วยการส่งเสียงผ่านหูฟังหรือการสั่นของโทรศัพท์มือถือ ทำให้ผู้พิการสามารถเดินทางไปตามสถานที่ต่างๆ ด้วยตนเอง
เปิดให้นักพัฒนาเข้าถึงแพลตฟอร์มและอุปกรณ์ต่างๆ ได้แล้วบนคลาวด์ของ Bluemix ส่วนตัวแอพ NavCog นั้นถือเป็นข่าวดี เพราะ IBM ระบุว่าจะเปิดให้ดาวน์โหลดเร็วๆ นี้ แต่ยังไม่ระบุแพลตฟอร์มครับ
ที่มา - IBM
Comments
เจ๋งแฮะ ชอบๆ แต่มือถือจะรันไหวหรอครับ เรียลไทม์แบบนี้