ทีมนักวิจัยของแอปเปิลเผยแพร่ผลงาน AI ที่เพิ่มความสามารถเข้าใจบริบท (context) ของคำถามจากผู้ใช้งาน โดยอ้างอิงจากสิ่งที่ปรากฏบนหน้าจอของผู้ใช้งาน
ระบบ AI นี้มีชื่อเรียกว่า ReALM ย่อมาจาก Reference Resolution As Language Modeling เป็นโมเดล LLM ที่สามารถเข้าใจคำถามซึ่งไม่ชัดเจนหรือกำกวม ด้วยการหาข้อมูลเพิ่มเติมจากสิ่งที่ปรากฏบนหน้าจอโทรศัพท์ ทำให้บทสนทนามีความลื่นไหลและเป็นธรรมชาติมากยิ่งขึ้น
ตัวอย่างการใช้งาน เช่น ถามแชทบอตให้แสดงรายชื่อร้านขายยาที่อยู่ใกล้ ตามปกติจะได้คำตอบเป็นรายชื่อร้านขายยา ก็สามารถส่งคำถามต่อไปเช่น "โทรหาร้านที่อยู่ถนน XXX" หรือ "โทรหาร้านล่างสุด" หรือ "โทรหาเบอร์นี้" (หน้าจอมีเบอร์โทรเบอร์เดียว) ซึ่งแชทบอตทั่วไปจะถามกลับขอข้อมูลเพิ่มเติม เนื่องจากคำถามกำกวม แต่ ReALM สามารถทำงานต่อได้เพราะใช้ข้อมูลบนหน้าจอประกอบ ในงานวิจัยนี้ยังทดสอบคำถามประเภทนี้เทียบกับ ChatGPT (ทั้ง GPT-3.5 และ GPT-4) พบว่าทำงานได้ดีกว่า
งานวิจัยนี้ทำให้เห็นทิศทางฟีเจอร์หนึ่งที่แอปเปิลสามารถนำมาใส่ใน Siri ได้นั่นเอง
ที่มา: VentureBeat
Comments
ข่าวต่อมา:) Support Safari Only
...not chrome not Firefox not etc :)