Apple Machine Learning Research หน่วยงานวิจัยด้านปัญญาประดิษฐ์ของแอปเปิล เผยแพร่แนวทางการปรับปรุงการทำงานของฟีเจอร์ AI เพิ่มเติม โดยยังยึดพื้นฐานคือการรักษาความเป็นส่วนตัวผู้ใช้งานไว้
หัวข้อแรกเป็นวิธีการปรับปรุงฟีเจอร์ Genmoji ที่ผู้ใช้งานสามารถป้อน prompt เพื่อสร้างอีโมจิผสมผสานขึ้นมาเอง แอปเปิลบอกว่าอุปกรณ์ที่เปิดการทำงาน Device Analytics ซึ่งส่งข้อมูลกลับมาที่แอปเปิลแบบไม่ระบุอุปกรณ์หรือผู้ใช้งาน ทำให้แอปเปิลสามารถเห็นเทรนด์ของอีโมจิผสมที่ผู้ใช้งานนิยม ทำให้สามารถปรับปรุงเฉพาะคำที่นิยมได้ ทั้งนี้แอปเปิลจะไม่รู้ prompt ทั้งหมด รวมถึงข้อมูลผู้ใช้งาน
แนวทางนี้แอปเปิลบอกว่าจะนำมาใช้กับฟีเจอร์สร้างเนื้อหาตัวอื่นทั้ง Image Playground, Image Wand, Memories Creation และ Writing Tools ใน Apple Intelligence รวมทั้ง Visual Intelligence
อย่างไรก็ตามวิธีของ Genmoji เป็น prompt สั้น ๆ โจทย์นี้จึงยากขึ้นเมื่อเป็น prompt ที่มีความยาวอย่างในฟีเจอร์ปรับปรุงการเขียน หรือฟีเจอร์สรุปเนื้อหา แอปเปิลจึงนำเสนอแนวทางจับคู่กับข้อมูลสังเคราะห์ (Synthetic Data)
ขั้นตอนการทำงานนั้น แอปเปิลใช้ปัญญาประดิษฐ์สร้างข้อความสังเคราะห์ขึ้นมาหลายรูปแบบ เช่น ข้อความที่มาจากคำสั่ง "Would you like to play tennis tomorrow at 11:30AM?" จากนั้นแปลงข้อความเป็นข้อมูลฝังซึ่งแทนที่ด้วยลักษณะ เช่น ภาษา ความยาว หัวข้อสำคัญ ข้อมูลฝังจะถูกส่งไปจับคู่กับอุปกรณ์แอปเปิลที่เปิดการทำงาน Analytics เพื่อดูว่าในบรรดาข้อความสังเคราะห์ที่สร้างขึ้นนี้ อันไหนตรงกับที่ผู้ใช้งานมีมากที่สุด แล้วเรียนรู้กลับเพื่อปรับปรุงซ้ำ ทั้งหมดจึงทำให้แอปเปิลปรับปรุง AI ได้ โดยไม่ต้องรู้ข้อมูลของผู้ใช้งาน
Mark Gurman แห่ง Bloomberg บอกว่าแอปเปิลจะเริ่มใช้แนวทางนี้ใน Apple Intelligence ตั้งแต่ iOS 18.5 และ macOS 18.5 เบต้าถัดไป
Comments
เอาจริง Apple ไม่ต้องห่วงเรื่องข้อมูลของผู้ใช้ก็ได้นะ แล้วตราหน้าว่า EU เป็นต้นเหตุของความหละหลวมทั้งหมด แบบตราหน้าแรงๆไปเลย
ข้อมูลฝัง , หมายถึง .. ( Vector ) Embeddings ?
แล้วก็เหมือนจะไม่เชิงเป็น .. โดยไม่ต้องเข้าถึงข้อมูลส่วนตัวผู้ใช้งาน
ตามที่เข้าใจ , เดิมนั้น .. พัฒนาระบบ ด้วย ข้อมูลสาธารณะ กับ ข้อมูลสังเคราะห์ , แต่ก็มีประเด็นว่า พอระบบทำงานกับข้อมูลในเครื่องของผู้ใช้ ระบบเข้าใจข้อมูลผิดเพี้ยนไปจากที่ควรจะเป็น เพราะข้อมูลสังเคราะห์ที่ระบบอิงอยุ่นั้นมีความผิดเพี้ยนประมาณนึงจากที่ควรจะเปน
เพื่อลดความผิดเพี้ยนจากการทำงานโดยอิงกับข้อมูลสังเคราะห์ , ของใหม่ ( คร่าวๆ ) .. จะเลือกข้อมูลสังเคราะห์บางส่วนมาแทนค่า ( embedding ) แล้วส่งมาที่ เครื่องของผู้ใช้ , ในเครื่องของผู้ใช้ก็จะดึงเอาอีเมล์บางอันมาแทนค่า แล้วเอาค่าที่ได้มาประมวลผลกับค่าที่ได้รับ และส่งผลลัพธ์กลับออกไป
แล้วก็เหมือนจะไม่ได้ , ทำให้รู้แนวโน้ม .. สำหรับ ตอนใช้งานทั่วไป , ด้วยมั้ง
แต่จะมี การจับแนวโน้ม , เพื่อเอามาใช้ เลือกข้อมูลสังเคราะห์ ที่จะ นำมาแทนค่าและส่งมายังเครื่องของผู้ใช้
ระบบใหญ่อื่นๆ , เข้าใจว่า ไม่น่าจะต่างกัน มั้ง .. ถึงจะมี ข้อมูลของผู้ใช้ อยู่ ในระบบ , ก็ไม่น่าจะเอา ข้อมูลของผู้ใช้ ไปประมวลผล โดยตรงแบบดิบๆ ( เพื่อป้องกันไม่ให้ ข้อมูลส่วนตัว/ข้อมูลลับ หลุดเข้าอยู่ใน โมเดล , ไม่งั้นเดี๋ยวเกิดมีประเด็นเกี่ยวกับความน่าเชื่อถือ คนก้อจะเลี่ยงใช้งานแล้วจะหารายได้ยังไง )
ต่างกันตรง .. ในระบบของเจ้าอื่นๆ มีข้อมูลของผู้ใช้อยู่แล้ว ก็ประมวลผลในระบบไปเลย ( ถึงจะเปลือง processing/storage แต่พวกนี้ก็ลงทุนสร้างไว้แล้วมีเหลือพอใช้อยู่ ) , แต่ apple ไม่ได้ลงทุนสร้างระบบไว้เหลือพอใช้ ไม่ได้เก็บข้อมูลของผู้ใช้ไว้เอง ก็แบ่งโหลดการประมวลผลมาทำในเครื่องของผู้ใช้ที่เปิด Device Analytics เอาไว้แทน )
ถ้าพี่เป็น FB พี่ก็ทำเหมือนกัน อันนี้เลยตอบหล่อได้ เพราะเน้นขายมือถือ