กูเกิลทดสอบฟีเจอร์ใช้ Generative AI ช่วยตอบคำถามของผู้ใช้งานผ่านหน้าผลการค้นหามาตั้งแต่ปีที่แล้ว ซึ่งปัจจุบันเรียกชื่อฟีเจอร์นี้ว่า AI Overviews และมีแผนขยายบริการนี้ไปยังผู้ใช้งานทุกคน โดยเริ่มที่สหรัฐอเมริกาในสัปดาห์ที่ผ่านมา จึงทำให้มีรายงานการตอบคำถามของกูเกิลที่ดูไม่ค่อยดีเท่าใดนักออกมา
ผู้ใช้งานคนหนึ่งแชร์คำตอบของคำถามว่า ทำพิซซ่าอย่างไรให้ชีสไม่ไหลหลุดจากแป้ง ซึ่ง AI Overviews ตอบว่าให้ผสมกาวไป 1/8 ถ้วย จะช่วยได้ คำตอบนี้ย่อมไม่ถูกต้องและทำจริงไม่ได้ ที่น่าสนใจคือใน Reddit มีคนค้นพบว่า เคยมีคนตอบแบบนี้เมื่อ 11 ปีที่แล้ว ซึ่งน่าจะเป็นแหล่งข้อมูลที่กูเกิลนำมาใช้ตอบนั่นเอง
ยังมีกรณีคำตอบอื่นที่ผิดปกติไปมาก เช่น John Adams อดีตประธานาธิบดีสหรัฐ เรียนจบ University of Wisconsin-Madison 21 ครั้ง, สุนัขสามารถลงแข่งบาสเกตบอล NBA ได้, Batman เป็นตำรวจ
Meghann Farnsworth ตัวแทนของกูเกิลชี้แจงปัญหาที่เกิดขึ้นว่าส่วนใหญ่เกิดจาก การตั้งคำถามที่ไม่ปกติ และผู้ใช้งานส่วนใหญ่ไม่ได้เจอปัญหาการให้คำตอบแบบนี้ โดยกูเกิลจะนำปัญหาที่เกิดขึ้นนี้มาปรับแก้ไขการทำงานต่อไป
Comments
คำถามแรกมันค่อดธรรมดาเลยนะ
จำได้ว่ามีหนังเก่าอันนึงที่เป็นคนอยู่ดีๆสมองเชื่อมต่อกับอินเตอร์เน็ต เลยสามารถตอบคำถามได้ทุกอย่างเลยไปออกรายการแข่งขันตอบคำถาม ตอบถูกมาทุกข้อแต่ดันมีข้อนึงตอบผิดเพราะข้อมูลที่ได้มาจากบนเน็ตดันเป็นข้อมูลผิด 🤣 สภาพคือเหมือนAiตอนนี้เลยมีข้อมูลเยอะแต่ไม่สามารถแยกแยะได้ว่าอันไหนถูกหรือผิด เอาจริงๆขนาดใช้คนยังแยกยากเลยข้อมูลบางอย่างก็คือเชื่อต่อๆกันมาไม่ได้ผ่านการคิดอะไรเท่าไหร่
garbage in, garbage out.
ดูท่า AI ยังคงต้องการคน clean ข้อมูลไปอีกสักพัก
เห็นเมื่อเช้า มันแนะนำให้คนกินก้อนหินวันละก้อน
มันก็ search engine เวอร์ชั่นสรุปข้อมูลให้นั่นแหล่ะ มันหา pattern ของข้อมูลแล้วเอาเทียบกับ prompt ที่ส่งเข้ามา ถ้ามองว่า prompt คือ dimension ส่วน pattern คือ index ที่ชี้ไปยังข้อมูลใน fact table ที่มีการ train ข้อมูลเพื่อหา pattern เอาไว้ ก็ไม่แปลกที่มันอาจให้ข้อมูลที่ผิดพลาดไปบ้างถ้า index ชี้ไปยังข้อมูลที่ไม่ได้มีการตรวจสอบความถูกต้องมาก่อน