Dmitri Brereton นักวิจัยด้าน Search Engine ตรวจสอบข้อมูลที่แชตบอท Bing ที่ไมโครซอฟท์เปิดตัวสัปดาห์ที่ผ่านมา พบมีข้อเท็จจริงผิดหลายจุดแต่แทบไม่มีใครสนใจ ต่างจาก Bard ของกูเกิลที่ให้ข้อมูลผิดพลาดในโฆษณาก็ส่งผลกระทบต่อราคาหุ้นอย่างหนัก
Brereton ชี้ประเด็นที่ Bing ตอบผิด เช่น คำถามว่าขอให้แนะนำเครื่องดูดฝุ่นขนสัตว์เลี้ยง Bing ก็ตอบข้อดีข้อเสียของรุ่นเด่นๆ มาให้โดยยกตัวอย่าง Dyson และ Bissell Pet Hair Eraser ที่เป็นเครื่องดูดฝุ่นไร้สายทั้งคู่ แต่กลับบอกข้อเสียของ Bissell ว่าสายสั้นเกินไป เพียง 5 เมตร (16 ฟุต) เท่านั้น ขณะที่การสาธิตสรุปรายงานการเงินของบริษัท Gap Inc. ก็ยกตัวเลขมาผิด โดยระบุว่าผลกำไรการดำเนินงานอยู่ที่ 5.9% แม้ว่าจะไม่มีตัวเลข 5.9% ในเอกสารเลย และผลกำไรจากการดำเนินงานจริงๆ อยู่ที่ 4.6% รวมถึงสรุปการคาดการณ์ผลกำไรว่าจะเติบโตถึงเลขสองหลักแม้ในเอกสารไม่ได้ระบุไว้ เมื่อสั่งให้ Bing เปรียบเทียบผลดำเนินงานกับ Lululemon ตัวเลขของ Lululemon ก็ผิดจำนวนมาก
Brereton ระบุว่าการสาธิตที่เตรียมไว้ก่อนยังผิดได้ขนาดนี้แสดงว่าปัญญาประดิษฐ์ยังมีข้อจำกัดอยู่ และอาจจะยังไม่พร้อมที่จะนำมาใช้งานจริง แต่เขาตกใจยิ่งกว่าเมื่อกระแสตอบรับปัญญาประดิษฐ์ตัวนี้ดีมากโดยไม่มีใครเข้าไปตรวจสอบมัน
ที่มา - DKB Blog
Comments
ความคาดหวังมันต่างกัน 55555+ Bing ตอบผิดคนเขาก็เเฉยๆคนเขาว้าวความใหม่อยู่ แต่พอเป็น Google คนจ้องแล้วไหนจะสู้ มีอะไรจะเอามาสู้บ้าง แต่แล้วทั้งที่ข้อมูลมากกว่าแต่กลับตอบผิด คนเขาก็เลยหว่าาาาาา
.
ผมเล่นแชทของ Bing แล้วไม่แปลกที่ Google จะร้อนรน Microsoft เขาเสนอความใหม่ให้เห็นแล้วว้าวมาก คนดูมองเห็นได้เลยว่าอนาคต Bing จะมาดิสรับวงการ Search Engine ได้ยังไง เพราะเสนอสิ่งใหม่นี้ล่ะ
ช้อ => ข้อ
ก็ปกตินะที่จะตอบผิดอ่ะ ขนาดตัวต้นฉบับยังตอบมั่วเลย
แต่เสียดายไม่มีคนสนใจ ไปสนใจแต่ google
ที่คนไม่สนใจเพราะเขารู้กันว่ามันเอามาจาก OpenAI's ChatGPT ซึ่งก็ตอบผิดตอบมั่วเป็นประจำอยู่แล้ว ถ้าตอบถูกต่างหากคนถึงจะสนใจ 5555
แบบนี้จะเรียกว่าเป็นการนำเสนอข้อมูลอันเป็นเท็จเข้าสู่ระบบคอมพิวเตอร์ได้รึเปล่า
ก็ของ Google มันดันตอบผิดในโฆษณาของ Google เองอะ ถ้าผู้ใช้ใช้แล้วมันตอบผิดก็เรื่องนึง แต่นี่มันดันเป็นภาพที่ Google เลือกจะเอามาใช้ promote ไง
อันนี้ก็ผิดกลาง demo จริงๆ นะครับ แล้วก่อนจะพรีเซนท์เค้าก็คงเลือกมาแล้วว่าจะใช้คำถามนี้ๆ รึเปล่า(เดา)
สุดท้ายก็ไม่ได้ fact check ใดๆ พอกัน แค่ Bing ดูล่กน้อยกว่า
ทำยังไงถึงจะทำให้คนทั่วไปเข้าใจว่า AI ไม่ได้ตอบถูกเสมอครับ
แปะ disclaimer ตัวใหญ่ๆ
AI สายมโน ตอบแบบกำกวม
ผมว่ามันไม่ใช่ประเด็นตอบผิดหรือถูกอย่างเดียว
แต่มันเหมือน MS ดูมีวิชชั่นกว่า คือเขาลงทุนมานาน
ส่วน Google เหมือนรีบเอาออกมา เพื่อบอกว่ามีเหมือนกันเฉยๆ
Bing Chatbot = Tay 2.0