Tags:
Node Thumbnail

งานวิจัย Generative Search Tools and the Impact on News Content ที่จัดทำโดย Tow Center for Digital Journalism สำรวจว่าเครื่องมือค้นหา AI สามารถดึงข้อมูล และอ้างอิงเนื้อหาข่าวได้ดีแค่ไหน โดยเลือกบทความ 10 ชิ้นจากผู้เผยแพร่แต่ละราย ด้วยคำถามทั้งหมด 1,600 ข้อ

ในการทดสอบครั้งนี้ มีเครื่องมือค้นหา AI ทั้งหมด 8 โมเดล: ChatGPT, Perplexity, Perplexity Pro, DeepSeek, Copilot, Grok 2, Grok 3, และ Gemini

จากการทดสอบพบว่า เครื่องมือ AI มีความผิดพลาดมากกว่า 60% โดยเฉพาะ Perplexity ตอบคำถามผิด 37%, Gemini 76%, และ Grok 3 94% แต่ยังตอบคำถามด้วยความมั่นใจที่น่าตกใจ ขณะที่ ChatGPT ระบุบทความพลาด 134 ชิ้นจากทั้งหมด 200 บทความ แต่ยอมรับว่าไม่มั่นใจกับคำตอบแค่ 15 ครั้ง

ซึ่งโมเดลพรีเมียม หรือที่ต้องเสียเงินรายเดือนอย่าง Perplexity Pro และ Grok 3 ถึงจะตอบคำถามได้ถูกต้องมากกว่าโมเดลฟรี แต่ก็ตอบคำถามผิดมากกว่าเช่นกัน แม้มีต้นทุนที่สูงกว่า และมีข้อได้เปรียบในการคำนวณมากกว่าก็ตาม

alt="Research"

อีกปัญหาที่พบคือ การละเมิดการตั้งค่าไฟล์ robots.txt ที่ใช้บอกบ็อตของเครื่องมือค้นหาว่า เว็บไซต์ไหนบ้างไม่ต้องการให้อ่านข้อมูลไปทำดัชนีค้นหาแต่ Perplexity กลับเข้าถึง และระบุบทความจาก National Geographic ได้อย่างถูกต้อง แม้เว็บไซต์ใช้ robots.txt ก็ตาม

ขณะที่ Copilot แม้จะใช้โปรแกรมค้นหาแบบเดียวกับ Bing (เข้าถึงเนื้อหาจำนวนมากบนเว็บได้) แต่กลับปฏิเสธคำถามมากกว่าตอบคำถามตรง ๆ เป็นการย้ำว่า การเข้าถึงเนื้อหาจำนวนมาก ไม่ได้การันตีว่าเครื่องมือ AI จะให้คำตอบที่ถูกต้องหรือเป็นประโยชน์เสมอไป

นอกจากนี้ เครื่องมือ AI หลายตัวอ้างอิงที่มาบทความผิด หรือใช้เนื้อหาที่ซินดิเคต (syndicated) แทนการอ้างอิงข้อมูลต้นฉบับ เช่น DeepSeek ระบุแหล่งที่มาผิด 115 ครั้งจาก 200 ครั้ง

ซึ่งบางโมเดลแม้ระบุบทความถูกต้อง แต่ก็ให้ลิงก์ต้นฉบับที่ผิด เช่น Perplexity Pro ที่อ้างอิงบทความที่ซินดิเคตจาก Yahoo News และ AOL แม้ได้ทำข้อตกลงกับผู้เผยแพร่บางรายแล้ว

alt="Syndicate"

หรือเครื่องมือ AI บางรุ่นใช้เนื้อหาที่ถูกซินดิเคต หรือไม่ถูกต้องตามลิขสิทธิ์ เช่นเคสของสำนักข่าว USA Today ที่บล็อกไม่ให้โมเดล ChatGPT เข้าถึงเนื้อหา แต่เครื่องมือกลับอ้างอิงบทความจาก Yahoo News ซึ่งเผยแพร่บทความของ USA Today ได้

ยิ่งไปกว่านั้น โมเดล Gemini และ Grok 3 มักเชื่อมโยงคำตอบไปยังลิงก์ต้นฉบับผิด ๆ หรือสร้าง URL ขึ้นใหม่ โดยเฉพาะ Grok 3 ที่อ้างอิงลิงก์ที่ผิดทั้งหมด 154 ครั้งจากทั้งหมด 200 คำถาม ขณะที่แชทบอทอื่น ๆ พบผิดพลาดน้อยกว่าในประเด็นนี้

สรุปแล้ว งานวิจัยชิ้นนี้พบปัญหาที่เคยศึกษาเกี่ยวกับ ChatGPT ในเดือนพฤศจิกายน 2024 นั่นก็คือ เครื่องมือ AI มักให้คำตอบผิด ๆ ด้วยความมั่นใจ, ระบุแหล่งที่มาผิด, และดึงข้อมูลที่ไม่สอดคล้องกัน

ตรงนี้นักวิจารณ์ Chirag Shah และ Emily M. Bender ชี้ว่าเครื่องมือเหล่านี้ขาดความโปร่งใส และมักให้คำตอบที่ไม่ถูกต้องหรือมีอคติ ซึ่งไม่ได้รับการตรวจสอบอย่างเหมาะสม

แต่ด้านประธานเจ้าหน้าที่ฝ่ายปฏิบัติการของนิตยสาร Time มองว่าเมื่อทีมวิศวกรรมเติบโตขึ้น และมีการลงทุนมากขึ้นในเครื่องมือเหล่านี้ ผลลัพธ์จะดีขึ้นเรื่อย ๆ แม้โมเดลฟรีจะตอบไม่แม่นยำ 100% ได้ในตอนนี้

จากงานวิจัยนี้ OpenAI ยืนยันว่าจะปรับปรุงการอ้างอิง และเคารพความต้องการของผู้เผยแพร่ ขณะที่ Microsoft ระบุว่าได้ปฏิบัติตามมาตรฐาน robots.txt เพื่อเคารพข้อกำหนดของเว็บไซต์ต่าง ๆ ที่ไม่ต้องการให้เนื้อหาของพวกเขาถูกใช้กับโมเดล AI ของบริษัท

ที่มา: Digital Trends via Columbia Journalism Review

alt="CRJ"

Get latest news from Blognone

Comments

By: specimen
Windows PhoneAndroid
on 5 April 2025 - 14:26 #1337658
specimen's picture

เมื่อคืนพึ่งเจอ
Gemini คำถามต่อเนื่อง คำตอบพลิกซะงั้น
แล้วแนวคิดเปลี่ยนไปจากวันก่อนคนละเรื่องเลย
เหมือนเมื่อวาน ดูมึน ๆ

ตอนนี้เอาไว้ทำ deep research อย่างเดียว

ที่ผ่านมา ให้เขียนจดหมายก็แข็งเป๊ก จนรู้ว่าไม่ใช่มนุษย์ เอาไปให้ ai อื่นเกลา เจ้าอื่นตอบว่า I will make it more natural