Tags:
Node Thumbnail

OpenAI เปิดตัวความสามารถใหม่ของ ChatGPT เรียกชื่อว่า Deep Research สำหรับการค้นหา วิเคราะห์ รวบรวมข้อมูลในเชิงลึก ที่มาพร้อมผลลัพธ์ซึ่งอธิบายเป็นลำดับขั้นตอน และให้แหล่งอ้างอิงประกอบ

OpenAI บอกว่า Deep Research เหมาะสำหรับคนทำงานที่ต้องอาศัยความรู้เชิงลึกเฉพาะด้าน เช่น การเงิน วิทยาศาสตร์ วิศวกรรม กฎหมาย ซึ่งวิธีการค้นหาข้อมูลเชิงลึกเดิมนั้นใช้เวลามาก เพราะต้องยืนยันความน่าเชื่อถือข้อมูลอย่างเป็นขั้นตอน นอกจากนี้ Deep Research ยังสามารถประยุกต์ใช้กับการค้นหาเปรียบเทียบข้อมูลสินค้าที่มีรายละเอียดเปรียบเทียบเยอะ เช่น รถยนต์ เครื่องใช้ไฟฟ้า

No Description

Deep Research ทำงานบนโมเดล o3 เวอร์ชันปรับแต่ง ผลการทดสอบด้วย Humanity’s Last Exam ที่เป็นคำถามเชิงลึกทางวิชาการ ทำคะแนนได้สูงถึง 25.3% เทียบกับ o1 ที่ 9% และ o3 ที่ 10%

ในการเรียกใช้งานให้เลือกปุ่ม Deep Research ที่กล่องแชท คำถามจะถูกคิดและให้คำตอบด้วยวิธีการเชิงลึกมากขึ้น มีตัวอย่างเปรียบเทียบด้านล่างคือการวิเคราะห์โอกาสตลาดแอป iOS ในประเทศต่าง ๆ ซึ่งหากถาม GPT-4o จะได้คำตอบที่เร็วกว่า เป็นแบบกว้างและไม่ลงรายละเอียดนัก แต่ถ้าใช้ Deep Research คำตอบจะมาพร้อมตาราง ตัวเลข ระบุแหล่งอ้างอิง พร้อมข้อสรุป ซึ่งจะใช้เวลานานกว่าในการให้คำตอบ (OpenAI บอกว่าอาจนานถึง 5-30 นาที)

No Description

ChatGPT Deep Research เริ่มเปิดให้ใช้งานแล้วผ่านเว็บไซต์สำหรับลูกค้า ChatGPT Pro โดยจำกัดที่ 100 คิวรีต่อวัน ส่วนลูกค้า Plus และ Team จะได้ใช้งานเป็นลำดับถัดไป จากนั้นจึงเป็นกลุ่ม Enterprise

OpenAI บอกว่าฟังก์ชัน Deep Research ยังมีข้อจำกัดในการทำงานตอนนี้ และอาจให้ข้อมูลหรืออ้างอิงผิดพลาดได้ รวมทั้งยังไม่สามารถแยกข้อมูลประเภทข่าวลือออกมาได้

ทั้งนี้กูเกิลมีฟีเจอร์ค้นหาข้อมูลเชิงลึกด้วย Gemini ออกมาพร้อมกับ Gemini 2.0 เมื่อธันวาคมปีที่แล้ว

ที่มา: OpenAI

Get latest news from Blognone

Comments

By: Pinery
ContributoriPhoneAndroidIn Love
on 3 February 2025 - 10:00 #1332883

OpenAI บอกว่าฟังก์ชัน Deep Research ยังมีข้อจำกัดในการทำงานตอนนี้ และอาจให้ข้อมูลหรืออ้างอิงผิดพลาดได้ รวมทั้งยังไม่สามารถแยกข้อมูลประเภทข่าวลือออกมาได้

ถ้าระดับ research แล้วคนเอาไปใช้ต่อแบบมีผิดพลาดได้ แบบนี้ก็ไม่ดีนะครับ ตัวเลขจะถูกรึเปล่าก็ไม่รู้ (ต้องไปนั่งไล่อ่านเช็คกับที่มาอีกที)

By: lew
FounderJusci's WriterMEconomicsAndroid
on 3 February 2025 - 11:07 #1332893 Reply to:1332883
lew's picture

ก็เป็นปัญหา classic ของการใช้ LLM ครับ ยังไงเสียคนใช้ก็ต้องรับผิดชอบ output เอง

แต่แน่นอน โลกมันมีคนชุ่ยซื้อรถ Tesla แล้วหาทางหลอกเซ็นเซอร์ กระโดดออกจากที่นั่งคนขับกันเรื่อยๆ ถ้าเป็นพนักงานในบริษัทแล้วทำแบบนั้นกับ LLM ไม่ว่าจะตัวไหน เก่งแค่ไหน ก็ต้องมีมาตรการ


lewcpe.com, @wasonliw

By: shub on 3 February 2025 - 10:35 #1332886

ถ้าวันไหนทำAiที่สามารถคิดวิเคาะห์ด้วยเหตุผลได้ขึ้นมาก็คงจะก้าวกระโดดไปได้ไกล ทุกวันนี้แยกแยะข่าวจริงข่าวเท็จใช้คนยังแยกไม่ออกขนาดงานวิจัยมั่วๆยังได้ออกตีพิมพ์ถ้าไม่มานั่งอ่านให้ละเอียด ถ้ามีเอไอที่สามารถอ่านงานวิจัยเป็นเล่มๆจบได้ในพริบตาและสามารถคิดเชิงวิเคาะห์ด้วยเหตุผลได้นี่สบายละ