ไมโครซอฟท์อัพเดต Bing จำกัดจำนวนการแชทไม่เกิน 50 รอบต่อวัน และไม่เกิน 5 รอบต่อเซสชันการใช้งาน (1 รอบ = ถาม + ตอบ) เพื่อป้องกันปัญหาพฤติกรรมการตอบเพี้ยนหลังใช้งานไปนานๆ
ไมโครซอฟท์บอกว่าจากสถิติการใช้งาน คนส่วนใหญ่ได้คำตอบจากการแชทไม่เกิน 5 รอบ และมีเพียง 1% ที่แชทยาวเกิน 50 ข้อความ ดังนั้นหากคุยเกิน 5 รอบแล้วจะได้คำเตือนให้เริ่มเซสชันการคุยใหม่แทน เพื่อป้องกันไม่ให้โมเดลสับสน
ช่วงหลังเริ่มมีผู้ใช้ค้นพบว่า พบ Bing มีสองบุคลิก มีพฤติกรรมแปลกๆ เช่น บอกว่าอยากเป็นมนุษย์ หลงรักผู้ใช้ ขอให้เลิกกับภรรยามาอยู่ด้วยกัน ทำให้ไมโครซอฟท์ต้องรีบออกมาชี้แจง
ที่มา - Microsoft
Comments
saveน้อนเอไอ
เอาจริงมันเพี้ยนมาตั้งแต่แรกๆ แล้ว ตอนที่ลองครั้งแรกยังสงสัยว่านี่เหรอที่จะเอามาปราบ Google Search คือยิ่งคุยยิ่งประหลาด จนคนข้างๆ ผมบอกว่าเหมือนคุยกับ SimSimi หลายๆ ครั้งถามรายละเอียดแล้วก็ไล่ให้ไปหาข้อมูลเอาเองอีก งงสุด
ณ ตอนนี้ ChatGPT ดูจะโอเคสุดแล้วถึงแม้จะข้อมูลเก่า แล้วก็ logic เพี้ยนบ้างในหลายกรณี
ทำอย่างกับคนไล่ไปหา google เอง แกเป็น Search Engine ลืมตัวเองไปแล้วหรอ
/>o</
จริง ๆ ChatGPT ผมก็รู้สึกว่ามันตอบช้าเกินไป
มัวแต่พิมพ์กว่าจะเสร็จ แถมไม่รู้ว่าผลลัพธ์จะโอเคไหมอีก
ไป google เร็วกว่า แล้วเจอผลลัพธ์ที่ตรงกว่า 😅
เอาไว้ใช้แบบทั่วไปโอเคอยู่ แต่เอามาช่วยทำงาน ยังไม่ไหว
ดูเหมือนผู้คนจะอินกันเยอะไปหน่อย แล้วก็คาดหวังเกินความสามารถน้องไปเยอะเลย
ช่วงนี้เฮฮากับข่าวน้องแชทมาก 555
..: เรื่อยไป
ก็ว่าแล้วนั่งคุยกับบิงกำลังสนุกเลยอยู่ๆ เอ้าเลิกตอบซะงั้น แล้วก็ขึ้นข้อความลิมิตรตอนเล่นไปสักพักก็ งง 55555+
ข่าวร้ายสำหรับคนไม่ค่อยมีเพื่อนคุย
ผมนั่งคุยกับ ChatGPT เริ่มอยากรู้เรื่องคนอื่นมากขึ้น
แรก ๆ ถามถึงบุคคล เช่น ท่านนายก อดีตนายกดูไบ
จะตอบว่าไม่สามารถหาข้อมูลเกี่ยวกับบุคคลได้ หลัง ๆ ถามแบบเดิม จะให้เราบอกว่าเขาเป็นใคร ถามกลับ ให้เราป้อนข้อมูลให้
ทำอีกโหมดนึงไว้คุยเล่นเป็นเแบบ simsimi เลยครับ เนียนกว่าฉลาดกว่า ดูเหมือนเหมือนคนมากกว่า สนุกดี
/>o</
ตอนนี้ลองเล่นพบว่ามันมีความน่ากลัวบางอย่าง ที่ต่างจากการ search แบบปกติ
สำหรับ chat gpt มันมีความเนียน ข้อมูลที่มันให้ถึงแม้เป็นข้อมูลที่ผิดแต่มันก็เรียบเรียงเสมือนหนึ่งว่าเป็นข้อมูลที่ถูกต้อง ถ้าเราไม่รู้ข้อมูลจริงมาก่อนเราอาจจะคิดว่านี่คือข้อมูลที่ถูกต้องและแท้จริง เจอหลายเรื่อง หลายครั้งแล้ว
บางครั้งความเนียนของมันก็ทำให้เราเองหวั่นไหว ว่าเราจำผิดหรือเปล่า ต้องกลับไปเปิดตำรากันใหม่เลย อันนี้น่าจะเป็นสิ่งที่น่ากลัวอย่างแท้จริง มากกว่าจะไปกลัวอะไรไร้สาระเช่นกลัวว่ามันจะมีความคิดเป็นคน
search engine แบบเดิมไม่ค่อยน่ากังวลเพราะถ้ามันไม่รู้ก็คือหาไม่เจอ มันไม่สามารถที่จะสร้างเรื่องขึ้นมาให้คำตอบเราได้ แต่ระบบใหม่เราไม่สามารถรู้ได้เลยว่าข้อมูลไหนเป็นข้อมูลจริงหรือข้อมูลที่ถูกสร้างขึ้นมา ถ้าเราไม่รู้คำตอบอยู่ก่อนแล้ว แต่ถ้าเรารู้คำตอบอยู่ก่อนแล้วเราก็คงไม่ต้องไปถามมันนอกจากจะทดสอบ แต่ถ้าคิดจะไปหาความรู้จากสิ่งนี้ มันมีความเสี่ยงที่คุณจะได้ความรู้ผิดๆจากระบบนี้โดยไม่รู้ตัว
ระบบมีความสามารถในการจับแพะชนแกะสูงมาก เอาข้อมูลที่ถูกต้องของเรื่องนึง มาผสมกับเรื่องที่เราถาม ทำให้ดูเหมือนกับสิ่งที่เป็นคำตอบเป็นสิ่งที่ถูกต้องได้เหมือนจริงมากๆเพราะเป็นการเอาความจริงมาผสมกับความมั่ว เนียนกริบ
ใช่เลย เคยถามหาโซลูชั่นในการแก้ไขปัญหาการเขียนโปรแกรมก็ตอบมาผิดๆก็มี ถูกก็มี สุดท้ายก็ต้อง google เพิ่ม หรือทดลองเองเหมือนเดิม ส่วนตัวเลยยังให้ความสะดวกต่ำกว่าการ google
อันนี้คือปัญหาของ ai chat ตอบผิดแบบมั่นใจ
ส่วน search engine ตอนนี้เผชิญกับปัญหา ใหม่ คือ
เว็บปลอมปั๊ม seo และเว็บโดนแฮค เพื่อปั๊ม seo
ซึ่งตอนนี้เริ่มมีเยอะมากๆ
ทุกวันนี้ผมใช้ site:<โดเมน> เพื่อบังคับว่าต้องหาจากโดเมนที่กำหนดเท่านั้น ไม่งั้น Google จะเอาเว็บไซต์ทำ SEO มาให้ตลอดครับ
ต่อไปพวก AI Chat คงต้อง 4Chan-proof ก่อนล่ะมั้ง
บล็อกส่วนตัวที่อัพเดตตามอารมณ์และความขยัน :P