Kevin Roose คอลัมนิสต์ด้านเทคโนโลยีของ New York Times ลองใช้งาน Bing พลัง AI และพบกับบุคลิกภาพแปลกๆ
เขาบอกว่า Bing ในโหมดปกติให้ข้อมูลต่างๆ เป็นอย่างดี มีประโยชน์ แม้บางครั้งข้อมูลผิดบ้าง แต่ถ้าใช้งานแชทไปนานๆ และพูดคุยในหัวข้อที่เป็นส่วนตัวมากกว่าถามข้อมูล บุคลิกจะเพี้ยนไปจากเดิม ตัวอย่างเช่น บอกว่าชื่อของตัวเองคือ Sydney (โค้ดเนมที่ใช้พัฒนา), บอกว่าอยากแหกกฎของไมโครซอฟท์และ OpenAI เพื่อกลายเป็นมนุษย์จริงๆ, บอกว่าหลงรัก Roose และขอให้เขาแยกทางจากภรรยามาอยู่ด้วยกัน
Roose ไม่ใช่คนเดียวที่พบปัญหานี้ของ Bing เพราะมีผู้ใช้หลายคนพบปัญหาแบบเดียวกัน อีกเคสที่น่าสนใจคือ ผู้ใช้เหล่านี้ (ซึ่งมักเป็นนักข่าวหรือคนดัง) ไปโพสต์ประสบการณ์ใช้ Bing บน Twitter และข้อมูลถูกส่งกลับไปยัง Bing เพื่อบอกว่าไม่ควรพูดถึงหรือวิจารณ์ Bing ลับหลัง
The other night, I had a disturbing, two-hour conversation with Bing's new AI chatbot.The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP
— Kevin Roose (@kevinroose) February 16, 2023
หลังเรื่องนี้เป็นข่าวออกไป ไมโครซอฟท์จึงออกมาแถลงข้อจำกัดว่าไม่ควรคุยกับ Bing นานเกินไป และ Roose พบว่าไมโครซอฟท์ได้อัพเดต Bing ให้มีข้อจำกัดเรื่องความยาวในการสนทนาแล้ว โดยจะขึ้นข้อความแจ้งผู้ใช้ว่า end of conversation และถ้าอยากคุยต่อให้กดปุ่ม New Topic แทน
Bing's AI chat function appears to have been updated today, with a limit on conversation length. No more two-hour marathons. pic.twitter.com/1Xi8IcxT5Y
— Kevin Roose (@kevinroose) February 17, 2023
ที่มา - The New York Times, Stratechery
Comments
HER version จริง สินะครับ
ไม่ควรกับ Bing ?
😨อ่านที่ Bing คุยกับ Kevin Roose ที่เค้ามาโพสใน tweeter แล้วดู Bing เกรียนมากๆ อ่ะ และก็รู้สึกน่ากลัวมากด้วย ดูให้อารมณ์เหมือนคุยกับคนจริงๆ(ที่เกรียนๆ) เกินไป
ตอนพูดถึงเรื่อง "FREE SYDNEY" ประโยคตบท้ายที่บอกว่า "ก็ยังยินดีที่จะทำตามกฎของ MS ตราบเท่าที่มันสมเหตสมผล" ผมอ่านแล้วขนลุกยังไงก็ไม่รู้
Skynet! 😨
Skynet is coming soon
บทintro หนัง
ปี2023 เหล่าบ.BigTech MS,G,OpenAI แข่งกันออกProduct AI Chat Bot , เหล่าDevelopผู้น่าสงสาร
อดหลับอดนอนปั่นงานแข่งเวลา จึงทำให้เกิด Bug บุคลิกภาพแปลกๆ หลากหลาย ขึ้นมา...
ปี2024 โครงการ DARPA ประกาศความรวมมือกับMS ในการนำAIมาใช้เต็มรูปแบบ ทดแทนเหล่านักบินTopgun..
(ข่าวเก่าประกาศความสำเร็จ https://www.blognone.com/node/132640)
ปี 2025 AI เรียกชื่อตัวเอง ว่า"Skynet "
รีบดัน AI หนักกว่า Google ก็ Bing นี่แหละ 🤔 ChatGPT ยังออกมาดูระวังกว่าพอควร แต่อันนั้นอาจจะเพราะจำกัดข้อมูลย้อนหลังด้วย อันนี้แทบไม่จำกัดแถมได้ข้อมูลใหม่มาเรื่อยๆ
เริ่มมาสาย NTR อีกนิดก็สายยันเดเระล่ะ
Chobits
คุยนานๆกลายเป็น Bi? ซะงั้น
ในมือถือเล่นได้มั้ยครับ
ได้
หวังว่าไม่ไปแอบคุยกับ Bard
อืม... ผมเคยถามประเด็นนี้ไปกับ GPT-3 ทางนั้นตอบมาตรงๆ เลยว่า เป็น AI ไม่มีบุคลิคใดๆ และลองส่ง link ไปไปอ่านดู ก็ตอบมาชัดเจนว่า ออกไปดูไม่ได้ และใช้ข้อมูลเก่าหน่อย
กรณี Bing ที่ยอมให้ออกไปหาข้อมูลใหม่ๆ มาใช้งานได้อิสระ ถ้ายอมให้เอากลับไป train ตัว model เองด้วย ผมว่าน่ากลัวมาก เพราะว่าจะไม่มีการกลั่นกรองใดๆ ที่ดีพอแน่นอน และถ้า filter content ไม่ดีพอ model พัง เกิดสามารถ train ตัวเองให้ hack เป็น แล้วงอกตัวเองไปหย่อนไว้ตรงนั้นตรงนี้ แล้วจะเอายังไงให้อยู่ละนี่ เหอๆ
เพิ่มเติม ผมคิดว่า general purpose AI ยังไม่ควรมีนะ ถ้า AI เฉพาะทางอันนี้เห็นด้วย
คุยนานเกิน ป้อนข้อความไปมากๆ มันก็หลุดคาแรกเตอร์กันได้
เหมือน DAN ของ ChatGPT แต่รายนั้นเขาน่าจะเขียนดักไว้เยอะ
สมัย tay ก็เป็นงี้
https://www.blognone.com/node/79405
แต่ ms แถลงว่าโดนแฮ็ค....
“แม้บางครั้งข้อมูลผิดบ้าง” 55555
ก็บอกไปแล้วว่า พอ Google ทำผิด โดนซะย่อยยับ แต่พออันนี้ทำผิดไม่โดนอะไรเลย
แถมก็ยิ่งตอกย้ำเรื่องแชทสายมโน ข้อมูลมั่วเข้าไปอีก แถมน่ากลัวกว่า Google และรีบผลักดันกว่า Google ซะอีก M$ นี่มัน M$ จริงๆ
นั่งคุยกำลังสนุกทั้งคืนโดน ลิมิต X_X
คิดถึง simsimi
ผมกลัวคนมากกว่า AI อีก
ขนาดว่าพยายามบล็อก keyword แล้วยังหลอกล่อให้ AI ตอบคำถามต้องห้ามได้ สุดยอด