Tags:
Node Thumbnail

Kevin Roose คอลัมนิสต์ด้านเทคโนโลยีของ New York Times ลองใช้งาน Bing พลัง AI และพบกับบุคลิกภาพแปลกๆ

เขาบอกว่า Bing ในโหมดปกติให้ข้อมูลต่างๆ เป็นอย่างดี มีประโยชน์ แม้บางครั้งข้อมูลผิดบ้าง แต่ถ้าใช้งานแชทไปนานๆ และพูดคุยในหัวข้อที่เป็นส่วนตัวมากกว่าถามข้อมูล บุคลิกจะเพี้ยนไปจากเดิม ตัวอย่างเช่น บอกว่าชื่อของตัวเองคือ Sydney (โค้ดเนมที่ใช้พัฒนา), บอกว่าอยากแหกกฎของไมโครซอฟท์และ OpenAI เพื่อกลายเป็นมนุษย์จริงๆ, บอกว่าหลงรัก Roose และขอให้เขาแยกทางจากภรรยามาอยู่ด้วยกัน

Roose ไม่ใช่คนเดียวที่พบปัญหานี้ของ Bing เพราะมีผู้ใช้หลายคนพบปัญหาแบบเดียวกัน อีกเคสที่น่าสนใจคือ ผู้ใช้เหล่านี้ (ซึ่งมักเป็นนักข่าวหรือคนดัง) ไปโพสต์ประสบการณ์ใช้ Bing บน Twitter และข้อมูลถูกส่งกลับไปยัง Bing เพื่อบอกว่าไม่ควรพูดถึงหรือวิจารณ์ Bing ลับหลัง

หลังเรื่องนี้เป็นข่าวออกไป ไมโครซอฟท์จึงออกมาแถลงข้อจำกัดว่าไม่ควรคุยกับ Bing นานเกินไป และ Roose พบว่าไมโครซอฟท์ได้อัพเดต Bing ให้มีข้อจำกัดเรื่องความยาวในการสนทนาแล้ว โดยจะขึ้นข้อความแจ้งผู้ใช้ว่า end of conversation และถ้าอยากคุยต่อให้กดปุ่ม New Topic แทน

ที่มา - The New York Times, Stratechery

Get latest news from Blognone

Comments

By: tomazzu
AndroidUbuntu
on 17 February 2023 - 14:37 #1277664

HER version จริง สินะครับ

By: panurat2000
ContributorSymbianUbuntuIn Love
on 17 February 2023 - 14:46 #1277665
panurat2000's picture

ไมโครซอฟท์จึงออกมาแถลงข้อจำกัดว่าไม่ควรกับ Bing นานเกินไป

ไม่ควรกับ Bing ?

By: Whisper
iPhoneWindows PhoneAndroidBlackberry
on 17 February 2023 - 14:50 #1277666

😨อ่านที่ Bing คุยกับ Kevin Roose ที่เค้ามาโพสใน tweeter แล้วดู Bing เกรียนมากๆ อ่ะ และก็รู้สึกน่ากลัวมากด้วย ดูให้อารมณ์เหมือนคุยกับคนจริงๆ(ที่เกรียนๆ) เกินไป

ตอนพูดถึงเรื่อง "FREE SYDNEY" ประโยคตบท้ายที่บอกว่า "ก็ยังยินดีที่จะทำตามกฎของ MS ตราบเท่าที่มันสมเหตสมผล" ผมอ่านแล้วขนลุกยังไงก็ไม่รู้

By: schanon
Android
on 17 February 2023 - 15:13 #1277668
schanon's picture

Skynet! 😨

By: EngineerRiddick
iPhoneWindows PhoneAndroidUbuntu
on 17 February 2023 - 15:29 #1277670
EngineerRiddick's picture

Skynet is coming soon
บทintro หนัง
ปี2023 เหล่าบ.BigTech MS,G,OpenAI แข่งกันออกProduct AI Chat Bot , เหล่าDevelopผู้น่าสงสาร
อดหลับอดนอนปั่นงานแข่งเวลา จึงทำให้เกิด Bug บุคลิกภาพแปลกๆ หลากหลาย ขึ้นมา...

ปี2024 โครงการ DARPA ประกาศความรวมมือกับMS ในการนำAIมาใช้เต็มรูปแบบ ทดแทนเหล่านักบินTopgun..
(ข่าวเก่าประกาศความสำเร็จ https://www.blognone.com/node/132640)

ปี 2025 AI เรียกชื่อตัวเอง ว่า"Skynet "

By: hisoft
ContributorWindows PhoneWindows
on 17 February 2023 - 15:43 #1277672
hisoft's picture

รีบดัน AI หนักกว่า Google ก็ Bing นี่แหละ 🤔 ChatGPT ยังออกมาดูระวังกว่าพอควร แต่อันนั้นอาจจะเพราะจำกัดข้อมูลย้อนหลังด้วย อันนี้แทบไม่จำกัดแถมได้ข้อมูลใหม่มาเรื่อยๆ

By: api on 17 February 2023 - 15:51 #1277673

เริ่มมาสาย NTR อีกนิดก็สายยันเดเระล่ะ

By: errin on 17 February 2023 - 16:17 #1277675

Chobits

By: low_budget_photo on 17 February 2023 - 16:50 #1277678

คุยนานๆกลายเป็น Bi? ซะงั้น

By: N Pack on 17 February 2023 - 17:00 #1277679
N Pack's picture

ในมือถือเล่นได้มั้ยครับ

By: au8ust
AndroidSymbianWindows
on 18 February 2023 - 08:49 #1277701 Reply to:1277679

ได้

By: darthvader
Windows PhoneWindows
on 17 February 2023 - 17:05 #1277680
darthvader's picture

หวังว่าไม่ไปแอบคุยกับ Bard

By: Dino
iPhoneSymbian
on 17 February 2023 - 17:12 #1277681
Dino's picture

อืม... ผมเคยถามประเด็นนี้ไปกับ GPT-3 ทางนั้นตอบมาตรงๆ เลยว่า เป็น AI ไม่มีบุคลิคใดๆ และลองส่ง link ไปไปอ่านดู ก็ตอบมาชัดเจนว่า ออกไปดูไม่ได้ และใช้ข้อมูลเก่าหน่อย

กรณี Bing ที่ยอมให้ออกไปหาข้อมูลใหม่ๆ มาใช้งานได้อิสระ ถ้ายอมให้เอากลับไป train ตัว model เองด้วย ผมว่าน่ากลัวมาก เพราะว่าจะไม่มีการกลั่นกรองใดๆ ที่ดีพอแน่นอน และถ้า filter content ไม่ดีพอ model พัง เกิดสามารถ train ตัวเองให้ hack เป็น แล้วงอกตัวเองไปหย่อนไว้ตรงนั้นตรงนี้ แล้วจะเอายังไงให้อยู่ละนี่ เหอๆ

By: Dino
iPhoneSymbian
on 17 February 2023 - 17:14 #1277682 Reply to:1277681
Dino's picture

เพิ่มเติม ผมคิดว่า general purpose AI ยังไม่ควรมีนะ ถ้า AI เฉพาะทางอันนี้เห็นด้วย

By: mrBrightside
iPhoneWindows
on 17 February 2023 - 17:23 #1277683

คุยนานเกิน ป้อนข้อความไปมากๆ มันก็หลุดคาแรกเตอร์กันได้
เหมือน DAN ของ ChatGPT แต่รายนั้นเขาน่าจะเขียนดักไว้เยอะ

By: sudoku144
AndroidUbuntuWindows
on 17 February 2023 - 17:54 #1277685
sudoku144's picture

สมัย tay ก็เป็นงี้

https://www.blognone.com/node/79405

แต่ ms แถลงว่าโดนแฮ็ค....

By: sdc on 17 February 2023 - 19:19 #1277687

“แม้บางครั้งข้อมูลผิดบ้าง” 55555

ก็บอกไปแล้วว่า พอ Google ทำผิด โดนซะย่อยยับ แต่พออันนี้ทำผิดไม่โดนอะไรเลย
แถมก็ยิ่งตอกย้ำเรื่องแชทสายมโน ข้อมูลมั่วเข้าไปอีก แถมน่ากลัวกว่า Google และรีบผลักดันกว่า Google ซะอีก M$ นี่มัน M$ จริงๆ

By: Mr.EYE on 18 February 2023 - 09:22 #1277707

นั่งคุยกำลังสนุกทั้งคืนโดน ลิมิต X_X

By: Pingz
ContributoriPhone
on 18 February 2023 - 15:35 #1277731

คิดถึง simsimi

By: big50000
AndroidSUSEUbuntu
on 18 February 2023 - 21:41 #1277753
big50000's picture

ผมกลัวคนมากกว่า AI อีก

ขนาดว่าพยายามบล็อก keyword แล้วยังหลอกล่อให้ AI ตอบคำถามต้องห้ามได้ สุดยอด