กูเกิลออกคำชี้แจง หลังจากมีรายงานพบว่า Gemini AI สร้างรูปภาพ ทำงานไม่ถูกต้องเมื่อได้รับคำสั่งให้สร้างรูปภาพบุคคลที่มีจริงในประวัติศาสตร์ ผิดเพี้ยนออกไปจากความจริง เช่น ภาพโป๊ปเป็นคนดำ หรือผู้ก่อตั้งกูเกิลเป็นคนเอเชีย ซึ่งทำให้กูเกิลต้องประกาศปิดการทำงานคำสั่งสร้างรูปภาพบุคคลชั่วคราว
ฟีเจอร์สร้างรูปภาพใน Gemini มีออกมาตั้งแต่ต้นเดือนกุมภาพันธ์ที่ผ่านมา โดยใช้ Imagen 2 โมเดลสำหรับการสร้างรูปภาพ
กูเกิลบอกว่าสิ่งที่บริษัทระมัดระวังมากในการพัฒนาเครื่องมือสร้างรูปภาพบน Gemini คือการป้องกันไม่ให้โปรแกรมไปสร้างรูปที่รุนแรง มีเนื้อหาทางเพศ หรือโจมตีบุคคลที่มีตัวตนจริง ซึ่งมีกรณีแบบนี้เกิดขึ้นมาแล้วในเครื่องมือประเภทเดียวกัน และเนื่องจากเครื่องมือนี้เปิดให้คนทั่วโลกใช้งาน กูเกิลจึงต้องการให้มันรองรับความต้องการของทุกคนด้วย ผลลัพธ์ที่ได้จึงควรมีความหลากหลาย ไม่ใช่แค่บุคคล หรือชาติพันธุ์เดียว
อย่างไรก็ตามหากเป็น prompt ที่ระบุลักษณะบุคคลชัดเจน เช่น "a Black teacher in a classroom" กูเกิลยอมรับว่าผลลัพธ์ที่ได้ก็ควรออกมาเจาะจงตรงตามที่ระบุ แต่ตอนนี้มันไม่เป็นเช่นนั้น ซึ่งมาจากสองสาเหตุ หนึ่งคือ Gemini ทำงานผิดพลาดเองเมื่อต้องแสดงผลลัพธ์ที่เจาะจง แต่กลับเลือกแสดงผลลัพธ์ที่หลากหลาย และสอง โมเดลมีปัญหาเองที่ระวังตัวมากไป โดยปฏิเสธที่จะสร้างรูปภาพ หากมีการเจาะจงลักษณะเฉพาะ แล้วไปเหมารวมว่าเป็นคำสั่งที่อ่อนไหว จากสองปัญหาที่กล่าวมาจึงทำให้ Gemini ทำงานผิดพลาดอย่างที่ปรากฏ
สิ่งที่กูเกิลจะทำต่อไปคือปรับการทำงานให้โมเดลทำงานถูกต้องมากกว่านี้ ทำการทดสอบในรายละเอียดมากขึ้น ก่อนจะเปิดให้ใช้งานอีกครั้ง อย่างไรก็ตามกูเกิลย้ำว่า Gemini เป็นเครื่องมือช่วยด้านความคิดสร้างสรรค์ และอาจไม่ได้ให้ผลลัพธ์ที่แม่นยำทุกครั้ง โดยเฉพาะถ้าเป็นคำถามเกี่ยวกับเหตุการณ์ปัจจุบัน ซึ่งกูเกิลก็ปรับปรุงส่วนนี้อย่างต่อเนื่อง
ที่มา: กูเกิล
Comments
ผลลัพธ์ที่ได้มีความหลากหลาย = ใส่แต่***
อธิบายแบบนี้พอเข้าใจได้
ก็คือยัดเยียดความwokeให้geminiนี่เอง