สัปดาห์ที่ผ่านมา Timnit Gebru นักวิจัยด้านจริยธรรมปัญญาประดิษฐ์ (Ethical AI) ได้ออกมาเปิดเผยว่าเธอถูกไล่ออกจากกูเกิลหลังจากพยายามตีพิมพ์งานวิจัยใหม่แต่ถูกผู้บริหารกูเกิลสั่งให้ถอนงานวิจัยออก จนเธอยื่นคำขาดว่าหากไม่ได้ตีพิมพ์งานวิจัยชิ้นนี้เธอจะลาออกจากบริษัท หลังจากนั้นเธอได้รับอีเมลว่าบริษัทตอบรับการลาออกของเธอและเตรียมให้เธอคืนอุปกรณ์ของกูเกิลในภายหลัง และพนักงานกูเกิลจำนวนมากแสดงความไม่พอใจจนลงชื่อไม่เห็นด้วยต่อการเลิกจ้างครั้งนี้มากกว่า 1,500 คน
Timnit เป็นผู้ร่วมวิจัยกับ Joy Buolamwini นักวิจัยของไมโครซอฟท์ในงานวิจัยเมื่อปี 2018 ที่แสดงให้เห็นว่าปัญญาประดิษฐ์จดจำใบหน้ามีแนวโน้มจะจดจำใบหน้ากลุ่มคนผิวสีได้แย่กว่ากลุ่มคนผิวขาวมาก กระตุ้นให้วงการปัญญาประดิษฐ์ศึกษากันมากขึ้นว่าโมเดลปัญญาประดิษฐ์ที่นำมาใช้งานกันกว้างขวางนั้นสร้างผลกระทบต่อชนกลุ่มน้อย หรือมีความโน้มเอียงในรูปแบบใดที่กระทบคนกลุ่มใดเป็นพิเศษหรือไม่
Timnit Gebru เมื่อปี 2018 ภาพโดย TechCrunch
งานวิจัยใหม่ของ Timnit ที่ร่วมกับนักวิจัยอีก 5 คน โดยนอกจาก Timnit เองแล้ว ยังมี Emily M. Bender ศาสตราจารย์ด้านการประมวลผลภาษาจากมหาวิทยาลัยวอชิงตัน (ยังไม่มีการเปิดเผยชื่อนักวิจัยอื่นในงานนี้) ระบุถึงความเสี่ยงของการพัฒนาโมเดลปัญญาประดิษฐ์ประมวลภาษาธรรมชาติทุกวันนี้ ที่โมเดลปัญญาประดิษฐ์มีขนาดใหญ่ขึ้นเรื่อยๆ และทำงานได้ดีขึ้นเรื่อยๆ จนผู้คนเริ่มไว้ใจในงานหลายๆ อย่าง โดยบทนำของงานวิจัยนี้ตั้งคำถามว่ามีการศึกษาความเสี่ยงของการใช้ปัญญาประดิษฐ์เหล่านี้ และมีแนวทางแก้ไขความผิดพลาดของโมเดลเหล่านี้เพียงพอหรือไม่
ความเสี่ยงของโมเดลปัญญาประดิษฐ์ซับซ้อนสูงที่งานวิจัยนำเสนอ มีตั้งแต่การใช้พลังงานในการฝึกปัญญาประดิษฐ์ที่สูงมาก เช่นโมเดล Tranformer นั้นปล่อยคาร์บอนประมาณ 284 ตัน และมีต้นทุนการฝึกแต่ละครั้งที่สูงมากจนกระทั่งมีเฉพาะบริษัทขนาดใหญ่เท่านั้นที่สามารถใช้พัฒนาปัญญาประดิษฐ์แบบนี้ได้ และเนื่องจากโมเดลขนาดใหญ่ต้องอาศัยข้อมูลอินพุตมหาศาล นักวิจัยมักใช้ข้อความทุกประเภทเท่าที่จะกวาดได้จากอินเทอร์เน็ต ไม่ว่าข้อความเหล่านั้นจะเหยียดเพศ, มุ่งร้าย, หรือมีด้านแย่อย่างไรก็ตาม ข้อมูลขนาดใหญ่เช่นนี้ยังทำให้นักวิจัยไม่สามารถตรวจสอบได้ว่าโมเดลปัญญาประดิษฐ์ของตัวเองมีแนวโน้มเหยียดคนกลุ่มใดเป็นพิเศษหรือไม่
แนวทางการสร้างปัญญาประดิษฐ์ที่ใหญ่ขึ้นเรื่อยๆ เช่นนี้ยังดึงความสนใจของนักวิจัย แทนที่จะสร้างโมเดลที่พยายามทำความเข้าใจภาษาอย่างแท้จริง และใช้ข้อมูลในการฝึกลดลง ไปจนถึงใช้พลังงานในการฝึกลดลง สำหรับผู้ใช้งานเองก็อาจจะเข้าใจว่าปัญญาประดิษฐ์เหล่านี้มีความเก่งกาจทั้งที่หลายครั้งมันทำผิดได้โดยง่าย กรณีตัวอย่างเช่นเฟซบุ๊กแปลคำว่า "อรุณสวัสดิ์" ในภาษาอราบิกผิดเป็น "โจมตีมัน" ในภาษาฮีบรู ทำให้นักเรียนปาเลสไตน์ถูกจับกุม (กรณีของไทยก็เคยมีกรณีคล้ายกัน)
หลังจากกูเกิลไล่ Timnit ออก Jeff Dean หัวหน้าฝ่ายวิจัยออกมาชี้แจง ยืนยันว่ากระบวนการตรวจสอบงานวิจัยก่อนเผยแพร่นั้นเป็นเรื่องปกติ และฝ่าย PR ต้องใช้เวลาอย่างน้อยสองสัปดาห์เพื่อยืนยันว่าสามารถตีพิมพ์ได้หรือไม่ แต่ Timnit กลับส่งร่างงานวิจัยให้ตรวจสอบเพียงไม่กี่วัน และเมื่อเขาตรวจสอบก็พบว่ารายงานวิจัยไม่ได้พูดถึงความพยายามแก้ข้อกังวลที่รายงานของ Timnit ได้พูดถึงไปแล้วหลายประการ ทำให้ร่างรายงานวิจัยนี้ไม่ผ่านมาตรฐานการตีพิมพ์ของกูเกิล
อย่างไรก็ดี พนักงานและอดีตพนักงานคนอื่นๆ ของกูเกิลก็ออกมาระบุว่าปกติบริษัทไม่ได้เข้ามาตรวจสอบมาตรฐานงานวิจัยอะไรมากมายนัก Nicolas Le Roux นักวิจัยของ Google Brain ระบุว่าปกติมีการตรวจสอบเพียงเนื้อหาล่อแหลมเท่านั้น ไม่ได้ตรวจสอบว่าอ้างอิงงานคนอื่นครบถ้วนหรือไม่ William Fitzgerald อดีตเจ้าหน้าที่ PR ของกูเกิลก็ระบุเหมือนว่าทีม PR รีวิวงานวิจัยไม่ทันเป็นเรื่องปกติ และไม่เคยมีการลงโทษนักวิจัยที่ไม่ทำตามกระบวนการขนาดนี้ ข้อความที่ขัดกับ Jeff Dean เช่นนี้ทำให้มองได้ว่ากูเกิลมุ่งจะเซ็นเซอร์งานนี้เป็นพิเศษ โดยเอาเรื่องคุณภาพงานวิจัยมาเป็นข้ออ้าง Bender ผู้ร่วมงานวิจัยนี้เองก็ระบุว่าการไล่ Timnit ออกครั้งนี้จะสร้างความกังวล (chilling effect) ต่อการวิจัยด้านจริยธรรมปัญญาประดิษฐ์ในอนาคต
ที่มา - MIT Technology Review, Google Walkout, The Guardian
Comments
ความคิดเห็นแก้คำผิด
ตรวจสอบก็บพว่ารายงาน -> ตรวจสอบก็พบว่ารายงาน
ทำได้รางรายงานวิจัยนี้ไม่ผ่าน?
ตีพิมพ์ได้หรือไม -> ตีพิมพ์ได้หรือไม่
ไมเคยมีการลงโทษ -> ไม่เคยมีการลงโทษ
บล็อก: wannaphong.com และ Python 3
ย่อหน้าสาม
ระบุบุถึงความเสี่ยง > ระบุถึงความเสี่ยง
โดนบทนำของงานวิจัยนี้ > โดยบทนำของงานวิจัยนี้
เหมือนงานวิจัยนี้ จะบอกว่า AI ของกูเกิ้ลเอง มีแนวโน้มที่จะตัดสินใจข้อมูลผิดพลาด
แล้วนักวิจัย ก็ไม่ได้แนะนำว่า จะแก้ไขปัญหานี้อย่างไร
กูเกิ้ลเลยบอกว่า เอาไปแก้มาใหม่ นักวิจัยก็บอกว่า ฉันจะตีพิมพ์
ฝ่ายกู้เกิ้ลเองก็คงต้องการรักษาภาพลักษณ์ของ AI ที่สมบูรณ์แบบที่สุด แต่คนรับเงินไปวิจัยก็ไม่ช่วยแก้ปัญหา แล้วยังจะตีแพ่ปัญหาอีกต่างหาก
ในแง่ของนายจ้าง กูเกิ้ลก็ทำถูกนะรักษาผลประโยชน์ขององค์กร
แต่ในแง่จริยธรรม อืมมม Don't be evil สุดๆ
มันแปลกนะ ที่มีคนพยายามพิสูจน์ว่าทุกสิ่งที่อย่างมัน racist หรือมี racial bias
ผมเห็นด้วยนะว่า AI มันมี แต่มันมีเพราะ input ให้มันเรียนรู้น้อย ไม่ใช่เพราะมัน racist
เหมือนหลายๆ ทฤษฎีครับ คือถ้าคนๆ นั้น"อิน"ในความคิดอะไรบางอย่างแล้ว พอมองไปรอบตัวก็จะรู้สึกว่าเห็นแต่สิ่งนั้น"เต็มไปหมด" (เช่น ทฤษฎีของฟรอยด์ ที่มองอะไรๆ ก็ดูจะเกี่ยวกับเรื่องเพศไปซะหมด ทฤษฎีอํานาจนิยม ทฤษฎีทางการเมือง ฯลฯ) เหมือนคนใส่แว่นสีๆ จะมองอะไรก็เป็นสีนั้นๆ ไปซะหมด
ส่วนในเคสนี้ผมว่าน่าจะเป็นเรื่องอีโก้...
นึกถึงเคส twitter ที่เลือกcrop แต่รูปคนผิวขาวนะ
คือก็ต้องยอมรับก่อนไหมว่ามันมีปัญหานะ ไม่ใช่ไม่มีปัญหานะ “แต่มัน” อะไรแบบนี้
ใช่ครับ มันมีปัญหาแน่นอน ซึ่งควรได้รับการดูแลแก้ไขให้ตรงจุด ไม่ใช่พยายามพิสูจน์ว่ามันเป็น racial bias
รับเงินใคร ก็ทำงานให้กับเขา
การทำงานย่อมมีสายการบังคับบัญชา มีการตรวจสอบ ถ้าหากทำไม่ได้ ก็ไม่ควรอยู่ในองค์กรนั้นๆ
EGO ของนักวิจัยก็ท่าทางจะสูงอยู่
แล้วแน่ใจได้อย่างไรว่างานวิจัยไม่มีอคติอะไร
ยากจริง ๆ ทางออกเรื่องนี้
เอาจริงๆ ปัญหาไม่ใช่เรื่องอีโก้หรอก แต่ไม่ทำตาม procedure ที่ถูกต้อง แล้วก็ไปขู่เอาตัวเองเป็นตัวประกันว่าจะลาออก ทางทีมบริหารเค้าคงไม่ต้องการให้มีพนักงานคนไหนมาขู่อะไรแบบนี้ เค้าก็อนุมัติให้ออกเลย
อคตินั้นเป็นเรื่องส่วนบุคคล ถ้ามันไม่ส่งผลกับภาพรวมของบ. ทีมบริหารคงไม่แคร์หรอก