Tags:
Node Thumbnail

Seth Larson นักพัฒนาที่รับผิดชอบส่วนความปลอดภัยของโครงการ Python Software Foundation โพสต์บล็อกแสดงความกังวลต่อการรายงานปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส โดยพบจำนวนการแจ้งปัญหาบั๊กที่คุณภาพต่ำ เป็นสแปม เนื่องจากเป็นรายงานที่ออกมาจากปัญญาประดิษฐ์ LLM เพิ่มมากขึ้น

เขาบอกว่าการตรวจสอบยืนยันปัญหาความปลอดภัยในซอฟต์แวร์โอเพนซอร์ส ต้องใช้ผู้เชี่ยวชาญและสิ่งเหล่านี้คือต้นทุนทั้งแรงงานและเวลา หากแนวโน้มการส่งรายงานปัญหาด้วย AI LLM ไม่มีคุณภาพแบบนี้มีมากขึ้น อาจกระทบต่อคนทำงานให้รู้สึกมีภาระเพิ่มแต่ไม่เกิดประโยชน์ สามารถมองเป็นภัยคุกคามอย่างหนึ่งของชุมชนโอเพนซอร์สได้

Larson บอกว่าในตอนนี้จำนวนรายงานบั๊กจาก LLM ที่มีข้อบกพร่องนั้นอยู่ในระดับน้อยกว่า 10 รายงานต่อเดือน แต่สิ่งเหล่านี้ควรถูกป้องกันแต่เนิ่น ๆ ซึ่งเขาเสนอแนวทางป้องกันไว้หลายแบบ เช่น การป้องกันการส่งแบบสแปม, การเพิ่มระบบเปิดเผยชื่อผู้รายงาน ให้มีความรับผิดชอบมากขึ้น หรือระบบการให้เครดิตผู้รายงาน เป็นต้น

สุดท้าย Larson แนะนำนักล่าบั๊กที่ส่งรายงานความปลอดภัย ให้หยุดการใช้ AI LLM ค้นหาช่องโหว่ เพราะระบบปัจจุบันยังไม่สามารถเข้าใจโค้ด และพฤติกรรมใช้งานของคนได้สมบูรณ์ และต้องใช้คนทำการตรวจสอบช่องโหว่ที่พบซ้ำอีกครั้งก่อนส่งรายงาน เหล่านี้น่าจะช่วยบรรเทาปัญหาที่เกิดขึ้นได้

ที่มา: The Register

No Description

Get latest news from Blognone

Comments

By: nont on 12 December 2024 - 05:12 #1328763

ล่าสุดก็คนไทยครับ ดังกระฉ่อนบน Hackernews

https://news.ycombinator.com/item?id=42361299

By: Azymik on 12 December 2024 - 11:00 #1328786

ชุมชมโอเพนซอร์ส

ชุมชนโอเพนซอร์ส