สหภาพยุโรป เสนอร่างข้อกำหนดควบคุมการใช้ AI โดยจะเป็นนโยบายแรกของโลกในการกำกับดูแลและกำหนดขอบเขตของบริษัทว่าสามารถใช้ AI ได้ถึงระดับไหน เนื่องจาก AI ยังมีปัจจัยเสี่ยงหลายอย่าง ทั้งการคุกคามความเป็นส่วนตัว และความโน้มเอียง
ตัวร่างข้อกำหนดความยาว 108 หน้า แบ่งความเสี่ยง AI เป็น 4 ขั้น
ภาพจาก EU
วัตถุประสงค์ของร่างข้อกำหนดคือ ให้แน่ใจว่า AI ที่ใช้ในตลาดมีความปลอดภัย และเคารพหลักสิทธิขั้นพื้นฐาน และให้มีกฎหมายที่แน่นอน เพื่ออำนวยความสะดวกในการลงทุนพัฒนา AI รวมถึงการปรับปรุงการกำกับดูแลและการบังคับใช้กฎหมายที่มีอยู่ให้ดีขึ้น มีการกำหนดโทษบริษัทที่ฝ่าฝืนกฎ ให้ปรับ 6% ของรายได้
ยุโรปมีความตื่นตัวเรื่องการเฝ้าระวังการใช้เทคโนโลยี ตั้งแต่การออกกฎ GDPR กฎใหม่ควบคุมความเป็นส่วนตัวของข้อมูล ซึ่งช่วยให้ทั่วโลกตื่นตัวเรื่องการปกป้องข้อมูลส่วนตัวของตน กฎใหม่ควบคุม AI จึงอาจเป็นจุดเริ่มต้นของการปรับเปลี่ยนวิธีการทำงานของ AI ในอนาคต
ที่มา - Engadget, New York Times
Comments
แปลว่า EU ต้องนิยามคำว่า AI ก่อน เพราะจริงๆทุกวันนี้ความหมายของคำว่า AI ก็แล้วแต่จะตีความ
ผมว่าถ้าจะนิยามในทางกฎหมาย ก็ควรเหมารวมทั้ง conventional programming ไปด้วยทั้งหมดเลยดีกว่า เพราะ AI ก็ล้วนมาจาก Programming ใช่มั้ยล่ะ
แบบนี้แสดงว่าถ้า Data ที่นำมาใช้ในกระบวนการฝึก AI ละเมิด GDPR กฏหมายนี้จะสามารถเอาผิดควบคู่ไปได้เลยรึเปล่า?
เจอบอทแย่งของ เวลากดซื้อออนไลน์ระดับเสี้ยววินาที
ควรอยู่ความเสี่ยงระดับภัยคุกคามไหม -3-*