กลุ่มผู้ร่วมก่อตั้ง OpenAI ได้แก่ Sam Altman, Greg Brockman, และ Ilya Sutskever เขียนบล็อกเรียกร้องว่ารัฐต้องเข้ามากำกับการพัฒนาปัญญาประดิษฐ์ฉลาดเหนือมนุษย์ (superintelligence) รูปแบบเดียวกับที่รัฐบาลต้องเข้ามาควบคุมการพัฒนาเทคโนโลยีนิวเคลียร์
ข้อเสนอนี้ระบุชัดว่าควรจำกัดเฉพาะระดับ superintelligence เท่านั้นไม่ควรไปสร้างเงื่อนไขกับปัญญาประดิษฐ์ที่ความสามารถต่ำกว่านี้มากเกินไป
ข้อเสนอระบุ 3 แนวทาง ได้แก่
บทความระบุว่าปัญญาประดิษฐ์เหนือมนุษย์นั้นมีทั้งข้อดีและข้อเสีย หากพัฒนาสำเร็จเราน่าจะแก้ปัญหาต่างๆ ในโลกได้จำนวนมาก และคุณภาพชีวิตมนุษย์ก็จะดีขึ้นมาก และการห้ามพัฒนาไปทั้งหมดก็ทำได้ยากมากเพราะหน่วยงานที่มีความสามารถจะพัฒนาก็มากขึ้นเรื่อยๆ ตามการพัฒนาของเทคโนโลยี
ที่มา - OpenAI