มีเอกสารที่ถูกเผยแพร่จากส่วนหนึ่งของการไต่ส่วนคดีที่ Elon Musk ฟ้อง OpenAI ในประเด็นผิดข้อตกลงการก่อตั้งบริษัท มีการโฆษณาเกินจริง และประเด็นความสัมพันธ์กับไมโครซอฟท์ ซึ่งเป็นอีเมลที่โต้ตอบกันระหว่าง Elon Musk, Sam Altman ซีอีโอ OpenAI และผู้บริหารอีกหลายคน ทำให้เห็นความขัดแย้งภายใน OpenAI โดยเฉพาะความไว้ใจในผู้บริหาร
มีประเด็นเล็ก ๆ จากที่ Geoffrey Hinton หนึ่งในสองนักวิทยาศาสตร์ที่ได้รับรางวัลโนเบลสาขาฟิสิกส์ประจำปี 2024 จากงานวิจัยด้าน Machine Learning ซึ่งที่ผ่านมาเขาให้ความสำคัญเรื่องอันตรายจาก AI มาก จนเลือกลาออกจากกูเกิลเพื่อให้มีอิสระในการวิจารณ์
Hinton กล่าวในโอกาสที่รับรางวัลโนเบล ในงานแถลงข่าวของ University of Toronto โดยตอนหนึ่งเขาบอกว่า "ผมเป็นคนที่โชคดี เพราะมีลูกศิษย์ที่ฉลาดจำนวนมาก ฉลาดมากกว่าผมด้วย พวกเขาออกไปทำในสิ่งที่ถูกต้อง ทำในสิ่งที่ดี ที่ผมภาคภูมิใจเป็นพิเศษก็คือลูกศิษย์คนหนึ่งของผมได้ไล่ Sam Altman ออกด้วย"
Safe Superintelligence หรือ SSI สตาร์ทอัปปัญญาประดิษฐ์ที่ก่อตั้งโดย Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์และผู้ร่วมก่อตั้ง OpenAI ประกาศรับเงินลงทุนมากกว่า 1,000 ล้านดอลลาร์ จากกลุ่มนักลงทุนได้แก่ NFDG (กองทุนโดย Nat Friedman และ Daniel Gross ซีอีโอ SSI), a16z, Sequoia, DST Global และ SV Angel
SSI ไม่ได้เปิดเผยมูลค่ากิจการจากการรับเงินลงทุนรอบนี้ แต่แหล่งข่าวที่เกี่ยวข้องบอกกับ Reuters ว่ามูลค่ากิจการ SSI ตอนนี้อยู่ที่ 5,000 ล้านดอลลาร์
Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ที่ลาออกจากบริษัทเมื่อเดือนที่แล้ว ประกาศตั้งบริษัทใหม่ด้าน AI ชื่อว่า Safe Superintelligence หรือเรียกย่อว่า SSI
Sutskever บอกว่า Safe Superintelligence มีเป้าหมายคือการสร้างปัญญาประดิษฐ์ที่ปลอดภัยเพียงอย่างเดียว สนใจเรื่องเดียว และทำผลิตภัณฑ์เดียว ตามที่ชื่อบริษัทเป็น
ในคำอธิบายของเว็บไซต์ SSI บอกว่า เมื่อบริษัทมีเป้าหมายเดียว ก็แปลว่าฝ่ายบริหารจะไม่เข้ามาสร้างสิ่งอื่น หรือกำหนดรอบการออกผลิตภัณฑ์ ทำให้เป้าหมายการสร้างปัญญาประดิษฐ์ที่ปลอดภัย ไม่ถูกรบกวนจากแผนการหาเงินระยะสั้น