Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ที่ลาออกจากบริษัทเมื่อเดือนที่แล้ว ประกาศตั้งบริษัทใหม่ด้าน AI ชื่อว่า Safe Superintelligence หรือเรียกย่อว่า SSI
Sutskever บอกว่า Safe Superintelligence มีเป้าหมายคือการสร้างปัญญาประดิษฐ์ที่ปลอดภัยเพียงอย่างเดียว สนใจเรื่องเดียว และทำผลิตภัณฑ์เดียว ตามที่ชื่อบริษัทเป็น
ในคำอธิบายของเว็บไซต์ SSI บอกว่า เมื่อบริษัทมีเป้าหมายเดียว ก็แปลว่าฝ่ายบริหารจะไม่เข้ามาสร้างสิ่งอื่น หรือกำหนดรอบการออกผลิตภัณฑ์ ทำให้เป้าหมายการสร้างปัญญาประดิษฐ์ที่ปลอดภัย ไม่ถูกรบกวนจากแผนการหาเงินระยะสั้น
SSI จะเป็นบริษัทอเมริกาโดยมีสำนักงานอยู่สองเมืองคือ Palo Alto และ Tel Aviv (อิสราเอล) เพื่อรองรับการหาทีมงานที่มีฝีมือมาร่วมงาน งานเดียวคือวิศวกรรมวิจัยในการสร้างปัญญาประดิษฐ์ปลอดภัย ไม่มีอย่างอื่น
Ilya Sutskever เคยมีตำแหน่งเป็นหัวหน้าด้านวิทยาศาสตร์ของ OpenAI ซึ่งเขาเป็นหนึ่งในตัวละครสำคัญของเหตุการณ์ไล่ออกซีอีโอ Sam Altman เพราะเป็นหนึ่งในบอร์ดที่ลงมติไล่ออกในตอนนั้น แต่ต่อมาก็เปลี่ยนกลับมาสนับสนุน ทำให้สถานะของ Ilya ใน OpenAI ไม่เหมือนเดิมอีกต่อไป จึงทำให้เขาลาออกในที่สุด
ที่มา: SSI
We will pursue safe superintelligence in a straight shot, with one focus, one goal, and one product. We will do it through revolutionary breakthroughs produced by a small cracked team. Join us: https://t.co/oYL0EcVED2
— Ilya Sutskever (@ilyasut) June 19, 2024
Comments
ออกมาตั้งเองแบบนี้แสดงว่า Sam กำลังทำอะไรที่ดูเป็นภัยใน OpenAI อยู่แหงๆ
แตกคอกันเพราะเรื่องนโยบายหาเงินไม่ตรงกันนี่เอง
คนนี้น่าจะเก่งเรื่อง AI กว่า Sam อีกนะผมว่า
คงไปเจอแนวโน้มอะไรเข้าใน OpenAI