DeepSeek ประกาศแนวทางการพัฒนาซอฟต์แวร์รันโมเดลปัญญาประดิษฐ์ (inference engine) หลังจากก่อนหน้านี้บริษัทใช้ vLLM รุ่นพิเศษที่แก้ไขภายในเพื่อให้บริการ มาเป็นการทำงานร่วมกับโครงการโอเพนซอร์ส
ก่อนหน้านี้ DeepSeek เปิดซอฟต์แวร์ที่เกี่ยวข้องกับระบบรันปัญญาประดิษฐ์จำนวนมาก โดยซอฟต์แวร์มักเป็นการออปติไมซ์ประสิทธิภาพการรันปัญญาประดิษฐ์บนชิป NVIDIA Hopper ทาง DeepSeek ระบุว่าเคยพิจารณาว่าจะเปิดเอนจินออกมาทั้งชุด แต่พบปัญหา 3 ประการ
แนวทางหลังจากนี้ทาง DeepSeek จะทำงานร่วมกับโครงการโอเพนซอร์สเดิม (น่าจะเป็น vLLM แต่ไม่ได้ประกาศออกมา) โดยจะส่งโค้ดที่เป็นฟีเจอร์เฉพาะทางให้โครงการนำไปใช้ พร้อมกับเข้าไปช่วยออปติไมซ์เอนจินรันปัญญาประดิษฐ์ให้มีประสิทธิภาพสูงขึ้น
แนวทางนี้จะทำให้เอนจินรันปัญญาประดิษฐ์แบบโอเพนซอร์ส สามารถรันโมเดลของ DeepSeek รุ่นใหม่ๆ ได้เต็มประสิทธิภาพตั้งแต่วันแรกที่ปล่อยโมเดลออกมาทำให้คนภายนอกนำโมเดลไปใช้งานได้ง่ายขึ้น
ที่มา - GitHub:DeepSeek-AI