Tags:
Node Thumbnail

DeepSeek ประกาศแนวทางการพัฒนาซอฟต์แวร์รันโมเดลปัญญาประดิษฐ์ (inference engine) หลังจากก่อนหน้านี้บริษัทใช้ vLLM รุ่นพิเศษที่แก้ไขภายในเพื่อให้บริการ มาเป็นการทำงานร่วมกับโครงการโอเพนซอร์ส

ก่อนหน้านี้ DeepSeek เปิดซอฟต์แวร์ที่เกี่ยวข้องกับระบบรันปัญญาประดิษฐ์จำนวนมาก โดยซอฟต์แวร์มักเป็นการออปติไมซ์ประสิทธิภาพการรันปัญญาประดิษฐ์บนชิป NVIDIA Hopper ทาง DeepSeek ระบุว่าเคยพิจารณาว่าจะเปิดเอนจินออกมาทั้งชุด แต่พบปัญหา 3 ประการ

  1. โค้ด vLLM ของ DeepSeek แยกจากโครงการหลักมานาน และแก้ไขไปเยอะจนแปลงไปใช้งานอื่นๆ ได้ยาก
  2. ตัวเอนจินถูกออกแบบให้ผูกกับโครงสร้างพื้นฐานของ DeepSeek เอง รวมถึงระบบจัดการคลัสเตอร์ภายใน ทำให้นำไปใช้ที่อื่นได้ยาก
  3. ทีมงานไม่มีกำลังพอจะเป็นกำลังหลักในการดูแลโครงการโอเพนซอร์สขนาดใหญ่

แนวทางหลังจากนี้ทาง DeepSeek จะทำงานร่วมกับโครงการโอเพนซอร์สเดิม (น่าจะเป็น vLLM แต่ไม่ได้ประกาศออกมา) โดยจะส่งโค้ดที่เป็นฟีเจอร์เฉพาะทางให้โครงการนำไปใช้ พร้อมกับเข้าไปช่วยออปติไมซ์เอนจินรันปัญญาประดิษฐ์ให้มีประสิทธิภาพสูงขึ้น

แนวทางนี้จะทำให้เอนจินรันปัญญาประดิษฐ์แบบโอเพนซอร์ส สามารถรันโมเดลของ DeepSeek รุ่นใหม่ๆ ได้เต็มประสิทธิภาพตั้งแต่วันแรกที่ปล่อยโมเดลออกมาทำให้คนภายนอกนำโมเดลไปใช้งานได้ง่ายขึ้น

ที่มา - GitHub:DeepSeek-AI

No Description

Get latest news from Blognone