สำนักงข่าว Wall Street Journal รายงานถึงการแข่งขันสร้างบริการจากเทคโนโลยีในกลุ่ม LLM เช่น ChatGPT ในช่วงนี้ว่าบริษัทต่างๆ กำลังลงทุนอย่างหนัก และหลายบริการก็ไม่สามารถทำกำไรได้แม้จะเก็บค่าใช้งานแล้วก็ตาม
ข้อมูลจาก WSJ ระบุว่าต้นทุนการให้บริการ GitHub Copilot เฉลี่ยยังอยู่ที่ 20 ดอลลาร์ต่อคนต่อเดือน แต่เก็บค่าบริการเพียง 10 ดอลลาร์เท่านั้น ผู้ใช้บางคนใช้งานอย่างหนักจนสร้างต้นทุนเดือนละ 80 ดอลลาร์ก็มี โดยบริการ GitHub Copilot นี้มีผู้ใช้งาน 1.5 ล้านคนสร้างค่าใช้จ่ายให้ไมโครซอฟท์พอสมควร
ตัว LLM ชั้นสูงที่ให้คำตอบได้ค่อนข้างดี เช่น GPT-4 นั้นมีต้นทุนบริการค่อนข้างแพง และบริการใหม่ๆ ที่ใช้ LLM มาเป็นฟีเจอร์ก็เริ่มตั้งราคาแพงขึ้น เช่น Microsoft 365 Copilot คิดค่าใช้งาน 30 ดอลลาร์ต่อคนต่อเดือน
ต้นทุนการใช้งานที่ค่อนข้างสูงทำให้บริการต่างๆ ที่ใส่ฟีเจอร์ LLM เข้ามาต้องหาทางประหยัดต้นทุนลง เช่น Zoom มีข่าวว่าพยายามรันโมเดลของตัวเองที่ซับซ้อนน้อยลง, Adobe จำกัดปริมาณการใช้งาน แม้แต่ Bing Chat เองก็อาจจะหันไปใช้ Llama 2 ของ Meta รวมถึงการออปติไมซ์โครงสร้างการรันโมเดลขนาดใหญ่
ที่มา - ArsTechnica
Comments
คงไม่ขึ้นราคา Copilot หรอกนะ...
The Dream hacker..
ลองถาม Co pilot ดูสิ อาจจะโป๊ะแตกเหมือนตอนคนถาม ChatGPT เรื่องค่าบริการที่เหมาะสมด้วย
?
่มันก็ยังเป็นโอกาสนั่นแหล่ะ เพราะปัจจุบัน LLM ต่างก็มุ่งไปแข่งกันสร้าง model ขนาดใหญ่ ทั้งๆ ที่จริงๆ แล้วในแต่ละงานก็ใช้ขนาดโมเดลไม่ได้ขนาดนั้น ถ้ามุ่งไปเฉพาะงาน โมเดลมีขนาดเล็ก มีความถูกต้องสูง ราคาจับต้องได้ ก็ยังเป็นโอกาสอยู่