Tags:
Node Thumbnail

คนในแวดวง AI คงรู้จักบริษัท Hugging Face ในฐานะศูนย์รวมคลังโมเดลขนาดใหญ่ (มีโมเดลเกิน 1 ล้านตัวแล้ว) วิธีการหารายได้ของ Hugging Face ที่ผ่านมาคือการให้เช่าเซิร์ฟเวอร์สำหรับเทรน-ปรับแต่ง-รันโมเดลเหล่านี้ได้ทันที

คราวนี้ Hugging Face ขยายโมเดลธุรกิจของตัวเอง โดยนำซอฟต์แวร์ที่ใช้รันโมเดลข้างต้น เปิดให้ลูกค้าเช่าใช้งานซอฟต์แวร์นี้บนระบบไอทีของตัวเองได้ด้วย ใช้ชื่อว่า Hugging Face Generative AI Services หรือตัวย่อ HUGS

HUGS เป็นซอฟต์แวร์ microservice ที่ใช้รันโมเดล AI บนฮาร์ดแวร์เซิร์ฟเวอร์ที่หลากหลาย ทั้งบนจีพียูหลายค่ายและบนตัวเร่งความเร็ว AI เฉพาะทาง แถมยังปรับแต่งประสิทธิภาพของโมเดลบนฮาร์ดแวร์เหล่านี้มาให้เรียบร้อย (เพราะ Hugging Face ต้องให้บริการรันโมเดลจำนวนมากอยู่แล้ว) ช่วยประหยัดแรงของลูกค้าฝั่งองค์กรที่ต้องการรันโมเดลเองไปได้มาก

ตัวอย่างโมเดลที่รันบน HUGS เน้นไปที่โมเดลแบบเปิด เช่น Llama 3.1, Mixtral, Gemma 2, Qwen 2.5 เป็นต้น

Hugging Face บอกว่า HUGS เหมาะสำหรับองค์กรที่ต้องการใช้งานโมเดล AI ในระบบเซิร์ฟเวอร์ของตัวเอง (ไม่ว่าจะอยู่บนคลาวด์หรือไม่) และไม่มีกำลังคน-ความเชี่ยวชาญมากพอในการปรับแต่งประสิทธิภาพของการรัน ตัวซอฟต์แวร์ยังรันอยู่บนซอฟต์แวร์ที่เป็นมาตรฐานอย่าง Kubernetes และเรียกใช้ API ที่เข้ากันได้กับ OpenAI API เพิ่มความสะดวกในการย้ายงานโมเดลมารันบน HUGS

ตอนนี้ HUGS เปิดให้ใช้งานแล้วบนคลาวด์รายใหญ่ๆ อย่าง AWS, Google Cloud, Microsoft Azure, DigitalOcean ส่วนการใช้งานกับเครื่องในองค์กรสามารถติดต่อไปยังฝ่ายขายของ Hugging Face ได้โดยตรง วิธีคิด

คู่แข่งที่ใกล้เคียงที่สุดของ HUGS น่าจะเป็น NVIDIA NIM ที่เป็นซอฟต์แวร์คั่นกลางระหว่างตัวโมเดลกับฮาร์ดแวร์ที่ใช้ประมวลผล เพียงแต่ NIM รันได้บนแพลตฟอร์ม NVIDIA CUDA เท่านั้น ในขณะที่ HUGS รองรับจีพียู AMD ด้วย และประกาศว่าจะรองรับตัวเร่งประสิทธิภาพ AI อื่นๆ เช่น AWS Inferentia และ Google TPU ในอนาคต

ที่มา - HUGS

No Description

Get latest news from Blognone

Comments

By: KuLiKo
ContributoriPhoneWindows PhoneAndroid
on 24 October 2024 - 16:56 #1325599
KuLiKo's picture

โลโก้เหมือนโดนตัวละครใน Among us เข้ามาคิลจากข้างหลัง