คนในแวดวง AI คงรู้จักบริษัท Hugging Face ในฐานะศูนย์รวมคลังโมเดลขนาดใหญ่ (มีโมเดลเกิน 1 ล้านตัวแล้ว) วิธีการหารายได้ของ Hugging Face ที่ผ่านมาคือการให้เช่าเซิร์ฟเวอร์สำหรับเทรน-ปรับแต่ง-รันโมเดลเหล่านี้ได้ทันที
คราวนี้ Hugging Face ขยายโมเดลธุรกิจของตัวเอง โดยนำซอฟต์แวร์ที่ใช้รันโมเดลข้างต้น เปิดให้ลูกค้าเช่าใช้งานซอฟต์แวร์นี้บนระบบไอทีของตัวเองได้ด้วย ใช้ชื่อว่า Hugging Face Generative AI Services หรือตัวย่อ HUGS
Hugging Face ประกาศหลักไมล์สำคัญ โดยมีโมเดลปัญญาประดิษฐ์บนแพลตฟอร์มมากกว่า 1 ล้านโมเดลแล้ว ซึ่งเป็นการเติบโตที่รวดเร็วมากหลังจาก Hugging Face เปลี่ยนธุรกิจจากแอปแชทบอต มาเป็นแพลตฟอร์มโอเพนซอร์สรวมโมเดล AI ในปี 2020 ซึ่งเป็นที่นิยมใช้งานทั้งกลุ่มนักพัฒนาและนักวิจัยปัญญาประดิษฐ์
Hugging Face ประกาศซื้อกิจการ XetHub สตาร์ทอัปที่พัฒนาสตอเรจสำหรับงานแอพพลิเคชัน Machine Learning และ AI ซึ่งสามารถรองรับความต้องการของ Hugging Face ได้
Yucheng Low ซีอีโอ XetHub กล่าวว่าวิสัยทัศน์ของ Hugging Face คือการนำโมเดล AI มาเผยแพร่ให้กับทุกคน ซึ่งต้องการพื้นที่รองรับการเก็บข้อมูลและการเข้าถึง การที่ XetHub เข้ามาเป็นส่วนหนึ่งของ Hugging Face จึงช่วยเติมเต็มวิสัยทัศน์นี้สำหรับอนาคตของ AI ได้ ส่วน Julien Chaumond ซีทีโอ Hugging Face บอกว่าความท้าทายจากนี้คือขนาด Repository ที่ใหญ่มากขึ้น ปัจจุบัน Hugging Face มี Repo ถึง 1.3 ล้านโมเดล, ข้อมูล 450k datasets, รีเควสวันละ 1B และแบนด์วิธที่ Cloudfront วันละ 6PB
NVIDIA ประกาศความร่วมมือกับ Hugging Face นำเซิร์ฟเวอร์ NVIDIA DGX Cloud ชิป H100 ออกมาให้บริการขายปลีกสำหรับรันโมเดลโดยคิดตามเวลารันจริง
ผู้ใช้ที่ต้องการใช้บริการนี้ต้องเป็นสมาชิก Hugging Face แบบ Enterprise (เดือนละ 20 ดอลลาร์ต่อคน) และจะสามารถเรียกใช้โมเดลผ่านทางตัวเลือก "NVIDIA NIM Enterprise" โดยเรียกผ่านทางไลบรารี openai ในภาษา Python ได้เลย โดยก่อนหน้านี้ Hugging Face เคยนำชิป H100 มาให้บริการสำหรับการฝึกโมเดลมาก่อนแล้ว
Hugging Face เผยแพร่ผลการจัดอันดับ LLM leaderboard ครั้งที่สอง โดยนำโมเดล LLM แบบเปิด (open large language model) มาทดสอบในการทำงานด้านต่าง ๆ
การทดสอบของ Hugging Face สนใจใน 4 งานได้แก่ วัดความรู้, ให้เหตุผลจากเนื้อหาขนาดยาวมาก, การคำนวณคณิตศาสตร์ที่ซับซ้อน และการอธิบายวิธีการขั้นตอน โดยใช้ตัววัดผล 6 อย่าง ได้แก่ MMLU-Pro, GPQA, MuSR, MATH, IFEval และ BBH
ผลการทดสอบรวม โมเดล Qwen2-72B-Instruct ของ Qwen จาก Alibaba ได้คะแนนรวมอันดับ 1 ตามด้วย Meta-Llama-3-70B-Instruct ของ meta-llama จาก Meta เป็นอันดับที่ 2 และ Qwen/Qwen2-72B ของ Qwen เช่นกัน อยู่ในอันดับที่ 3 นอกจากนี้ Qwen ยังติดอันดับที่ 10 และ 11 ด้วย (Qwen/Qwen1.5-110B และ Qwen/Qwen1.5-110B-Chat)
Wiz บริษัทความปลอดภัยบนคลาวด์ รายงานปัญหาช่องโหว่ร้ายแรงที่พบบน Hugging Face แพลตฟอร์มโมเดล AI ซึ่งทำให้สามารถเข้าถึงข้อมูลโมเดล AI ของผู้ใช้งานคนอื่นได้
โดยทีมวิศวกรความปลอดภัยของ Wiz ได้ใช้วิธีวิศวกรรมย้อนกลับ อัปโหลดโมเดลที่เป็นอันตรายของตนเองขึ้นไปบน Hugging Face แล้วใช้โมเดลนั้นเจาะไปที่ระบบปฏิบัติการในระดับ container ทำให้สามารถเข้าถึงข้อมูลโมเดลผู้ใช้งานคนอื่นบน Hugging Face ได้
สองช่องโหว่สำคัญที่ Wiz ค้นพบ และทำให้สามารถเจาะระบบด้วยวิธีดังกล่าวได้คือส่วน AI Inference มักใช้ฟอร์แมต pickle ทำให้สามารถสั่งรันคำสั่งที่ไม่ปลอดภัยได้ และ CI/CD ก็สามารถรันข้ามกันได้ ทำให้หากส่งคำสั่งเจาะระบบแล้ว ก็สามารถคุม CI/CD ได้เลยทั้งคลัสเตอร์
JFrog บริษัทผู้ให้บริการซอฟต์แวร์ด้าน CI/CD ออกรายงานความปลอดภัย เตือนปัญหาการแพร่กระจายโมเดล LLM ที่แอบฝังมัลแวร์หรือ backdoor เผยแพร่ผ่านเว็บไซต์กลางอย่าง Hugging Face
ปัญหาการเผยแพร่ซอฟต์แวร์ที่แอบฝังมัลแวร์บนเว็บไซต์ซื้อขายแลกเปลี่ยนแพ็กเกจซอฟต์แวร์ หรือที่เราเรียกว่า supply chain attack มีมานานแล้วและรุนแรงขึ้นเรื่อยๆ เช่น กรณีของ PyPI, กรณีของ npm, กรณีของ GitHub ล่าสุดลามมาถึง Hugging Face เว็บไซต์เผยแพร่โมเดล AI ชื่อดัง ตามกระแสโลกเทคโนโลยีเรียบร้อย
ServiceNow, Hugging Face และ NVIDIA เปิดตัว StarCoder2 ชุดโมเดลภาษาขนาดใหญ่ (LLM) ที่เปิดให้ใช้งานได้ฟรี (open-access) สำหรับงานเขียนโค้ด ซึ่งมีจุดเด่นคือประสิทธิภาพการทำงาน ความโปร่งใสของ AI และช่วยในการจัดการต้นทุน
StarCoder2 เป็นโครงการของชุมชน BigCode ที่ให้การสนับสนุนโดย ServiceNow และ Hugging Face โมเดลถูกเทรนบนภาษาเขียนโปรแกรม 619 ภาษา ออกแบบมาให้สามารถทำงานร่วมกับแอพพลิเคชันภายในองค์กร สำหรับงานต่าง ๆ เช่น ช่วยสร้างซอร์สโค้ด, สร้างเวิร์กโฟลว์, เขียนสรุปเนื้อหา และอื่น ๆ องค์กรสามารถนำไปใช้งาน โดยอาศัยการปรับแต่งด้วยทรัพยากรที่ไม่ต้องสูงมาก
Hugging Face แพลตฟอร์มด้าน AI ชื่อดัง เคยเปิดตัวบริการแช็ทบ็อท HuggingChat แบบเดียวกับ ChatGPT แต่เป็นโอเพนซอร์ส ไปก่อนแล้ว
ล่าสุด Hugging Face เปิดตัวบริการเสริมชื่อ HuggingChat Assistant สำหรับปรับแต่งแช็ทบ็อทให้มีความสามารถเฉพาะทาง แบบเดียวกับ GPT Builder และ GPT Store ของค่าย OpenAI แต่มีจุดต่างสำคัญคือเป็นโอเพนซอร์ส และใช้งานได้ฟรี (ค่าย OpenAI ต้องสมัคร ChatGPT Plus ราคา 20 ดอลลาร์ต่อเดือน)
Hugging Face บริษัทแพลตฟอร์มด้านโมเดล AI ประกาศความร่วมมือด้านกลยุทธ์กับ Google Cloud เพื่อให้นักพัฒนาสามารถปรับใช้ทรัพยากรของ Google Cloud กับบริการต่าง ๆ ของ Hugging Face รวมทั้งเทรนโมเดลบน Google Cloud ได้ด้วย
ความร่วมมือนี้มีทั้ง การนำงานวิจัยล่าสุดด้าน AI มาให้ทดสอบสำหรับผู้ใช้งาน Hugging Face และ Google Cloud, ร่วมมือกับพัฒนาไลบรารีและเฟรมเวิร์ก AI แบบโอเพนซอร์ส และเปิดให้สามารถเทรนและดีพลอยโมเดลของ Hugging Face บน Google Kubernetes Engine (GKE) และ Vertex AI ที่มีทรัพยากรฮาร์ดแวร์ประมวลผลขนาดใหญ่รองรับ
ตัวเลือกทั้ง Google Kubernetes Engine (GKE) และ Vertex AI จะมีใน Hugging Face ภายในครึ่งแรกของปี 2024 นี้
Hugging Face สตาร์ทอัพแพลตฟอร์มที่โฟกัสด้าน AI สำหรับนักพัฒนาโดยเฉพาะ ประกาศรับเงินเพิ่มทุน 235 ล้านดอลลาร์ ทำให้มูลค่ากิจการเพิ่มเป็น 4,500 ล้านดอลลาร์ ซึ่งประเด็นน่าสนใจคือรายชื่อผู้ร่วมลงทุนในรอบนี้เป็นบริษัทด้านเทคโนโลยีชื่อดังได้แก่ Google, Amazon, NVIDIA, Salesforce, AMD, Intel, IBM และ Qualcomm
บริการของ Hugging Face อาจพูดได้ว่าเป็น GitHub เวอร์ชันที่เน้นงาน AI โดยชุมชนนักพัฒนาสามารถแชร์โค้ด โมเดล ชุดข้อมูล เพื่อให้การสร้างโมเดล AI ทำได้ง่ายขึ้น จุดเด่นของ Hugging Face คือการรวมชุดข้อมูล โมเดล AI ให้นักพัฒนาเลือกนำมาเทรนหรือต่อยอดสร้างโมเดล AI ของตนเองได้สะดวกขึ้น และแพลตฟอร์มเองก็มีโมเดล AI ที่พัฒนาขึ้นมาให้ใช้งานด้วย
Soumith Chintala ผู้ก่อตั้ง PyTorch และตัวแทน PyTorch Foundation ขึ้นเวทีงาน AMD ประกาศว่าซอฟต์แวร์ PyTorch 2.0 จะทำงานได้บนแพลตฟอร์มของ AMD ตั้งแต่แรก (Day 0 support) ไม่ต้องรออัพเดตตามหลังเหมือนกับสมัยก่อนๆ ที่ซอฟต์แวร์ด้าน AI มักอิงอยู่บนแพลตฟอร์ม NVIDIA CUDA อย่างเดียว
AMD เข้าเป็นสมาชิกร่วมก่อตั้ง PyTorch Foundation ตั้งแต่ต้น เพื่อผลักดันให้ PyTorch รองรับแพลตฟอร์ม ROCm ของตัวเอง โดยเริ่มตั้งแต่ PyTorch 1.12 ที่ออกกลางปี 2022
PyTorch 2.0 จะรองรับ ROCm เวอร์ชัน 5.4.2 และทดสอบว่าทำงานได้บน AMD Instinct ทุกรุ่น โดยที่นักพัฒนาไม่ต้องแก้ไขอะไรเพิ่มเลย
Hugging Face บริษัทด้าน AI เปิดตัวบริการ HuggingChat ซึ่งเป็นแช็ทบ็อทที่ใช้โมเดลภาษาขนาดใหญ่ (LLM) ลักษณะเดียวกับ ChatGPT มีขนาด 3 หมื่นล้านพารามิเตอร์ ที่สำคัญคือเป็นโมเดลโอเพนซอร์ส
โมเดลที่ HuggingChat ใช้งานคือ OpenAssistant LLaMA ที่ต่อยอดมาจาก LLaMA ของ Meta AI และมีหน่วยงานหลายแห่งนำไปต่อยอด พัฒนาโมเดล LLaMA ให้ดีขึ้นในวิธีของตัวเอง