Meta ประกาศว่าโมเดลปัญญาประดิษฐ์ภาษาขนาดใหญ่ Llama มีจำนวนการดาวน์โหลดแล้วมากกว่า 1,000 ล้านครั้ง เพิ่มขึ้นจากตัวเลขเดือนสิงหาคมปีที่แล้วเกือบสามเท่า และใช้เวลาประมาณ 2 ปี นับจากเปิดตัวในเดือนกุมภาพันธ์ 2023
การเติบโตของ Llama มาจากเหตุผลสำคัญคือเป็นโมเดลแบบโอเพนซอร์สเกือบทั้งหมด มีข้อจำกัดเล็กน้อยคือสามารถใช้งานเชิงพาณิชย์ได้หากไม่ใช่บริการขนาดใหญ่ จึงทำให้ถูกดาวน์โหลดติดตั้ง และนำมาใช้งานแพร่หลาย
ในเดือนหน้า Meta จะจัดงานสัมมนา LlamaCon ที่โฟกัสเนื้อหาเรื่องปัญญาประดิษฐ์โดยเฉพาะ และคาดว่า Meta จะเปิดตัวโมเดล Llama 4 เวอร์ชันใหม่ในงานนี้
ที่มา: Meta
Comments
ทุกวันนี้ก็ใช้ 3.3 70B เป็นหลักเลย รู้สึกว่าตอบได้ถูกจริตกว่า(temp ตั้งไว้ที่ 0)
แต่สองสามวันมานี้ เห็น Command A ก็ดูน่าสนใจ ไว้จะลองเล่นดูครับ
Fine-tune นานไหมครับตัว 70B ใช้ resource ประมาณไหน
เห็นด้วยเรื่องตอบถูกจริต เพราะแค่ตัว 3.2 - 3B นี่ก็รู้สึกว่าตอบได้ฉลาดถูกใจแล้ว อยากลองขยับไปเล่น 70B
ไม่ได้ ft เลยครับ ใช้เป็นเพื่อนคู่คิดช่วยออกไอเดีย, วิเคราะห์, สรุปงาน, classification ยิ่งอย่างหลังด้วยความที่ context length เค้าใหญ่ เลยโยนเอกสารที่ใช้ว่าต้องวิเคราะห์ยังไงไปให้เค้าจัดการได้เลยครับ ทุ่นเวลาไปได้ดีเลย