Tags:
Node Thumbnail

Meta ประกาศว่าโมเดลปัญญาประดิษฐ์ภาษาขนาดใหญ่ Llama มีจำนวนการดาวน์โหลดแล้วมากกว่า 1,000 ล้านครั้ง เพิ่มขึ้นจากตัวเลขเดือนสิงหาคมปีที่แล้วเกือบสามเท่า และใช้เวลาประมาณ 2 ปี นับจากเปิดตัวในเดือนกุมภาพันธ์ 2023

การเติบโตของ Llama มาจากเหตุผลสำคัญคือเป็นโมเดลแบบโอเพนซอร์สเกือบทั้งหมด มีข้อจำกัดเล็กน้อยคือสามารถใช้งานเชิงพาณิชย์ได้หากไม่ใช่บริการขนาดใหญ่ จึงทำให้ถูกดาวน์โหลดติดตั้ง และนำมาใช้งานแพร่หลาย

ในเดือนหน้า Meta จะจัดงานสัมมนา LlamaCon ที่โฟกัสเนื้อหาเรื่องปัญญาประดิษฐ์โดยเฉพาะ และคาดว่า Meta จะเปิดตัวโมเดล Llama 4 เวอร์ชันใหม่ในงานนี้

ที่มา: Meta

No Description

Get latest news from Blognone

Comments

By: Azymik on 19 March 2025 - 01:01 #1336235

ทุกวันนี้ก็ใช้ 3.3 70B เป็นหลักเลย รู้สึกว่าตอบได้ถูกจริตกว่า(temp ตั้งไว้ที่ 0)

แต่สองสามวันมานี้ เห็น Command A ก็ดูน่าสนใจ ไว้จะลองเล่นดูครับ

By: incredibles
iPhoneWindows PhoneAndroidUbuntu
on 19 March 2025 - 20:25 #1336324 Reply to:1336235

Fine-tune นานไหมครับตัว 70B ใช้ resource ประมาณไหน

เห็นด้วยเรื่องตอบถูกจริต เพราะแค่ตัว 3.2 - 3B นี่ก็รู้สึกว่าตอบได้ฉลาดถูกใจแล้ว อยากลองขยับไปเล่น 70B

By: Azymik on 20 March 2025 - 05:54 #1336344 Reply to:1336324

ไม่ได้ ft เลยครับ ใช้เป็นเพื่อนคู่คิดช่วยออกไอเดีย, วิเคราะห์, สรุปงาน, classification ยิ่งอย่างหลังด้วยความที่ context length เค้าใหญ่ เลยโยนเอกสารที่ใช้ว่าต้องวิเคราะห์ยังไงไปให้เค้าจัดการได้เลยครับ ทุ่นเวลาไปได้ดีเลย