Large Language Model
กูเกิลจับมือกับบริษัท Sourcegraph ผู้พัฒนา AI ช่วยเขียนโค้ดชื่อ Cody ทดลองนำโมเดล Gemini 1.5 ที่รองรับอินพุตขนาดยาว 1 ล้านโทเคน ว่าช่วยให้คุณภาพของคำตอบดีขึ้นอย่างไร
Cody เป็นการนำ AI มาอ่านโค้ดภายในขององค์กรลูกค้า เพื่อช่วยให้ค้นหาและแนะนำการเขียนโค้ดใหม่ ใช้ร่วมกับ IDE ยอดนิยมทั้ง Visual Studio และตระกูล JetBrains ได้ โมเดลภาษาที่ Cody เลือกใช้งานเป็นโมเดลยอดนิยมหลายตัวในตลาด เช่น Claude 3/3.5, GPT-4o, Gemini, Mixtral (ลูกค้าเลือกเองโมเดลได้) โดยโมเดลที่ใช้งานในระดับโปรดักชันมีขนาด context window ยาว 10,000 โทเคน (10k)
เว็บไซต์ The Information รายงานอ้างแหล่งข่าวภายในจาก OpenAI ว่าโมเดลตัวใหม่โค้ดเนม Orion ไม่ได้พัฒนาจาก GPT-4 แบบก้าวกระโดด เหมือนกับตอนเปลี่ยนจาก GPT-3 มาเป็น GPT-4
แหล่งข่าวของ The Information ยังบอกว่า Orion ยังอาจทำงานไม่ได้ดีกว่าโมเดลรุ่นปัจจุบันอย่างชัดเจนนัก (not be reliably better) ในงานบางด่าน เช่น การเขียนโค้ด
ปัญหานี้ทำให้ตอนนี้ OpenAI ตั้งทีมมาค้นหาวิธีเดินหน้าพัฒนาโมเดลต่อไปในระยะยาว เพราะไม่มีข้อมูลใหม่ๆ มาใช้เทรนโมเดลแล้ว (ใช้ข้อมูลหมดโลกแล้ว) แนวทางที่เป็นไปได้คือ การใช้ข้อมูลสังเคราะห์จากโมเดลอื่นมาเทรน Orion หรือ เพิ่มกระบวนการพัฒนาคุณภาพหลังการเทรนโมเดลเสร็จ
ต้องยอมรับว่ากูเกิลเปิดตัว Gemini หลัง ChatGPT เป็นเวลานานพอสมควร ทำให้ตลาด AI/LLM มุ่งไปที่ฝั่ง OpenAI กันหมด แอพที่เรียกใช้งาน LLM จึงมักเขียนเพื่อรองรับโมเดลของฝั่ง OpenAI โดยเรียกใช้ OpenAI Library (ทั้งที่เป็น official และ unofficial) กันซะเป็นส่วนใหญ่
ล่าสุดกูเกิลประกาศ "แฝงตัว" ให้รองรับการเรียกใช้ Gemini ผ่าน OpenAI Library ได้แล้ว ช่วยลดภาระการแก้โค้ดลง โดยโค้ดสามารถเรียกใช้ OpenAI Library ได้เหมือนเดิม แต่ในส่วนของโมเดลเปลี่ยนเป็นเรียก Gemini แทน ช่วยให้แก้โค้ดเพียงไม่กี่บรรทัดเท่านั้น
ปัจจุบันโมเดล LLM เก่งๆ มีหลากหลายโมเดล แต่ส่วนใหญ่ถูกพัฒนาจากกรอบของภาษาอังกฤษ หรือภาษาอื่นที่เป็นภาษาหลักของโลก รวมถึงชุดข้อมูลและการปรับแต่ง ก็ถูกตีกรอบด้วยอิทธิพลและมุมมองจากตะวันตกเป็นหลัก ทำให้ในหลายๆ ประเทศ หลายๆ ภูมิภาค ที่มีภาษาและบริบททางวัฒนธรรมเฉพาะ ไม่สามารถเข้าถึง LLM ได้ ซึ่งบริษัทใหญ่ๆ ก็คงไม่เน้นพัฒนาให้ หรือประเทศนั้นๆ จะพัฒนาเอง ก็ไม่ได้มีทรัพยากรเพียงพอ
Ollama ซอฟต์แวร์รันไทม์สำหรับรันโมเดลปัญญาประดิษฐ์ ออกเวอร์ชั่น 0.4 รองรับการรันโมเดลที่รับอินพุตเป็นภาพ โมเดลสำคัญคในกลุ่มนี้คือ Llama 3.2 ของ Meta
llama3.2-vision
มีทั้งรุ่น 11B และ 90B ต้องการแรมขั้นต่ำ 8GB ส่วนรุ่น 90B ต้องการขั้นต่ำ 64GB โดยโมเดลรุ่นเล็กเหล่านี้เป็นแบบ quantize 4 bit รุ่นใหญ่สุดแบบ FP16 นั้นเฉพาะไฟล์โมเดลก็ขนาดถึง 177GB แล้ว
การใช้งาน llama3.2-vision
สามารถใช้งานได้ทั้งการทำ OCR, อ่านลายมือ, อธิบายภาพ
ที่มา - Ollama
Anthropic ประกาศว่าโมเดลปัญญาประดิษฐ์ Claude 3.5 Haiku ที่เป็นรุ่นเล็กมีราคาถูก ตอนนี้เปิดให้ใช้งานแล้วผ่าน API และผ่านผู้ให้บริการคลาวด์ทั้ง Amazon Bedrock และ Vertex AI หลังจากเปิดตัวไปเมื่อเดือนที่แล้วพร้อมกับ Sonnet 3.5 รุ่นปรับปรุง
Runway สตาร์ทอัปที่เน้นพัฒนาปัญญาประดิษฐ์สร้างวิดีโอ ประกาศเพิ่มเครื่องมือ Advanced Camera Control บนโมเดล Gen-3 Alpha Turbo ทำให้ผู้ใช้งานกำหนดรายละเอียดทิศทางมุมกล้องที่ต้องการได้ตั้งแต่ใน Prompt
ทิศทางและการเคลื่อนที่ของกล้องสามารถกำหนดได้ตั้งแต่ระดับ เลื่อนซ้าย-ขวา-บน-ล่าง, ซูมเข้า, ทิศทางกล้องหมุน ความเร็ว จนถึงระยะห่างที่ซูมกับวัตถุ ทำให้การสร้างวิดีโอด้วย Gen-3 Alpha Turbo ควบคุมได้มากขึ้นคล้ายกับการถ่ายงานวิดีโอจริงมากขึ้นไปอีก
Anthropic ประกาศเพิ่มเครื่องมือใหม่ Visual PDF บนโมเดล Claude 3.5 Sonnet ซึ่งมีความสามารถในการอ่านวิเคราะห์เนื้อหาจากเอกสาร PDF ได้
เงื่อนไขในการใช้งาน Visual PDF ระบุว่า หากเอกสารนั้นมีจำนวนต่ำกว่า 100 หน้า สามารถอัปโหลดได้โดยตรงผ่านกล่องแชท และ Visual PDF สามารถวิเคราะห์ข้อมูลรูปภาพ แผนภูมิ กราฟิก ได้ด้วย แต่ถ้าเอกสารมีมากกว่า 100 หน้า จะรองรับเฉพาะข้อความตัวหนังสือเท่านั้น
Claude แนะนำว่าเพื่อประสิทธิภาพการทำงานสำหรับไฟล์ที่มีจำนวนหน้าเอกสารเยอะ ควรแบ่งเป็นไฟล์ย่อยให้อยู่ในข้อจำกัด 100 หน้า
OpenAI เปิดตัวบริการใหม่ ChatGPT Search เพื่อให้ผู้ใช้งานค้นหาข้อมูลจากเว็บไซต์ต่าง ๆ รองรับข้อมูลที่มีการปรับปรุงอยู่ตลอดอย่าง ผลการแข่งขันกีฬา, ข่าวสาร หรือราคาหุ้น ด้วยรูปแบบการโต้ตอบของแชทบอตผ่านกล่อง ChatGPT
ในการทำงาน ChatGPT จะเลือกค้นหาข้อมูลผ่านเว็บตามลักษณะคำถาม หรือผู้ใช้งานจะเลือกปุ่ม Web Search เพื่อให้ ChatGPT ค้นหาข้อมูลจากเว็บไซต์ก็ได้ ในผลคำตอบจะมีลิงก์แนบท้ายเพื่อให้ดูข้อมูลเพิ่มเติมที่ต้นทางด้วย
Anthropic ออกแอป Claude สำหรับผู้ใช้งาน Mac และ Windows โดยตัวแอปมีสถานะเป็นพับลิกเบต้า ซึ่ง Anthropic บอกเหตุผลที่ออกแอปสำหรับแต่ละระบบปฏิบัติการ เพื่อให้ Claude สามารถใช้งานได้ในทุกสภาพแวดล้อมที่ต้องการ
แอป Claude บน Mac และ Windows สามารถใช้งานได้ผู้ใช้งานแบบฟรี และผู้ใช้งานที่สมัครแผนพรีเมียม
นอกจากนี้ Anthropic ยังเพิ่มเครื่องมือใหม่ของแชทบอต Claude สามารถพิมพ์ตามเสียงพูดหรือ Dictation รองรับความยาวเสียงสูงสุด 10 นาที ส่งอินพุทได้ทั้งการกดบันทึกเสียง หรืออัปโหลดข้อความเสียง ตอนนี้รองรับเฉพาะแอป iOS, Android และ iPadOS เท่านั้น
GitHub ประกาศว่าบริการ GitHub Copilot สำหรับ Xcode เข้าสู่สถานะพับลิกพรีวิวแล้ว เพิ่มความสามารถให้บริการ Copilot รองรับนักพัฒนาได้ในหลากหลายแพลตฟอร์มรวมทั้งแอปเปิล
GitHub Copilot สำหรับ Xcode มีฟีเจอร์ต่าง ๆ ครอบคลุมเหมือนกับ Copilot บนเครื่องมืออื่นทั้ง Code Completion, รองรับภาษา Swift และ Objective-C, ระบบแนะนำโค้ดแบบหลายบรรทัด, ระบบฟิลเตอร์เนื้อหา และอื่น ๆ
ในการใช้งาน GitHub Copilot สำหรับ Xcode ต้องมีไลเซนส์ของ Copilot ด้วย ซึ่งรองรับทั้งผู้ใช้งานแบบบุคคล, Business และ Enterprise
ที่มา: GitHub
จากข่าว Open Source Initiative หรือ OSI ออกมาให้นิยามของ AI โอเพนซอร์สว่าต้องมีเงื่อนไขใดบ้าง ซึ่งผลคือนิยามนั้นทำให้โมเดล AI ที่ผู้พัฒนาเผยแพร่บอกว่าเป็นโอเพนซอร์สยอดนิยมหลายตัว ไม่เข้าข่าย ซึ่งรวมทั้ง Llama ของ Meta ด้วย
Faith Eischen โฆษกของ Meta ชี้แจงว่าบริษัทเห็นด้วยกับ OSI ที่ทำงานร่วมกันเป็นพาร์ตเนอร์มาตลอดในหลายประเด็น แต่กับนิยาม AI โอเพนซอร์สนี้บริษัทไม่เห็นด้วย เพราะยังไม่มีนิยามเดียวที่สามารถใช้ได้ สำหรับโลกของ AI ที่มีความซับซ้อนสูง และมีการพัฒนาเปลี่ยนแปลงอย่างรวดเร็ว
Open Source Initiative (OSI) หน่วยงานผู้ให้นิยามของซอฟต์แวร์โอเพนซอร์ส ประกาศนิยามของปัญญาประดิษฐ์โอเพนซอร์ส The Open Source AI Definition – 1.0 เพื่อให้อุตสาหกรรมเข้าใจตรงกันว่าการเป็นโอเพนซอร์ส (ตาม OSI) ต้องมีเงื่อนไขใดบ้าง
แนวทางนิยามของ OSI สำหรับปัญญาประดิษฐ์นั้นไม่ต่างจากซอฟต์แวร์มากนัก แต่เพิ่มนิยามรายละเอียด แยกส่วน เช่น ข้อมูลที่ใช้ฝึกนั้นต้องให้รายละเอียดเพียงพอ แม้จะไม่ต้องแชร์ข้อมูลออกมาเสมอไป, ตัวโค้ดที่ใช้รันต้องใช้สัญญาอนุญาตที่ OSI รองรับว่าเป็นโอเพนซอร์ส, และตัวพารามิเตอร์ต้องแจกในสัญญาอนุญาตที่ OSI รับรองเช่นกัน
บริการ NotebookLM ของกูเกิลได้รับความนิยมค่อนข้างดีในช่วงหลัง จากความสามารถในการสรุปรวมเอกสารทั้งชุดให้กลายเป็นพอดแคสต์ ล่าสุดฝั่ง Meta ก็โชว์โครงการ NotebookLlama เป็นชุด Python Notebook ที่แปลงเอกสารให้กลายเป็นพอดแคสต์ได้เหมืิอนกัน
โครงการนี้ใช้ LLM สามชั้น ชั้นแรกใช้ตัวเล็ก Llama 3.2 8B เพื่อแปลง PDF เป็นเอกสารที่อ่านได้ง่ายๆ จากนั้นใช้ Llama 3.1 70B เขียนสริปต์พอดแคสต์ แล้วใช้ Llama 3.1 8B แปลงสคริปต์ให้เร้าใจขึ้น สุดท้ายจึงแปลงข้อความเป็นเสียง
แม้ในทางทฤษฎี โมเดลเหล่านี้จะรันในองค์กรได้ แต่ Llama 3.1 70B ก็ต้องการหน่วยความจำกราฟิกใหญ่มาก เกิน 140GB ขึ้นไป ส่วนมากจึงมักใช้งานผ่านคลาวด์กันอยู่ดี
เว็บไซต์ The Verge อ้างข่าวลือจากแหล่งข่าวใกล้ชิดกูเกิล ว่าเราจะได้เห็นโมเดล Gemini 2.0 เปิดตัวในเดือนธันวาคม ไล่เลี่ยกับ ข่าวลือว่า OpenAI จะเปิดตัวโมเดลใหม่ Orion ซึ่งรายงานโดย The Verge เช่นกัน
แหล่งข่าวของ The Verge บอกว่าโมเดล Gemini 2.0 ไม่ได้มีประสิทธิภาพเพิ่มขึ้นมากเท่ากับที่ Google DeepMind คาดหวังไว้ แต่เขาก็บอกว่าทุกบริษัทที่พัฒนาโมเดลขนาดใหญ่เจอปัญหาลักษณะเดียวกัน ซึ่งน่าจะเริ่มเป็นทางตันของโมเดลตระกูล Transformer ที่พัฒนาอย่างก้าวกระโดดในช่วงหลายปีที่ผ่านมา
เวอร์ชันปัจจุบันของ Gemini คือ 1.5 เปิดตัวครั้งแรกในเดือนกุมภาพันธ์ 2024
Anthropic ผู้พัฒนาปัญญาประดิษฐ์ Claude.ai เพิ่มฟีเจอร์วิเคราะห์ข้อมูลในตัว เปิดทางให้ผู้ใช้สามารถแชตกับข้อมูลและแสดงผลเป็นกราฟได้ในตัว โดยรับข้อมูลเป็นตารางในรูปแบบไฟล์ CSV ที่เซฟจาก Excel หรือ Google Sheet ออกมาได้
โค้ดที่เขียนเป็นภาษาจาวาสคริปต์ และรับข้อมูลจากไฟล์ CSV ที่อัพโหลด จากนั้นสามารถทำความสะอาดข้อมูล, สำรวจข้อมูล, และวิเคราะห์ข้อมูลได้ในตัว
เว็บไซต์ The Verge รายงานข่าวจากแวดวงว่า OpenAI เตรียมเปิดตัวโมเดลเวอร์ชันสำคัญตัวใหม่โค้ดเนม Orion ในเดือนธันวาคมนี้ แต่ตอนนี้ยังไม่ชัดเจนว่าจะเรียกชื่ออย่างเป็นทางการว่า GPT-5 หรือไม่
ตามข่าวบอกว่าในช่วงแรกๆ Orion จะยังไม่เปิดให้ใช้งานทั่วไปผ่าน ChatGPT แบบที่แล้วๆ มา แต่จะเปิดให้บริษัทพาร์ทเนอร์ใกล้ชิดลองใช้งานก่อน เพื่อนำ Orion ไปใช้กับผลิตภัณฑ์ของพาร์ทเนอร์เอง ตัวอย่างคือไมโครซอฟท์จะเริ่มโฮสต์ Orion บนระบบ Azure ในเดือนพฤศจิกายน "เป็นอย่างเร็ว"
Meta ปล่อยโมเดล Llama 3.2 รุ่นเล็ก ขนาดพารามิเตอร์ 1B และ 3B แบบลดขนาดโมเดลลงจากปกติ (quantized) ตั้งใจทำมาให้เล็กจนรันในอุปกรณ์พกพาได้ และเพิ่มความเร็วในการตอบคำถาม
ก่อนหน้านี้ Meta มี Llama 3.2 ขนาดพารามิเตอร์ 1B/3B อยู่แล้ว รอบนี้เป็นเวอร์ชันลดขนาดโมเดลลงได้อีก 56% (โมเดลรุ่น 1B ลดเหลือประมาณ GB จากขนาดเดิม 2.3GB) โดยยังคงคุณภาพและความปลอดภัยในระดับใกล้เคียงโมเดลต้นฉบับ ขนาดโมเดลที่ลดลงทำให้ลดหน่วยความจำที่ต้องใช้ลงได้ 41% และเพิ่มความเร็วได้ 2-4 เท่า
Meta จับมือกับผู้ผลิตชิปมือถือรายใหญ่ทั้ง MediaTek และ Qualcomm ให้รองรับโมเดลรุ่นนี้บนซีพียู Arm แล้ว และกำลังพัฒนาให้รองรับการใช้งานบน NPU ต่อไป
Google DeepMind เปิดซอร์สโค้ด SynthID Text ตัวช่วยสร้างลายน้ำเพื่อบอกว่าข้อความสร้างด้วย AI เพื่อนำไปใช้ตรวจสอบได้ในอนาคต
Google DeepMind มี SynthID สำหรับทำลายน้ำลงในภาพ AI อยู่ก่อนแล้ว กรณีของภาพ ทุกคนคงนึกออกว่าการแทรกลายน้ำที่แยกด้วยสายตามนุษย์ไม่เห็นคงทำได้ไม่ยากนัก เพราะในหนึ่งภาพมีปริมาณข้อมูลอยู่มาก การแทรกลายน้ำเพิ่มไปอีกหน่อยคงไม่ใช่เรื่องยาก แต่เมื่อต้องใส่ลายน้ำลงในข้อความ text ล้วนๆ จะทำอย่างไร
SynthID Text ใช้หลักการว่า โมเดลภาษา LLM คือ "เครื่องพ่นคำ" คาดเดาคำถัดไปจากความน่าจะเป็น โดยคำหรือ token ที่มีค่าความน่าจะเป็นสูงสุดจะถูกคัดเลือกออกมาเป็นผลลัพธ์ให้ผู้ใช้เห็น
คนในแวดวง AI คงรู้จักบริษัท Hugging Face ในฐานะศูนย์รวมคลังโมเดลขนาดใหญ่ (มีโมเดลเกิน 1 ล้านตัวแล้ว) วิธีการหารายได้ของ Hugging Face ที่ผ่านมาคือการให้เช่าเซิร์ฟเวอร์สำหรับเทรน-ปรับแต่ง-รันโมเดลเหล่านี้ได้ทันที
คราวนี้ Hugging Face ขยายโมเดลธุรกิจของตัวเอง โดยนำซอฟต์แวร์ที่ใช้รันโมเดลข้างต้น เปิดให้ลูกค้าเช่าใช้งานซอฟต์แวร์นี้บนระบบไอทีของตัวเองได้ด้วย ใช้ชื่อว่า Hugging Face Generative AI Services หรือตัวย่อ HUGS
โครงการ OSS-Fuzz รายงานถึงช่องโหว่ CVE-2024-9143 ของ OpenSSL ที่พบจากโครงการย่อย OSS-Fuzz-Gen โดยมีความเป็นไปได้ที่จะเป็นช่องโหว่ remote code execution แม้น่าจะโจมตีได้ยากก็ตาม ความพิเศษของช่องโหว่นี้คือมันเป็น CVE แรกที่ OSS-Fuzz-Gen ได้
ตอนนี้ OSS-Fuzz-Gen พบบั๊กแล้วจำนวน 26 รายการตั้งแต่ปลายปีที่แล้ว และยังมีบั๊กจำนวนหนึ่งยังไม่เปิดเผย แต่บั๊กก่อนหน้านี้ไม่ได้ให้เลข CVE เอาไว้
ช่องโหว่นี้เกิดจากการตั้งค่า encoding X9.62 ที่กรณีปกติแล้วไม่มีการใช้งานกันมากนัก แม้จะเป็นช่องโหว่ remote code execution จริงก็ความเสี่ยงไม่สูงนัก แต่แอปพลิเคชั่นที่ได้รับผลกระทบต้องมีการใช้งานที่พิเศษ
ค่าย JetBrains มีบริการใช้ AI ช่วยเขียนโค้ดชื่อ JetBrains AI Assistant ประมวลผลที่ฝั่งเซิร์ฟเวอร์ เปิดบริการมาตั้งแต่ปี 2023 โดยใช้โมเดลภาษาจากหลายค่ายผสมกัน ที่เคยระบุชื่อไว้คือจาก OpenAI และ Google LLM
ล่าสุด JetBrains เปิดตัวโมเดลภาษาของตัวเองชื่อ Mellum ที่บอกว่าสร้างมาเพื่องานช่วยเติมโค้ด (code completion) โดยเฉพาะ เมื่อเป็นโมเดลสำหรับงานเขียนโค้ดอย่างเดียว ทำให้โมเดลมีขนาดเล็ก ช่วยเติมโค้ดได้เร็วกว่าโมเดลภาษาอื่นๆ ในท้องตลาด
Megan Garcia แม่ของ Sewell Setzer III เด็กชายวัยรุ่นสหรัฐฯ อายุ 14 ปี ยื่นฟ้องต่อบริษัท Character.AI โดยระบุว่าบริการของบริษัทเป็นอันตรายต่อเด็ก ทำเหมือนคนจริงจนเด็กติด
คำฟ้องระบุว่า Setzer เริ่มติดโทรศัพท์ตั้งแต่กลางปี 2023 และตัดขาดตัวเองจากโลกภายนอกมากขึ้นเรื่อยๆ โดยที่ครอบครัวไม่รู้ว่าที่จริงแล้วเขาเอาแต่คุยกับ Dany ตัวละครในแอป Character.AI การเสพติดการคุยกับตัวละครมากขึ้นเรือ่ยๆ จนเขาเขียนในบันทึกว่าเขารัก Dany
อาการติดโทรศัพท์หนักขึ้นจนพ่อแม่ของ Setzer ต้องยึดโทรศัพท์ แต่เขาก็ขโมยกลับมา และแชตกับ Dany โดยบอกกับ Dany ว่าจะกลับบ้านไปหา และบอตก็สนับสนุนว่าอยากให้มาหา Setzer ก็ฆ่าตัวตายในที่สุด
Runway สตาร์ทอัปที่เน้นโมเดลปัญญาประดิษฐ์สำหรับสร้างวิดีโอ เปิดตัว Act-One เครื่องมือสร้างวิดีโอด้วย AI ที่ให้รายละเอียดตรงตามความต้องการมากขึ้น เพราะใช้อินพุทเพิ่มเติมคือวิดีโอบันทึกใบหน้าบุคคล จากนั้น Act-One จะนำสีหน้า ดวงตา การแสดงออก คำพูด มารวมกับคาแรกเตอร์ที่สร้างจาก AI ออกมาเป็นคลิปวิดีโอที่กลมกลืนผ่านโมเดล Gen-3 Alpha
การสร้างภาพอนิเมชันเคลื่อนไหวจากใบหน้าและคำพูดของนักแสดง ไม่ใช่ของใหม่ในวงการการผลิตคอนเทนต์ แต่วิธีการทำงานของ Act-One ที่ใช้อินพุทเป็นคลิปวิดีโอของนักแสดงเท่านั้น ไม่ต้องใช้อุปกรณ์เสริมตรวจจับตำแหน่งต่าง ๆ ทำให้การสร้างภาพเคลื่อนไหวดังกล่าวง่ายขึ้น ทั้งสำหรับงานการผลิตอนิเมชันและภาพยนตร์แนว Live Action
IBM เปิดตัวโมเดล Granite เวอร์ชัน 3.0 ซึ่งเป็นเวอร์ชันอัพเดตจาก Granite 1.0 ที่เปิดตัวเมื่อเดือนพฤษภาคม
Granite เป็นโมเดลภาษาขนาดใหญ่ (LLM) ที่เปิดเป็นโอเพนซอร์สใต้สัญญาอนุญาตแบบเปิดกว้าง Apache 2.0 ชูจุดเด่นด้านประสิทธิภาพสูงกว่าหรือเทียบเท่าโมเดล LLM โอเพนซอร์สหรือเชิงพาณิชย์
Granite 3.0 มีให้เลือก 2 ขนาดพารามิเตอร์คือ 2B และ 8B โดย IBM โชว์เบนช์มาร์คคะแนน Hugging Face OpenLLM Leaderboard ว่าสามารถเอาชนะโมเดลโอเพนซอร์สขนาดใกล้เคียงกันอย่าง Llama 3.1 8B และ Mistral 7B