Large Language Model

Tags:
Node Thumbnail

OpenAI ประกาศอัปเกรดเครื่องมือสร้างรูปภาพขั้นสูงบนโมเดล GPT-4o ที่บอกว่าไม่เพียงแต่ได้รูปที่สวยงามกว่าเดิม แต่สามารถกำหนดรายละเอียดให้ตรงกับความต้องการยิ่งกว่าเดิม

เนื่องจาก GPT-4o เป็นโมเดลที่ค่อย ๆ คิดเป็นขั้นตอน ทำให้การสร้างรูปภาพบนโมเดลนี้จึงสามารถกำหนดรายละเอียด หรือสั่งแก้ไขเป็นส่วนได้ดีกว่า DALL·E ที่เป็นเครื่องมือสร้างรูปภาพตัวเดิม ตัวอย่างที่ OpenAI นำเสนอ เช่น สามารถระบุข้อความที่ปรากฎในรูปภาพอย่างละเอียดแต่ละตำแหน่งได้, สามารถกำหนดหรือแก้ไขภาพที่มีทั้งข้อความและคนในรูปได้, กำหนดรายละเอียดตามลำดับสูงถึง 10-20 รายการใน 1 prompt, สามารถเรียนรู้จากรูปที่อัปโหลดเข้าไปได้, มีความรู้จับคู่ข้อความกับภาพที่สามารถสร้าง Infographic ได้ เป็นต้น (ตัวอย่างที่น่าสนใจอยู่ท้ายข่าว)

Tags:
Node Thumbnail

กูเกิลเปิดตัวโมเดล LLM ตัวใหม่ Gemini 2.5 Pro ที่พัฒนาความเก่งโดยอาศัยการฝึกจนกว่าจะทำแบบทดสอบถูก (reinforced learning) และฝึกให้คิดก่อนตอบ (chain of thought) โดยระบุว่าหลังจากนี้จะฝึกโมเดลต่อๆ ไปโดยฝังแนวทางคิดก่อนตอบไว้เสมอเพื่อให้โมเดลมีความสามารถสูง

ผลทดสอบ Gemini 2.5 Pro ด้านการเขียนโปรแกรมนั้นสูงขึ้นมาก ผลทดสอบ Aider สูงสุดในตอนนี้เหนือ DeepSeek-R1 แม้ว่าผลทดสอบ SWE-bench verified ที่เน้นปัญหาจริงจะยังแพ้ Claude 3.7 แต่ก็นับว่าใกล้เคียงขึ้นมาก ผลการทดสอบบน LM Arena นั้นตอนนี้ Gemini 2.5 Pro ขึ้นที่หนึ่งทั้งตาราง ใกล้เคียงกับ GPT-4.5 และ Grok-3 Preview

Tags:
Node Thumbnail

Alibaba Cloud ออกโมเดลปัญญาประดิษฐ์ใหม่ Qwen2.5-VL-32B ซึ่งเป็นโมเดลขนาดใหญ่ 32B แบบโอเพนซอร์สภายใต้สัญญาอนุญาต Apache 2.0 สามารถดาวน์โหลดได้ที่ Hugging Face และ GitHub

Qwen2.5-VL-32B เป็นโมเดลในตระกูล Qwen2.5-VL ที่ Alibaba Cloud เปิดตัวเมื่อเดือนมกราคม โดยเวอร์ชันนี้ระบุว่าฉลาดกว่าและไม่ต้องใช้ทรัพยากรประมวลผลสูง มีจุดขายคือ การให้คำตอบที่สอดคล้องกับที่มนุษย์ต้องการมากขึ้น, มีความสามารถให้เหตุผลทางคณิตศาสตร์ที่ดีขึ้น และวิเคราะห์รูปภาพได้ละเอียดยิ่งขึ้น

Tags:
Node Thumbnail

DeepSeek ออกโมเดลเวอร์ชันใหม่ DeepSeek-V3-0324 มีการเปลี่ยนแปลงสำคัญคือเปลี่ยนสัญญาอนุญาตเป็น MIT

เดิมทีโมเดลของ DeepSeek เป็นโอเพนซอร์สอยู่แล้ว แต่ใช้สัญญาอนุญาตแบบคัสตอมของตัวเอง คราวนี้เปลี่ยนมาเป็นสัญญามาตรฐานของวงการคือ MIT License ที่เปิดกว้างมากๆ อนุญาตให้ทำได้แทบทุกอย่าง

Tags:
Node Thumbnail

AMD โอเพนซอร์สไลบรารี AI Tensor Engine for ROCm (AITER) ที่รวมเอาฟังก์ชั่นที่ปัญญาประดิษฐ์ต่างๆ ใช้งานบ่อย ให้ออปติไมซ์บน ROCm โดยเฉพาะ PyTorch ที่นิยมใช้งานกับปัญญาประดิษฐ์กลุ่ม LLM

กลุ่ม operator ที่ LLM ใช้งานสามารถรันได้เร็วขึ้นหลายเท่าตัว เช่น Mixture of Experts (MoE), การคูณแมตทริกซ์, Multi-Head Attention (MHA) ผลการทดสอบ DeepSeek-V3/R1 บนชิป MI300X สามารถรันเร็วขึ้นเทียบกับก่อนใช้ AITER ถึงเท่าตัว

ตอนนี้ซอฟต์แวร์รัน LLM เช่น vLLM และ SGLang รองรับ AITER แล้ว และทาง AMD ยืนยันว่าจะลงทุนพัฒนาเร่งความเร็วโหลดงาน AI บนชิป AMD เพิ่มเติมต่อไป

Tags:
Node Thumbnail

AMD เปิดตัวโครงการโอเพนซอร์สชื่อ GAIA เป็นแอพพลิเคชันบนพีซี ที่ช่วยนำโมเดล LLM มารันบนพีซี และสามารถเร่งความเร็วหากเป็นเครื่องที่มี NPU ของชิป Ryzen AI ด้วย

GAIA คงไม่ต่างอะไรมากกับชุดซอฟต์แวร์แบบเดียวกันที่มีอยู่แล้ว (เช่น ไมโครซอฟท์เองมี Windows Copilot Runtime) มีฟีเจอร์ Retrieval-Augmented Generation (RAG) ช่วยเสริมความรู้เฉพาะทางให้ AI (เช่น คลังเอกสารขององค์กร) เพื่อนำมาสร้างเป็น agent ที่เชี่ยวชาญงานเฉพาะด้าน ตัวอย่างที่ AMD ให้มาคือ agent ที่ช่วยค้นหาข้อมูลจากคลิปใน YouTube, agent เล่นมุขตลก เป็นต้น

Tags:
Node Thumbnail

งาน NVIDIA GTC ปีนี้นอกจากการแถลงข่าวของ NVIDIA เองแล้วยังมีนักวิจัยชั้นนำขึ้นเวทีย่อยๆ ในงานจำนวนมาก คนหนึ่งที่มาขึ้นเวทีครั้งนี้คือ Yann LeCun Chief AI Scientist at Meta หนึ่งในผู้บุกเบิก convolutional neural networks (CNN) บรรยายถึงโลกอนาคตของปัญญาประดิษฐ์

LeCun คาดการณ์ถึง AI ในอนาคตว่าน่าจะต้องขยายไปรูปแบบอื่นที่ไม่ใช่แค่ LLM แบบทุกวันนี้เพราะรูปแบบการส่งเอาท์พุตมีได้จำกัด (ตาม dictionary ของ token) และการฝึกด้วยข้อความอย่างเดียวโดยอาศัยการขยายโมเดลและข้อมูลฝึกไปเรื่อยๆ ไม่น่าจะนำไปสู่การสร้าง AI ฉลาดระดับใกล้มนุษย์ หรือ AGI ได้ เพราะมนุษย์นั้นเรียนรู้ข้อมูลหลากหลายกว่ามาก ทั้งภาพและเสียงจำนวนมหาศาลตั้งแต่เด็ก

Tags:
Topics: 
Node Thumbnail

OpenAI เปิดบริการ API สำหรับโมเดล o1-pro ซึ่งน่าจะใกล้เคียงกับ o1 pro mode ในแอป ChatGPT Pro ที่คิดค่าบริการรายเดือน 200 ดอลลาร์

จุดเด่นที่เตะตาของ o1-pro คือราคาที่สูงขึ้นมาก สูงกว่า o1 ปกติถึง 10 เท่าตัวกลายเป็น 150 ดอลลาร์ต่อล้านโทเค็นสำหรับอินพุต และ 600 ดอลลาร์ต่อล้านโทเค็นสำหรับเอาท์พุต

คุณสมบัติอื่นๆ ใกล้เคียงกับ o1 เช่น context window ขนาด 200,000 โทเค็น เอาท์พุต 100,000 โทเค็น รองรับการเรียกฟังก์ชั่นและการเอาท์พุตเป็น JSON

Tags:
Topics: 
Node Thumbnail

NVIDIA เปิดตัว Dynamo ไลบรารีเร่งความเร็วในการรันปัญญาประดิษฐ์ (inference) ที่สามารถเร่งความเร็วการรันได้สูงสุด 30 เท่าด้วยการทำ KV cache

KV cache เป็นแนวทางสำคัญที่ผู้ให้บริการจำนวนมากใช้เร่งความเร็วในการให้บริการ ระบบรันจะเก็บสถานะการรันข้อความล่าสุดเอาไว้ และเมื่อผู้ใช้แชตต่อจากเดิมก็สามารถดึงสถานะกลับมาใช้งานได้ทันทีโดยไม่ต้องประมวลผลข้อความเดิมทั้งหมด

Dynamo มีความสามารถในการดึงสถานะการรันไว้ในหน่วยความจำหรือสตอเรจที่ราคาถูกกว่า เมื่อผู้ใช้กลับมาคุยต่อก็สามารถส่งคำขอกลับไปยังเครื่องเดิมที่เคยเก็บสถานะการแชตไว้ได้

Tags:
Topics: 
Node Thumbnail

NVIDIA เปิดตัวโมเดล Llama Nemotron Reasoning ชุดโมเดล LLM แบบคิดก่อนตอบที่ช่วยเพิ่มความแม่นยำของคำตอบขึ้น 20% โดยฝึกต่อจาก Llama ด้วยชุดข้อมูลแสดงวิธีคิด

ทาง NVIDIA สร้างชุดข้อมูลคิดก่อนตอบขนาด 60,000 ล้านโทเค็น โดยใช้คนมาช่วยดูข้อมูลอีกครั้ง รวมใช้เวลาตรวจข้อมูล 45,000 ชั่วโมง ใช้เวลารันโมเดลด้วย H100 รวม 360,000 ชั่วโมง

โมเดลมี 3 ขนาด ได้แก่ Nano ขนาดเล็กมาก, Super สำหรับการรันบน GPU สำหรับเซิร์ฟเวอร์ตัวเดียว, และ Ultra สำหรับการรันในเซิร์ฟเวอร์หลาย GPU โดยทาง NVIDIA ไม่ได้ฝึกเพิ่มอย่างเดียว แต่ยังตัดแต่ง (prune) โมเดลเพื่อให้โมเดลรันได้เร็วขึ้น ตัวโมเดลยังถูกฝึกให้หยุดคิดได้ในกรณีที่ผู้ใช้ต้องการคำตอบเร็วๆ จึงสามารถใช้งานได้ทั้งแบบปกติและแบบคิดก่อนตอบคล้าย Claude 3.7

Tags:
Node Thumbnail

กูเกิลประกาศเพิ่มเครื่องมือใหม่ให้กับผู้ใช้งานปัญญาประดิษฐ์ Gemini มีรายละเอียดดังนี้

Canvas

Canvas เป็นพื้นที่ให้ผู้ใช้งานแชทบอต Gemini สามารถปรับแก้ไขเนื้อหาผลลัพธ์ได้อย่างต่อเนื่อง คล้ายกับเครื่องมือแชทบอตของค่ายอื่น รองรับทั้งการแก้ไขเอกสารเป็นจุดที่ต้องการ สามารถส่งออกผลลัพธ์ไปยัง Google Docs ได้ เพื่อความต่อเนื่อง

นอกจากนี้ Canvas ยังรองรับการให้คำแนะนำและแก้ไขโค้ด สามารถแสดงพรีวิวผลลัพธ์ที่เป็น HTML/React ได้เลยผ่านอินเทอร์เฟซของ Canvas

Canvas เริ่มอัปเดตให้ผู้ใช้งานทั่วโลกในทุกภาษาที่ Gemini รองรับ สำหรับลูกค้า Gemini และ Gemini Advanced

Tags:
Node Thumbnail

Meta ประกาศว่าโมเดลปัญญาประดิษฐ์ภาษาขนาดใหญ่ Llama มีจำนวนการดาวน์โหลดแล้วมากกว่า 1,000 ล้านครั้ง เพิ่มขึ้นจากตัวเลขเดือนสิงหาคมปีที่แล้วเกือบสามเท่า และใช้เวลาประมาณ 2 ปี นับจากเปิดตัวในเดือนกุมภาพันธ์ 2023

การเติบโตของ Llama มาจากเหตุผลสำคัญคือเป็นโมเดลแบบโอเพนซอร์สเกือบทั้งหมด มีข้อจำกัดเล็กน้อยคือสามารถใช้งานเชิงพาณิชย์ได้หากไม่ใช่บริการขนาดใหญ่ จึงทำให้ถูกดาวน์โหลดติดตั้ง และนำมาใช้งานแพร่หลาย

Tags:
Node Thumbnail

ข่าวโมเดลปัญญาประดิษฐ์ใหม่ประจำวัน วันนี้เป็นคิวของ Mistral บริษัทจากฝรั่งเศส เปิดตัวโมเดลขนาดเล็ก Mistral Small 3.1 เป็นเวอร์ชันอัพเกรดจาก Mistral Small 3.0 ที่เพิ่งออกเดือนที่แล้ว ขนาดพารามิเตอร์ 24B เท่าเดิม แต่ความสามารถเพิ่ม ทำคะแนนเบนช์มาร์คเอาชนะโมเดลระดับเดียวกัน GPT-4o-mini, Claude 3.5 Haiku และ Gemma 3 ได้แล้ว

ตอน Mistral Small 3.0 ยังทำคะแนนได้น้อยกว่า GPT-4o-mini แต่มีจุดเด่นเรื่องตอบเร็วกว่า ความเร็ว 150 โทเค็นต่อวินาที พอมาถึงเวอร์ชัน 3.1 ยังรักษาความเร็วได้เท่าเดิม แต่ทำคะแนนได้เพิ่มขึ้นแล้ว ตอนนี้เอาชนะโมเดลระดับเดียวกันได้ทุกตัว

Tags:
Node Thumbnail

Baidu เปิดตัว 2 โมเดลปัญญาประดิษฐใหม่ ได้แก่ ERNIE X1 โมเดลที่คิดเป็นขั้นตอน (Reasoning Model) ซึ่งเป็นโมเดลประเภทนี้ตัวแรกจาก Baidu มีจุดเด่นคือชุดความรู้ภาษาจีน, การเขียนบทความ, คู่มือ, สร้างบทสนทนา ไปจนถึงการคำนวณที่ซับซ้อน

โมเดล X1 ยังรองรับการนำไปใช้งานสำหรับการค้นหาข้อมูลเชิงลึก, การถามตอบจากเอกสารที่อัปโหลด, การทำความเข้าใจรูปภาพ, สร้างรูปภาพ, อ่านโค้ด, อ่านเว็บเพจ, วาดผังความคิด TreeMind และอื่น ๆ

Tags:
Node Thumbnail

EXO Labs ผู้พัฒนาซอฟต์แวร์คลัสเตอร์สำหรับรันปัญญาประดิษฐ์ รายงานถึงผลทดสอบของ Mac Studio ที่ใช้ชิป M3 Ultra พร้อมกับแรม 512GB สองเครื่อง สามารถรันโมเดล DeepSeek-R1 ตัวเต็มที่ 671B FP8 ได้ด้วยความเร็ว 11 token/s

M3 Ultra มีความได้เปรียบสำหรับการรันปัญญาประดิษฐ์ในบ้าน เพราะรองรับแรมแบบ unified memory ขนาดใหญ่, มีแบนวิดท์หน่วยความจำสูง, และในเวอร์ชั่นนี้ยังรองรับ Thunderbolt 5 ที่แบนวิดท์สูงขึ้นเป็น 120Gb/s ตัวแอปเปิลเองถึงกับโฆษณาความเร็วในการรัน LLM ไว้ด้วย

Tags:
Topics: 
Node Thumbnail

Manus AI บริการปัญญาประดิษฐ์แบบ Agentic ที่สร้างโดยบริษัท Butterfly Effect จากเมือง Wuhan เปิดตัวแบบจำกัดเมื่อสัปดาห์ที่ผ่านมา แม้ตอนนี้ยังมีผู้ใช้ไม่มาก แต่ก็ได้รับเสียงชื่นชมเป็นวงกว้าง

ตัว Manus AI เปิดให้ปัญญาประดิษฐ์เข้าถึงคอมพิวเตอร์เต็มตัว ทำให้สามารถเข้าถึงเบราว์เซอร์และอ่านเว็บต่างๆ ได้เอง ทำให้ผู้ใช้สามารถสั่งคำสั่งกว้างๆ เช่น ค้นคว้าบางเรื่อง

ตัว Manus AI ไม่ใช่ผู้พัฒนาโมเดล LLM โดยตรงแต่อาศัยโมเดลจำนวนมาก ทั้ง Claude และโมเดลที่ finetune จาก Qwen ทาง Manus ระบุว่าจะโอเพนซอร์สบางโมเดลออกมาในภายหลัง ส่วนผสมต่างๆ ที่ Manus ใช้นี้ไม่เปิดเผย แต่โชว์ผลทดสอบ GAIA ได้สูงสุด แซงหน้า OpenAI Deep Research ชัดเจน

Tags:
Node Thumbnail

กูเกิลเปิดตัวโมเดล LLM แบบโหลดไปใช้งานได้เอง Gemma 3 โดยชูผลทดสอบใน Chatbot Arena ว่ารุ่นใหญ่สุดที่ขนาดเพียง 27B สามารถเอาชนะ DeepSeek-V3, Llama 3 405B, และ o3-mini ได้

ฟีเจอร์สำคัญของ Gemma 3 คือการขยาย context widow เป็น 128,000 โทเค็น ทำให้รับข้อมูลไปประมวลผลได้เยอะขึ้นมาก รวมถึงอินพุตเป็นภาพ ทำให้ใช้งานได้ใกล้เคียง Gemini มากขึ้น โดยโมเดลขนาด 27B นี้กูเกิลชูว่ามีความสามารถสูงโดยที่ยังรันบนการ์ดใบเดียวได้ โดยเวอร์ชั่นนี้มาพร้อมกับรุ่นลดความละเอียดจากกูเกิลอย่างเป็นทางการ

สามารถใช้งานได้แล้วบน Google AI Studio, ollama, หรือแม้แต่ใช้ serverless อย่าง Cloud Run

ที่มา - Google Blog

Tags:
Node Thumbnail

หลังจาก HuggingFace พยายามทำซ้ำ DeepSeek-R1 แบบเปิดทั้งหมด ตอนนี้ก็มีผลผลิตแรกแล้วเป็นโมเดล OlympicCoder-7B ที่พัฒนาต่อมาจาก Qwen2.5-Coder

OlympicCoder-7B อาศัยชุดข้อมูลคิดก่อนตอบจาก CodeForces-CoTs ที่ใส่โจทย์เขียนโปรแกรมภาษา C++ และ Python ลง DeepSeek-R1 กว่าแสนข้อ โดยนำโมเดล Qwen2.5-Coder ขนาด 7B และ 32B มาใช้งาน ตอนนี้ทดสอบเฉพาะชุดข้อสอบโอลิมปิก ผลทดสอบที่ได้ OlympicCoder-32B สามารถเอาชนะ QwQ-32B และ DeepSeek-R1 ไปได้ โดยยังเป็นรอง o1 และ o3-mini อยู่

Tags:
Topics: 
Node Thumbnail

OpenAI เปิดตัว Response API ที่เตรียมมาทดแทน Assistants API เดิม ในช่วงแรกเพิ่มความสามารถทั้งการค้นหาเว็บ, ค้นหาเอกสาร, และการควบคุมคอมพิวเตอร์ โดยความสามารถในการควมคุมคอมพิวเตอร์นับเป็นความสามารถใหม่สุดที่เปิดตัวในฝั่ง API ครั้งนี้ หลังจากเปิดบริการ Operator ที่เป็นแอปพลิเคชั่นสำเร็จรูปไปก่อนแล้ว โดยรายละเอียดของเครื่องมือที่ใช้งานได้มีดังนี้

Tags:
Node Thumbnail

Foxconn เปิดตัวโมเดลปัญญาประดิษฐ์ภาษาขนาดใหญ่หรือ Large Language Model (LLM) เรียกชื่อว่า FoxBrain ซึ่งเดิมออกแบบพัฒนาเพื่อใช้งานภายในบริษัท โมเดล FoxBrain นี้มีความสามารถทั้งการวิเคราะห์ข้อมูล คณิตศาสตร์ การให้เหตุผล แก้ไขปัญหา และการเขียนโค้ด โดยโมเดลนี้ทำงานเป็นภาษาจีนมาตรฐาน

FoxBrain พัฒนาโดย Hon Hai Research Institute หน่วยงานวิจัยและพัฒนาในเครือ Foxconn ซึ่งฝึกฝนด้วยจีพียู NVIDIA H100 จำนวน 120 ตัว ใช้เวลาเพียง 4 สัปดาห์เท่านั้น ซึ่ง Foxconn บอกว่าเป็นระยะเวลาที่สั้น ใช้ต้นทุนฝึกฝนที่ต่ำ

Tags:
Node Thumbnail

ทีมวิจัยจาก Zoom Communications รายงานถึงเทคนิค Chain of Draft (CoD) ที่ล้อมาจาก Chain of Thought (CoT) หรือกระบวนการคิดก่อนตอบ ที่มักทำให้ผลการทดสอบต่างๆ ของปัญญาประดิษฐ์กลุ่ม LLM ดีขึ้น โดยพบว่ากระบวนการ CoD ได้ผลใกล้เคียงหรือดีกว่า CoT แต่กลับประหยัดค่า token อย่างมาก

หลักการของ CoD นั้นเรียบง่าย คือการใส่ system prompt ระบุว่าให้คิดเป็นขั้นเป็นตอนก่อนตอบ (เหมือน CoT) แต่ระบุว่าให้คิดให้สั้นที่สุดเท่าที่เป็นไปได้ แต่ละขั้นตอนก็คิดสั้นๆ พอ

ความน่าสนใจของแนวทางนี้คือเมื่อรันกับชุดทดสอบต่างๆ แล้วพบว่า CoD ทำคะแนนได้ดีกว่าโมเดลพื้นฐานอย่างมาก ขึ้นไประดับเดียวกับ CoT แต่กลับใช้โทเค็นรวมเพียง 7.6% ของ CoT เท่านั้น

Tags:
Node Thumbnail

เมื่อปลายเดือนกุมภาพันธ์ที่ผ่านมา Anthropic เปิดบริการ Claude Code เป็นบริการแบบ Agentic ที่อ่านโค้ด, แก้ไขไฟล์, และสั่งคำสั่งต่างๆ ได้ด้วยตัวเอง แต่ก็เริ่มมีรายงานว่าผู้ใช้เชื่อใจบริการนี้จนปล่อยให้มันรันคำสั่งอันตราย

ผู้ใช้ชื่อว่า BumbleTree รายงานว่า Claude Code สั่งเปลี่ยนสิทธิ์ในโฟลเดอร์ /usr ส่งผลให้เครื่องบูตไม่ขึ้น และการซ่อมให้เครื่องกลับมาใช้งานได้น่าจะยุ่งยากมาก

ทาง Anthropic เตือนผู้ใช้แต่แรกว่าควรระวังการใช้งาน โดยไม่ควรติดตั้ง Claude Code แบบ global หรือใช้สิทธิ์ root ในการรัน พร้อมกับเตือนว่าบริการนี้เป็นโครงการทดลอง

Tags:
Node Thumbnail

Bloomberg รายงานข่าวแวดวงว่า ไมโครซอฟท์พัฒนาโมเดลภาษาขนาดใหญ่ของตัวเองชื่อว่า MAI เสร็จแล้ว สามารถนำมาใช้ทดแทนโมเดลตระกูล GPT ของ OpenAI ในบริการต่างๆ ของไมโครซอฟท์ (เช่น Copilot) ได้

แหล่งข่าวของ Bloomberg บอกว่าไมโครซอฟท์กำลังทดสอบ MAI เป็นการภายใน ผลลัพธ์ออกมาพบว่าอยู่ในระดับเดียวกับโมเดลของ OpenAI หรือ Anthropic และนอกจากตัวโมเดลภาษาปกติแล้ว ไมโครซอฟท์ยังมีโมเดลที่ให้เหตุผล (reasoning model) พัฒนาอยู่เช่นกัน

โฆษกของไมโครซอฟท์ให้สัมภาษณ์ว่า นโยบายของบริษัทคือใช้โมเดลหลากหลายอยู่แล้ว และความสัมพันธ์กับ OpenAI ก็ยังดีอยู่

Tags:
Node Thumbnail

Alibaba Cloud เปิดตัวโมเดลปัญญาประดิษฐ์ LLM ในชื่อ QwQ-32B (อ่านว่า ควิว) โมเดลคิดก่อนตอบ ที่เคยเปิดรุ่นพรีวิวไปก่อนหน้านี้เมื่อปลายปี 2024 แต่ตอนนี้ออกเป็นตัวจริง โดยผลที่ได้มีคะแนนทดสอบหลายชุดดีขึ้นอย่างชัดเจน จนขึ้นมาใกล้เคียงกับ DeepSeek-R1 ที่มีขนาดใหญ่กว่า 20 เท่า

Tags:
Node Thumbnail

วันนี้แอปเปิลเปิดตัว Mac Studio โดยรุ่นสูงสุดใส่ชิปใหม่ M3 Ultra ประสิทธิภาพสูง แต่จุดเล็กๆ จุดหนึ่งในการเปิดตัวครั้งนี้คือแอปเปิลเลือกโชว์ความเร็วในการรันปัญญาประดิษฐ์แบบ LLM เป็นแนวทางการใช้งานแรกของ M3 Ultra โดยระบุว่าสามารถรัน LLM ได้เร็วกว่า M1 Ultra ถึง 16.9 เท่าตัว แถมยังอัดแรมได้ถึง 512GB (ใหญ่กว่า M2 Ultra ที่คอนฟิกได้ 192GB) ทำให้รันโมเดลระดับแสนล้านพารามิเตอร์ได้

ความได้เปรียบของชิป Apple Silicon เป็นชิปที่ใช้หน่วยความจำร่วมกันระหว่างซีพียูและกราฟิก และเมื่อใส่แรมขนาดใหญ่มากๆ ก็สามารถรันโมเดล LLM ขนาดใหญ่ได้ ที่ผ่านมานักพัฒนาจำนวนมากนิยม Apple Silicon ด้วยความได้เปรียบนี้

Pages