Large Language Model

Tags:
Node Thumbnail

แอปเปิลเผยแพร่ OpenELM (Open-source Efficient Language Models) ชุดโมเดล AI ภาษาขนาดใหญ่ (LLM) แบบโอเพนซอร์ส ที่สามารถทำงานได้บนอุปกรณ์ ไม่ต้องเชื่อมต่อกับคลาวด์เซิร์ฟเวอร์ โดยสามารถดูรายละเอียดเพิ่มเติมได้ที่ Hugging Face

OpenELM มีทั้งหมด 8 โมเดล เป็น 4 โมเดลที่ยังไม่ถูกเทรน และอีก 4 โมเดลที่ผ่านการเทรนปรับแต่งมาแล้ว ขนาดพารามิเตอร์มีตั้งแต่ 270M ถึง 3B

Tags:
Node Thumbnail

Axon ผู้ผลิตอุปกรณ์สำหรับตำรวจ เช่น ปืนช็อตไฟฟ้า, กล้องติดตัวเจ้าหน้าที่, หรือระบบจัดเก็บหลักฐานคดี ออกซอฟต์แวร์ใหม่ Draft One ที่ใช้ generative AI ช่วยตำรวจเขียนเอกสารแจ้งความโดยอัตโนมัติ

Draft One ดึงเสียงจากกล้องติดตัวตำรวจ Axon Body มาแปลงเสียงเป็นข้อความ จากนั้นแปลงคำถามตอบของตำรวจกับผู้เสียหายกลายเป็นเอกสารแจ้งความ

ทาง Axon ระบุว่ามีแนวทางป้องกันความเสี่ยงที่เจ้าหน้าที่จะอาศัย AI มากเกินไป ได้แก่

Tags:
Node Thumbnail

บัญชี GitHub ที่ใช้ชื่อว่า rabbitscam ออกมาโพสซอร์สโค้ดของ Rabbit R1 อุปกรณ์ AI ผู้ช่วยที่เปิดตัวในงาน CES เมื่อต้นปีที่ผ่านมาว่าไม่ได้มี AI อะไรอยู่ภายใน และที่จริงแล้วความสามารถของ Rabbit R1 เป็นเพียงสคริปต์ Playwright ที่ควบคุมเบราว์เซอร์เท่านั้น

อย่างไรก็ดี ใน Hacker's News มีคนแคปหน้าจอข้อความ Discord ของ Peiyuan Liao ซีทีโอ Rabbit Inc. ระบุว่า Large Action Model (LAM) นั้นทำงานนอกโค้ดที่ rabbitscam โพสมา

Tags:
Topics: 
Node Thumbnail

ไมโครซอฟท์ปล่อยโมเดลปัญญาประดิษฐ์แบบ LLM ขนาดเล็ก phi-3-mini ที่มีขนาดเพียง 3.8 พันล้านพารามิเตอร์ แต่สามารถทำคะแนน MMLU ได้ 69% และคะแนน MT-Bench 8.38 นับว่าใกล้เคียง GPT-3.5 อย่างมาก (MMLU 70.0%, MT-Bench 7.94) ชนะ Llama 3 ขนาด 8B ที่เพิ่งออกมาอีกด้วย

โมเดลตระกูล Phi-3 ยังมีอีกสองรุ่น คือ phi-3-small ขนาด 7B, และ phi-3-medium ขนาด 14B ขณะที่รุ่น phi-3-mini นั้นเมื่อใช้งานแบบ quantized 4 bit จะใช้แรมเพียง 1.8GB สามารถรันบน iPhone 14 ด้้วยอัตรา 12 โทเค็นต่อวินาที

ในแง่ความปลอดภัย phi-3 ยังตอบสนองต่อเนื้อหาอันตรายน้อยลงกว่า phi-2 มาก เหลือเพียง 0.75% เทียบกับ phi-2 ที่ตอบ 2.93%

Tags:
Node Thumbnail

Groq สตาร์ตอัพผู้สร้างชิปเร่งการประมวลผล AI (คนละบริษัทกับ Grok ที่เป็นของ Twitter/X) สามารถรันโมเดล Llama 3 ตัวใหม่ล่าสุดของ Meta ด้วยความเร็วสูงถึง 800 token ต่อวินาที

ถ้าดูจากสถิติเดิมเมื่อเดือนกุมภาพันธ์ปีนี้ Groq สามารถรัน Llama 2 70B ด้วยความเร็ว 240 token ต่อวินาที ซึ่งถือว่าเร็วมากๆ แล้ว เมื่อเทียบกับตัวเลขของ GPT-4 หรือ Claude Opus ที่ทำได้ไม่ถึง 40 token ต่อวินาที

Node Thumbnail

Meta ประกาศอัปเดต Meta AI แชทบอตผู้ช่วยบน Facebook, Instagram, WhatsApp และ Messenger ที่เปิดตัวในงาน Connect เมื่อปีที่แล้ว โดยขยายประเทศที่รองรับเพิ่มเติมนอกจากสหรัฐอเมริกา ตามที่มีข่าวก่อนหน้านี้ รวมทั้งเพิ่มความสามารถด้วยโมเดล Meta Llama 3 ล่าสุดที่เพิ่งเปิดตัว

รายชื่อประเทศที่ได้ใช้งาน Meta AI ในภาษาอังกฤษเพิ่มเติมได้แก่ ออสเตรเลีย แคนาดา กานา จาไมกา มาลาวี นิวซีแลนด์ ไนจีเรีย ปากีสถาน สิงคโปร์ แอฟริกาใต้ ยูกันดา แซมเบีย และซิมบับเว ซึ่งจะขยายเพิ่มเติมต่อไปเร็ว ๆ นี้

Tags:
Node Thumbnail

Meta ปล่อยโมเดลปัญญาประดิษฐ์ Llama 3 สองรุ่น คือ 8B และ 70B แยกรุ่นย่อยสำหรับการทำตามคำสั่ง โดยยังมีรุ่น 400B อยู่ระหว่างการพัฒนา

รุ่น 8B นั้น Meta เทียบกับ Gemma 7B และ Mistral 7B Instruct เอาชนะได้ทุกชุดการทดสอบ บางหมวดเช่น HumanEval สำหรับการเขียนโปรแกรม และ GSM-8K สำหรับการคำนวณนั้นนำห่าง

รุ่น 70B ทาง Meta นำไปเทียบกับ Gemini Pro 1.5 ทำคะแนนนำได้บางชุดทดสอบ และเมื่อเทียบกับ Claude 3 Sonnet ก็ชนะทุกชุดทดสอบเช่นกัน

Tags:
Node Thumbnail

MLCommons หน่วยงานกลางสำหรับออกชุดทดสอบประสิทธิภาพปัญญาประดิษฐ์ ออกชุดทดสอบใหม่ AI Safety สำหรับการวัดความปลอดภัยของโมเดลปัญญาประดิษฐ์แบบ LLM โดยเฉพาะ นับเป็นครั้งแรกที่ MLCommons หันมาออกชุดสอบตัวปัญญาประดิษฐ์เอง เพราะก่อนหน้านี้ชุดทดสอบ MLPerf มีไว้สำหรับการทดสอบประสิทธิภาพของฮาร์ดแวร์ที่ใช้รันและฝึกปัญญาประดิษฐ์เป็นหลัก

Tags:
Node Thumbnail

OpenAI ประกาศนำโมเดล GPT-4 Turbo มาให้ใช้งานแล้วสำหรับลูกค้า ChatGPT ที่เสียเงิน

GPT-4 Turbo นั้นเปิดตัวมาตั้งแต่พฤศจิกายนปีที่แล้ว มีการปรับปรุงความสามารถเช่น การเขียน, คณิตศาสตร์, การให้เหตุผลแบบตรรกะ และการเขียนโค้ด

ทั้งนี้ไมโครซอฟท์ได้นำ GPT-4 Turbo มาให้ใช้งานบน Copilot สำหรับลูกค้าฟรีเมื่อเดือนที่แล้ว

ที่มา: Engadget

Tags:
Topics: 
Node Thumbnail

Mistral สตาร์ทอัปด้าน AI จากฝรั่งเศส เปิดตัวโมเดลภาษาขนาดใหญ่ (LLM) Mixtral 8x22B ขนาดโมเดล 176 พันล้านพารามิเตอร์ ซึ่งเป็นรุ่นถัดจากโมเดลก่อนหน้า Mixtral 8x7B

การทำงานของ Mixtral 8x22B ยังคงใช้วิธี MoE (mixture of experts) ที่ทุกเลเยอร์ของแต่ละโทเค็น จะเลือกโมเดลที่เหมาะสม 2 ตัว (เรียกว่า experts) มาใช้ในการประมวลผล ทำให้ไม่ต้องใช้พารามิเตอร์ทั้งหมดมารัน ตอนนี้ Mistral ยังไม่ได้เปิดเผยรายละเอียดทั้งหมดของโมเดล แต่คาดการณ์ว่าโมเดลที่ถูกใช้จริงตอนรันมีประมาณ 38 พันล้านพารามิเตอร์

Tags:
Node Thumbnail

กูเกิลเปิดตัวบริการ Gemini Code Assist ที่เปลี่ยนชื่อมาจาก Duet AI for Developer แต่เปลี่ยนปัญญาประดิษฐ์ภายในเป็น Gemini ที่อ่านข้อมูลได้นับล้่านโทเค็น ทำให้เวลาแนะนำโค้ดนั้นไม่ใช่การอ่านทีละไฟล์ แต่อ่านทั้งโครงการทีละเป็นแสนบรรทัดและแนะนำได้ทันที

การประกาศรอบนี้ยังประกาศเป็นพันธมิตรกับบริษัทความปลอดภัยซอฟต์แวร์ Synk โดยตอนนี้ยังเป็นเพียงการแนะนำการใช้งาน Synk ในแชตก่อน แต่ภายในปีนี้จะรวมความสามารถในการสแกนโค้ดเข้าไว้ในบริการ Code Assist เลย ทำให้แนะนำช่องโหว่ในโค้ดได้ทันที

Gemini Code Assist เปิดให้ใช้ฟรีแล้ววันนี้ แต่จะเก็บเงินหลังวันที่ 11 มิถุนายนนี้ ราคา 19 ดอลลาร์ต่อคนต่อเดือน สามารถใช้งานได้บน VS Code และ JetBrains

Tags:
Node Thumbnail

อินเทลประกาศร่วมมือกับบริษัทพันธมิตรจำนวนมาก เตรียมสร้างแพลตฟอร์มสำหรับการใช้งาน AI ภายในองค์กร ทำให้สามารถสร้างแอปแบบ retrieval-augmented generation (RAG) ได้โดยง่าย

ทางอินเทลสัญญาว่าจะลงมือให้ก่อนเป็นโค้ดชุดแรกที่รองรับชิป Xeon และ Gaudi เป็นหลัก มีคลาวด์ให้นักพัฒนาใช้งาน และต่อจากนั้นจะสนับสนุนให้องค์กรอื่นๆ เข้ามาพัฒนาโครงการต่อให้ใช้งานได้กว้างขึ้น

Tags:
Node Thumbnail

กูเกิลเพิ่มบริการด้าน LLM ตัวใหม่ คือ Vertex AI Agent Builder สำหรับการพัฒนาบริการจาก LLM โดยไม่ต้องเขียนโค้ดเองโดยตรง (ยกเว้นส่วนที่เป็น integration กับภายนอก)

บริการนี้รวมเอาความสามารถหลายตัว ได้แก่

Tags:
Node Thumbnail

ทีมนักวิจัยของแอปเปิลเผยแพร่งานวิจัยใหม่ Ferret-UI ซึ่งเป็น Generative AI หรือ AI สร้างเนื้อหา ที่ต้องการแก้ไขปัญหาโมเดลภาษาขนาดใหญ่ข้อมูลผสมผสาน (MLLM - Multimodal Large Language Model) ที่ยังมีข้อจำกัดสำหรับอินพุทรูปภาพ ที่มีรายละเอียดเยอะมาก แต่อาจมีจุดสำคัญไม่กี่อย่าง เช่น ภาพจับหน้าจอโทรศัพท์ (Screen Capture)

สิ่งที่ท้าทายของอินพุทภาพหน้าจอโทรศัพท์คือ อัตราส่วนภาพหน้าจอโทรศัพท์ ที่แตกต่างจากรูปที่ AI นิยมใช้เทรนกัน, ในภาพหน้าจอมีไอคอนหรือปุ่ม ที่มีขนาดเล็ก ความละเอียดต่ำ AI อาจแยกแยะไม่ได้ และหลายกรณีปุ่มเหล่านั้นคือประเด็นสำคัญของอินพุทอีกด้วย

Tags:
Node Thumbnail

ในงาน Google Cloud Next 2024 กูเกิลเชิญผู้ให้บริการองค์กร จากองค์กรขนาดใหญ่ เช่น กลุ่มโรงแรม IHG, Verizon, Bayer โดยองค์กรเหล่านี้เตรียมใช้งาน generative AI ในแอปพลิเคชั่นที่ติดต่อกับลูกค้าแล้ว แม้จะมองเห็นโอกาสมากแต่ก็ยังเป็นการใช้งานอย่างระมัดระวังอยู่

Kalyani Sekar Chief Data Officer จาก Verizon ระบุว่าการสร้างแอปพลิเคชั่น generative AI นั้นควรเริ่มปล่อยให้ใช้งานจากวงเล็กภายในองค์กรเองก่อน และค่อยๆ ขยายไปยังกลุ่มใหญ่ขึ้นจนถึงผู้ใช้ภายนอกองค์กร เพื่อจะได้เห็นความสามารถและข้อจำกัดของระบบ และจุดสำคัญที่สุดของการใช้งาน generative AI นั้นอาจจะไม่ใช่ปัญหาว่ามันตอบอะไรได้บ้าง แต่ต้องพยายามไม่ให้ AI ตอบคำถามที่มันจะตอบผิด แล้วส่งให้คนทำงานเป็นคนตอบแทน

Tags:
Node Thumbnail

กูเกิลเปิด Gemini 1.5 Pro ให้คนทั่วไปใช้งานแล้ว หลังจากเปิดตัวแบบจำกัดเมื่อเดือนกุมภาพันธ์ที่ผ่านมา พร้อมกับเพิ่มฟีเจอร์ค้นหาข้อมูลอ้างอิง (grounding) ทั้งการค้นด้วย Google Search และการค้นข้อมูลภายในองค์กรเอง

สำหรับการค้นข้อมูลในองค์กร เดิม Vertex AI มีบริการ Enterprise Search อยู่แล้ว ตอนนี้เพิ่มความสามารถเชื่อมต่อกับฐานข้อมูลภายนอก เช่น AlloyDB หรือ BigQuery เข้ามาเพิ่ม และยังเชื่อมต่อแอปที่องค์กรใช้งานอยู่ เช่น Workday, Salesforce, ServiceNow, Hadoop, Confluence, และ JIRA

Tags:
Node Thumbnail

กูเกิลปล่อยโมเดลปัญญาประดิษฐ์ LLM สำหรับเขียนโค้ดในชื่อ CodeGemma เน้นใช้งานเป็นตัวช่วยเขียนโค้ดโดยเฉพาะ โดยมีโมเดล 3 รุ่น ได้แก่

Tags:
Node Thumbnail

Groq บริษัทพัฒนาชิปสำหรับประมวลผลปัญญาประดิษฐ์แบบ LLM โดยเฉพาะ ประกาศเลิกขายชิปให้กับลูกค้าทั่วไปแล้ว หลังยอมรับว่าขายยากเพราะลูกค้าต้องลงทุนสูง และตอนนี้ก็มีลูกค้าบนบริการคลาวด์จำนวนมาก

หากลูกค้าของ Groq ต้องการชิปจำนวนมากหลังจากนี้จะเป็นการเซ็นสัญญาร่วมกับศูนย์ข้อมูลเพื่อเข้าไปติดตั้งเซิร์ฟเวอร์ให้ลูกค้าใช้งานโดยเฉพาะ ตอนนี้มีลูกค้าแบบนี้คือ Aramco บริษัทน้ำมันจากซาอุดิอาระเบีย แต่มีข้อยกเว้นอยู่บ้างคือโครงการภาครัฐที่ยังซื้อชิปตรงได้

Tags:
Node Thumbnail

ทีมวิจัยจาก Stanford Medicine รายงานถึงการทดลองใช้ GPT-4 มาช่วยร่างข้อความสำหรับแอปต่างๆ ที่แพทย์แพลพยาบาลใช้งาน โดยข้อความทั้งหมดเจ้าหน้าที่ต้องมาตรวจสอบก่อนส่งอีกครั้ง

การทดลองครั้งนี้มีแพทย์และพยาบาลเข้าร่วม 162 คน ทดสอบเป็นเวลา 5 สัปดาห์ และเนื่องจากมีแอปที่เจ้าหน้าที่ต้องใช้งานหลากหลาย แอปที่รองรับ GPT-4 จริงๆ คิดเป็น 20% ของการตอบข้อความทั้งหมดของเจ้าหน้าที่ ข้อความมีหลากหลาย เช่น คนไข้ถามอาการข้างเคียงของยา, หรือการรักษาอาการเบื้องต้น

ผลทดสอบไม่พบว่าเวลาการตอบข้อความเปลี่ยนแปลงมากนัก แต่เมื่อนำผลทดสอบความรู้สึกว่างานหนัก หรือความเหนื่อยล้าจากการทำงาน หลังใช้งาน GPT-4 ช่วยลดคะแนนทั้งสองตัวลงได้ แสดงให้เห็นว่า GPT-4 น่าจะช่วยลดโหลดงานของเจ้าหน้าที่ลงได้บางส่วน

Tags:
Node Thumbnail

MyShell บริษัทปัญญาประดิษฐ์สร้างตัวตนออนไลน์ เปิดตัวโมเดล JetMoE-8B โมเดล LLM ที่ประสิทธิภาพสูงกว่า LLaMA-2 13B เสียอีก และมีต้นทุนในการฝึกและการรันถูกกว่ามาก

JetMoE อาศัยสถาปัตยกรรม Mixture-of-Expert ทำให้ใช้โมเดลตอนรันจริงเพียง 2.2B เท่านั้น ต้นทุนการรันระดับเดียวกับ Gemma-2B ขณะที่การฝึกโมเดลนั้นใช้ชิป NVIDIA H100 96 ชุดเป็นเวลา 2 สัปดาห์ รวมต้นทุนประมาณ 80,000 ดอลลาร์หรือประมาณ 3 ล้านบาท น่าจะถูกกว่าโมเดลอื่นๆ ที่ประสิทธิภาพใกล้เคียงกันมาก โดยต้นทุนการฝึก LLaMA2 13B นั้นใช้ชิป A100 368640 ชั่วโมง หากคิดเป็นค่าคลาวด์ก็น่าจะเกิน 500,000 ดอลลาร์

Tags:
Node Thumbnail

JetBrains ออกอัพเดตเวอร์ชัน 2024.1 ให้กับ IDE ทุกตัวในสังกัด เพิ่มฟีเจอร์ใหม่ full line code completion ใช้พลัง AI คาดเดาโค้ดบรรทัดต่อไปที่เราจะพิมพ์ใน editor โดยเป็นการคาดเดา "ทั้งบรรทัด" และสามารถทำงานได้แบบออฟไลน์ ไม่ต้องต่อเน็ต

การทำงานของ full line code completion จะแสดงข้อความสีเทาในบรรทัดถัดไป และสามารถกด tab เพื่อให้ editor เติมบรรทัดนั้นให้เราได้ ฟีเจอร์นี้รองรับโค้ดในภาษา Java, Kotlin, Python, JavaScript, TypeScript, CSS, PHP, Go, Ruby

Tags:
Node Thumbnail

Replit บริษัทผู้สร้าง IDE ผ่านเบราว์เซอร์ ที่ช่วงหลังเริ่มใช้งาน AI ช่วยเขียนโค้ด เปิดตัวฟีเจอร์ Code Repair ที่นำ LLM มาปรับแต่งเพื่อเน้นการแก้บั๊กโดยเฉพาะ

Replit บอกว่าการนำ LLM มาช่วยเขียนโค้ดที่ใช้กันอยู่ทุกวันนี้ เกิดจากการเทรนด้วยข้อมูลซอร์สโค้ด ผสมกับข้อมูลการพูดคุยกันของมนุษย์ เช่น กระทู้ใน StackExchange หรือ GitHub issue จึงมีข้อจำกัดเรื่องการขาดบริบทด้านสภาพแวดล้อมในการพัฒนา (development environment) ที่โปรแกรมเมอร์แต่ละคนใช้งาน

Tags:
Node Thumbnail

ทีมนักวิจัยของแอปเปิลเผยแพร่ผลงาน AI ที่เพิ่มความสามารถเข้าใจบริบท (context) ของคำถามจากผู้ใช้งาน โดยอ้างอิงจากสิ่งที่ปรากฏบนหน้าจอของผู้ใช้งาน

ระบบ AI นี้มีชื่อเรียกว่า ReALM ย่อมาจาก Reference Resolution As Language Modeling เป็นโมเดล LLM ที่สามารถเข้าใจคำถามซึ่งไม่ชัดเจนหรือกำกวม ด้วยการหาข้อมูลเพิ่มเติมจากสิ่งที่ปรากฏบนหน้าจอโทรศัพท์ ทำให้บทสนทนามีความลื่นไหลและเป็นธรรมชาติมากยิ่งขึ้น

Tags:
Node Thumbnail

ทีมนักวิจัยของ Anthropic บริษัท AI เจ้าของแชทบอต Claude เผยแพร่รายงานเกี่ยวกับช่องโหว่ของโมเดล AI ภาษาขนาดใหญ่ (LLM - large language model) ซึ่งสามารถทำให้ LLM ให้คำตอบที่ไม่เหมาะสมหรือเป็นอันตรายออกมาได้ แม้ผู้พัฒนาจะเขียนกฎป้องกันไว้แล้วก็ตาม

ช่องโหว่ที่รายงานเกิดจากการสร้างบทสนทนาถามตอบกับ LLM ที่ต่อเนื่องเป็นชุด จน LLM เกิดการเรียนรู้บริบท (in-context learning) ของเนื้อหาที่ถาม ทำให้กรอบหัวข้อที่สนใจแคบลงเรื่อย ๆ และยอมตอบคำถามที่ไม่เหมาะสมหรืออันตรายออกมา

Pages