Large Language Model
Inflection AI สตาร์ตอัพของ Reid Hoffman ผู้ร่วมก่อตั้ง LinkedIn และ Mustafa Suleyman ผู้ร่วมก่อตั้ง DeepMind เปิดตัวโมเดลภาษาตัวใหม่ Inflection-2 ที่อัพเกรดขึ้นจาก Inflection-1 เวอร์ชันเมื่อเดือนพฤษภาคม
Inflection-2 ถูกเทรนด้วยจีพียู NVIDIA H100 จำนวน 5,000 ตัว ใช้กำลังประมวลผลราว 10²⁵ FLOPs ใกล้เคียงกับโมเดล PaLM 2 ของกูเกิล แต่ Inflection โฆษณาว่าผลการทดสอบกับเบนช์มาร์คปัญญาประดิษฐ์หลายๆ ตัวสามารถเอาชนะ PaLM 2 ได้ ตอนนี้คะแนนของ Inflection-2 เป็นรองแค่ GPT-4 เท่านั้น
กูเกิลอัพเดตความสามารถเพิ่มเติมของ Bard แชตบอท โดยสามารถทำความเข้าใจวิดีโอบน YouTube เพื่อตอบคำถามในรายละเอียดที่ต้องการได้ ตัวอย่าง เมื่อดูวิดีโอการทำขนม ก็สามารถถามรายละเอียดสูตรว่าใช้ไข่กี่ฟองได้ เป็นต้น
Bard รองรับการดึงข้อมูลจาก YouTube ผ่านบริการส่วนขยายมาตั้งแต่เดือนกันยายน ซึ่งตอนนั้นเน้นไปที่การแนะนำวิดีโอจากคำถาม ส่วนอัพเดตนี้เป็นการตอบคำถามจากเนื้อหาในวิดีโอ ที่น่าจะต่อเนื่องจากฟีเจอร์สรุปคลิปที่ YouTube ประกาศไปเมื่อต้นเดือน
ที่มา: TechCrunch
ระหว่างที่มหากาพย์ OpenAI ยังไม่จบลง ฝั่งคู่แข่ง Anthropic (ที่มีข่าวว่ามีข้อเสนอให้ควบรวมกัน) ก็เดินหน้าออกโมเดลเวอร์ชันใหม่ Claude 2.1
จุดเด่นของ Claude 2.1 คือการรองรับอินพุตความยาว 200,000 token หรือตีเป็นคำได้ 150,000 คำ เทียบได้กับหนังสือราว 500 หน้า การรองรับอินพุตที่ยาวขนาดนี้ทำให้ Claude สามารถอ่านเอกสารการเงินขนาดยาว, วรรณกรรมขนาดยาว หรืออ่านโค้ดทั้งหมดขององค์กรได้จบทีเดียว แล้วนำไปสรุป วิเคราะห์ ตอบคำถาม ฯลฯ ตามโจทย์ของแต่ละองค์กรได้สบายๆ (ตัวอย่างของ Anthropic คือเอาเอกสารงบประมาณของรัฐสภาสหรัฐ ย้อนหลัง 3 ปีใส่เข้าไปใน Claude แล้วให้สรุปแนวโน้มงบประมาณ)
OpenAI ประกาศว่าความสามารถคุยเสียงกับแชตบอท ChatGPT ผ่านแอปบนมือถือ ซึ่งเปิดตัวเมื่อเดือนกันยายนเฉพาะลูกค้าที่เสียเงิน ตอนนี้เปิดให้ใช้งานกับทุกคนแล้ว
โมเดลที่ใช้แปลงเสียงผู้ใช้งานเป็นข้อความคือ Whisper ที่เป็นโมเดล AI อีกตัวของ OpenAI ส่วนการแปลงข้อความกลับมาเป็นเสียงนั้น OpenAI ใช้ทีมพากย์เสียงมืออาชีพ
ไมโครซอฟท์เปิดตัว Windows AI Studio เป็นส่วนขยายของ VS Code ช่วยให้การรันโมเดลในเครื่องพีซีทำได้สะดวกขึ้น
ยุคสมัยนี้เราอาจคุ้นกับคำว่า Large Language Model (LLM) แต่ไมโครซอฟท์บอกว่ายังมีโมเดลขนาดเล็ก Small Language Model (SLM) ที่ขนาดเล็กพอสำหรับรันในเครื่องพีซี ตัวอย่างที่เปิดตัวมาพร้อมกันคือโมเดล Phi ของไมโครซอฟท์เอง ที่แยกย่อยเป็น Phi-1.5 (1.3B) และ Phi-2 (2.7B) รวมถึงโมเดลยอดนิยมจากบริษัทอื่นๆ อย่าง Llama 2-7B, Llama 2-7B, Mistral-7B, Falcon-7B, Stable Diffusion XL
สำนักข่าว Reuters อ้างแหล่งข่าวไม่เปิดเผยตัวระบุว่า Amazon กำลังลงทุนพัฒนาปัญญาประดิษฐ์ Olympus ปัญญาประดิษฐ์ LLM ที่หวังว่าจะทำมาแข่งกับ OpenAI และ Google โดยมีขนาดโมเดลถึง 2 ล้านล้านพารามิเตอร์
ที่ผ่านมา Amazon มีโมเดล Titan ของตัวเองให้บริการแต่ก็ยังมีขนาดเล็กกว่ามาก และทาง Amazon ก็อาศัยการลงทุนในบริษัท Anthropic เพื่อนำ Claude มาให้บริการบน AWS รวมถึงเป็นพันธมิตรกับบริษัทอื่นๆ เช่น A21 Labs หรือ Stability.AI
กูเกิลประกาศว่าฟีเจอร์ทดสอบเสิร์ชแบบถามตอบ ที่ใช้แชตบอท AI Bard ตอบคำถามที่กำลังค้นหาในชื่อ Search Generative Experience (SGE) ซึ่งก่อนหน้านี้ทดสอบจำกัดเฉพาะในอเมริกาและบางประเทศ ล่าสุดฟีเจอร์นี้ขยายมายังผู้ใช้เพิ่มอีก 120 ประเทศทั่วโลก ซึ่งรวมทั้งประเทศไทยด้วย
สำหรับประเทศไทย คุณสมบัติ Search Labs นี้จะใช้งานได้กับผู้ใช้จำกัดจำนวน รองรับเฉพาะการค้นหาเป็นภาษาอังกฤษเท่านั้น หากมีสิทธิเข้าร่วมทดสอบจะเห็นไอคอน Labs (ขวดรูปชมพู่) ที่มุมบนขวาของหน้าแรกใน Chrome
กูเกิลอัพเดตว่าความสามารถด้าน Generative AI ได้เพิ่มเติมเข้ามาในระบบโฆษณา Performance Max แล้ว ตามที่เคยประกาศไปเมื่อกลางปีที่ผ่านมา เพื่อช่วยให้ผู้ลงโฆษณาปรับแต่งคอนเทนต์ได้อย่างรวดเร็วมากขึ้น
เครื่องมือที่เพิ่มมาคือความสามารถสร้าง Assets ได้จาก prompt ร่วมกับข้อมูลเบื้องต้นที่ผู้ลงโฆษณาป้อนเข้าไป และสามารถต่อยอดปรับแต่งรายละเอียดโฆษณาได้ตามต้องการ นอกจากนี้แคมเปญที่มี Assets อยู่ก่อนหน้าแล้ว ก็สามารถใช้ AI ช่วยแก้ไขงานได้ เช่น การปรับภาพพื้นหลังโฆษณา (เหมือนของ Meta, Amazon)
ซัมซุงเปิดตัวโมเดล Generative AI ของตนเองในชื่อ Samsung Gauss ในงาน Samsung AI Forum ประจำปี 2023 ซึ่งชื่อก็มีที่มาจากนักคณิตศาสตร์ที่ผู้อ่านในนี้น่าจะคุ้นคือ Carl Friedrich Gauss
Samsung Gauss ประกอบไปด้วยส่วนการทำงาน 3 โมเดลย่อยได้แก่ Samsung Gauss Language สำหรับการสร้างข้อความ เช่น ช่วยเขียนอีเมล สรุปเอกสาร, Samsung Gauss Code เครื่องมือช่วยในการเขียนโค้ด และ Samsung Gauss Image สำหรับสร้างรูปภาพขึ้นมาตามคำสั่ง
ซัมซุงบอกว่าพนักงานบริษัทมีการทดสอบใช้งาน Samsung Gauss ภายในกันแล้ว โดยจะเปิดสู่สาธารณะในอนาคต ในรูปแบบส่วนเสริมของผลิตภัณฑ์ที่ออกมา จึงคาดว่าจะได้เห็น Samsung Gauss ในผลิตภัณฑ์ครั้งแรกกับ Galaxy S24 ที่กำหนดเปิดตัวปีหน้า
YouTube ประกาศเพิ่ม 2 ฟีเจอร์ใหม่ ซึ่งอยู่ในสถานะทดลองการนำ Generative AI มาปรับปรุงประสบการณ์ใช้งาน โดยจะทดสอบกับผู้ใช้งานกลุ่มเล็กก่อน และเฉพาะลูกค้า Premium เท่านั้น
ฟีเจอร์แรกคือการจัดกลุ่มคอมเมนต์ในวิดีโอแบบแยกตามเรื่องที่พูดถึง ทำให้ครีเอเตอร์เห็นภาพรวมคอมเมนต์ส่วนที่ผู้ชมสนใจได้ดีขึ้น รวมถึงสามารถจัดการและลบคอมเมนต์ที่ต้องการได้ง่ายขึ้นเช่นกัน
อีกฟีเจอร์คือเครื่องมือ AI บทสนทนา (Conversational AI) ที่เป็นแชตบอททำงานกับวิดีโอที่เรากำลังดู โดยสามารถถามเพื่อหาคำตอบเพิ่มเติม เช่น ให้สรุปเนื้อหาของวิดีโอนี้, ให้แนะนำวิดีโอที่เกี่ยวข้อง หรือวิดีโอเฉพาะเนื้อหาส่วนที่สนใจ เป็นต้นไป
OpenAI เปิดตัวเครื่องมือสำหรับสร้าง ChatGPT คัสตอมให้รองรับการใช้งานเฉพาะรูปแบบที่ต้องการ โดยเรียกเครื่องมือนี้ว่า GPTs ทำให้สามารถใช้งาน ChatGPT ที่ทำงานตามหัวข้อ เช่น ให้คำแนะนำการเล่นบอร์ดเกม, สอนคณิตศาสตร์เด็ก หรือแนะนำการออกแบบ
GPTs เป็นเครื่องมือแบบ no-code ไม่ต้องเขียนโปรแกรมเพิ่มเติม ผู้ใช้งานเพียงตั้งค่าปรับแต่งให้ ChatGPT เป็นแบบที่ต้องการ และเลือกเผยแพร่ได้ทั้งแบบใช้งานส่วนตัว หรือเปิดให้ทุกคนมาใช้งานได้ ตอนนี้ GPTs เปิดให้ลองใช้งานแล้วผ่าน chat.openai.com/create ได้เฉพาะลูกค้า ChatGPT Plus กับ Enterprise ก่อน
OpenAI เปิดตัว GPT-4 Turbo โมเดลปัญญาประดิษฐ์สำหรับให้บริการ API รุ่นล่าสุด ปรับปรุงความสามารถหลายด้าน ให้เท่าเทียมคู่แข่ง เช่น การรองรับอินพุตขนาดใหญ่ 128k token แซงหน้า Anthropic ที่รองรับ 100k และโมเดลฝึกด้วยความรู้ใหม่ทำให้รู้เหตุการณ์ถึงเดือนเมษายน 2023 แล้ว ความสามารถอื่นๆ ได้แก่
บริษัท 01.AI ที่ก่อตั้งโดย Kai-Fu Lee อดีตผู้บริหารกูเกิลในจีน เปิดตัวโมเดลปัญญาประดิษฐ์ LLM ในชื่อ Yi เป็นตระกูล LLM ใหม่ขนาด 6 พันล้านพารามิเตอร์และ 34 พันล้านพารามิเตอร์ ฝึกด้วยชุดข้อมูลภาษาอังกฤษและภาษาจีนคุณภาพสูง ชูจุดเด่นว่าผลทดสอบคะแนนปัญญาประดิษฐ์แบบ LLM แทบทุกชุดนั้น Yi สามารถทำคะแนนชนะ LLaMA2 ทุกชุดทดสอบ
Yi เปิดให้ใช้งานฟรีสำหรับงานวิจัย ส่วนการใช้งานเพื่อการค้าก็ยังใช้งานได้ฟรีแต่ต้องขอใช้งานล่วงหน้าจากทาง 01.ai แนวทางนี้ต่างจาก Meta ที่เปิดให้ใช้ LLaMA2 ได้ฟรีโดยไม่ต้องขออนุญาตล่วงหน้า เพียงแต่กำหนดเงื่อนไขผู้ใช้ไม่เกิน 700 ล้านคนไว้แต่แรก
OpenAI ออกฟีเจอร์ใหม่ในสถานะทดสอบเบต้าให้กับลูกค้า ChatGPT Plus มีรายละเอียดดังนี้
ที่มา: The Verge
กูเกิลประกาศขยายโครงการ VRP (Vulnerability Reward Program) ที่ให้รายงานช่องโหว่หรือบั๊ก ครอบคลุมถึงหัวข้อ Generative AI ซึ่งกูเกิลบอกว่าถือเป็นการให้ผลตอบแทนสำหรับการวิจัย ที่เกี่ยวข้องกับความปลอดภัยและความเสี่ยงของ AI เพื่อให้ AI เป็นพื้นที่ปลอดภัยของทุกคน
ตัวอย่างหัวข้อที่กูเกิลถือว่าเป็นช่องโหว่ของ Generative AI เช่น การมีอคติอย่างไม่ยุติธรรม (Unfair bias), การนำโมเดลไปดัดแปลงไม่เหมาะสม ตลอดจนการตีความข้อมูลที่ไม่ถูกต้อง กูเกิลบอกว่าการนำ Generative AI ไปใส่ในผลิตภัณฑ์ของกูเกิลนั้น มีทีมงานความปลอดภัยทดสอบความเสี่ยงด้านต่าง ๆ ที่อาจเกิดขึ้นได้อยู่แล้ว แต่การได้ความร่วมมือเพิ่มเติมจากนักวิจัยภายนอกจะช่วยให้ Generative AI ของกูเกิลปลอดภัยมากขึ้นไปอีก
Amazon ประกาศเพิ่มเครื่องมือ Generative AI สำหรับการทำคอนเทนต์โฆษณาบน Amazon Ads ให้น่าสนใจมากขึ้น โดยสามารถแก้ไขภาพสินค้าให้มีฉากพื้นหลังเพิ่มความน่าสนใจ ซึ่งขั้นตอนนี้เดิมต้องใช้เวลามากในการตกแต่งรูป ตัวเลขที่ Amazon บอกคือลูกค้า 75% มองการสร้างโฆษณาแบบนี้เป็นเรื่องที่ท้าทายมาก
Amazon บอกว่าภาพสินค้าที่มีฉากหลังทำให้ลูกค้าเห็นไลฟ์สไตล์ในการนำไปใช้งานมากขึ้น เช่น ภาพเครื่องปิ้งขนมปังพื้นสีขาว เทียบกับภาพที่ฉากหลังเป็นห้องครัว ช่วยเพิ่มอัตราการคลิกมากขึ้นถึง 40%
ฟีเจอร์นี้เป็นสถานะเบต้าอยู่ในส่วน Amazon Ad Console สามารถสร้างชุดภาพโฆษณาสินค้าหลายแบบให้เลือก และสามารถปรับแก้ไขได้เพิ่มเติมด้วย prompt
NVIDIA Research เปิดตัว Eureka ปัญญาประดิษฐ์ที่ทำงานบน GPT-4 สำหรับฝึกหุ่นยนต์ให้ทำงานตามต้องการด้วย Reward Algorithms ซึ่งตัวอย่างที่ NVIDIA Research นำเสนอคือการควงปากกาแบบรวดเร็วในระดับเดียวกับคน
Eureka ยังสามารถฝึกให้หุ่นยนต์ทำงานต่าง ๆ ได้เกือบ 30 อย่าง เช่น เปิดตู้ ยกของ ใช้กรรไกร โยนวัตถุสลับไปมาระหว่างมือ ซึ่งด้วยวิธีแบบ Reward นั้น ทำให้หุ่นยนต์เรียนรู้จากการทดลองทำและจดจำความผิดพลาด พบว่าได้ผลลัพธ์ที่ดีกว่าเขียนคำสั่งให้หุ่นยนต์ด้วยโค้ดแบบครั้งเดียว 80% สามารถรองรับกลไกหุ่นยนต์ที่หลากหลาย และรองรับสถานการณ์ที่เปลี่ยนไปได้ดีมากกว่า
NVIDIA Research ยังแนะนำให้ผู้สนใจทดลองพัฒนาอัลกอริทึมของ Eureka ใช้งาน NVIDIA Isaac Gym แพลตฟอร์มสำหรับทำซิมูเลชันด้านฟิสิกส์
ศูนย์วิจัยโมเดล AI ของมหาวิทยาลัยสแตนฟอร์ด (Center for Research on Foundation Models หรือ CRFM) ร่วมกับหน่วยงานวิจัยของ MIT Media Lab และ Princeton เปิดตัวดัชนีความโปร่งใสของโมเดล AI ที่เรียกว่า Foundation Model Transparency Index
ดัชนี Foundation Model Transparency Index ให้คะแนนโมเดล AI ขนาดใหญ่ของบริษัทต่างๆ ในเรื่องความโปร่งใสของกระบวนการสร้างโมเดล เริ่มตั้งแต่ข้อมูลที่ใช้เทรน การจ้างแรงงานเพื่อแปะป้ายให้ข้อมูลที่เทรน ความโปร่งใสของตัวโมเดล ความเสี่ยงในการใช้งาน มาตรการความปลอดภัย ฯลฯ รวม 13 หมวด
ผลออกมาว่าโมเดล Llama 2 ของ Meta ได้คะแนนอันดับหนึ่ง 54/100 จากปัจจัยการเป็นโมเดลโอเพนซอร์ส ส่วน GPT-4 ของ OpenAI อยู่อันดับสามที่คะแนน 47/100 โดยทำคะแนนหมวดความสามารถ (capabilities) ได้สูงสุด
ANZ Banking Group ธนาคารในออสเตรเลียรายงานผลการทดสอบโปรแกรมเมอร์ในบริษัทหลังใช้ GitHub Copilot เป็นผู้ช่วยเขียนโปรแกรม โดยเฉลี่ยแล้วพบว่าประสิทธิภาพโปรแกรมเมอร์ดีขึ้น 50%
ANZ ทดลองแบ่งกลุ่มโปรแกรมเมอร์ในบริษัทออกเป็นสองกลุ่ม แล้วให้แก้ปัญหาต่างๆ กันไป รวมประมาณ 105 ข้อ หลังจากนั้นมาดูระยะเวลาเฉลี่ยในการแก้ปัญหาของแต่ละกลุ่มพบว่าประสิทธิภาพกลุ่มใช้ Copilot นั้นดีกว่ามาก
ตอนนี้ ANZ เปิดใช้ Copilot แล้ว 1,000 คน และคาดว่าจะมีผู้ใช้งาน 3,000 คนภายในปีบัญชีนี้ โดยจะค่อยๆ ขยายกลุ่มอย่างระมัดระวัง เนื่องจากต้องทำตามกฎการกำกับดูแลแต่ละส่วน โดยเฉพาะงานที่ต้องยุ่งเกี่ยวกับข้อมูลความลับ
PlanetScale ผู้ให้บริการฐานข้อมูลบนคลาวด์ที่พัฒนาจาก MySQL ประกาศแยกโครงการ MySQL เพื่อเพิ่มฟีเจอร์ Vector Database สำหรับการเก็บข้อมูลจากปัญญาประดิษฐ์ หลังจากออราเคิลประกาศเพิ่มฟีเจอร์นี้ใน MySQL HeatWave ที่เป็นบริการคลาวด์เท่านั้น ทำให้ถูกมองว่าออราเคิลจะเก็บฟีเจอร์นี้สำหรับบริการคลาวด์
ลำพังการเก็บ vector นั้นฐานข้อมูลใดๆ ก็สามารถเก็บได้ แต่ส่วนสำคัญคือการทำ index เพื่อให้ดึงข้อมูลได้เร็ว ทาง PlanetScale ระบุว่าโครงการใหม่จะใช้อัลกอริทึม Hierarchical Navigable Small World (HNSW)
กูเกิลประกาศปรับข้อตกลงการใช้งานโดยเพิ่มความคุ้มครองผู้ใช้จากการถูกฟ้องร้อง โดยครอบคลุมสองกรณี คือ การถูกฟ้องว่านำข้อมูลไปใช้ฝึกปัญญาประดิษฐ์, และการถูกฟ้องว่าเอาท์พุตจากโมเดลนั้นไปละเมิดลิขสิทธิ์งานอื่น
ในกรณีการฟ้องฐานใช้ข้อมูลไปฝึกนั้นครอบคลุมโมเดลของกูเกิลเอง ที่หลายครั้งมีการฟ้องว่าผู้สร้างปัญญาประดิษฐ์ LLM ไปฝึกโดยไม่ได้รับอนุญาต แต่บางครั้งผู้ฟ้องอาจจะไปฟ้องผู้ใช้โมเดลแทน กรณีแบบนี้กูเกิลจะเข้ามารับผิดชอบค่าเสียหายแทน
กรณีที่สองคือการสร้างเอาท์พุต กูเกิลมองว่าเจ้าของงานคือลูกค้าผู้เขียนพรอมพ์ลงไปยังปัญญาประดิษฐ์ หากงานที่เกิดขึ้นไปละเมิดลิขสิทธิ์คนอื่นกูเกิลก็จะเข้ามารับผิดชอบแทนเช่นกัน แต่มีเงื่อนไขว่าพรอมพ์นั้นต้องไม่ได้สร้างขึ้นโดยจงใจให้ไปละเมิดงานผู้อื่น
Reuters อ้างแหล่งข่าวไม่เปิดเผยตัวตนระบุว่า OpenAI กำลังประกาศลดราคาครั้งใหญ่อีกครั้งเพื่อดึงนักพัฒนาให้อยู่กับแพลตฟอร์มของบริษัท พร้อมกับเตรียมปล่อยฟีเจอร์วิเคราะห์ภาพที่ตอนนี้จำกัดเฉพาะผู้ใช้ ChatGPT Plus เท่านั้น ให้นักพัฒนาได้ใช้งานกัน
คาดว่าการเปิดตัวทั้งหมดจะประกาศในงาน OpenAI DevDay วันที่ 6 พฤศจิกายนนี้
ที่ผ่านมา OpenAI ลดราคาแรงๆ หลายครั้งในปีนี้ เช่น เมื่อเปิดโมเดล gpt-3.5-turbo ก็ลดราคา text-davinci-003 ลงเหลือ 1 ใน 10 เท่านั้น หรือเมื่อกลางปีก็ลดราคาโมเดล embedding ลงถึง 75%
Replit ผู้ให้บริการ IDE บนเว็บที่เคยสร้างปัญญาประดิษฐ์ช่วยเขียนโค้ดเพื่อใช้ในบริการของตัวเอง หันมาเปิดโมเดล Replit Code V1.5 โมเดลปัญญาประดิษฐ์ขนาด 3.3 พันล้านพารามิเตอร์ที่ออกแบบเพื่อการเติมโค้ด (code completion) โดยเฉพาะ
ตัวโมเดลแม้จะมีขนาดเล็กแต่ฝึกด้วยข้อมูลปริมาณมาก รวมกว่า 1 ล้านล้านโทเค็นจากชุดข้อมูล The Stack และ Stack Exchange จากนั้นนำมา finetune ด้วยชุดข้อมูลโค้ดที่เปิดเป็นสาธารณะบน Replit เอง
ผลทดสอบพบว่าเวอร์ชั่นที่ finetune แล้วทำได้ดีกว่า CodeLlama 7B ที่ขนาดใหญ่กว่ายกเว้นภาษา Java ที่ finetine แล้วคะแนนกลับแย่ลง
สำนักงข่าว Wall Street Journal รายงานถึงการแข่งขันสร้างบริการจากเทคโนโลยีในกลุ่ม LLM เช่น ChatGPT ในช่วงนี้ว่าบริษัทต่างๆ กำลังลงทุนอย่างหนัก และหลายบริการก็ไม่สามารถทำกำไรได้แม้จะเก็บค่าใช้งานแล้วก็ตาม
ข้อมูลจาก WSJ ระบุว่าต้นทุนการให้บริการ GitHub Copilot เฉลี่ยยังอยู่ที่ 20 ดอลลาร์ต่อคนต่อเดือน แต่เก็บค่าบริการเพียง 10 ดอลลาร์เท่านั้น ผู้ใช้บางคนใช้งานอย่างหนักจนสร้างต้นทุนเดือนละ 80 ดอลลาร์ก็มี โดยบริการ GitHub Copilot นี้มีผู้ใช้งาน 1.5 ล้านคนสร้างค่าใช้จ่ายให้ไมโครซอฟท์พอสมควร
การพัฒนาของปัญญาประดิษฐ์กลุ่มโมเดลภาษาขนาดใหญ่ (large language model - LLM) ทำให้มีความพยายามศึกษาการทำงานโครงสร้างภายในของโมเดลเหล่านี้ว่ามัน “คิด” อย่างไร และตอนนี้ Anthropic ผู้สร้าง Claude AI ก็ออกมารายงานถึงแนวทางการศึกษา LLM ว่าควรมองเป็นกลุ่มนิวรอน เรียกว่าฟีเจอร์
ที่ผ่านมาการศึกษาปัญญาประดิษฐ์กลุ่ม deep learning โดยเฉพาะในงานที่เป็นการจัดการภาพนั้น มักจะพบว่านิวรอนแต่ละตัวถูกกระตุ้นโดยอินพุตที่ตรงไปตรงมา เช่น นิวรอนบางตัวอาจจะถูกกระตุ้นโดยภาพแมวเท่านั้น บางตัวถูกกระตุ้นโดยภาพหมา เราสามารถวิเคราะห์อย่างละเอียดได้ว่าอินพุดแบบใดจึงกระตุ้นนิวรอนเหล่านี้ แต่ใน LLM เมื่อมองเป็นนิวรอนรายตัว Anthropic กลับพบว่านิวรอนแต่ละตัวถูกกระตุ้นในภาวะที่ต่างกันไปจนหารูปแบบไม่ได้