Large Language Model
ANZ Banking Group ธนาคารในออสเตรเลียรายงานผลการทดสอบโปรแกรมเมอร์ในบริษัทหลังใช้ GitHub Copilot เป็นผู้ช่วยเขียนโปรแกรม โดยเฉลี่ยแล้วพบว่าประสิทธิภาพโปรแกรมเมอร์ดีขึ้น 50%
ANZ ทดลองแบ่งกลุ่มโปรแกรมเมอร์ในบริษัทออกเป็นสองกลุ่ม แล้วให้แก้ปัญหาต่างๆ กันไป รวมประมาณ 105 ข้อ หลังจากนั้นมาดูระยะเวลาเฉลี่ยในการแก้ปัญหาของแต่ละกลุ่มพบว่าประสิทธิภาพกลุ่มใช้ Copilot นั้นดีกว่ามาก
ตอนนี้ ANZ เปิดใช้ Copilot แล้ว 1,000 คน และคาดว่าจะมีผู้ใช้งาน 3,000 คนภายในปีบัญชีนี้ โดยจะค่อยๆ ขยายกลุ่มอย่างระมัดระวัง เนื่องจากต้องทำตามกฎการกำกับดูแลแต่ละส่วน โดยเฉพาะงานที่ต้องยุ่งเกี่ยวกับข้อมูลความลับ
PlanetScale ผู้ให้บริการฐานข้อมูลบนคลาวด์ที่พัฒนาจาก MySQL ประกาศแยกโครงการ MySQL เพื่อเพิ่มฟีเจอร์ Vector Database สำหรับการเก็บข้อมูลจากปัญญาประดิษฐ์ หลังจากออราเคิลประกาศเพิ่มฟีเจอร์นี้ใน MySQL HeatWave ที่เป็นบริการคลาวด์เท่านั้น ทำให้ถูกมองว่าออราเคิลจะเก็บฟีเจอร์นี้สำหรับบริการคลาวด์
ลำพังการเก็บ vector นั้นฐานข้อมูลใดๆ ก็สามารถเก็บได้ แต่ส่วนสำคัญคือการทำ index เพื่อให้ดึงข้อมูลได้เร็ว ทาง PlanetScale ระบุว่าโครงการใหม่จะใช้อัลกอริทึม Hierarchical Navigable Small World (HNSW)
กูเกิลประกาศปรับข้อตกลงการใช้งานโดยเพิ่มความคุ้มครองผู้ใช้จากการถูกฟ้องร้อง โดยครอบคลุมสองกรณี คือ การถูกฟ้องว่านำข้อมูลไปใช้ฝึกปัญญาประดิษฐ์, และการถูกฟ้องว่าเอาท์พุตจากโมเดลนั้นไปละเมิดลิขสิทธิ์งานอื่น
ในกรณีการฟ้องฐานใช้ข้อมูลไปฝึกนั้นครอบคลุมโมเดลของกูเกิลเอง ที่หลายครั้งมีการฟ้องว่าผู้สร้างปัญญาประดิษฐ์ LLM ไปฝึกโดยไม่ได้รับอนุญาต แต่บางครั้งผู้ฟ้องอาจจะไปฟ้องผู้ใช้โมเดลแทน กรณีแบบนี้กูเกิลจะเข้ามารับผิดชอบค่าเสียหายแทน
กรณีที่สองคือการสร้างเอาท์พุต กูเกิลมองว่าเจ้าของงานคือลูกค้าผู้เขียนพรอมพ์ลงไปยังปัญญาประดิษฐ์ หากงานที่เกิดขึ้นไปละเมิดลิขสิทธิ์คนอื่นกูเกิลก็จะเข้ามารับผิดชอบแทนเช่นกัน แต่มีเงื่อนไขว่าพรอมพ์นั้นต้องไม่ได้สร้างขึ้นโดยจงใจให้ไปละเมิดงานผู้อื่น
Reuters อ้างแหล่งข่าวไม่เปิดเผยตัวตนระบุว่า OpenAI กำลังประกาศลดราคาครั้งใหญ่อีกครั้งเพื่อดึงนักพัฒนาให้อยู่กับแพลตฟอร์มของบริษัท พร้อมกับเตรียมปล่อยฟีเจอร์วิเคราะห์ภาพที่ตอนนี้จำกัดเฉพาะผู้ใช้ ChatGPT Plus เท่านั้น ให้นักพัฒนาได้ใช้งานกัน
คาดว่าการเปิดตัวทั้งหมดจะประกาศในงาน OpenAI DevDay วันที่ 6 พฤศจิกายนนี้
ที่ผ่านมา OpenAI ลดราคาแรงๆ หลายครั้งในปีนี้ เช่น เมื่อเปิดโมเดล gpt-3.5-turbo ก็ลดราคา text-davinci-003 ลงเหลือ 1 ใน 10 เท่านั้น หรือเมื่อกลางปีก็ลดราคาโมเดล embedding ลงถึง 75%
Replit ผู้ให้บริการ IDE บนเว็บที่เคยสร้างปัญญาประดิษฐ์ช่วยเขียนโค้ดเพื่อใช้ในบริการของตัวเอง หันมาเปิดโมเดล Replit Code V1.5 โมเดลปัญญาประดิษฐ์ขนาด 3.3 พันล้านพารามิเตอร์ที่ออกแบบเพื่อการเติมโค้ด (code completion) โดยเฉพาะ
ตัวโมเดลแม้จะมีขนาดเล็กแต่ฝึกด้วยข้อมูลปริมาณมาก รวมกว่า 1 ล้านล้านโทเค็นจากชุดข้อมูล The Stack และ Stack Exchange จากนั้นนำมา finetune ด้วยชุดข้อมูลโค้ดที่เปิดเป็นสาธารณะบน Replit เอง
ผลทดสอบพบว่าเวอร์ชั่นที่ finetune แล้วทำได้ดีกว่า CodeLlama 7B ที่ขนาดใหญ่กว่ายกเว้นภาษา Java ที่ finetine แล้วคะแนนกลับแย่ลง
สำนักงข่าว Wall Street Journal รายงานถึงการแข่งขันสร้างบริการจากเทคโนโลยีในกลุ่ม LLM เช่น ChatGPT ในช่วงนี้ว่าบริษัทต่างๆ กำลังลงทุนอย่างหนัก และหลายบริการก็ไม่สามารถทำกำไรได้แม้จะเก็บค่าใช้งานแล้วก็ตาม
ข้อมูลจาก WSJ ระบุว่าต้นทุนการให้บริการ GitHub Copilot เฉลี่ยยังอยู่ที่ 20 ดอลลาร์ต่อคนต่อเดือน แต่เก็บค่าบริการเพียง 10 ดอลลาร์เท่านั้น ผู้ใช้บางคนใช้งานอย่างหนักจนสร้างต้นทุนเดือนละ 80 ดอลลาร์ก็มี โดยบริการ GitHub Copilot นี้มีผู้ใช้งาน 1.5 ล้านคนสร้างค่าใช้จ่ายให้ไมโครซอฟท์พอสมควร
การพัฒนาของปัญญาประดิษฐ์กลุ่มโมเดลภาษาขนาดใหญ่ (large language model - LLM) ทำให้มีความพยายามศึกษาการทำงานโครงสร้างภายในของโมเดลเหล่านี้ว่ามัน “คิด” อย่างไร และตอนนี้ Anthropic ผู้สร้าง Claude AI ก็ออกมารายงานถึงแนวทางการศึกษา LLM ว่าควรมองเป็นกลุ่มนิวรอน เรียกว่าฟีเจอร์
ที่ผ่านมาการศึกษาปัญญาประดิษฐ์กลุ่ม deep learning โดยเฉพาะในงานที่เป็นการจัดการภาพนั้น มักจะพบว่านิวรอนแต่ละตัวถูกกระตุ้นโดยอินพุตที่ตรงไปตรงมา เช่น นิวรอนบางตัวอาจจะถูกกระตุ้นโดยภาพแมวเท่านั้น บางตัวถูกกระตุ้นโดยภาพหมา เราสามารถวิเคราะห์อย่างละเอียดได้ว่าอินพุดแบบใดจึงกระตุ้นนิวรอนเหล่านี้ แต่ใน LLM เมื่อมองเป็นนิวรอนรายตัว Anthropic กลับพบว่านิวรอนแต่ละตัวถูกกระตุ้นในภาวะที่ต่างกันไปจนหารูปแบบไม่ได้
Meta ประกาศเพิ่มความสามารถด้าน AI ช่วยสร้างเนื้อหา หรือ Generative AI สำหรับระบบโฆษณา Ads Manager เพื่อปลดล็อกความคิดสร้างสรรค์ใหม่ ตลอดจนช่วยลดเวลาในการทำงาน
ฟีเจอร์ด้าน GenAI ที่ประกาศได้แก่
Canva ฉลองครบรอบ 10 ปี เปิดตัว Magic Studio ชุดเครื่องมือสร้างสรรค์งานที่ใช้พลัง AI มาช่วยสำหรับงานทุกรูปแบบจบภายในเครื่องมือเดียว ที่ Canva บอกว่าไม่ต้องสลับย้ายไปมาสำหรับแต่ละงาน
ฟีเจอร์ที่มีใน Magic Studio ไม่ได้มีแค่งานสร้างสรรค์ แต่ยังรวมถึงทุกขั้นตอนในการสร้างคอนเทนต์ ช่วยปรับปรุงและลดเวิร์กโฟลว์ให้กับผู้ใช้งาน ตัวอย่างเช่นฟีเจอร์ Magic Switch เครื่องมือแปลงคอนเทนต์ให้เหมาะกับฟอร์แมตที่แตกต่างกัน เช่น แปลงเนื้อหาขนาดยาว ให้เป็นเอกสารสรุป หรือ บล็อกสำหรับโพสต์ หรือในฟอร์แมตอื่น เช่น โพสต์สตอรี่ลง Instagram ก็รองรับเช่นกัน
AWS เปิดบริการ Amazon Bedrock บริการปัญญาประดิษฐ์ในกลุ่ม generative AI เช่น โมเดลภาษาขนาดใหญ่ และโมเดลสร้างภาพจากข้อความ จุดเด่นคือรองรับโมเดลจากผู้พัฒนาหลายราย ได้แก่ AI21 Labs, Anthropic, Cohere, Stability AI, และ Amazon เอง รวมถึงเตรียมนำ Llama 2 ของ Meta มาให้บริการในอนาคต
แม้จะเปิดบริการแล้ว แต่ผู้ใช้ยังต้องขอใช้งานล่วงหน้าแบบเดียวกับบริการ Azure OpenAI Service ที่ต้องกรอกแบบฟอร์มเหตุผลการใช้งานก่อน
Meta เปิดตัวเครื่องมือตกแต่งแก้ไขรูปภาพด้วย Generative AI สำหรับทุกแพลตฟอร์มทั้ง Instagram, Facebook, WhatsApp และ Messenger
เครื่องมือแรกคือการแก้ไขรูปภาพสำหรับลง Instagram มีสองฟีเจอร์คือ Restyle โดยป้อน prompt สไตล์ของภาพที่ต้องการ และ Backdrop สำหรับตัดต่อใส่ฉากหลังให้กับภาพตามต้องการ
เครื่องมืออีกชุดคือสติกเกอร์ AI สามารถใช้งานได้ทั้งใน Facebook Stories, Instagram Stories, Instagram DM, Messenger และ WhatsApp สามารถสร้างสรรค์สติกเกอร์ได้ตาม prompt ที่ระบุ เทคโนโลยีนี้ Meta บอกว่าใช้โมเดล Llama 2 และ Emu ในการรับข้อมูลและสร้างสรรค์ภาพวาดขึ้นมา
Lamini บริษัทขายแพลตฟอร์มฝึกและรันโมเดลปัญญาประดิษฐ์ รวมมือถือกับ AMD เปิดตัว LLM Superstation เซิร์ฟเวอร์สำหรับรันปัญญาประดิษฐ์ LLM โดยเฉพาะ เปิดเครื่องมามี Llama 2-70B ให้ใช้งานทันที
ความพิเศษของ LLM Superstation คือใช้การ์ด AMD Instinct MI250 แทนที่จะเป็นการ์ด NVIDIA ที่อุตสาหกรรมนิยมกัน ความได้เปรียบของ MI250 คือมันใส่แรมมาถึง 128GB ทำให้รันโมเดลขนาดใหญ่ได้ง่ายกว่าการ์ด A100 (NVIDIA เริ่มใส่แรมเยอะขึ้นในการ์ดรุ่นหลังๆ) และข้อดีสำคัญอีกอย่างคือรอสั่งเครื่องเร็วกว่าเซิร์ฟเวอร์ที่ใช้การ์ด NVIDIA
Oracle ประกาศเตรียมเพิ่มฟีเจอร์ vector search เข้าไปยังซอฟต์แวร์ Oracle Database 23c รองรับการใช้งานมากขึ้นเนื่องจากช่วงหลังมีการใช้งานปัญญาประดิษฐ์ในกลุ่มโมเดลภาษาขนาดใหญ่ (large language model - LLM) จำนวนมาก
OpenAI เพิ่มฟีเจอร์ให้ ChatGPT เวอร์ชั่นโทรศัพท์มือถือ โดยเปิดให้ผู้ใช้สามารถพูดคุยกับ ChatGPT ด้วยเสียงพูดได้โดยตรง โดยการแปลงคำพูดของผู้ใช้เป็นข้อความนั้นใช้ Whisper โมเดลปัญญาประดิษฐ์ที่ OpenAI เคยเปิดออกมาก่อนหน้านี้ ขณะที่โมเดลแปลงข้อความเป็นเสียงนั้นสร้างขึ้นใหม่ด้วยการจ้างทีมพากย์มืออาชีพ
ฟีเจอร์อีกส่วนคือการรับภาพที่ OpenAI เคยประกาศตั้งแต่ตอนเปิดตัว GPT-4 ว่ารองรับอินพุตเป็นภาพ ตอนนี้ก็เปิดโหมด multimodal ให้ใช้งานทั้ง GPT-3.5 และ GPT-4 (เรียกว่า GPT-4V) ฟีเจอร์นี้อ่านภาพได้หลากหลาย ตั้งแต่ภาพถ่ายปกติ จนถึงเอกสารที่มีภาพและข้อความประกอบกัน
Amazon ประกาศลงทุนในสตาร์ตอัพปัญญาประดิษฐ์ Anthropic โดยเตรียมเข้าใช้แพลตฟอร์ม AWS ในการให้บริการเต็มตัว
รูปแบบของดีลนี้นับว่าคล้ายกับ OpenAI และไมโครซอฟท์พอสมควร โดย Anthropic จะพัฒนาเทคโนโลยีของตัวเองผูกเข้าไปกับเทคโนโลยีของ AWS ตั้งแต่การฝึกปัญญาประดิษฐ์ด้วย AWS Trainium รันโมเดลด้วย Inferentia และให้บริการผ่านบริการ Amazon Bedrock ทั้งโมเดล Claude มาตรฐานและการทำ fine-tuning หลังจากนี้ AWS ก็จะลงทุนวางโครงสร้างพื้นฐานให้เพียงพอสำหรับ Anthropic
สำนักข่าว Bloomberg รายงานถึงมหาวิทยาลัยหลายแห่งในสหรัฐฯ เริ่มปิดฟีเจอร์ตรวจจับงานเขียนที่เขียนด้วย AI ของบริการ Turnitin ที่ปกติใช้ตรวจจับการลอกงาน แต่เมื่อทาง Turnitin เปิดฟีเจอร์ตรวจจับการเขียนด้วย AI กลับให้ผลที่ผิดพลาดสูงจนอาจจะกระทบกับนักศึกษาที่ถูกกล่าวหาได้
มหาวิทยาลัย Vanderbilt วิจารณ์ Turnitin ว่าเปิดฟีเจอร์นี้ให้มหาวิทยาลัยเองโดยแจ้งล่วงหน้าเพียงไม่ถึงวัน และยังอ้างว่ามีอัตราการผิดพลาดแบบ false positive (จับว่าใช้ AI เขียนแม้เขียนเอง) เพียง 1% แต่กลับไม่ได้บอกกระบวนการทำงานภายใน เมื่อใช้งานจริงก็พบว่ามีความผิดพลาดจำนวนมาก และระบบมักจับว่างานเขียนที่เขียนโดยนักศึกษาที่ไม่ได้ใช้ภาษาอังกฤษเป็นภาษาหลักเป็นงานที่เขียนโดย AI มากกว่าปกติ
หลังจากเราเห็นไมโครซอฟท์ทยอยเปิดตัวฟีเจอร์ Copilot ที่ใช้พลัง AI ตามบริการต่างๆ ในเครือมาตั้งแต่ต้นปี เมื่อคืนนี้ไมโครซอฟท์เปิดตัวแบรนด์ Microsoft Copilot อย่างเป็นทางการ โลโก้แนวสีสันสดใส และสโลแกน Your everyday AI companion (นี่มัน Cortana คืนชีพ?)
Microsoft Copilot จะอยู่ทั้งในรูปแอพแยกบน Taskbar ของ Windows และฟีเจอร์ที่ฝังรวมในแอพต่างๆ โดยให้ประสบการณ์เดียวกัน (a single experience) ในเบื้องต้นจะมีให้ใช้งาน 4 จุดคือ
บริการ Microsoft 365 Copilot ที่รวมเอา ChatGPT เข้ากับโปรแกรมต่างๆ ในชุด Microsoft 365 นับเป็นบริการสำคัญที่หลายคนตั้งหน้าตั้งตารอให้ไมโครซอฟท์เปิดตัว แม้ว่าจะมีค่าใช้จ่ายถึง 30 ดอลลาร์ต่อคน ที่ผ่านมาไมโครซอฟท์ประกาศฟีเจอร์และราคาออกมาก่อน และตอนนี้ก็ประกาศวันเปิดตัวเป็นทางการแล้ว คือ 1 พฤศจิกายนนี้
กูเกิลอัพเดตบริการ Bard โดยฟีเจอร์สำคัญคือการรองรับส่วนขยาย ที่ทำให้ Bard สามารถดึงข้อมูลจากบริการอื่นๆ ได้แก่ Maps, YouYube, Hotels, และ Flights มาได้ ทำให้เราสามารถถามตอบคำถามเกี่ยวข้องกับบริการของกูเกิลได้แม่นยำขึ้น
แต่ส่วนขยายสำคัญคือการดึงข้อมูลจาก Workspace รวม Gmail, Docs, และ Drive ทำให้เราสามารถสั่ง Bard ให้สรุปหรือตอบคำถามจากเอกสารในบริการเหล่านี้ได้ โดยกูเกิลสัญญาว่าจะไม่ใช้ข้อมูลในเอกสารเหล่านี้ฝึก Bard
เว็บไซต์ The Information รายงานว่ากูเกิลเริ่มเปิดทดสอบ Gemini โมเดลปัญญาประดิษฐ์รุ่นถัดไป ให้กับลูกค้าบางรายในวงปิดแล้ว เป็นสัญญาณว่าเราจะได้เห็น Gemini เปิดบริการต่อสาธารณะในเร็ววัน
กูเกิลเปิดตัว Gemini ครั้งแรกในงาน Google I/O 2023 เดือนพฤษภาคม โดยเป็นโมเดลเวอร์ชันถัดไปจาก PaLM 2 ที่นำมาใช้งานจริงในผลิตภัณฑ์กูเกิลแล้ว และเป็นโปรเจคร่วมของ Google และ DeepMind ที่รวมร่างกันเป็น Google DeepMind อีกทั้งมีข่าวลือว่า Sergey Brin ผู้ร่วมก่อตั้งกูเกิลกลับมาช่วยงานโปรเจคนี้ด้วย
ไมโครซอฟท์ประกาศแนวทาง Copilot Copyright Commitment ปกป้องลูกค้าที่ใช้บริการในกลุ่ม Copilots จากการฟ้องร้องลิขสิทธิ์ ครอบคลุมตั้งแต่ Bing Chat Enterprise, Microsoft 365 Copilot, และ GitHub Copilot
ไมโครซอฟท์ระบุว่าจะช่วยจ่ายค่าเสียหายทั้งจากการตัดสินคดีหรือการตกลงนอกศาล หากผู้ใช้ใช้งาน Copilot โดยเปิดฟีเจอร์ป้องกันต่างๆ เช่น guardrails และ content filter ครบถ้วนแล้ว โดยฟีเจอร์เหล่านี้ควรกรองผลคำตอบต่างๆ ที่อาจจะเป็นการละเมิดลิขสิทธิ์ออกไปแล้วก่อนใช้งาน
มีรายงานจาก The Wall Street Journal พูดถึงแผนการพัฒนา AI ผู้ช่วยตัวใหม่ของ Meta บริษัทแม่ของ Facebook และ Instagram โดยมีเป้าหมายให้ความสามารถสูงกว่าโมเดล Llama 2 ที่เปิดตัวเมื่อสองเดือนที่แล้ว และสามารถแข่งขันกับ GPT-4 ของ OpenAI ได้
แผนการเทรนโมเดลใหม่ดังกล่าวจะเริ่มในต้นปี 2024 เนื่องจาก Meta จะใช้เซิร์ฟเวอร์ประมวลผลในศูนย์ข้อมูลตนเองทั้งหมด แตกต่างจาก Llama 2 ที่ใช้ทรัพยากรของ Azure จากไมโครซอฟท์ ซึ่งตอนนี้บริษัทก็รับสมัครพนักงานที่เกี่ยวข้อง รวมถึงสั่งซื้อจีพียู H100 จาก NVIDIA จำนวนมากอีกด้วย
กลุ่มฟินเทค Ant Group เปิดตัวโมเดล AI สร้างเนื้อหาหรือ Generative AI สำหรับสายการเงินโดยเฉพาะ ซึ่ง Ant เรียกว่า Financial LLM โดยมาพร้อมกับแอพพลิเคชันทางการเงินที่ใช้โมเดลดังกล่าวคือ Zhixiaobao 2.0 ผู้ช่วยทางการเงินสำหรับลูกค้าบุคคล และ Zhixiaozhu 1.0 ผู้ช่วยทางการเงินสำหรับลูกค้าสถาบันการเงิน
โดย Zhixiaobao 2.0 จะเข้ามาช่วยทั้งการแนะนำการจัดพอร์ตการลงทุน การกระจายสินทรัพย์ลงทุน ตลอดจนให้ความรู้ทางการเงิน ขณะที่ Zhixiaozhu 1.0 จะมาช่วยในงานการเป็นที่ปรึกษาการลงทุน อ่านบทวิเคราะห์การลงทุน ประเมินโอกาสทางการลงทุน และช่วยสร้างเนื้อหาบทวิเคราะห์
The Information มีรายงานล่าสุดเกี่ยวกับโครงการพัฒนาแชตบอท AI ของแอปเปิล ที่ใช้งานกันภายในบริษัท ซึ่งมีชื่อเล่นว่า Ajax GPT บอกว่าตอนนี้โครงการใช้เงินระดับหลายล้านดอลลาร์ต่อวัน ในการพัฒนาและเทรนโมเดล ขนาดมากกว่า 2 แสนล้านพารามิเตอร์
โมเดลที่พัฒนาตอนนี้มีคำเรียกภายในว่า Foundational Models มีทีมงานประมาณ 16 คน บางคนเป็นอดีตวิศวกรของกูเกิล โดย John Giannandrea รองประธานอาวุโสดูแลด้าน AI เป็นผู้ดูแลทีมนี้ (ซึ่งเขาก็เคยทำงานกูเกิล)
TII (หรือ Technology Innovation Institute) เป็นสถาบันเทคโนโลยีของอาบูดาบี ได้เปิดตัวโมเดล Falcon ที่ขนาด 180 พันล้านพารามิเตอร์ ในชื่อ Falcon 180B ที่ถูกฝึกบนชุดข้อมูลกว่า 3.5 ล้านล้านโทเคน (จำนวนหน่วยย่อยของคำในทางงานประมวลผลภาษาธรรมชาติ) บนการ์ดจอ 4,096 ตัว ด้วยเวลาประมาณ 7,000,000 ชั่วโมงของการ์ดจอ หลังจากที่เคยเปิดตัว Falcon 40B มาก่อนโดน Llama 2 แซงในเวลาต่อมาด้วยขนาด 70 พันล้านพารามิเตอร์ที่ใหญ่กว่า