AMD เปิดตัวการ์ดเร่งความเร็วงานด้านปัญญาประดิษฐ์และวิทยาศาสตร์ AMD Instinct MI100 ที่ใช้ชิปประมวลผลสถาปัตยกรรม CDNA (Compute DNA) พัฒนาแยกสายออกมาจากสถาปัตยกรรม RDNA ที่ใช้เพื่องานกราฟิกและเกมเป็นหลัก
กูเกิลส่งเสริมการประมวลผล AI ขนาดเบาภายในตัวเครื่องสมาร์ทโฟน (on-device ML) มาได้สักพักใหญ่ๆ โดยตัวระบบปฏิบัติการ Android มีฟีเจอร์ชื่อ Neural Networks API (NNAPI) มาตั้งแต่ Android 8.1 เพื่อให้เฟรมเวิร์ค AI เรียกใช้งานชิปประมวลผลในเครื่อง (GPU หรือ NPU แล้วแต่ฮาร์ดแวร์มีให้ใช้)
ก่อนหน้านี้ เฟรมเวิร์ค AI ที่รองรับ Android NNAPI มีเพียงแค่ TensorFlow Lite ที่พัฒนาโดยกูเกิลเอง แต่ล่าสุด เฟรมเวิร์คยอดนิยมอีกตัวคือ PyTorch (ทีมพัฒนาหลักคือ Facebook) ประกาศรองรับ NNAPI อย่างเป็นทางการแล้ว
Amazon ประกาศว่าปัญญาประดิษฐ์ Alexa ย้ายโหลดงานปัญญาประดิษฐ์ที่เดิมรันอยู่บนชิปกราฟิกไปรันบนชิป AWS Inferentia ที่เปิดตัวมาตั้งแต่ปี 2018 และให้บริการเป็นเครื่อง EC2 Inf1 ในปี 2019 เกือบทั้งหมดแล้ว
Alexa ฝังอยู่ในลำโพง Echo และแท็บเล็ต Kindle Fire ทำให้ผู้ใช้สามารถสั่งงานอุปกรณ์ในบ้านและติดต่อกับบริการของ Amazon ได้โดยสั่งด้วยเสียง โดยตอนนี้มีอุปกรณ์รองรับ Alexa กว่าร้อยล้านชิ้นแล้ว โดยปัญญาประดิษฐ์ที่ Alexa ใช้มีสามส่วนหลักคือการแปลงเสียงเป็นข้อความ (automatic speech recognition - ASR) และทำความเข้าใจคำสั่งของผู้ใช้ (natural language understanding - NLU) จากนั้น Alexa จะส่งคำตอบเป็นข้อความและใช้ปัญญาประดิษฐ์สร้างเสียงพูด (text-to-speech - TTS)
AI หรือ Artificial Intelligence เทคโนโลยีที่คนทั่วโลกต่างรู้จัก และกำลังมาแรงในโลกธุรกิจ ทำให้องค์กรจำนวนมากมีความพยายามนำ AI มาประยุกต์ใช้เพื่อเพิ่มขีดความสามารถในการแข่ง จะเห็นได้จาก Gartner’s Hype Cycle for Emerging Technology ประจำปี 2020 นั้น มี AI เป็นส่วนประกอบ 1 ใน 3 ของเทรนเทคโนโลยีที่กำลังมาแรงที่สุด
หนึ่งในสาขาของ AI ที่มีการนำมาประยุกต์ใช้ในธุรกิจมากในระยะหลังคือ machine learning หรือการเรียนรู้ของเครื่องจักร เป็นการพัฒนา AI ด้วยการสร้างแบบจำลองสมองหรือ neural network เพื่อเรียนรู้การทำงานจากตัวอย่างข้อมูลที่ถูกป้อนเข้าไป ซึ่งสามารถแก้ปัญหาที่มีความซับซ้อนมากกว่าการพัฒนา AI ในรูปแบบดั้งเดิม
กูเกิลรายงานถึงโมเดลปัญญาประดิษฐ์เบื้องหลังฟีเจอร์เบลอฉากหลังหรือเปลี่ยนภาพฉากหลังใน Google Meet ที่ใช้ปัญญาประดิษฐ์จับภาพว่าตรงไหนเป็นเบื้องหน้าและตรงไหนเป็นฉากหลัง
โมเดลที่ใช้ตั้งต้นเป็น MobileNetV3-small สร้าง encoder รับภาพ และโมเดลขนาดเท่ากันแต่กลับข้างสร้างเอาท์พุต โดยรวมมีพารามิเตอร์เพียง 193,000 พารามิเตอร์เท่านั้น แต่ละพารามิเตอร์ใช้ข้อมูลแบบ float16 ทำให้ขนาดโมเดลรวมไม่ถึง 400KB
ตัวปัญญาประดิษฐ์มีหน้าที่แยกฉากหลังออกมาเท่านนั้น จากนั้นต้องใช้ฟิลเตอร์เบลอขอบภาพเพื่อให้ใบหน้าคนในวิดีโอกลมกลืนกับฉากหลังที่เป็นภาพวางลงไป หรือหากผู้ใช้เลือกเบลอฉากหลังก็ต้องนำภาพฉากหลังมาเบลอก่อน
ทีมวิจัยจาก MIT นำเสนอโมเดลปัญญาประดิษฐ์คัดกรองโรคโควิดด้วยเสียงไอ สามารถสร้างโมเดลปัญญาประดิษฐ์ที่แยกแยะผู้ติดเชื้อโควิดได้ที่อัตราสูง ระดับอัตราตรวจพบผู้ติดเชื้อ (sensitivity) ที่ 98.5% และอัตราการตรวจพบอย่างเจาะจง (specificity - ค่านี้ต่ำลงหากระบุว่าผู้ไม่ติดเชื้อเป็นผู้ติดเชื้อ) 94.2% รวมคิดเป็น AUC ที่ 0.97 หากนับเฉพาะผู้ติดเชื้อไม่แสดงอาการ ระดับการตรวจพบผู้ติดเชื้อจะกลายเป็น 100% แต่อัตราการตรวจพบอย่างเจาะจงเหลือ 83.2%
ทีมวิจัยเปิดเว็บให้อาสาสมัครไอลงโทรศัพท์แล้วกรอกแบบสอบถามเกี่ยวกับการติดเชื้อโควิดด้วยตัวเอง ข้อมูลขั้นต้นจึงอาจจะยังไม่น่าเชื่อถือ ชุดข้อมูลทั้งหมดก็มีจำนวน 5,320 ตัวอย่าง ใช้ฝึก 4,256 ตัวอย่างและใช้ทดสอบอีก 1,064 ตัวอย่าง
อินเทลประกาศเข้าซื้อกิจการ SigOpt สตาร์ทอัพที่พัฒนาแพลตฟอร์มสำหรับปรับแต่งการสร้างตัวแบบ และระบบทดสอบของ AI โดยอินเทลกล่าวว่าจะนำเทคโนโลยีของ SigOpt มาใช้กับทั้งผลิตภัณฑ์ฮาร์ดแวร์ด้าน AI ของอินเทล ตลอดจนโซลูชันซอฟต์แวร์สำหรับนักพัฒนา
หลังการควบรวมกิจการเสร็จสิ้น ซีอีโอ Scott Clark และซีทีโอ Patrick Hayes ของ SigOpt จะเข้ามาเป็นส่วนหนึ่งของทีมงานด้าน Machine Learning แผนก Architecture, Graphics and Software (IAGS) ของอินเทล
ดีลดังกล่าวไม่มีการเปิดเผยมูลค่า แต่มีข้อมูลเบื้องต้นว่า SigOpt มีลูกค้าเป็นองค์กรขนาดใหญ่หลายราย ตัวผลิตภัณฑ์ยังมีสถานะเป็นเบต้า ได้รับเงินทุนจากผู้ลงทุนอาทิ In-Q-Tel, Andreessen Horowitz และ Y Combinator โดยวงเงินรวมน้อยกว่า 10 ล้านดอลลาร์
มีรายงานว่าแอปเปิลได้เข้าซื้อกิจการ Vilynx สตาร์ทอัพจากสเปน ไปเมื่อช่วงต้นปีที่ผ่านมา
ข้อมูลของ Vilynx ระบุว่าเป็นผู้เชี่ยวชาญด้าน AI ในการเพิ่มข้อมูล metadata สำหรับภาพและวิดีโอ ซึ่งทำให้กระบวนการค้นหามีความสะดวกมากขึ้น นอกจากนี้ยังมีเทคโนโลยีที่ช่วยตรวจสอบวิดีโอว่าจุดใดเป็นส่วนสำคัญของเนื้อหาทั้งหมดอีกด้วย โดยคาดว่าแอปเปิลจะนำเทคโนโลยีนี้มาใช้กับ Siri และระบบเสิร์ชในการค้นหาภาพและวิดีโอบนอุปกรณ์
เฟซบุ๊กประกาศเปิดซอร์ส M2M-100 โมเดล AI ที่สามารถแปลภาษาระหว่างคู่ภาษาต่างๆ จากจำนวนภาษา 100 ภาษา โดยไม่ต้องแปลผ่านภาษาอังกฤษเป็นหลัก
โมเดลปัญญาประดิษฐ์สำหรับแปลภาษาที่ต้องรองรับภาษาจำนวนมากๆ มักฝึกโมเดลโดยอาศัยภาษาอังกฤษเป็นภาษากลาง เช่น การแปลภาษาฝรั่งเศสไปยังภาษาจีน ก็มักจะฝึกแปลภาษาฝรั่งเศสไปยังภาษาอังกฤษ และฝึกแปลภาษาอังกฤษไปยังภาษาจีนอีกครั้งเนื่องจากชุดข้อมูลทั้งสองแบบมีปริมาณมากเพียงพอ แต่การแปลสองรอบก็ทำให้คุณภาพการแปลลดลงมาก
Google เปิดตัว Lending DocAI บน Google Cloud Platform เป็นโซลูชันที่นำ AI มาช่วยพิจารณาและประเมินข้อมูลของผู้กู้อย่างเช่น เงินเดือนและสินทรัพย์จากเอกสาร ซึ่งเป็นกระบวนการที่ช้าและกินเวลามาก
Lending DocAI ใช้ API ของ Document AI ที่เป็นบริการอ่านและวิเคราะห์เอกสารหรือรูป โดย Lending DocAI เปิดให้ใช้งานในเวอร์ชันพรีวิวแล้ว
ที่มา - Google Cloud Blog
กูเกิลเปิดตัว Coral Dev Board Mini บอร์ดรันโมเดลปัญญาประดิษฐ์สำหรับนักพัฒนามาตั้งแต่ต้นปีพร้อมกับโมดูลสำหรับผู้ผลิตรุ่นอื่นๆ สัปดาห์นี้ก็เพิ่งเริ่มวางขายบอร์ดจริง โดย SeeedStudio เป็นผู้จัดจำหน่ายในราคา 99.99 ดอลลาร์
ตัวบอร์ดใช้ซีพียู MediaTek 8167s พร้อมแรม 2GB และหน่วยความจำแฟลช 8GB รองรับ Wi-Fi 5 และ Bluetooth 5.0 แต่จุดเด่นคือชิป Edge TPU ที่สามารถรันคำสั่งได้ระดับ 4 TOPS (ล้านล้านคำสั่งต่อวินาที) โดยกินไฟเพียง 2 วัตต์ ทำให้น่าสนใจกับงานที่มีเงื่อนไขการใช้ไฟฟ้า สำหรับงานที่สามารถใช้ไฟฟ้าได้มากๆ บอร์ด NVIDIA Jetson Nano รุ่นใหม่ สเปคดีกว่าหลายด้านในขณะที่ราคาถูกกว่า
Google อัพเดตความเคลื่อนไหวเพิ่มเติมของ Google Duplex ให้ AI คุยโทรศัพท์ที่เปิดตัวมาตั้งแต่ปี 2018 สามารถจองร้านค้าบริการ คุยนัดหมายช่วงเวลาได้ และในช่วงโรคระบาด Google ก็เปิดใช้งาน Duplex เพิ่มขึ้นในอีก 8 ประเทศ
ล่าสุด Google เผยว่า มีร้านค้าที่ใช้งาน Duplex แล้ว 3 ล้านรายการตั้งแต่ร้านขายยา, ร้านอาหารและร้านขายของชำ และยังบอกด้วยว่า 99% ของการโทรบน Duplex เป็นระบบอัตโนมัติทั้งหมด
ไมโครซอฟท์ประกาศในบล็อกจะพัฒนาสร้าง AI และชุดข้อมูลในการฝึกสอนอัลกอริทึมให้มีการใช้งานที่ครอบคลุมคนพิการได้หลากหลายและตรงตามความจำเป็นของแต่ละคนมากขึ้น
ซัมซุงเปิดตัว Bixby ผู้ช่วยอัจฉริยะของตัวเองตั้งแต่ปี 2017 ก่อนจะใส่มาใน Galaxy S8 ครั้งแรกในปี 2018 ซึ่งซัมซุงวางตัว Bixby เอาไว้เป็นตัวกลางแพลตฟอร์มอัจฉริยะของตัวเอง แต่ผ่านมา 2-3 ปี Bixby กลับเงียบลงไปเรื่อย ๆ ไม่ว่าจะด้วยเหตุผลการพัฒนาและความนิยมที่ไม่ค่อยมี
ล่าสุดมีผู้ใช้งาน Bixby Vision ที่เป็นฟีเจอร์เปิดกล้องคล้าย Google Lens ได้รับการแจ้งเตือนในตัวแอปว่าซัมซุงจะระงับการให้บริการฟีเจอร์ AR บน Bixby Vision ภายในสิ้นเดือนตุลาคมนี้ เหลือไว้แค่ฟีเจอร์ด้านการแปลหรืออ่านตัวหนังสือเท่านั้น
ที่มา - Android Police
NVIDIA เปิดตัวแพลตฟอร์มของนักพัฒนาสำหรับการประชุมผ่านวิดีโอ (Video Conference) ในชื่อว่า NVIDIA Maxine ซึ่งช่วยปรับปรุงคุณภาพของวิดีโอระหว่างการประชุม และนำ AI มาแก้ไขปัญหาหลายอย่างที่มักพบเจอ
Maxine เป็นแพลตฟอร์มที่ทำงานบนคลาวด์ โดยใช้ GPU ของ NVIDIA ในการประมวลผล ซึ่งมีข้อดีคือผู้ใช้งานสามารถเข้าถึงฟีเจอร์ใหม่ได้ โดยไม่ต้องซื้อฮาร์ดแวร์เพิ่มเติม
ฟีเจอร์แก้ไขวิดีโอของ Maxine ที่พูดถึงอาทิ การปรับหน้าผู้สนทนาให้ดูมองกล้องตลอดเวลา, ลดแบนด์วิทธ์ที่ใช้งานลงสูงสุดเหลือ 10% ของมาตรฐาน H.264, อวาตาร์แบบเรียลไทม์, แคปชั่นแปลภาษาเรียลไทม์ และอื่น ๆ
เวลาโทรไปยังศูนย์บริการลูกค้าของหน่วยงานต่างๆ สิ่งที่ทุกคนต้องเจอคือการถือสายรอคิวจนกว่าพนักงานจะว่างมาคุยกับเรา ตรงนี้เป็นเรื่องเสียเวลามาก เพราะต้องถือสายรอไปเรื่อยๆ ไม่รู้เมื่อไร และไปทำอย่างอื่นในระหว่างนั้นก็ไม่ได้อีก
กูเกิลอัพเดตแอพโทรศัพท์ Phone by Google ให้มีฟีเจอร์ใหม่ชื่อ Hold for Me ให้แอพช่วยถือสายรอ และคอยฟังเสียงพนักงานบริการลูกค้าให้เรา (พร้อมขึ้นข้อความ caption แบบเรียลไทม์บนหน้าจอ) เมื่อถึงคิวของเราและแอพได้ยินเสียงพนักงาน ก็จะส่งเสียงแจ้งเตือน, สั่น, แจ้งเตือนบนหน้าจอให้เราทราบ
สัปดาห์ที่แล้ว ไมโครซอฟท์ประกาศไลเซนส์ GPT-3 โมเดลภาษาธรรมชาติของ OpenAI แบบเอ็กคลูซีฟ ซึ่งก็ทำให้ Elon Musk ที่มีส่วนร่วมก่อตั้ง OpenAI (ทุกวันนี้ไม่มีส่วนเกี่ยวข้องแล้ว) ออกมาแซะว่ามันตรงข้ามกับคำว่า "open" เลยและ OpenAI เหมือนถูกไมโครซอฟท์ยึดไปแล้ว
โฆษกไมโครซอฟท์เปิดเผยกับ The Verge ว่าความเอ็กคลูซีฟคือได้สิทธิเข้าถึงโค้ดของ GPT-3 ขณะที่ Kevin Scott ซีทีโอของไมโครซอฟท์ยืนยันเหมือนกับ OpenAI ว่ายังเปิดให้ผู้ใช้งานที่ใช้อยู่แล้วและผู้ใช้ใหม่ในอนาคตเข้าถึง GPT-3 ผ่าน API ได้เช่นเดิม
กูเกิลนำเสนอโมเดลปัญญาประดิษฐ์ pQRNN สำหรับงานประมวลผลข้อความ (natural language processing - NLP) ที่ตอนนี้นิยมใช้โมเดล BERT เป็นมาตรฐาน แต่โมเดล BERT มีขนาดใหญ่ถึง 400MB และมักใช้ในเซิร์ฟเวอร์มากกว่าอุปกรณ์ขนาดเล็กเช่นโทรศัพท์มือถือ
pQRNN ปรับปรุงมาจากโมเดล PRADO ที่กูเกิลนำเสนอตั้งแต่ปีที่แล้ว ความต่างจากโมเดลอื่นๆ คือการรับอินพุตเป็นคำแทนที่จะเป็นตัวอักษรทำให้โมเดลโดยรวมลดความซับซ้อนลงมาก แต่ปรับขั้นปลายๆ ของโมเดลให้เป็นชั้นแบบ QRNN และใช้ทำงานที่ความซับซ้อนต่ำ เช่น การจับอารมณ์ของข้อความ, การตรวจหาคำลามก, การจับชื่อและคำสำคัญ, ไปจนถึงเนื้อหาด้านลบ (toxic content) โดยยังให้ระดับความแม่นยำใกล้เคียงกับโมเดล BERT ที่ขนาดใหญ่กว่ามาก
กูเกิลนำเสนอโมเดลปัญญาประดิษฐ์ใหม่ DELG (DEep Local and Global Features) สำหรับแก้ปัญหาค้นหาภาพด้วยภาพ (Instance-Level Recognition - ILR) เช่นการค้นหาแบบ Google Images ที่ผู้ใช้สามารถใส่ภาพสถานที่ท่องเที่ยวเข้าไปแล้วบริการค้นหาจะคืนภาพสถานที่เดียวกันออกมาให้
จุดเด่นของ DELG คือการใช้โมเดลเดียวตลอดการทำงาน โดยตัวโมเดลใช้ ResNet เป็นฐาน จากนั้นแยกส่วน global feature สำหรับค้นหาภาพที่ใกล้เคียงจากฐานข้อมูล และ local feature เพื่อเทียบความคล้ายแล้วเรียงลำดับผลการค้นหา
Microchip ประกาศความร่วมมือกับบริษัทปัญญาประดิษฐ์สามบริษัท ได้แก่ Cartesiam, Edge Impulse, และ Motion Gestures ทำให้นักพัฒนาสามารถใช้เครื่องมือของทั้งสามบริษัทได้ใน MPLAB X IDE ของทาง Microship เอง
การใช้ปัญญาประดิษฐ์ในคอมพิวเตอร์ขนาดเล็กสามารถใช้งานกับข้อมูลบางประเภท กรณีนี้ทาง Microchip ออกชุดพัฒนา EV18H79A บอร์ดพัฒนาพร้อมตัววัดการเคลื่อนไหว 6 แกนของ TDK และ EV45Y33A ชุดพัฒนาติด BOSCH IMU และบริษัทที่เข้ามาเป็นพันธมิตรด้วยก็เป็นบริษัท AI ที่เน้นงานด้านแปลข้อมูลความเคลื่อนไหว ทำให้คอมพิวเตอร์สามารถแปลผลของเซ็นเซอร์ออกมาเป็น gesture ต่าง ว่าผู้ใช้ต้องการสั่งงานอะไร
บอร์ดพัฒนาเริ่มวางขายในจำนวนจำกัดแล้ว ราคาเริ่มต้น 39.95 ดอลลาร์
No Time to Die จะเป็นหนังเรื่องสุดท้ายในบท James Bond ของ Daniel Craig แต่ก็ยังไม่มีข่าวคราวนักแสดงคนใหม่ที่จะมารับบท Bond คนต่อไป (มีการคาดกันว่า Bond อาจจะตายในภาคนี้) ขณะที่ Largo.ai บริษัทพัฒนา AI สำหรับวิเคราะห์ภาพยนตร์ได้พัฒนาอัลกอริทึม ML เพื่อวิเคราะห์หานักแสดงที่เหมาะจะเป็น Bond คนต่อไป ก่อนจะที่ผลจะออกมาเป็น Henry Cavil จาก Man of Steel และซีรีส์ The Witcher
Largo ใช้ ML วิเคราะห์และเปรียบเทียบคุณสมบัติของ Bond และนักแสดงชาวอังกฤษที่เหมาะสมและน่าจะได้รับเสียงตอบรับจากคนดู โดย Henry Cavil นำมาเป็นอันดับ 1 ที่ 92.3% ตามมาด้วย Richard Armitage (รับบท Thorin ใน The Hobbit) ที่ 92% และ Idris Elba (รับบท Heimdall ใน MCU และ Stacker Pentecost ใน Pacific Rim)
เทคโนโลยี Deep Tech อย่างปัญญาประดิษฐ์ (AI) และหุ่นยนต์ (robotics)เริ่มได้รับความสนใจและมีความสำคัญกับอุตสาหกรรมต่าง ๆ มากขึ้นเรื่อย ๆ แต่บริษัทสายนี้ยังถือว่ามีค่อนข้างน้อยในไทย และข่าวความก้าวหน้าต่างๆ กลับมาจากบริษัทต่างประเทศแทบทั้งหมด
บริษัท AI and Robotics Venture (ARV) เป็นบริษัทลูกของ บริษัท ปตท.สำรวจและผลิตปิโตรเลียม จำกัด (มหาชน) หรือที่รู้จักกันในชื่อ ปตท. สผ. (PTTEP) เติบโตขึ้นมาจากการเป็นเพียงชมรมหุ่นยนต์เล็ก ๆ ในบริษัท ก่อนจะแยกตัวออกมาเป็นบริษัทลูกเพื่อพัฒนาและขับเคลื่อนวงการ AI/Robotics และตอนนี้ก็มีผลงานที่จับต้องได้ มีการใช้งานจริงออกมาให้เห็นกันแล้ว
วิดีโอ DeepFake กำลังสร้างความกังวลให้หลายภาคส่วน โดยเฉพาะเรื่องการข่าวปลอม ข้อมูลปลอมและการเลือกตั้งในสหรัฐที่กำลังจะเกิดขึ้น ล่าสุดไมโครซอฟท์เปิดตัว Microsoft Video Authenticator เครื่องมือตรวจสอบและตรวจจับวิดีโอหรือภาพนิ่งที่ผ่าน DeekFake โดยเป็นความร่วมมือระหว่างทีม Microsoft Research, ทีม Responsible AI และคณะกรรมการ AI, Ethics and Effects in Engineering and Research (AETHER) ของไมโครซอฟท์
NVIDIA เปิดตัว NVIDIA Broadcast App ซอฟต์แวร์ใหม่สำหรับการสตรีมเกมถ่ายทอดสดหรือประชุมออนไลน์โดยไม่ต้องลงทุนอุปกรณ์อย่าง ไมโครโฟนคุณภาพสูง, ห้องเก็บเสียง, หรือฉากหลัง แต่ใช้ปัญญาประดิษฐ์เข้ามาประมวลผลภาพและเสียงแทน โดยมี 3 ฟีเจอร์ได้แก่
Google Assistant อัพเดทความสามารถใหม่ สามารถใช้คำสั่งเสียงเรียก Snapshot หรือฟีดคำสั่งสิ่งที่ต้องทำสำหรับเราแสดงเป็นการ์ดมาให้ จากเดิมที่ต้องกดที่ปุ่ม Google Assistant เท่านั้น ถึงจะเรียกดูได้ โดยใช้คำเรียกว่า Hey Google, show me my day เริ่มเปิดใช้งานเฉพาะประเทศที่ใช้ภาษาอังกฤษเป็นภาษาตั้งต้น