Amazon ประกาศว่าปัญญาประดิษฐ์ Alexa ย้ายโหลดงานปัญญาประดิษฐ์ที่เดิมรันอยู่บนชิปกราฟิกไปรันบนชิป AWS Inferentia ที่เปิดตัวมาตั้งแต่ปี 2018 และให้บริการเป็นเครื่อง EC2 Inf1 ในปี 2019 เกือบทั้งหมดแล้ว
Alexa ฝังอยู่ในลำโพง Echo และแท็บเล็ต Kindle Fire ทำให้ผู้ใช้สามารถสั่งงานอุปกรณ์ในบ้านและติดต่อกับบริการของ Amazon ได้โดยสั่งด้วยเสียง โดยตอนนี้มีอุปกรณ์รองรับ Alexa กว่าร้อยล้านชิ้นแล้ว โดยปัญญาประดิษฐ์ที่ Alexa ใช้มีสามส่วนหลักคือการแปลงเสียงเป็นข้อความ (automatic speech recognition - ASR) และทำความเข้าใจคำสั่งของผู้ใช้ (natural language understanding - NLU) จากนั้น Alexa จะส่งคำตอบเป็นข้อความและใช้ปัญญาประดิษฐ์สร้างเสียงพูด (text-to-speech - TTS)
ก่อนหน้านี้ Alexa รันบนเครื่อง EC2 G4 ที่ใช้ชิป Intel Cascade Lake และการ์ดกราฟิก NVIDIA T4 การย้ายมาใช้ EC2 Inf1 ทำให้ Alexa มี latency ลดลงทั้งระบบ 25% ขณะที่ราคาต่อการประมวลผลปัญญาประดิษฐ์ก็ลดลง 30%
ที่มา - AWS
Comments
โดยปัญญาประดิษฐ์ที่ Alexa ใช้มีสามส่วนหลักคือ...
น่าจะบอกเป็นข้อๆ 1 2 3 แทนการใช้และซ้ำๆ
.
AWS Interentia สะกดผิดครับ ต้องเป็น AWS Inferentia
เจ้าใหญ่ๆ เริ่มทำ hardware ของตัวเองมากขึ้นลดการพึ่งพาคนอื่นลง
ตอนนี้ AWS มีท่อยิงมา BKNIX แล้วด้วย
อะไรคือหน่วงลง งงแท้ จะบอกว่าเร็วขึ้นไหม