Google Tensor ออกแบบโดยทีม Google Silicon ที่พัฒนาชิปในมือถือรุ่นก่อนหน้านี้ ได้แก่ Pixel Visual Core ของ Pixel 2/3 และชิปความปลอดภัย Titan M แต่เป็นคนละทีมกับที่พัฒนาชิป TPU สำหรับคลาวด์และเซิร์ฟเวอร์
แกนหลักของชิป Google Tensor อิงตามพิมพ์เขียวของ Arm เป็นหลักทั้งตัวซีพียู (Cortex) และจีพียู (Mali) ฝั่งซีพียูมีทั้งหมด 8 คอร์สูตร 2+2+4 ได้แก่
ส่วนจีพียูเป็น Mali-G78 ของ Arm เวอร์ชัน MP20 (20 คอร์) แรงกว่าใน Exynos 2100 ที่เป็นเวอร์ชัน MP14 (14 คอร์)
จุดต่างที่สำคัญจากชิปตัวอื่นๆ ในท้องตลาด (เช่น Exynos 2100 ของซัมซุง หรือ Snapdragon 888 ที่ใช้สูตร 1+3+4 คอร์) คือกูเกิลเลือกใช้คอร์ใหญ่ Cortex-X1 ถึง 2 คอร์ (ซัมซุงใช้คอร์เดียว) ในขณะที่คอร์กลาง กูเกิลกลับเลือกใช้ Cortex-A76 ของปี 2018 ที่ตกรุ่นไปแล้วแทน (ซัมซุงใช้ Cortex-A78 ของปี 2020 จำนวน 3 คอร์) อย่างไรก็ตาม A76 ที่กูเกิลใช้เป็นเวอร์ชัน 5nm ที่ลดขนาดการผลิตลงจาก 7nm ที่ผลิตในยุคแรกๆ
คำอธิบายของกูเกิลคือเลือกใช้คอร์ใหญ่ X1 สองตัวด้วยเหตุผลเรื่องการตอบสนอง (responsiveness) เมื่อมีโหลดงานระดับกลาง (medium workload) หลายอย่างพร้อมกัน
Phil Carmack หัวหน้าทีม Google Silicon อธิบายว่าการใช้คอร์ใหญ่ 1 คอร์จะช่วยให้ตัวเลขเบนช์มาร์คแบบเธร็ดเดี่ยวออกมาดีที่สุด (ทำงานโหลดหนักๆ งานเดียว) แต่นั่นไม่ใช่เป้าหมายของกูเกิล
Carmack ยกตัวอย่างงานระดับกลางที่เจอในชีวิตจริงคือ การเปิดแอพกล้อง ที่ต้องมี live view โชว์ภาพสดๆ, ต้องประมวลผลสัญญาณภาพที่เข้ามาจากเซ็นเซอร์, ต้องเรนเดอร์ภาพขึ้นจอ, ต้องประมวลผล ML ของภาพสำหรับ Google Lens ฯลฯ สิ่งที่เกิดขึ้นคือมีโหลดงานหลายประเภท (heterogeneous) ในชิปหลายตัว ทั้ง CPU, GPU, ISP, ML
งานลักษณะนี้เดิมทีเราใช้คอร์กลาง (A76) ทำงานเต็มสมรรถนะ แต่พอกูเกิลเลือกใช้สถาปัตยกรรมคอร์ใหญ่คู่ ก็สามารถใช้ X1 รันแบบสบายๆ ได้แทน ส่วนเหตุผลที่ใช้ A76 เป็นคอร์กลาง แทน A77/A78 ที่ใหม่กว่า เป็นเรื่องว่า A76 มีขนาดเล็กและกินไฟน้อยกว่าที่คล็อคระดับเดียวกัน ข้อเสียของการใช้ A76 คือประสิทธิภาพมัลติเธร็ดอาจด้อยกว่า A77/A78 แต่ก็ขึ้นกับประเภทงานด้วย
Carmack บอกว่าตัวเลขประสิทธิภาพไม่ใช่สิ่งที่กูเกิลสนใจมากนัก (แต่ก็มีตัวเลขคือซีพียูแรงขึ้น 80%, จีพียูแรงขึ้น 370% จาก Pixel รุ่นก่อน) สิ่งที่กูเกิลสนใจคือประสิทธิภาพต่อวัตต์ และการรันงาน AI บนเครื่องได้ดีกว่าเดิมมาก
ทีมงานกูเกิลบอกว่าวิธีคิดหลักของกูเกิลคือใช้ AI กับทุกสิ่ง แม้เมนูอาหารของพนักงานก็ใช้ AI วิเคราะห์จากสิ่งที่พนักงานกิน กูเกิลมีงาน AI ที่อยากทำได้บนมือถือมานาน แต่ติดข้อจำกัดเรื่องชิปมือถือในตลาดรันไม่ไหว พอมีชิป Tensor แล้วจึงเป็นการปลดล็อคขีดจำกัดเหล่านี้หลายเรื่อง
กรณีที่กูเกิลยกมาคือ ภาพถ่ายของ Pixel มีอัลกอริทึม HDR+ ช่วยปรับภาพให้สวยงาม แต่อัลกอริทึมนี้ทำงานกับวิดีโอไม่ไหว ทำให้คุณภาพของวิดีโอจาก Pixel เข้าขั้นแย่
แต่ใน Pixel 6 ชิป Tensor เปิดทางให้กูเกิลสามารถรันอัลกอริทึม HDR (ชื่อสำหรับวิดีโอคือ HDR Net) กับวิดีโอทุกเฟรมที่ถ่ายในระดับ 4K 60FPS ได้สบาย ทำให้คุณภาพของวิดีโอดีขึ้นมาก
เว็บไซต์ Ars Technica ที่มีโอกาสได้ลองใช้ Pixel 6 ระหว่างการสัมภาษณ์ บอกว่าสามารถถ่าย 4K 60FPS นานต่อเนื่อง 20 นาทีโดยเครื่องไม่ร้อน แต่คุณภาพของวิดีโอต้องรอดูในการรีวิวเครื่องจริงอีกที
นอกจากนี้ Tensor ยังเปิดให้มีฟีเจอร์ต่างๆ ตามที่ Pixel 6 โฆษณาไว้ เช่น Magic Eraser ลบคนออกจากภาพ, Face Unblur ปรับหน้าคนไม่ให้เบลอ โดยดึงภาพจากกล้องอื่นมารวมกัน, ฟีเจอร์แปลภาษาแบบสดๆ โดยทำงานแบบออฟไลน์
ที่มา - Ars Technica,
Comments
เจ๋งดี
ปีหน้าเจอกัน 55
เอา วุ้ย Apple กะGoogle ต่างก็ทำชิปเองละ งานนี้ Android 12 สนุก แน่นอน Qualcomm จะแก้เกมสอย่างไง
ด้วย ทวิตเตอร์นี้
ค่อยรู้สึกว่าแอปเปิ้ลมีคนคานอำนาจจริงๆ ซักที
ปัญหาคือ Google มีของดี แต่ยังไม่รู้วิธีใช้เท่าไหร่ งานนี้ก็ ใช้แค่เรื่องการถ่ายรูปเอง
เราอ่านข่าวเดียวกันหรือเปล่าครับ ?
my blog
ตอนนี้เน้นเรื่อง ai ที่อยากทำบนมือถือมากกว่าครับ ส่วนเรื่อง gpu ต้องดูกันว่า gen หน้าจะใช้ amd ของ samsung ได้ไหม กำลังคิดอยู่ว่า samsung มาร่วมมือทำชิปกับ google แบบนี้จะทำให้ android ของ samsung ดีกว่า android ในท้องตลาดด้วยไหม
ใครเคยใช้เครื่องหิ้วบ้างครับ จาก ญป กับจาก เมกา อันไหนถูกกว่ากัน
และเข้ากับเครือข่ายไทยมากกว่ากัน
เสียดายทำไมไม่ทำตลาดทั่วโลกสักที
ผมใช้เครื่องหิ้วอยู่ แต่...ไม่รู้เหมือนกันว่ามาจากประเทศไหน แต่เดาว่าไม่น่าจะใช่ญี่ปุ่นแน่ๆ เพราะยังปิดเสียงชัตเตอร์กล้องได้อยู่
ซึ่งเรื่องซัพพอร์ตคลื่นอะไรบ้างนี่สอบถามร้านหิ้วก็ได้ครับ หลายๆ ร้านหิ้วเครื่องเข้ามาขายจนแทบจะเป็นศูนย์ประจำอยู่แล้ว
ร้านในไทยเจ้าประจำน่ามาจากเมกานะครับ ปกติร้านก็จะบอกว่าใช้คลื่นไหนไม่ได้ (เช่น 5a บอกว่าใช้ 5G ในไทยไม่ได้)
ถือว่าออกแบบฉีกไปได้ดีจดจำง่ายว่าจุดเด่นคืออะไร ต้องรอรีวิวการใช้งานจริงอีกที แต่เชื่อว่าของพวกนี้จะดีขึ้นแบบก้าวกระโดด หากปังจะได้มาวางขายหลายๆประเทศสักที
ตอนแรกกะว่าจะ ซื้อ Moto Edge 20 Pro
แต่พอเห็นชิปแบบนี้ อื่นนน รอ เครื่องที่ใช้ชิปที่ออกหลัง Tensor และ มาพร้อม ANdroid 12 เลยละกัน
GPU อาจจะไม่แรงไปกว่า หรือแรงกว่าไม่มากเมื่อเทียบกับ Exynos 2100 เพราะเป็นไปได้ว่าจะลด clock speed.
เหมือนเวลา Kirin มี GPU core น้อยกว่า Exynos แต่ clock สูงกว่า ประสิทธิภาพก็ไม่ได้หนีกันนัก
X1 จัดมาแรงดี รอดูผลทดสอบ
จริงๆ ท่านก็ติสเกิน รุ่นเรือธงรุ่นก่อน ท่านตะบี้ตะบันใช้โมดูลกล้องตกรุ่นไปไกลมาก แล้วก็ปั่น AI ของท่านไปเรื่อย เจอชาวบ้านใจถึงใส่โมดูลกล้องดีขึ้นสมกับเป็นรุ่นเรือธง ซึ่งมันช่วยได้ทั้งกลางคืนและวิดิโอ ท่านก็ไปไม่ถูก
แล้วนี่ก็ชู TPU หวังว่าจะให้ประสิทธิภาพและประสบการณ์การใช้งานจริงๆ สมเป็นเรือธงจริงๆเสียทีนะ
คุณภาพไฟล์ -> อัด Sensor ใหญ่ๆ ใหม่ๆ
จำลองหน้าชัดหลังเบลอ -> ใส่ ToF Sensor
จบเลย
I need healing.
ปัญหาใดๆที่ใช้เงินแก้ได้เค้าไม่เรียกว่าปัญหา - จำไว้ด้วยกูเกิลลลลล
แทบไม่แตะ hw มาสองถึงสามรุ่นแล้ว pixel พอมาปีนี้เปลี่ยนกล้องเพิ่มกล้อง น่าจะมีอะไรน่าสนใจขึ้นเยอะ ยังไง hw ดีมันก็ดีกว่า sw อยู่แล้ว
ผมมองว่า ยิ่งกล้องห่วยเท่าไรแล้ว google ทำให้มันออกมาดีได้ถือว่า เป็นการพัฒนาที่ดีเพราะยิ่งเราใช้ module ดีมากๆ มันก็ควรจะออกมาดีกว่าปรกติ
แต่ใช้ของห่วยก็คือลดต้นทุนอะนะครับ
นั่งปั่น AI คำนวณขอบล้ำๆ จากกล้องตัวเดียว ก็ยังมีปัญหาตัดขอบคนโดยเฉพาะบริเวณผม ซึ่งลากมาหลายปี
แต่ชาวบ้านมาเงียบๆ ใส่มอดูล TOF ปุ๊บ จบปั๊บ
ใช้โมดูลตกรุ่นไม่พอ ดันใช้รุ่นเดียวกันหมดทั้งรุ่นเรือธงและรุ่นรอง คนใช้รุ่นรอง suffer แค่โหลด HDR+ ช้ากว่า ลากมาตั้ง 2-3 รุ่นกว่าจะเปลี่ยน
กรณีนี้
Google ได้ big data ไปพัฒนา AI แต่ผู้ใช้เจ็บปวด