Apple ระบุในหน้าฟีเจอร์ของ macOS Monterey ว่ามีฟีเจอร์บางส่วน ใช้งานได้บน Mac รุ่นที่ใช้ชิป M1 เท่านั้น แปลว่า Mac รุ่นอื่นๆ ที่ยังใช้ซีพียู Intel จะไม่สามารถใช้ฟีเจอร์เหล่านี้ได้
Apple ไม่ได้ระบุว่าทำไมเครื่องที่ยังใช้ซีพียู Intel ถึงใช้งานฟีเจอร์ใหม่เหล่านี้ไม่ได้ แต่ Rene Ritchie ยูทูบเบอร์สายเทคโนโลยี ทวิตอธิบายเพิ่มเติมว่าฟีเจอร์เหล่านี้ต้องใช้ชิปประมวลผล Neural Engine บน M1 ทำให้ไม่สามารถใช้งานได้บนซีพียู Intel ได้
หลังจากนี้ Mac รุ่นที่ใช้ซีพียู Intel น่าจะมีฟีเจอร์ที่ไม่สามารถใช้งานได้ เพิ่มขึ้นในทุกเวอร์ชั่น ยิ่งชิป M1 พัฒนาไปจนถึง M2 และต่อๆ ไป บางฟีเจอร์ใน macOS รุ่นถัดไป ก็อาจจะยิ่งพึ่งพาชิป Neural Engine มากขึ้น ผู้ที่ต้องการซื้อ Mac ที่ยังใช้ชิป Intel ในช่วงนี้ ควรพิจารณาเรื่องอายุการใช้งานเป็นอีกประเด็นที่สำคัญ
Comments
x86 โดนเขี่ยทิ้งเต็มที่
อีกสักพักมีคนทำ Plugin สำหรับ Intel Mac มาขายใน MacOS Store
ความล้มเหลว คือจุดเริ่มต้นสู่ความหายนะ มีผลกระทบมากกว่าแค่เสียเงิน เวลา อนาคต และทรัพยากรที่เสียไป - จงอย่าล้มเหลว
ตามสไตล์แอปเปิล ผมว่ากั๊กเพื่อจะขายของใหม่มากกว่า
มันอาจจะยากกว่าหรือประสิทธิภาพไม่เท่าแต่ผมว่าถ้าคิดจะทำให้มันก็ทำได้แหละ
สแกน
อันแรกๆ ยังพอเข้าใจได้ คือไม่ใช่ว่าบน x86 ทำไม่ได้ แต่ไม่อยาก maintain code 2 แบบ
แต่ไอ้ text to speech ภาษาอื่นทำไม่ได้นี่คืออัลลัย
ออกรุ่น 15 นิ้วสิเห้ยจะได้ซื้อไม่ชอบจอเล็ก
อนาคต intel จะยัด Neural Engine ใส่ cpu ตัวเองปะ
จริงๆมีความพยายามจาก Intel พยายามทำอยู่นะครับ ยังไม่ได้เป็น chip แยกออกมา แต่เป็นแนวๆ ชุดคำสั่งที่มาช่วยแทน พวก AVX-512 กับ Intel Deep Learning Boost น่ะครับ ซึ่งพูดตามตรง จากที่เคยลองใช้แล้ว (ผ่าน OpenVINO) สู้ GPU กับ chip แยกไม่ได้ครับ
แต่ละ feature แปลกๆ นะ x86 ปกติก็น่าจะทำได้
ใช้ไม่ได้ก็ควรหยุดขายรุ่นเก่าได้แล้ววววว หรืออกรุ่นที่แรงๆ มาสักทีเหอะ
พยายามตัด อินเทลทิ้ง
เค ได้เวลาขาย
อันอื่นยังพอเข้าใจ แต่โมเดลลูกโลกแบบสามมิติ กับแผนที่รายละเอียดสูง นี่มันเกี่ยวกับ Neural Engine ยังไงหว่า
upscaling model น่าจะใช้ neural model ช่วยเติม pixel นะครับ
อ่า upscaling แล้วโฆษณาว่ารายละเอียดสูงนี่เองงงง
บางอันก็ไม่สมเหตุสมผลเลย เช่น blur bg video conference เจ้าอื่นก็ทำได้กันเยอะแยะ ซึ่งพูดตามตรง model deep learning ที่ทำพวกนี้รันบน cpu x86 realtime ได้แน่ๆครับ
คือมันช้าอะครับ แถมกินไฟอีก train บน osx ก็ลำบาก ต้องทำผ่าน cuda api อีกถ้าต้องใช้ core เยอะจาก gpu แล้วอีกอย่าง ออกแบบชิพมารันงานพวกนี้เองได้แล้ว มี 16 cores แบบประหยัดพลังงาน ทำไมต้องไปใช้ cpu core ของ x86 อีกครับ
ผมว่าเค้าไม่ได้ส่วน training บน macos หรอกครับ ทำบน plaform training อื่นที่มี gpu อยู่แล้ว(ปัจจุบัน nvidia ก็เลิก support macOS ไปตั้งแต่ cuda9 แล้วครับ) แต่ฝั่ง user ที่เป็นคนใช้ตรง part inference อย่างเดียว ถ้าพูดกันตามตรง semantic segmentation สำหรับ blur bg เนี่ย มันค่อนข้าง feasible ที่จะรันบน cpu อยู่แล้วครับ ยิ่งถ้าเป็น int8 ค่อนข้างมั่นใจว่ารัน > 30fps
ส่วนตัวคิดว่าน่าจะเป็นเหตุผลทางการตลาดในการพยายามเปลี่ยนผ่านuserสู่ h/w ใหม่ กับเรื่อง maintainace code ให้ใช้ engine CoreML ที่เป็น based เดียวกันทั้ง macOS กับ iOS มั้งครับ
ไม่ช้าครับ intel ยุคใหม่มีชุดคำสั่งช่วยเรื่อง ML
เพิ่งออกมาใช่ไหมครับ ไม่แน่ใจ ถ้าไม่นับ mkl แล้ว mac intel รุ่นหลังๆ install เพิ่มได้ไหมครับ
OpenVINO เลยครับ เป็นตัว inference engine ML ทั้งเซตเลย
เข้าใจว่าชิพที่พูดมาทั้งหมดในข่าวนี้ไม่มีอะไรรองรับ cuda เลยครับ :)
ไม่ใช่น๊า บางงาน optimize โค้ดดีๆ รันไวอยู่ ถ้าต้องการประมวลผลบน cpu อ่ะครับ
แต่ที่แอปเปิ้ลเลือกทำแบบนี้ ขก ทำบน Intel มากกว่า ตามความเห็นคนอื่นๆ ทำลง Neural Engine ใช้ได้ทั้ง ios macos ก็คุ้มมากกว่า ยังไงก็จะตัด intel ในอีกไม่กี่ปี
มือใหม่!! ใหม่จริงๆนะ
ใช่เลยครับ ไม่มีเหตุผลที่ต้องรองรับแล้ว ตัดจบตรง ml capability ของ os ก็ ยกไปไว้ที่ neural chip เลย ยังไงในอนาคตก็ต้องถอด intel แน่ๆแล้ว
แอบเสียดาย user intel ที่มีเยอะกว่า m1 อยู่มากโขเลย
มือใหม่!! ใหม่จริงๆนะ
ถ้าพี่จะไม่ support intel พี่ก็ออกรุ่น 16 นิ้วมาครับ ผมจะได้ซื้อมาทำงาน 13 นิ้วเล็กไปสำหรับผมแล้ว
"เบลอแบคกราวด์ตอนวิดีโอคอลใน FaceTime"
ผมใช้ zoom, ms team, line บน windows 10 cpu intel i5 มีฟีเจอร์นี้และทำได้หมด
ฝากไปบอกทิมคุกทีนะ ถ้าอยากขายของ m1 บอกทีมการตลาดหาข้ออ้างเรื่องอื่นเหอะ
Apple ไม่ได้บอกเหตุผลนะครับ อันนี้มีคนคาดการณ์เอง
Apple ก็คงตั้งใจติด intel ทิ้งแหละครับ ทำไมต้องเขียน code 2 แบบ เลือกอนาคตดีกว่า
อคติทำให้คนรับเหตุผลด้านเดียว
ทำได้ครับมีชุดคำสั่งอยู่ พวก avx และ neuro engine
T2 เอาไว้ทำไม
Secure fingerprint และ encrypt decrypt ข้อมูลใน storage ครับ
มือใหม่!! ใหม่จริงๆนะ
ก็สมกับเป็นบริษัทขาย Hardware ล่ะนะ แค่ทำ Software มาให้ Hardware ตัวเองใช้งานได้
Zoom ก็มีฟีเจอร์นี้รันบน Mac ตระกูล Intel นะ
อ้างอิงจาก IT blogger...
ถ้าผมเป้น apple ผมก็ไม่ทำหรอก ต้องการเปลี่ยนผ่านจาก x86 ไป m1 ทั้งทีจะทำให้ทำไม และถ้าทำให้ไหนจะต้องจัดการ code 2 version อีก และก็คงจะเหมือน MS ที่ไม่จริงจังกับการเปลี่ยนผ่านถ้ายังทำ 2 version แบบนี้
กั๊กด้วยส่วนนึง พวก ML พวกนี้แต่ก่อนก็ทำมาใส่ได้ เช่น Suggestion รูปใน Photos
บีบไปให้ใช้ m1 และบีบให้ไปใช้พวกนี้ เพื่อให้เปลี่ยนผ่านไวๆ ชัวร์
มือใหม่!! ใหม่จริงๆนะ
กั๊กไว้ก็เข้าใจนะว่าอยากขายของใหม่ แต่ของเก่าก็เลิกขายไปเลยมั้ยอ่ะ
เอ้อยิๆ นี่มัดกีดกันทางการค้าหละ
Intel มี AVX AVX2 AVX512 ซึึ่งออกแบบมาเพื่องานแนวนี้อยู่แล้ว และชุดคำสั่งพวกนี้คือชุดคำสั่งที่เค้าใช้กันในงานพวกนี้
นอกจากนี้ intel ยังมี library machine learning ที่ออฟติไมค์สำหรับ x86 ออกมา แต่ทำไมไม่ใช้
ผมว่าใจความของข่าวนี้คือ เค้าจะ transition จาก x86 ไป Arm + custom dsp แล้ว ดังนั้น ก็ไม่อยากจะเสียเวลาไปสร้างฟีเจอร์เดียวกันสำหรับของเก่าถ้ามันจะเสียเวลามากเกินไป (เช่น จริง ๆ ก็เขียน ML เพื่อจับแยก foreground+background เพื่อเบลอฉากหลังบน intel ได้แหละ แต่ในเมื่อมันจะหายไปภายในห้าปี ก็ไม่รู้จะทำทำไม) ไม่ได้ว่าไม่มีปัญญาทำฟีเจอร์เดียวกันบนของเก่าหรอกครับ
ิย่งการประยุกต์ใช้คำสั่งพิเศษเพื่อ optimize นี่ยิ่งเสียทุนหนักเลย ชิปของ Intel จากประวัติที่ผ่านมา (ตามคำกล่าวอ้างของอดีตบุคคลวงในของ Apple) นี่ยิ่งผีเข้าผีออกกับ Apple ด้วย ต่อให้ทำไปก็ไม่ได้ส่งเสริมยอดขายหรือกำไรแต่อย่างใด อีกอย่างจะ ditch off แพลตฟอร์มเก่าอยู่แล้ว ผมเองเป็นเจ้าของบริษัทถ้ารู้ว่าทำแล้วปัญหาจะงอกเพิ่มขึ้นแน่ ๆ สู้ไม่ทำแต่แรกยังจะดีกว่า
กั๊ก เหมือน iPhone ฟีเจอร์ใหม่ก็กั๊กให้แต่ iPhone รุ่นใหม่ อ้าง HW เหมือนกัน
มุขเดิมๆ
อยากไป แต่ docker ยังไม่บางอย่าง build ไม่ผ่านเลย
รู้สึกไม่เดือดร้อนเพราะ feature หลายๆอันที่ตัดมันก็แค่ nice to have แถมเผลอๆในไทยก็ไม่ได้ใช้อีกอยู่แล้ว
จะมีใกล้เคียงสุดก็คงเป็น facetime แต่เอาจริงๆ ถ้าจะต้อง video call ก็มีแอพอื่นเป้นตัวเลือกอีกเยอะอยู่ดี
คิดประมาณนี้ด้วยคนครับ เผลอๆถ้าทำให้ใช้ได้จริง ลองใช้สัก 2-3 ทีก็ไม่ได้ใช้แล้วสำหรับบางฟีเจอร์
M1 -> Apple silicon