Android Authority รายงานว่าทั้ง iOS (รวมถึง iPadOS 18, macOS 15) และ Android ได้รองรับ ISO 21496-1 ที่เป็นมาตรฐานกลางสำหรับการเข้ารหัส gain map metadata ของภาพ HDR ร่วมกัน ทำให้สามารถแสดงผลภาพกันข้ามแพลตฟอร์มได้แล้ว ซึ่งการใช้งานจริงขึ้นอยู่กับการเชื่อมต่อ API มาใช้ของแต่ละแอปอีกที
ปัจจุบัน Google Photos สามารถแสดงภาพ HDR จาก iPhone ได้ และเบราว์เซอร์โครเมียม เช่น Chrome และ Edge ก็รองรับมาตรฐาน ISO 21496-1 เช่นกัน โดยคุณสมบัติ HDR นี้มีชื่อเรียกในฝั่ง Android ว่า Ultra HDR ที่รองรับมาตั้งแต่ Android 14
ที่มา: Android Police
Comments
อัป Android 15 มา HDR บน IG reel ก็หายไปเลย จริงๆ ตอน Android 14 อยู่ก็ติดๆ ดับๆ แต่ฝั่ง UltraHDR ที่เป็นภาพนิ่งไม่มีปัญหาแฮะ
แยกไม่ออกเลยภาพมันสีดีขึ้นยังไงเวลาเปิดดู HDR นอกจากได้ความสว่างทิ่มตามากขึ้น
HDR เดิมทำให้เก็บ dynamic range ได้มากขึ้น (ไม่ใช่เห็นแต่ฝั่งสว่างอีกด้านมืดจนมองไม่เห็น หรือเห็นแต่ที่มืดอีกฝั่งขาวไปหมด) แต่ยัง map ลงมาแสดงแบบปกติ ส่วน Ultra HDR คือเก็บข้อมูลความสว่างมาเพิ่มเพื่อปรับหน้าจอตอนแสดงผลเพิ่มนี่ฮะ
ถ้าจะเห็นเรื่องสีดีขึ้นยังไงชัดๆ นั่นน่าจะเป็น color space ที่เปิด DCI-P3 ขึ้นมา เคยเห็นชัดๆ รอบนึงคือตอนที่ถ่ายป้ายที่เป็นไฟสีแดง ตอนไม่เปิด P3 คือเป็นแดงโทนเดียวกันหมดเลยแต่พอเปิดแล้วดูเห็นไล่โทนได้น่ะฮะ
พวก วีดีโอใน Youtube นี่นับเป็น HDR แบบ Ultra HDR ด้วยไหมครับ เพราะจะดูได้นี่ต้องใช้กับจอ HDR แล้วไปสั่งเปิดที่ Windows อีกที สีก็เป็น 8 เป็น 10 bit ผมมีจอ LCD ตัวหนึง cert DisplayHDR 400 กับ Surface Pro จอ LCD ได้ Dolby Vision ความสว่าง Peak 600nit
สำหรับในคอมผมนี่แยกไม่ออกเท่าไรเลยครับ ถ้าเล่นเกมเปิด HDR ไม่ค่อยเห็นเลยหรือเพราะคอมที่เล่นจากมันแค่ 400nit ในมือถือนี่ชัดเจนความสว่างจะแบบสว่างกว่ามากงี้ แล้วพวกวีดีโอโชว์ใน youtube ไม่ค่อยมีฉากสว่างเลยเพราะที่ผมเจอเจอแบบเน้นสีเยอะๆ
Ultra HDR เท่าที่รู้ใช้กับรูปภาพนะฮะ วิดีโอนี่น่าจะมีแบบเดียวเลย
ถ้าเปิดดูถูกอัน ถูกจอ แล้วเปิดเทียบกันส่วนที่จะต่างกันนอกจากความสว่างคือรายละเอียดฮะ ลองหยุดที่เฟรมเดียวกันดู ตรงมืดๆ จอที่ไม่ HDR มันจะดำกลืนกันไปเลย ส่วนสว่างๆ อย่างเมฆก็คือขาวไปเกือบหมดแต่ฝั่ง HDR จะเห็นรายละเอียดตามกลีบเมฆได้ดีกว่าอะไรแบบนั้น
ก่อนหน้านี้เราจะเจอว่ากล้องเปิด HDR แล้วมันเก็บรายละเอียดตรงนั้นมาได้ แต่เวลาเรามาดูบนจอคือมิติมันจะขาดไปฮะ ความต่างของมืดกับสว่างในภาพมันน้อย ดูแล้วภาพมันแบนลง (จนถึงขั้นว่าบางทีสีขาวในที่สว่างกับมืดมันดูเกือบเท่ากัน) เรื่องการแสดงผลของ HDR มันมาแก้ตรงจุดนี้ นั่นเลยเป็นเหตุว่าทำไมเวลาเจอภาพหรือวิดีโอ HDR แล้วจอมันต้องเร่งแสงขึ้นมา (สีขาวในที่มืดกับสีขาวในที่สว่างก็อาจจะได้โค้ดสี #FFF เหมือนกัน แต่สว่างในจอไม่เท่ากัน ไม่ใช่ว่าต้องใช้สีขาวในที่มืดลงเป็นสีเทาแทนให้ดูมืดกว่า)
แยกไม่ออกเหมือนกัน
คือถ้าไม่มี HDR ทุกอย่างก็ยังดูปกตินะ
ถึงจะบอกว่า HDR ทำให้เห็นภาพในที่มืดๆชัดขึ้น(มััง หรือ้ห็นรายละเอียดมากขึ้น) แต่แล้วยังไงต่อนะ มันคือภาพ/ซีนสำคัญ แต่ต้องให้อยู่ที่มืดๆแบบนั้นน่ะหรือ
มันจะเห็นผลชัดเจนกับภาพที่มีความต่างระหว่างส่วนสว่างกับส่วนมืดมากๆ เช่น ภาพถ่ายย้อนแสง ครับ
ภาพย้อนแสงเนี่ย ถ้าเป็นการถ่ายภาพปกติ ส่วนที่โดนแสงมันมักจะสว่างเกินไปหรือส่วนที่ไม่โดนแสงมันมักจะมืดเกินไปจนไม่เห็นรายละเอียดหรือเห็นน้อยมาก ทำให้แทบจะเป็นไปไม่ได้เลยที่จะเห็นรายละเอียดในส่วนที่สว่างและมืดพร้อมกันอย่างชัดเจนในภาพเดียว
HDR ก็จะมาช่วยในภาพทำนองนี้ครับ พื้นฐานก็คือทำให้ส่วนที่สว่างมืดลงและส่วนที่มืดสว่างขึ้น แต่เอาจริงๆมันไม่ได้ง่ายแบบนั้น มันก็เลยมีเทคนิคหลากหลายรูปแบบแตกต่างกันไปครับ
มันมีผลเรื่องรายละเอียดที่เห็นในส่วนมืด หรือ ส่วนสว่างครับ
มันสามารถใส่รายละเอียดลงไปตรงนั้นได้
ถ้า SDR จะมองไม่เห็นแยกไม่ออก
ตรงนั้นเลยครับที่ผมแยกไม่ออก ในคอมนี่เปิดปิด HDR ไปมารู้สึกแค่สีมันต่างกันหน่อย ในมือถือนี่เจอ content HDR ที่จอเร่งแสงเองรับรู้ถึงความสว่างอย่างเดียวเลยครับ
ให้นึกถึง Myth เกี่ยวกับ Poster หนังเรื่อง Grave of the Firefiles ของ Ghibli
ที่เขาเชื่อกันว่า "มีเครื่องบินทิ้งระเบิดซ่อนอยู่ในเบื้องหลังของ Poster"
แต่ความจริง "เราใส่ไปโต้ง ๆ เลย แต่ Tecnology การพิมพ์สมัยนั้น บางโรงพิมพ์ บางแผ่นมันเก็บรายละเอียดออกมาไม่ได้"