Tags:
Node Thumbnail

ผู้อ่าน Blognone ทราบกันดีอยู่แล้วว่าการรัน Generative AI นั้น มีการใช้พลังงานไฟฟ้าในอัตราที่สูงกว่างานประมวลผลทั่วไป แต่ประเด็นใช้ไฟฟ้ามากกว่าอาจเป็นแค่เรื่องเริ่มต้น ข้อมูลนี้มาจาก Ami Badani หัวหน้าฝ่ายการตลาดของ Arm ได้เปิดเผยในงานสัมมนา Fortune Brainstorm AI ที่ลอนดอน บอกว่าการใช้พลังงานของ AI นั้น เป็นเรื่องใหญ่มาก ยิ่งแนวโน้มโลกจะมีอุปกรณ์ที่สั่งรัน Generative AI ได้มากขึ้น ไม่ว่าจะเป็นแล็ปท็อป สมาร์ทโฟน ทั้งหมดจะทำให้การใช้พลังงานไฟฟ้าเพิ่มขึ้นก้าวกระโดด เสี่ยงต่อซัพพลายไฟฟ้าที่จะไม่พอ

Badani บอกว่าตัวอย่างที่ทำให้เห็นภาพ ChatGPT นั้นใช้ไฟฟ้าสูงกว่าการค้นหาทั่วไปผ่านเว็บถึง 15 เท่า สิ่งนี้ทำให้ AI มีความต้องการพลังงานไฟฟ้าอย่างไม่มีขีดจำกัด ยิ่ง OpenAI ที่เพิ่งเปิดตัว Sora โมเดล AI สร้างวิดีโอ จำนวนชิปประมวลผลที่ใช้เทรนและสร้างวิดีโอยิ่งมีมหาศาลกว่า ซึ่งตามมาถึงพลังงานไฟฟ้าที่ต้องใช้ด้วย

ปัจจุบันอัตราการใช้ไฟฟ้าของศูนย์ข้อมูลนั้นคิดเป็น 2% ของการใช้ไฟฟ้าทั่วโลก Badani ประเมินว่าเฉพาะในสหรัฐอเมริกา หาก AI เป็นกระแสหลักของการใช้งาน ก็มีโอกาสที่ในปี 2030 ศูนย์ข้อมูลจะใช้ไฟฟ้าถึง 25% ของการใช้ไฟฟ้าทั้งหมด ฉะนั้นโจทย์ที่ท้าทายของ AI ตอนนี้คือการออกแบบชิปซึ่งทำงานได้ดี โดยใช้พลังงานไฟฟ้าน้อยที่สุดนั่นเอง

ที่มา: Fortune ภาพ Pixabay

No Description

Get latest news from Blognone

Comments

By: TeamKiller
ContributoriPhone
on 18 April 2024 - 23:33 #1309990
TeamKiller's picture

อีกหน่อยต้องมีโรงไฟฟ้าส่วนตัวละ นิวเคลียร์ติด Datacenter ไปเลย

By: AMp
In Love
on 19 April 2024 - 09:09 #1310006

analog chips?

By: btoy
ContributorAndroidWindows
on 19 April 2024 - 11:38 #1310027
btoy's picture

จะว่าไปก็เรื่องใหญ่เลยนะเนี่ย


..: เรื่อยไป