Tags:
Node Thumbnail

Reuters อ้างแหล่งข่าวที่เกี่ยวข้องระบุว่า OpenAI บริษัทผู้พัฒนา ChatGPT กำลังศึกษาแนวทางการสร้างชิปสำหรับงานด้าน AI ขึ้นเอง โดยรวมถึงพิจารณาหากต้องซื้อกิจการบริษัทด้านนี้ด้วย

อย่างไรก็ตาม OpenAI ยังไม่มีข้อสรุปว่าจะลงมาทำชิปสำหรับ AI นี้หรือไม่ แต่ไอเดียนี้เริ่มเกิดขึ้นตั้งแต่ปีที่แล้ว เพื่อแก้ปัญหาชิปขาดแคลนและมีราคาสูง ซึ่งนอกจากแนวทางทำชิปเองแล้ว OpenAI ก็มีแนวคิดอื่นด้วย เช่น ไปร่วมมือกับผู้ผลิตชิปรายอื่น หรือแม้แต่เปิดการเจรจาพิเศษกับ NVIDIA ซึ่งเป็นผู้ผลิตชิปประมวลผล AI รายใหญ่ที่สุดในตลาด

ปัจจุบันโมเดล AI ของ OpenAI ประมวลผลบนเซิร์ฟเวอร์ของไมโครซอฟท์ ที่มีรายงานว่าใช้จีพียูมากกว่า 10,000 ตัว ซึ่งทำให้คิวรีของ ChatGPT เป็นต้นทุนที่สูงประมาณ 4 เซนต์ต่อครั้ง นักวิเคราะห์ประเมินว่าหาก ChatGPT มีจำนวนคิวรีที่ระดับ 1 ใน 10 ของกูเกิล จะเป็นต้นทุนจีพียูประมาณ 16,000 ล้านดอลลาร์ต่อปี แนวทางพัฒนาชิปขึ้นมาเองจึงน่าสนใจมากขึ้น แต่ก็ต้องใช้เงินลงทุนสูงในช่วงแรกเช่นกัน

หลายบริษัทเทคโนโลยีก็เริ่มแนวทางพัฒนาชิปสำหรับงาน AI เช่น Meta มีชิปชื่อ MTIA v1 หรือไมโครซอฟท์เองก็ทดสอบชิป AI ด้วยเช่นกัน

OpenAI ปฏิเสธที่จะให้ความเห็นต่อรายงานนี้

ที่มา: Reuters

Get latest news from Blognone

Comments

By: tom789
Windows Phone
on 6 October 2023 - 12:22 #1296047

ใช้ จีพียู เยอะมาก

By: rattananen
AndroidWindows
on 6 October 2023 - 12:42 #1296051

ผมว่าต้นเหตุอย่างนึงคือมันใช้ floating point ในการคำนวณ ทำให้เปลืองพลังงานมากขึ้น
ถ้าสร้าง standard ของ primitive type ใหม่
ให้ คำนวณ, เก็บทศนิยม ในรูปแบบ integer ทั่วไปได้ น่าจะลดพลังงานได้เยอะ

By: btoy
ContributorAndroidWindows
on 6 October 2023 - 13:08 #1296052 Reply to:1296051
btoy's picture

ผมเองยังศึกษาตรงนี้ไม่เยอะ อาจจะเข้าใจผิด แต่เท่าที่เข้าใจตอนนี้คือจำนวนหลักของจุดทศนิยมมันมีความต้องการที่หลากหลาย เลยไม่รู้จะว่ากำหนดขนาดของหน่วยความจำเพื่อให้เป็น primitive type ยังไงให้ครอบคลุมการใช้งานในวงกว้างมาก ต้องมีกี่รูปแบบ เหมือนทำแล้วได้ไม่สุด แถมยังไงก็ต้องซัพพอร์ตแบบเดิมด้วย เลยไม่คุ้มที่จะทำกันรึเปล่า


..: เรื่อยไป

By: rattananen
AndroidWindows
on 6 October 2023 - 19:30 #1296067 Reply to:1296052

floating point (float32) ที่เราใช้ปกติมันสร้างโดยจุดประสงค์เพื่อ
ใช้คำนวณทั่วไป + save เนื้อที่ในการเก็บ + ใช้ hardware คำนวณง่าย
มันเลยเก็บ แยก sign + exponent + ตัวคูณ = 32bits
ถ้ามันเป็นฐานสิบมันก็ไม่มีปัญหาอะไร แต่ base ของ exponent มันเป็นฐานสอง (2^exponent)
เวลาเปลี่ยนเป็นฐานสิบมันเลยคาดเคลื่อน ทำให้ต้องมาเสียเวลา ใช้วิธีพิเศษในการ compare อีก (ข้อเสีย 1)

ข้อเสีย 2 การประมวลผล AI เป็นการใช้แบบเจาะจงซึ่งไม่ได้ต้องการใช้ทศนิยมแบบ full spec ของ float32 ฉะนั้นมันมี overhead สำหรับ AI ใช้ทศนิยมแค่ 5 หลักก็น่าจะพอ

By: btoy
ContributorAndroidWindows
on 7 October 2023 - 10:01 #1296089 Reply to:1296067
btoy's picture

ขอบคุณสำหรับความรู้ครับผม


..: เรื่อยไป

By: sapjunior
AndroidUbuntuWindows
on 6 October 2023 - 15:45 #1296062 Reply to:1296051

จริงๆปัจจุบันทำกันนะครับ มี format เยอะขึ้นมากทั้ง bf16 f16 fp8 ลงไปถึง int8 int4 ก็มี (พวกที่รันใน edgeส่วนใหญ่quantize ลงมา int8กันทั้งนั้นเลย) แต่บางอันก็ require hardware architecture ใหม่ๆด้วย (อย่าง fp8 require arch ada lovelance ถึงจะเร็ว กับบางแบบทำแล้วมันรันได้เฉพาะบน hardware นั้น) กับบาง precision มันจะ train ตรงๆไม่ได้ ต้องทำบน full/half precision ก่อน แล้วค่อย quantize ลงมาอีกที ซึ่งมันเพิ่มขั้นตอนกับaccuracy อาจจะลดลงบ้าง

By: lew
FounderJusci's WriterMEconomicsAndroid
on 13 October 2023 - 09:40 #1296528 Reply to:1296051
lew's picture

ซึ่งก็คือ bfloat16 ที่เกิดมาเพื่อ AI อยู่แล้ว?


lewcpe.com, @wasonliw

By: rattananen
AndroidWindows
on 13 October 2023 - 15:41 #1296554 Reply to:1296528

ผมคิดว่าถ้าหาวิธีเก็บทศนิยมแบบ integer แทน floating-point ได้ มันน่าจะลด cost ได้มากขึ้นอีกน่ะครับ

By: hidap on 6 October 2023 - 13:55 #1296055

เบื่อแล้วสำหรับAIช้าเป็นบ้าเขาจะเปลี่ยนโลกกันแล้วยังจะหาAIกันอยู่นั้นแล้วครับ เบื่อจริง