Tags:
Topics: 
Node Thumbnail

กูเกิลประกาศอัพเดตโมเดลภาษา Gemini ทั้งรุ่น Flash และรุ่น Pro กลายเป็นเวอร์ชั่น Gemini-1.5-Pro-002 และ Gemini-1.5-Flash-002 ความเปลี่ยนแปลงสำคัญคือทั้งสองโมเดลทำคะแนนทดสอบได้ดีขึ้นแทบทุกชุดทดสอบ โดย Gemini-1.5-Flash-002 นั้นทำคะแนนได้ดีขึ้นจนแซง Gemini-1.5-Pro-001 ไปหลายชุดทดสอบ

การอัพเดตรอบนี้ยังลดราคา Gemini Pro ลงทั้งอินพุตและเอาท์พุตลง พร้อมกับเพิ่มเพดานการใช้งานเป็น 2,000 RPM สำหรับ

กูเกิลยังรายงานการให้บริการว่าที่ผ่านมาอัตราการตอบของ Gemini Flash ดีขึ้นเรื่อยๆ จนแตะ 300 token/s แล้ว ขณะที่ latency ก็ค่อยๆ ลดลงจนเหลือ 300ms เท่านั้น

โมเดลเวอร์ชั่น 002 มีให้บริการแล้วใน AI Studio และ Vertex AI

ที่มา - Google Developers

No Description

No Description

No Description

Get latest news from Blognone

Comments

By: Fzo
ContributorAndroid
on 25 September 2024 - 01:45 #1323030
Fzo's picture

แจ่มเลยครับ ใช้ api ของ flash นี่ไวจริง


WE ARE THE 99%

By: Fzo
ContributorAndroid
on 25 September 2024 - 01:45 #1323031
Fzo's picture

ซ้ำ


WE ARE THE 99%

By: Tasksenger on 25 September 2024 - 06:32 #1323033

ใครใช้ Vertex ต้องอ้างอิงโดยใช้ตัวเล็กถึงจะเรียกใช้ได้ เช่น gemini-1.5-flash-002 เร็วขึ้นแบบรู้สึกได้ ราคาต่อหน่วยดีใช้ได้เลย เคยลองเปรียบเทียบช่วงก่อนเปลี่ยนราคาเทียบกับรุ่น Pro กับข้อมูลขนาดประมาณ 3 MB ราคาต่างกันแบบเห็นได้ชัด (แต่ยังไม่ได้ลองกับราคาใหม่) ด้วยผลลัพธ์ที่ต่างกันไม่มาก ด้วยโปรแกรมที่ผมทำไม่ได้จำเป็นต้องเชื่อมโยงอะไรมากมาย หรือจำเป็นต้องวิเคราะห์อะไรลึกล้ำมาก แต่ต้องการความเร็วในการตอบสนองสูงเลยเลือกใช้ flash

By: lew
FounderJusci's WriterMEconomicsAndroid
on 25 September 2024 - 10:04 #1323053 Reply to:1323033
lew's picture

ใน AI Studio ตอนเรียกโค้ดก็ใช้ตัวเล็กหมดเหมือนกันครับ แต่พอเขียนในบล็อกเขามีตัวใหญ่เลยเรียกตามกูเกิล


lewcpe.com, @wasonliw

By: hidap on 25 September 2024 - 15:23 #1323101

ใช้แล้วโครตปวดหัวๆๆเลยจริงการทำงานอย่างมั่ว

By: Tasksenger on 25 September 2024 - 16:06 #1323111 Reply to:1323101

การใช้ AI ในยุคนี้ ถ้าคุณใช้ในการเป็น search engine หรือถามตอบปัญหา มันต้องตั้งค่าเริ่มต้นเพิ่มเติม เพื่อให้ engine จินตนาการให้น้อยลงเข้าช่วยด้วย รวมถึงปัญหาเรื่องลิขสิทธิ์ที่ยังเป็นสีเทาๆ และยังเจรจาไม่เรียบร้อย ทำให้การทำงานในส่วนนี้ยังไม่สมบูรณ์

แต่ถ้าคุณต้องการใช้มันเต็มประสิทธิภาพ ลองใช้ในโหมดให้มันเป็น LLM ดูสิ คือ ให้มันแสดงความสามารถด้านภาษา เช่น วิเคราะห์ข้อมูล คัดแยกข้อมูล จัดหมวดหมู่ สรุปข้อมูลที่เราเป็นเจ้าของต้นฉบับ ฯลฯ แล้วคุณจะเห็นพลังของมัน AI ในยุคนี้มันเก่งเรื่อง การเติมคำในช่องว่าง และเชื่อมโยงข้อมูลมาเติมในช่องว่างนั้น ถ้าคุณเข้าใจ และเขียน prompt อธิบายให้มันรู้สิ่งที่คุณต้องการได้ คุณจะได้เครื่องมือที่ทรงพลัง ตอนแรกผมก็คิดเหมือนคุณนั่นแหล่ะ แต่ผมกลับสมการจากที่ให้มันเป็น search engine ให้มันกลายเป็น LLM แทน แล้วไป call api อื่นๆ ในการให้ข้อมูล มันก็ทำงานได้ดีในอย่างที่อยากให้เป็น

By: lew
FounderJusci's WriterMEconomicsAndroid
on 25 September 2024 - 20:39 #1323138 Reply to:1323101
lew's picture

อยากรู้เคสที่ใช้แล้วพบว่า "ปวดหัว" ครับ ว่าใช้งานแนวไหน

เผื่อจะไปดูว่ามันมี benchmark ของงานแนวๆ นั้นไหม เผื่อมี break through ในงานแนวนั้น


lewcpe.com, @wasonliw