กูเกิลประกาศอัพเดตโมเดลภาษา Gemini ทั้งรุ่น Flash และรุ่น Pro กลายเป็นเวอร์ชั่น Gemini-1.5-Pro-002 และ Gemini-1.5-Flash-002 ความเปลี่ยนแปลงสำคัญคือทั้งสองโมเดลทำคะแนนทดสอบได้ดีขึ้นแทบทุกชุดทดสอบ โดย Gemini-1.5-Flash-002 นั้นทำคะแนนได้ดีขึ้นจนแซง Gemini-1.5-Pro-001 ไปหลายชุดทดสอบ
การอัพเดตรอบนี้ยังลดราคา Gemini Pro ลงทั้งอินพุตและเอาท์พุตลง พร้อมกับเพิ่มเพดานการใช้งานเป็น 2,000 RPM สำหรับ
กูเกิลยังรายงานการให้บริการว่าที่ผ่านมาอัตราการตอบของ Gemini Flash ดีขึ้นเรื่อยๆ จนแตะ 300 token/s แล้ว ขณะที่ latency ก็ค่อยๆ ลดลงจนเหลือ 300ms เท่านั้น
โมเดลเวอร์ชั่น 002 มีให้บริการแล้วใน AI Studio และ Vertex AI
ที่มา - Google Developers
Comments
แจ่มเลยครับ ใช้ api ของ flash นี่ไวจริง
WE ARE THE 99%
ซ้ำ
WE ARE THE 99%
ใครใช้ Vertex ต้องอ้างอิงโดยใช้ตัวเล็กถึงจะเรียกใช้ได้ เช่น gemini-1.5-flash-002 เร็วขึ้นแบบรู้สึกได้ ราคาต่อหน่วยดีใช้ได้เลย เคยลองเปรียบเทียบช่วงก่อนเปลี่ยนราคาเทียบกับรุ่น Pro กับข้อมูลขนาดประมาณ 3 MB ราคาต่างกันแบบเห็นได้ชัด (แต่ยังไม่ได้ลองกับราคาใหม่) ด้วยผลลัพธ์ที่ต่างกันไม่มาก ด้วยโปรแกรมที่ผมทำไม่ได้จำเป็นต้องเชื่อมโยงอะไรมากมาย หรือจำเป็นต้องวิเคราะห์อะไรลึกล้ำมาก แต่ต้องการความเร็วในการตอบสนองสูงเลยเลือกใช้ flash
ใน AI Studio ตอนเรียกโค้ดก็ใช้ตัวเล็กหมดเหมือนกันครับ แต่พอเขียนในบล็อกเขามีตัวใหญ่เลยเรียกตามกูเกิล
lewcpe.com, @wasonliw
ใช้แล้วโครตปวดหัวๆๆเลยจริงการทำงานอย่างมั่ว
การใช้ AI ในยุคนี้ ถ้าคุณใช้ในการเป็น search engine หรือถามตอบปัญหา มันต้องตั้งค่าเริ่มต้นเพิ่มเติม เพื่อให้ engine จินตนาการให้น้อยลงเข้าช่วยด้วย รวมถึงปัญหาเรื่องลิขสิทธิ์ที่ยังเป็นสีเทาๆ และยังเจรจาไม่เรียบร้อย ทำให้การทำงานในส่วนนี้ยังไม่สมบูรณ์
แต่ถ้าคุณต้องการใช้มันเต็มประสิทธิภาพ ลองใช้ในโหมดให้มันเป็น LLM ดูสิ คือ ให้มันแสดงความสามารถด้านภาษา เช่น วิเคราะห์ข้อมูล คัดแยกข้อมูล จัดหมวดหมู่ สรุปข้อมูลที่เราเป็นเจ้าของต้นฉบับ ฯลฯ แล้วคุณจะเห็นพลังของมัน AI ในยุคนี้มันเก่งเรื่อง การเติมคำในช่องว่าง และเชื่อมโยงข้อมูลมาเติมในช่องว่างนั้น ถ้าคุณเข้าใจ และเขียน prompt อธิบายให้มันรู้สิ่งที่คุณต้องการได้ คุณจะได้เครื่องมือที่ทรงพลัง ตอนแรกผมก็คิดเหมือนคุณนั่นแหล่ะ แต่ผมกลับสมการจากที่ให้มันเป็น search engine ให้มันกลายเป็น LLM แทน แล้วไป call api อื่นๆ ในการให้ข้อมูล มันก็ทำงานได้ดีในอย่างที่อยากให้เป็น
อยากรู้เคสที่ใช้แล้วพบว่า "ปวดหัว" ครับ ว่าใช้งานแนวไหน
เผื่อจะไปดูว่ามันมี benchmark ของงานแนวๆ นั้นไหม เผื่อมี break through ในงานแนวนั้น
lewcpe.com, @wasonliw