กูเกิลเปิดให้นักพัฒนาใช้งานโมเดลปัญญาประดิษฐ์ Gemini Pro รุ่นกลางที่ใช้งานใน Bard ตั้งแต่สัปดาห์ที่แล้ว โดยนักพัฒนาสามารถใช้งานได้ฟรีทุกคนในช่วงทดสอบ จำกัดเพียงแค่ห้ามคิวรีเกิน 60 ครั้งต่อนาทีเท่านั้น
โมเดลที่ปล่อยให้ใช้งาน มีทั้ง Gemini Pro ตัวปกติรองรับเฉพาะข้อความ รองรับ context ขนาด 32K และ Gemini Pro Vision ใส่ภาพประกอบได้ด้วย ความพิเศษของ Gemini Pro ที่ปล่อยให้ใช้งานผ่าน API คือมันรองรับภาษาอื่นๆ นอกจากภาษาอังกฤษ รวมทั้งหมด 38 ภาษา
SDK ที่ปล่อยออกมานั้นเปิดให้นักพัฒนาสามารถใช้งานแบบ Generate Content ที่สร้างข้อความต่อจากข้อความที่ผู้ใช้ใส่ลงไป หรือแบบ Chat ที่เป็นการพูดคุยต่อๆ กัน โดยยังไม่มี API แบบ Agent แบบเดียวกับ Assistant API ของ OpenAI
สำหรับการใช้งานแบบเสียเงิน จะเริ่มคิดเงินหลังบริการเข้าสู่สถานะ GA ในปีหน้า คิดค่าใช้งาน 0.25 ดอลลาร์ต่อ 1 ล้านตัวอักษร 2.5 ดอลลาร์ต่อ 1,000 ภาพสำหรับอินพุต และ 0.5 ดอลลาร์ต่อ 1 ล้านตัวอักษรสำหรับเอาท์พุต
ผู้ใช้สามารถใช้งานได้ทาง Google AI Studio หรือ Vertex AI ใน Google Cloud
ที่มา - Google
Gemini Pro ตอบคำถามภาษาไทย
Comments
แอบเสียดายที่มีข้อกำหนดตรง
จาก https://ai.google.dev/terms
แต่ก็น่าเอามาเล่นอะไรสนุก ๆ กับทำวิจัยได้เยอะพอควร
บล็อก: wannaphong.com และ Python 3
ยังใช้งานจริงไม่ได้อ่ะ ระบบมันไม่เชื่อมต่อกับสภาพแวดล้อม Internet ทำให้ถ้าถามข้อมูลที่สภาพเวลาเป็นปัจจุบันจะยังตอบไม่ได้ เช่น ถ้าอยู่ในพิกัด lat, long สภาพอากาศวันนี้เป็นอย่างไร ? เอาคำถามเดียวกันไปถาม Bard จะตอบได้ แต่ถ้าถามใน AI Studio จะยังตอบไม่ได้บอกว่าไม่ได้เชื่อมกับ Internet
ปล.เผื่อบางคนสงสัยว่าทำไมผมถึงทดสอบในสภาพเวลาปัจจุบัน เพราะเห็น Google บอกจุดขายของ Gen AI ของตัวเองเป็นสภาพเวลาปัจจุบัน ก็เลยลองซักหน่อย แต่ตอนนี้น่าจะยังใช้ได้กับ Bard ยังใช้กับส่วนอื่นๆ ไม่ได้ หรืออาจมีเงื่อนไขอื่นที่ผมยังไม่ทราบก็ได้
สั่ง LLM ให้ไปใช้ search engine api ได้นี่ครับ แล้วให้สรุปมา
อันนี้เป็นความเสียเปรียบของ Gemini เหมือนกัน function calling ยังดิบมาก เขียน prompt กันเอง เทียบกับ OpenAI ที่เขียน function ได้เลย หรือ Amazon Q มี Web Connector ให้ด้วยซ้ำ (เทียบเฉพาะฟีเจอร์ไม่ได้นับความเก่งของตัว LLM เอง)
lewcpe.com, @wasonliw
ถ้าเปิดใช้ Vertex AI มันมีค่าใช้จ่ายแพงไหมอ่ะครับ หรือตามการใช้จริง
WE ARE THE 99%