กูเกิลเปิดตัวโมเดล LLM ตัวใหม่ Gemini 2.5 Pro ที่พัฒนาความเก่งโดยอาศัยการฝึกจนกว่าจะทำแบบทดสอบถูก (reinforced learning) และฝึกให้คิดก่อนตอบ (chain of thought) โดยระบุว่าหลังจากนี้จะฝึกโมเดลต่อๆ ไปโดยฝังแนวทางคิดก่อนตอบไว้เสมอเพื่อให้โมเดลมีความสามารถสูง
ผลทดสอบ Gemini 2.5 Pro ด้านการเขียนโปรแกรมนั้นสูงขึ้นมาก ผลทดสอบ Aider สูงสุดในตอนนี้เหนือ DeepSeek-R1 แม้ว่าผลทดสอบ SWE-bench verified ที่เน้นปัญหาจริงจะยังแพ้ Claude 3.7 แต่ก็นับว่าใกล้เคียงขึ้นมาก ผลการทดสอบบน LM Arena นั้นตอนนี้ Gemini 2.5 Pro ขึ้นที่หนึ่งทั้งตาราง ใกล้เคียงกับ GPT-4.5 และ Grok-3 Preview
จุดแข็งมากๆ ของ Gemini 2.5 คือรองรับอินพุต 1 ล้านโทเค็นพร้อมมีแผนจะขยายเป็น 2 ล้านโทเค็น ตอนนี้มีให้ลองใช้งานใน Google AI Studio และแอป Gemini สำหรับลูกค้า Gemini Advanced ส่วนบริการผ่าน Vertex AI จะตามมาภายหลัง โดยตอนนี้ยังไม่บอกราคาค่าบริการ
ที่มา - Gemini
Comments
เพิ่งเปิดตัว 2.0 Pro เมื่อต้นเดือนที่แล้วเอง มาไวแบบนี้รุ่น 3.0 น่าจะเปิดตัวในงาน Google I/O เดือนพฤษภาแน่ๆ
ผมว่ามันแล้วแต่จังหวะ ถ้าทำได้ดีชึ้นอย่างมีนัยสำคัญก็ปล่อยได้เรื่อยๆ
ความยากคือเวลาปล่อยตัวจริงแต่ละครั้ง ต้องเตรียมโครงสร้างเอาไว้ให้บริการเพราะองค์กรใช้งานไปแล้ว ไปปิดทิ้งเร็วๆ ไม่ได้ แม้จะเสื่อมความนิยมเพราะรุ่นใหม่ออกแล้ว
ที่กูเกิลเปิดตัวแต่ละครั้งช่วงหลัง เลยเปิดแต่โมเดลทดลอง (ตัวนี้ก็ด้วย) โชว์เทพแต่ไม่ยอมเก็บเงิน
lewcpe.com, @wasonliw
สงสัย Gemini จะอ่าน Blognone มุก "ไก่จิกเด็กตาย" น่าจะใช้ไม่ได้แล้ว 555
ในความคิดชาว blognone ถ้าจะเสียตัง เจ้าไหนดีครับ
เน้นเขียนโค้ด หา/สรุปงานวิจัย คำถามวิชาการ
ถ้าเป็น deep research ต้องค้นหาข้อมูลเชิงลึก
Gemini ทิ้งห่างตัวอื่นหลายขุมทดสอบมาหลายครั้งแล้วครับ
ถ้าเป็นงานทั่วๆไปจัด ChatGpt ยังค่อนข้างดีกว่าโดยรวม
Gemini อีกเสียงครับถ้าเกี่ยวกับงานวิจัยกับคำถามเชิงวิชาการ
ส่วนผมจากที่ใช้ ChagGPT มาประจำตอนนี้เปลี่ยนมาใช้ Gemini ยาวๆ ทั้งเรื่องของการเขียนและการอ้างอิงข้อมูลที่อิงกับปัจจุบัน Gemini พัฒนาขึ้นเร็วมากจนน่าตกใจ ตอนนี้กำลังคิดที่จะลอง Gemini Advanced ที่ให้ลองแบบไม่คิดเงินได้เดือนนึงน่าจะดีกว่าตัวฟรี
ถ้าทำงานในมหาลัย น่าจะลองค้นหาดูก่อนว่ามหาลัยมี AI ให้ใช้ไหม อย่างจุฬามี Genie ที่พัฒนาบน Gemini อีกที หรือบางมหาลัยที่ได้แพคเกจ cloud ต่างๆก็มักจะมี AI พ่วงมาด้วยอยู่แล้ว
หลังจากที่ Google Workspace ได้ Gemini Advanced แล้วใช้ตลอด ก็พบว่า ช่วยทำงานได้เยอะและถ้าได้ลองพวก Thinking (Experimental) ตอบดีขึ้นมากจริงๆ
[ผมลองถามแบบนี้](
มันอาจใช้ข้อมูล exif จาก photo ก็ได้น๊า
มือใหม่!! ใหม่จริงๆนะ
ถ่ายห่างกัน ประมาณ 3 ชั่วโมงจากเครื่อง
เดียวกันครับ แล้วก็ถามต่อจากภาพข้างบนเลย
มันเปิด Location เองครับ โดยใช้ permission ของ Google map แล้วดู current location โดยทำงานเป็น background ซึ่งมันจะมี API บอกว่าจุดนี้ใกล้เคียงท้องที่ใด สังเกตุจากรูปแรกมีการแทรก Google map รออยู่แล้ว แสดงว่า Google map เริ่มทำงานและหาตำแหน่งปัจจุบัน แต่รูปที่สอง Google map ไม่ทำงานมันเลยไม่สามารถหาตำแหน่งได้ ซึ่งมันเป็นไปได้หลายกรณี แต่ก็เป็นไปได้เหมือนกันที่มันจะอ่านจาก Exif เพราะมันเป็นความสามารถพื้นฐานอยู่แล้ว แต่มันแปลกตรงที่ถ้าคุณบอกว่าถ่ายจากกล้องเดียวกัน มันก็น่าจะมี Exif ทั้งคู่ เพราะใน Exif มันจะมี Lat, Long บันทึกอยู่ สามารถส่งไปให้ Google map API แปลงเป็นตำแหน่งของท้องที่ได้เช่นกัน
ผมเดานะว่ารูปแรกคุณใช้ Icon เปิดกล้องจากใน Gemini ส่วนอีกภาพคุณถ่ายจาก App ภายนอก แล้วใช้แนบไฟล์เอา เพราะจากที่ผมเคยทำถ้าเปิดจากกล้องใน App ผมจะสั่งให้มันหา Location ด้วยเลย แต่ถ้าแทรกจากไฟล์ภายนอกแล้วไม่มี Exif ผมก็จะบอกกลับไปอย่างนี้เช่นเดียวกัน
ผมเคยเขียนโปรแกรมทำอย่างนี้เหมือนกันตั้งแต่ 1.5 ขนาดใจดีแปลงเป็น ตำบล อำเภอ จังหวัดให้แล้ว ถามว่าแถวนี้มีร้านอาหารอะไรอร่อยๆ บ้าง โดยเลือกจากพฤติกรรมการสั่งอาหารของผม มันดันมั่วข้อมูลมาให้ ผมเลยเลิกทำเลย รอให้ทาง Google แก้ไขให้เรียบร้อยก่อน แล้วเดี๋ยวค่อยมาทำต่อ ดูท่าน่าจะใกล้ใช้ได้แล้วมั้งเท่าที่ดูจากคุณทดสอบ
จริง ๆ แล้วเป็นประโยคที่เอาไว้จำอักษรกลาง แต่ก็นะ ถูกครึ่งเดียวยังดีกว่าไม่ถูกเลย