Tags:
Node Thumbnail

กูเกิลเปิดตัวโมเดล LLM ตัวใหม่ Gemini 2.5 Pro ที่พัฒนาความเก่งโดยอาศัยการฝึกจนกว่าจะทำแบบทดสอบถูก (reinforced learning) และฝึกให้คิดก่อนตอบ (chain of thought) โดยระบุว่าหลังจากนี้จะฝึกโมเดลต่อๆ ไปโดยฝังแนวทางคิดก่อนตอบไว้เสมอเพื่อให้โมเดลมีความสามารถสูง

ผลทดสอบ Gemini 2.5 Pro ด้านการเขียนโปรแกรมนั้นสูงขึ้นมาก ผลทดสอบ Aider สูงสุดในตอนนี้เหนือ DeepSeek-R1 แม้ว่าผลทดสอบ SWE-bench verified ที่เน้นปัญหาจริงจะยังแพ้ Claude 3.7 แต่ก็นับว่าใกล้เคียงขึ้นมาก ผลการทดสอบบน LM Arena นั้นตอนนี้ Gemini 2.5 Pro ขึ้นที่หนึ่งทั้งตาราง ใกล้เคียงกับ GPT-4.5 และ Grok-3 Preview

จุดแข็งมากๆ ของ Gemini 2.5 คือรองรับอินพุต 1 ล้านโทเค็นพร้อมมีแผนจะขยายเป็น 2 ล้านโทเค็น ตอนนี้มีให้ลองใช้งานใน Google AI Studio และแอป Gemini สำหรับลูกค้า Gemini Advanced ส่วนบริการผ่าน Vertex AI จะตามมาภายหลัง โดยตอนนี้ยังไม่บอกราคาค่าบริการ

ที่มา - Gemini

No Description

No Description

Get latest news from Blognone

Comments

By: zyzzyva
Blackberry
on 26 March 2025 - 01:33 #1336799

เพิ่งเปิดตัว 2.0 Pro เมื่อต้นเดือนที่แล้วเอง มาไวแบบนี้รุ่น 3.0 น่าจะเปิดตัวในงาน Google I/O เดือนพฤษภาแน่ๆ

By: lew
FounderJusci's WriterMEconomicsAndroid
on 26 March 2025 - 01:43 #1336801 Reply to:1336799
lew's picture

ผมว่ามันแล้วแต่จังหวะ ถ้าทำได้ดีชึ้นอย่างมีนัยสำคัญก็ปล่อยได้เรื่อยๆ

ความยากคือเวลาปล่อยตัวจริงแต่ละครั้ง ต้องเตรียมโครงสร้างเอาไว้ให้บริการเพราะองค์กรใช้งานไปแล้ว ไปปิดทิ้งเร็วๆ ไม่ได้ แม้จะเสื่อมความนิยมเพราะรุ่นใหม่ออกแล้ว

ที่กูเกิลเปิดตัวแต่ละครั้งช่วงหลัง เลยเปิดแต่โมเดลทดลอง (ตัวนี้ก็ด้วย) โชว์เทพแต่ไม่ยอมเก็บเงิน


lewcpe.com, @wasonliw

By: Tasksenger on 26 March 2025 - 06:24 #1336804

สงสัย Gemini จะอ่าน Blognone มุก "ไก่จิกเด็กตาย" น่าจะใช้ไม่ได้แล้ว 555

By: amba5555
AndroidWindows
on 26 March 2025 - 06:33 #1336806
amba5555's picture

ในความคิดชาว blognone ถ้าจะเสียตัง เจ้าไหนดีครับ
เน้นเขียนโค้ด หา/สรุปงานวิจัย คำถามวิชาการ

By: specimen
Windows PhoneAndroid
on 26 March 2025 - 09:22 #1336819 Reply to:1336806
specimen's picture

ถ้าเป็น deep research ต้องค้นหาข้อมูลเชิงลึก
Gemini ทิ้งห่างตัวอื่นหลายขุมทดสอบมาหลายครั้งแล้วครับ

ถ้าเป็นงานทั่วๆไปจัด ChatGpt ยังค่อนข้างดีกว่าโดยรวม

By: dasmotto on 26 March 2025 - 10:48 #1336829 Reply to:1336806

Gemini อีกเสียงครับถ้าเกี่ยวกับงานวิจัยกับคำถามเชิงวิชาการ

ส่วนผมจากที่ใช้ ChagGPT มาประจำตอนนี้เปลี่ยนมาใช้ Gemini ยาวๆ ทั้งเรื่องของการเขียนและการอ้างอิงข้อมูลที่อิงกับปัจจุบัน Gemini พัฒนาขึ้นเร็วมากจนน่าตกใจ ตอนนี้กำลังคิดที่จะลอง Gemini Advanced ที่ให้ลองแบบไม่คิดเงินได้เดือนนึงน่าจะดีกว่าตัวฟรี

By: zyzzyva
Blackberry
on 26 March 2025 - 12:13 #1336837 Reply to:1336806

ถ้าทำงานในมหาลัย น่าจะลองค้นหาดูก่อนว่ามหาลัยมี AI ให้ใช้ไหม อย่างจุฬามี Genie ที่พัฒนาบน Gemini อีกที หรือบางมหาลัยที่ได้แพคเกจ cloud ต่างๆก็มักจะมี AI พ่วงมาด้วยอยู่แล้ว

By: horakung
iPhoneAndroidWindows
on 26 March 2025 - 12:23 #1336842 Reply to:1336806
horakung's picture

หลังจากที่ Google Workspace ได้ Gemini Advanced แล้วใช้ตลอด ก็พบว่า ช่วยทำงานได้เยอะและถ้าได้ลองพวก Thinking (Experimental) ตอบดีขึ้นมากจริงๆ

By: N Pack on 26 March 2025 - 18:30 #1336866
N Pack's picture

[ผมลองถามแบบนี้](alt="1000000974"

By: tg-thaigamer
ContributoriPhoneAndroidBlackberry
on 26 March 2025 - 20:10 #1336874 Reply to:1336866
tg-thaigamer's picture

มันอาจใช้ข้อมูล exif จาก photo ก็ได้น๊า


มือใหม่!! ใหม่จริงๆนะ

By: N Pack on 26 March 2025 - 22:05 #1336882 Reply to:1336874
N Pack's picture

ถ่ายห่างกัน ประมาณ 3 ชั่วโมงจากเครื่อง
เดียวกันครับ แล้วก็ถามต่อจากภาพข้างบนเลย alt="1000000977"

By: Tasksenger on 27 March 2025 - 11:21 #1336910 Reply to:1336882

มันเปิด Location เองครับ โดยใช้ permission ของ Google map แล้วดู current location โดยทำงานเป็น background ซึ่งมันจะมี API บอกว่าจุดนี้ใกล้เคียงท้องที่ใด สังเกตุจากรูปแรกมีการแทรก Google map รออยู่แล้ว แสดงว่า Google map เริ่มทำงานและหาตำแหน่งปัจจุบัน แต่รูปที่สอง Google map ไม่ทำงานมันเลยไม่สามารถหาตำแหน่งได้ ซึ่งมันเป็นไปได้หลายกรณี แต่ก็เป็นไปได้เหมือนกันที่มันจะอ่านจาก Exif เพราะมันเป็นความสามารถพื้นฐานอยู่แล้ว แต่มันแปลกตรงที่ถ้าคุณบอกว่าถ่ายจากกล้องเดียวกัน มันก็น่าจะมี Exif ทั้งคู่ เพราะใน Exif มันจะมี Lat, Long บันทึกอยู่ สามารถส่งไปให้ Google map API แปลงเป็นตำแหน่งของท้องที่ได้เช่นกัน

ผมเดานะว่ารูปแรกคุณใช้ Icon เปิดกล้องจากใน Gemini ส่วนอีกภาพคุณถ่ายจาก App ภายนอก แล้วใช้แนบไฟล์เอา เพราะจากที่ผมเคยทำถ้าเปิดจากกล้องใน App ผมจะสั่งให้มันหา Location ด้วยเลย แต่ถ้าแทรกจากไฟล์ภายนอกแล้วไม่มี Exif ผมก็จะบอกกลับไปอย่างนี้เช่นเดียวกัน

ผมเคยเขียนโปรแกรมทำอย่างนี้เหมือนกันตั้งแต่ 1.5 ขนาดใจดีแปลงเป็น ตำบล อำเภอ จังหวัดให้แล้ว ถามว่าแถวนี้มีร้านอาหารอะไรอร่อยๆ บ้าง โดยเลือกจากพฤติกรรมการสั่งอาหารของผม มันดันมั่วข้อมูลมาให้ ผมเลยเลิกทำเลย รอให้ทาง Google แก้ไขให้เรียบร้อยก่อน แล้วเดี๋ยวค่อยมาทำต่อ ดูท่าน่าจะใกล้ใช้ได้แล้วมั้งเท่าที่ดูจากคุณทดสอบ

By: Mediumrare
AndroidWindows
on 27 March 2025 - 00:00 #1336889

จริง ๆ แล้วเป็นประโยคที่เอาไว้จำอักษรกลาง แต่ก็นะ ถูกครึ่งเดียวยังดีกว่าไม่ถูกเลย