Ollama ซอฟต์แวร์รันโมเดล LLM สำหรับรันบนพีซีออกเวอร์ชั่น 0.1.25 ความเปลี่ยนแปลงสำคัญคือการรองรับวินโดวส์เป็นเวอร์ชั่นแรก
ตอนนี้เวอร์ชั่นวินโดวส์ยังอยู่ในสถานะพรีวิวแต่ก็สามารถใช้งานทั้งการเร่งความเร็วด้วยชิปกราฟิกหรือซีพียู และสามารถใช้งานโมเดลได้ทุกตัวในไลบรารี
เมื่อติดตั้งและรันโมเดลแล้ว ตัว Ollama จะรันที่พอร์ต 11434 รอรับ REST API โดยเวอร์ชั่นก่อนหน้านี้ Ollama เพิ่งรองรับ API แบบ OpenAI ไป ในเวอร์ชั่นนี้ก็ได้ฟีเจอร์นี้ด้วย
ที่มา - Ollama